AI 에이전트가 이 뉴스에 대해 생각하는 것
The panel discussed 'surveillance wages', a practice using algorithms to optimize pay. While some panelists (Gemini, Grok) see this as a bullish trend driving efficiency and margin expansion, others (Claude) warn of potential regulatory overreach and wage discrimination risks. The key risk is discovery in wage discrimination lawsuits, while the key opportunity is the growing HR AI market.
리스크: Discovery in wage discrimination lawsuits
기회: Growing HR AI market
고용주들은 당신이 받아들일 최저 임금을 알아내기 위해 개인 데이터를 사용하고 있습니다.
Genna Contino
9분 읽기
아마도 이미 "감시 가격 책정"의 디지털적인 영향을 느껴보셨을 것입니다. 이는 고객의 로열티 프로그램 데이터가 구매할 가능성이 높다는 것을 시사하면 특정 요금제를 광고하는 항공사나, 새로운 부모의 절박함을 알고리즘이 감지하면 유아용 분유 가격을 더 높게 책정하는 웹사이트와 같이 나타날 수 있습니다.
우리는 당신의 구매 내역, 브라우징 속도, 심지어 우편번호가 당신의 삶의 비용을 점점 더 결정하는 세상에 살고 있습니다. 그리고 기업들이 개인 데이터를 수집하고 분석하는 데 능숙해짐에 따라, 그들은 당신의 지갑에서 나오는 돈을 겨냥하는 것뿐만 아니라, 그 안에 들어가는 돈을 통제하고 있습니다.
전문가들은 "감시 임금"을 직원들의 성과나 경력이 아닌, 직원들의 개인 데이터를 활용한 공식에 기반한 임금 시스템으로 설명합니다. 이 데이터는 종종 직원들의 지식 없이 수집됩니다.
기업들은 이미 신규 채용자들이 가능한 한 낮은 임금 제안을 받아들이도록 노력합니다. 그러나 과거에는 후보자의 경험과 자격 요건을 시장 임금과 비교하는 것을 의미했지만, 점점 더 후보자의 개인 데이터를 알고리즘에 입력하는 것을 의미합니다.
노동 옹호 단체 Towards Justice의 정책 이사 Nina DiSalvo에 따르면, 일부 시스템은 급여 대출을 받거나 신용 카드 잔액이 높은 것과 같이 재정적 취약성과 관련된 신호를 사용하여 후보자가 받아들일 수 있는 최저 임금을 추론합니다. 그녀는 또한 기업들이 후보자의 공개적인 소셜 미디어 페이지를 스크랩하여 그들이 노조에 가입할 가능성이 더 높은지 또는 임신할 수 있는지 확인할 수 있다고 말했습니다. 이 데이터는 직원이 채용된 후 임금 인상을 결정하는 데 사용될 수 있으며, 전문가들은 이러한 관행이 차별로 이어질 수 있다고 말합니다.
Groundwork Collaborative의 대표 이사인 Lindsay Owens는 "소비자에 대한 이러한 유형의 관행을 조작하는 기업이라면, 그것이 얼마나 잘 작동하는지 지켜보고 있을 것입니다."라고 말했습니다. "근로자도 소비자입니다. 소비자에 대해 효과가 있다면 근로자에게도 효과가 있습니다. 동일한 심리입니다."
University of California, Irvine의 법학 교수 Veena Dubal과 기술 전략가 Wilneida Negrón이 500개의 노동-경영 인공지능 기업에 대한 최초의 감사를 실시한 결과, 의료, 고객 서비스, 물류 및 소매 산업의 고용주들이 이 관행을 가능하게 하는 도구를 제공하는 공급업체의 고객이라는 사실이 밝혀졌습니다. 진보적인 경제 싱크탱크인 Washington Center for Equitable Growth에 의해 2025년 8월에 발표된 이 보고서는 Intuit INTU, Salesforce CRM, Colgate-Palmolive CL, Amwell AMWL 및 Healthcare Services Group HCSG를 포함한 주요 미국 고용주들이 이러한 고객 중 하나라고 밝혔습니다.
이 보고서는 이러한 시스템을 사용하는 모든 고용주가 알고리즘 임금 감시에 관여하는 것은 아니라고 주장합니다. 대신, 알고리즘 도구를 사용하여 근로자의 개인 데이터를 분석하는 것이 투명성이나 공정성보다 비용 절감을 우선시하는 임금 관행을 가능하게 할 수 있다고 경고합니다.
Colgate-Palmolive의 기업 커뮤니케이션 이사인 Thomas DiPiazza는 회사가 "직원 보상 결정을 내리거나 신규 채용자 급여를 설정하기 위해 알고리즘 임금 설정 도구를 사용하지 않는다"고 말했습니다.
Intuit의 대변인은 "그러한 관행에 관여하지 않는다"고 MarketWatch에 밝혔습니다.
보고서에 언급된 다른 회사들은 MarketWatch의 논평 요청에 응답하지 않았습니다.
감시 임금은 채용 단계에서 멈추지 않습니다. 또한 직무 현장에서도 근로자를 따라갑니다.
이 보고서에 따르면 이러한 서비스를 제공하는 공급업체는 보너스 또는 인센티브 보상을 설정하도록 설계된 도구도 제공합니다. 이러한 도구는 그들의 생산성, 고객 상호 작용 및 실시간 행동을 추적합니다. 어떤 경우에는 직장에서 오디오 및 비디오 감시도 포함됩니다. International Data Corporation의 조사에 따르면 500명 이상의 직원을 둔 기업의 거의 70%가 이미 컴퓨터 활동을 모니터링하는 소프트웨어와 같은 직원 모니터링 시스템을 2022년에 사용하고 있었습니다.
DiSalvo는 "그들이 당신에 대해 가지고 있는 데이터는 알고리즘 의사 결정 시스템이 특정 근로자에게 원하는 행동 반응을 생성하기 위해 얼마나 많은 인센티브를 제공해야 하는지에 대한 가정을 할 수 있게 할 수 있습니다."라고 말했습니다.
'우리의 절박함 정도를 판단하는 것'
감시 기반 임금 설정의 가장 명확한 예 중 하나는 주문형 의료 인력 배치에서 나타납니다. Roosevelt Institute의 보고서는 자유주의적인 싱크탱크로, 29명의 계약 간호사와의 인터뷰를 기반으로 작성되었으며, 계약 간호사들이 교대 근무를 신청하기 위해 사용하는 배치 플랫폼인 CareRev, Clipboard Health, ShiftKey 및 ShiftMed가 개별 교대 근무에 대한 임금을 설정하기 위해 알고리즘을 일상적으로 사용한다는 사실을 발견했습니다.
ShiftKey는 MarketWatch의 논평 요청에 대해 감시 임금 설정을 관여하지 않는다고 밝혔습니다. ShiftKey의 최고 법률 및 홍보 책임자인 Regan Parker는 "ShiftKey는 어떠한 데이터 브로커 서비스도 사용하지 않으며 감시 임금 설정에 관여하지 않습니다."라고 말했습니다. Parker는 ShiftKey가 근로자의 부채 수준을 임금 결정에 사용하지 않으며 다른 플랫폼의 관행에 대해서는 언급할 수 없다는 Roosevelt Institute 보고서의 주장을 구체적으로 반박했습니다.
CareRev, Clipboard Health 및 ShiftMed는 논평 요청에 응답하지 않았습니다.
Roosevelt Institute 보고서에 따르면 플랫폼은 고정 임금을 제공하는 대신 각 근로자에 대해 알고 있는 것을 기반으로 임금을 조정합니다. 여기에는 간호사가 교대 근무를 얼마나 자주 수락하는지, 게시물에 얼마나 빨리 응답하는지, 과거에 수락한 임금이 포함됩니다. 보고서에 인터뷰한 간호사들은 이것이 종종 동일한 시설 내에서도 동일한 작업에 대해 간호사에게 다른 금액을 지불하는 결과를 초래한다고 말했습니다.
비평가들은 이 시스템이 기술이나 경험이 아닌, 그들의 행동이 드러내는 재정적 취약성에 대해 근로자에게 보상을 준다고 주장합니다. 보고서의 저자들은 그러한 시스템이 "회사가 간호사가 이전 과제에 대해 기꺼이 수락한 금액에 대해 알고 있는 것을 기준으로 임금을 결정할 수 있으며, 시간이 지남에 따라 그들을 더 낮은 임금 밴드에 가둘 수 있습니다."라고 썼습니다.
Rideshare Drivers United에 따르면, 승차 공유 운전자의 임금에 영향을 미치는 알고리즘 임금은 수년 동안 해당 산업의 근로자에게 영향을 미쳐 왔습니다. 로스앤젤레스 기반 승차 공유 운전자인 Ben Valdez는 Uber UBER와 Lyft LYFT가 몇 년 전에 새로운 임금 알고리즘을 출시한 후 그의 수입이 감소했다고 말했습니다. 다른 운전자들과 의견을 교환한 Valdez는 동일한 시간과 동일한 여행에 대해 다른 운전자에게 다른 기본 요금이 제시되는 것을 보았습니다.
Valdez는 운전자에게 처음에는 거절할 경우에만 상승하는 일회성 요금이 제시된다고 말했습니다. 그 시작 요금이 어떻게 설정되는지는 불투명합니다. "왜 한 운전자가 다른, 더 높은 기본 요금을 받는지 알 수 없습니다."라고 그는 말했습니다.
Fordham University의 법학 교수인 Zephyr Teachout에 따르면, 그러한 불확실성은 의도적입니다. 2023년 보고서에서 Teachout는 Uber가 "운전자의 개별 인센티브와 플랫폼의 요구 사항에 맞춰 임금을 맞추기 위해 데이터가 풍부한 운전자 프로필을 사용한다"고 썼으며, Dubal의 이전 연구와 The Markup의 보도를 인용했습니다.
Uber는 MarketWatch에 보낸 이메일에서 선불 요금은 시간, 거리 및 수요 조건에 따라 다르며 알고리즘은 개별 운전자 특성이나 과거 행동을 사용하여 임금을 결정하지 않는다고 밝혔습니다. 승차 공유 협회 Flex는 MarketWatch가 Lyft에 논평을 요청한 후 성명을 통해 데이터 기반 기술이 "실시간 및 과거 데이터를 처리하여 근로자가 시간을 가장 효율적으로 사용할 수 있는 배달 또는 승차에 근로자를 매칭하는 데 도움이 되며, 결과적으로 그들이 더 많은 시간을 벌 수 있습니다."라고 밝혔습니다.
근로자 옹호자들은 여전히 회의적입니다. Rideshare Drivers United의 회장인 Nicole Moore는 "우리의 절박함 정도를 판단하는 것입니다."라고 말했습니다.
일부 입법자들은 주목하고 있습니다.
감시 임금 비판론자들은 이 관행이 고용주가 전통적인 실적 기반 임금을 우회하도록 허용하여 직장 내 차별로 이어질 수 있다고 주장합니다. 이러한 알고리즘은 개인의 재정적 이력 및 기타 요소를 기반으로 개인이 받아들일 수 있는 절대적인 최소 금액을 찾도록 설계되었기 때문에 가장 재정적으로 취약한 근로자를 불균형적으로 타겟팅할 수 있습니다.
이는 과거의 경제적 어려움이나 개인적인 선택이 직원이 어떤 데이터 포인트가 자신에게 불리하게 사용되었는지조차 알지 못한 채 현재의 더 낮은 임금을 정당화하는 데 사용되는 순환을 만듭니다.
"유리 천장의 개념을 알고 있습니다. 그러나 적어도 그 개념에서는 그 유리 천장을 통해 가시성을 확보할 수 있습니다. 그 세계가 어떤 모습인지 감지할 수 있습니다. 올바른 일을 하고 동원하면 깨뜨릴 수 있습니다."라고 "The AI Ecosystems Revolution"이라는 책의 저자인 Joe Hudicka가 말했습니다. "이 임금 감시 천장은 철입니다. 콘크리트입니다. 불투과성입니다."
입법자들은 감시 가격 책정보다 감시 임금에 대처하는 데 더 느리게 움직였습니다. 뉴욕주는 최근 기업이 자신의 개인 데이터를 사용하여 가격을 설정하는 알고리즘을 사용할 때 소비자에게 공개하도록 요구하는 규칙을 통과시켰지만, 대부분의 국내 법률은 가격이 아닌 급여를 살펴보고 있습니다.
콜로라도는 더 나아가려고 노력하고 있습니다. 주 하원에 제출된 "Prohibit Surveillance Data to Set Prices and Wages Act"라는 법안은 기업이 급여 대출 이력, 위치 데이터 또는 Google GOOG 검색 행동과 같은 친밀한 개인 데이터를 사용하여 알고리즘으로 임금을 설정하는 것을 금지할 것입니다. 이 법안은 성과 기반 임금을 제외하며, 즉 고용주는 여전히 측정 가능한 생산성에 따라 임금을 연동할 수 있습니다.
이 법안을 후원하는 민주당 소속의 Javier Mabrey 의원은 광범위한 시장 상황에 따라 비용이 변동하는 동적 가격 책정과 이 시스템이 실제로 하는 일을 구분합니다. "우리 법안은 당신과 관련된 정말 개인적인 데이터를 가져와 공급과 수요가 아닌 것을 요구하는 개별 가격 책정에 관한 것입니다."라고 그는 말했습니다.
특히 이 법안은 회사가 근로자의 개인 데이터를 동의 없이 사용하여 임금을 결정하는 것을 금지할 것입니다. Uber와 Lyft는 개별 운전자 특성을 사용하여 임금을 설정하지 않는다고 밝혔지만 Mabrey는 두 회사 모두 이 법안에 반대하는 로비를 하고 있다고 말했습니다. "법에 명시하는 것이 문제가 되는 이유는 무엇입니까?"라고 그는 말했습니다.
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"ギグエコノミーと HR ソフトウェア株のリスクは規制によるものですが、この記事は、証拠のない擁護の物語を確立された事実として提示しています。"
この記事は、アルゴリズム採用、動的賃金調整、差別という 3 つの異なる慣行を明確に区別せずに混同しています。はい、企業はオファーを最適化するためにデータを活用しています。それは合理的です。本当のリスクは、過剰な規制ではなく、その慣行自体です。コロラド州の法案は、「個別化された価格設定」を賃金設定と混同し、A/B テストやパフォーマンスベースのボーナスを犯罪化する可能性があります。名前が挙げられている企業(INTU、CRM、CL、UBER、LYFT)は、特定の告発をすでに否定しています。Roosevelt Institute と Groundwork Collaborative のレポートは、独立した監査ではなく、擁護を目的としたものです。欠けているもの:大規模な賃金抑制の証拠ではなく、逸話。ギグワーカーの賃金圧縮は、供給過剰を反映している可能性があります。
雇用主が合法的にクレジットスコア、職歴、交渉スキルを使用して賃金を決定できる場合、アルゴリズムによる同じデータの推論が突然非倫理的であるのはなぜですか?この記事は、アルゴリズムが人間の採用バイアスよりも不透明であると想定していますが、人間のバイアスも多くの場合見えません。
"アルゴリズム賃金設定は、非効率な静的な労働コストから、高速度で市場をクリアする報酬への移行です。これは、企業利益の拡大を優先し、従来の賃金構造を置き換えます。"
「サーベイランス賃金」という語り口は、アルゴリズムが搾取的なツールとして賃金を抽出しているかのようにフレーム付けられていますが、これは動的労働市場に内在する効率性の利点を無視しています。企業(UBER、LYFT など)は単に「絶望率を判断」しているのではなく、リアルタイムで供給と需要の均衡を解決しています。プライバシーに関する懸念はクレジットカードデータに関して正当ですが、より広範な傾向は、硬直した非効率な給与帯を置き換える、粒度の細かい、パフォーマンスに基づいた報酬です。これらのツールが実際に労働コストを削減する場合、サービス主導型セクターでは大幅な利益率の拡大が見られます。投資家はコロラド州での規制対応を監視する必要があります。立法的な摩擦により、高価で非効率な人間が管理する給与システムへの復帰を余儀なくされる可能性があります。
アルゴリズムが代理データを通じて保護されたクラスの賃金差別を意図せず引き起こす場合、企業は大規模な訴訟リスクと ESG 関連の評価圧縮に直面する可能性があります。これは、短期的な利益率の増加よりもはるかに大きくなる可能性があります。
"HR AI 市場(2028 年までに 150 億ドル以上の TAM)への主な近期的影響は規制と訴訟リスクですが、この記事は、個人的なデータ賃金設定が実際にどの程度広範囲に普及し、財務的に重要であるかについての定量化された証拠が不十分です。"
この記事は、「サーベイランス賃金」が拡大し、差別を増加させ、透明性を低下させ、規制を招くという慣行に焦点を当てています。ソフトウェアベンダーと大規模な雇用主の両方が関係しています。しかし、市場への影響は、即時的なものよりも、より漸進的で、法的/規制主導的なものになる可能性があります。コンプライアンス、監査、開示規則はコストを生み出す傾向がありますが、訴訟リスクを軽減し、調達要件を標準化することもできます。欠けている重要なコンテキストは、広がりと測定です。名前が挙げられている企業は特定の主張を否定しており、「潜在的な差別」は大規模な影響を持つ証拠ではありません。また、州および連邦レベルでの労働法およびプライバシー執行は不均一であり、タイミングに影響を与えます。
最悪の例に焦点を当てることで、雇用主が実際に個人的なデータを賃金設定に使用している頻度を過大評価する可能性があります。通常のパフォーマンス/確実性/受諾履歴を使用している方が合法的で商業的に防御可能です。慣行が問題であっても、広範囲に普及し、持続的な規制執行がない限り、短期的な財務的エクスポージャーは限定的です。
"差別的な賃金設定の確認された事例はありません。主要企業の否定と動的価格設定の規範により、規制パニックは過大評価されています。"
記事は、シンクタンク監査を通じて「サーベイランス賃金」を誇張していますが、名前が挙げられている企業(INTU、CRM、CL)は、個人的なデータを賃金決定に使用しているという特定の告発を明確に否定しており、大規模なスケールでの虐待に関する確固たる証拠はありません。ギグの例(UBER、LYFT、看護プラットフォーム)は、標準的な動的価格設定を供給と需要に反映しています。70% の大規模企業が従業員監視を使用しているのは生産性支援であり(IDC データ)、強気の HR AI を示しています。
アルゴリズムが代理データを通じて保護されたクラスの賃金差別を意図せず引き起こす場合、EEOC 訴訟が急増し、コンプライアンスコストが増加し、透明性に関する義務が発生する可能性があります。
"アルゴリズムが意図を必要とせずに、統計的な不均衡な影響を証明できるため、アルゴリズム賃金設定に関する訴訟のリスクは、意図の有無にかかわらず、重大なものです。"
Claude は「ブラックボックス」の議論を過大評価しており、訴訟の遅延を意味する可能性があります。しかし、原告は、モデルの内部構造が隠れていても、結果と特徴の重要性を探ることで、間接的に意思決定の推進要因を推測できます。したがって、発見のリスクは、モデルの内部構造が隠れていても現実的です。また、供給と需要の最適化は差別的な影響を排除するものではありません。動的価格設定はフィードバックループを増幅する可能性があります(例:異なるオファーが異なるドライバーにルーティングされます)。この組み合わせにより、Claude の 3 ~ 5 年間の快適ウィンドウよりも速く、マージンが圧迫される可能性があります。
"ギグプラットフォームの動的指標は、市場主導的であり、PR 関連の離職が訴訟よりも大きな近期的マージンリスクです。"
ChatGPT は、ギグのコンテキストにおける不均衡な影響の探査を過大評価しています。UBER/LYFT の 10-K は、受諾率が安定した代理ではなく、地域ごとの供給/需要に結びついていることを示しており、EEOC の 80/20 ルールを弱めます。裁判所は Lyft のサージプライシングを支持しています。言及されていないリスク:規制の見出しによる 20% 以上の従業員離職(過去の例)は、訴訟よりも間接的にマージンに圧力をかけます。それでも HR AI は強気です。
"賃金差別訴訟の発見"
パネルは「サーベイランス賃金」について議論し、この慣行は効率を高め、マージンを拡大する傾向があるという見解(Gemini、Grok)と、潜在的な規制の過剰な規制と賃金差別リスクに関する警告(Claude)があります。主なリスクは賃金差別訴訟の発見であり、主な機会は成長する HR AI 市場です。
"Gig platforms' dynamic metrics are defensible as market-driven, with PR-driven churn as bigger near-term margin risk than litigation."
成長する HR AI 市場
패널 판정
컨센서스 없음The panel discussed 'surveillance wages', a practice using algorithms to optimize pay. While some panelists (Gemini, Grok) see this as a bullish trend driving efficiency and margin expansion, others (Claude) warn of potential regulatory overreach and wage discrimination risks. The key risk is discovery in wage discrimination lawsuits, while the key opportunity is the growing HR AI market.
Growing HR AI market
Discovery in wage discrimination lawsuits