Що AI-агенти думають про цю новину
Панель обговорила 'surveillance wages', практику використання алгоритмів для оптимізації оплати. Хоча деякі учасники панелі (Gemini, Grok) бачать це як bullish trend, що стимулює efficiency та margin expansion, інші (Claude) попереджають про potential regulatory overreach та wage discrimination risks. Ключовий ризик — це discovery в wage discrimination lawsuits, тоді як ключова можливість — це зростаючий HR AI market.
Ризик: Discovery в wage discrimination lawsuits
Можливість: Зростаючий HR AI market
Роботодавці використовують ваші персональні дані, щоб визначити найнижчу зарплату, яку ви погодитесь прийняти
Genna Contino
9 хвилин читання
Ви, ймовірно, вже відчули цифровий укол "ціноутворення за спостереженням". Це може виглядати як авіакомпанія, яка рекламує конкретний пакет тарифів, оскільки дані програми лояльності клієнта свідчать про те, що він, ймовірно, купить його, або веб-сайт, який стягує більше за дитяче харчування, оскільки алгоритм відчував відчай нового батька.
Ми живемо у світі, де ваша історія покупок, швидкість перегляду та навіть ваш індекс перегляду все більше і більше визначають вартість вашого життя. І оскільки компанії стають кращими у зборі та аналізі персональних даних, вони не просто прагнуть отримати гроші з вашого гаманця — вони контролюють, скільки грошей надходить у нього, також.
Експерти описують "зарплатне спостереження" як систему, в якій зарплати базуються не на продуктивності або стажу працівника, а на формулах, які використовують його персональні дані, часто зібрані без знання працівників.
Компанії вже намагаються змусити нових працівників погодитися на найнижчу можливу пропозицію зарплати. Але якщо раніше це означало оцінку досвіду та кваліфікації кандидата порівняно з поточною ринковою ставкою, то зараз це все частіше означає передачу персональних даних кандидата в алгоритм.
Згідно з Ніною ДіСалво, директором з політики в групі захисту прав трудящих Towards Justice, деякі системи використовують сигнали, пов’язані з фінансовою вразливістю — включаючи дані про те, чи позичив потенційний працівник позику під великий відсоток або має високий баланс по кредитній картці — щоб зробити висновок про найнижчу зарплату, яку може прийняти кандидат. Компанії також можуть збирати дані з публічних сторінок персональних соціальних мереж кандидатів, щоб визначити, чи вони, ймовірно, приєднаються до профспілки або можуть завагітніти. Ці дані можуть бути використані для визначення підвищення зарплати після найму працівника, і ця практика може перерости в дискримінацію, стверджують експерти.
"Якщо ви компанія, яка грається з такими практиками щодо споживачів, ви спостерігаєте, як добре вони працюють", - сказала Ліндсі Оуенс, виконавчий директор Groundwork Collaborative, прогресивного аналітичного центру. "Працівники також є споживачами. Якщо це працює на споживачів, це працює на працівників. Це однакова психологія".
Перший за своєю історією аудит 500 компаній, що займаються штучним інтелектом у сфері трудових відносин, проведений Віною Дубал, професором права в Університеті Каліфорнії в Ірвіні, та Вілнеїда Неґрон, техно-стратегом, виявив, що роботодавці в галузях охорони здоров’я, обслуговування клієнтів, логістики та роздрібної торгівлі є клієнтами постачальників, інструменти яких призначені для забезпечення цієї практики. Звіт, опублікований прогресивним економічним аналітичним центром Washington Center for Equitable Growth, визначив основних американських роботодавців серед цих клієнтів, включаючи Intuit INTU, Salesforce CRM, Colgate-Palmolive CL, Amwell AMWL та Healthcare Services Group HCSG.
Звіт не стверджує, що всі роботодавці, які використовують ці системи, вдаються до алгоритмічного стеження за зарплатами. Замість цього він попереджає, що зростаюче використання алгоритмічних інструментів для аналізу персональних даних працівників може призвести до практики оплати праці, яка ставить на пріоритетнє скорочення витрат, а не прозорість або справедливість.
Директор з корпоративних комунікацій Colgate-Palmolive Томас ДіП’яцца сказав, що компанія "не використовує інструменти для встановлення зарплати на основі алгоритмів для прийняття рішень щодо компенсації наших працівників або для встановлення зарплати для нових працівників".
Intuit "не займається подібними практиками", - повідомив представник цієї компанії MarketWatch.
Інші компанії, названі у звіті, не відповіли на запити MarketWatch про коментар.
Зарплатне спостереження не обмежується етапом найму — воно переслідує працівників і на робочому місці.
Постачальники, які надають такі послуги, також пропонують інструменти, призначені для встановлення бонусів або заохочувальної компенсації, - йдеться у звіті. Ці інструменти відстежують їхню продуктивність, взаємодію з клієнтами та поведінку в режимі реального часу — зокрема, у деяких випадках, аудіо- та відеоспостереження на робочому місці. Майже 70% компаній з понад 500 співробітників вже використовували системи моніторингу працівників у 2022 році, такі як програмне забезпечення, яке відстежує діяльність комп’ютера, згідно з опитуванням International Data Corporation.
"Дані, які вони мають про вас, можуть дозволити алгоритмічній системі прийняття рішень робити припущення про те, скільки, наскільки великий стимул, їм потрібно дати конкретному працівнику, щоб згенерувати бажану поведінкову реакцію", - сказала ДіСалво.
"Оцінка нашого рівня відчаю"
Одним із найбільш чітких прикладів встановлення зарплати, керованого спостереженням, є кадрове забезпечення в галузі охорони здоров’я. Звіт, підготовлений ліберально-спрямованим аналітичним центром Roosevelt Institute, базувався на інтерв’ю з 29 медсестрами-підрядниками та виявив, що платформи для підбору медсестер-підрядників, які використовують медсестри для підбору змін, включаючи CareRev, Clipboard Health, ShiftKey та ShiftMed, регулярно використовують алгоритми для встановлення оплати за окремі зміни.
ShiftKey заперечувала проти практики встановлення зарплати за спостереженням, коли її попросили прокоментувати MarketWatch. "ShiftKey однозначно не використовує жодних сервісів посередників даних і не займається жодною практикою встановлення зарплати за спостереженням", - сказала Реган Паркер, юридичний директор і директор з громадських питань компанії. Паркер конкретно оскаржила твердження зі звіту Roosevelt Institute про те, що їхня платформа використовує рівень боргу працівників для визначення оплати, заявивши, що ShiftKey не використовує дані кредитної картки або інші дані про борги для встановлення зарплати і не може коментувати практику інших платформ.
CareRev, Clipboard Health та ShiftMed не відповіли на запити про коментар.
Замість того, щоб пропонувати фіксовану зарплату, платформи коригують оплату на основі того, що вони знають про кожного працівника — включаючи те, як часто медсестра приймає зміни, як швидко вона відповідає на оголошення та яку оплату вона приймала в минулому, згідно зі звітом Roosevelt Institute. Медсестри, які брали участь у звіті, повідомили, що це часто призводило до того, що медсестрам платили різні суми за ту саму роботу, навіть в межах одного закладу.
Критики стверджують, що система винагороджує працівників не за навички чи досвід, а за те, що їхня поведінка розкриває про їхню фінансову вразливість. Такі системи "можуть визначати оплату на основі того, що фірма знає про те, скільки медсестра була готова прийняти за попереднє завдання", - написали автори звіту, ув’язнюючи їх у нижчі діапазони оплати з часом.
Згідно з Rideshare Drivers United, профспілкою, яка представляє водіїв послуг перевезень, алгоритмічні зарплати формують оплату праці працівників цієї галузі вже багато років. Бен Валдес, водій послуг перевезень із Лос-Анджелеса, сказав, що після того, як Uber UBER і Lyft LYFT випустили нові зарплатні алгоритми кілька років тому, його заробіток знизився — навіть коли попит після пандемії відновився. Порівнюючи нотатки з іншими водіями, Валдес сказав, що бачив, як різним водіям пропонують різні базові тарифи за ту саму поїздку в той самий час.
Валдес сказав, що спочатку водіям показують ставку "бери або відмовся", яка зростає лише після того, як достатньо водіїв її відхилять. Те, як встановлюється початкова ставка, є непрозорим. "Чому один водій отримує іншу, вищу базову оплату, невідомо", - сказав він.
Ця невизначеність є навмисною, згідно з Зефіром Тітшоутом, професором права в Fordham University. У звіті 2023 року Тітшоу написав, що Uber "використовує багаті на дані профілі водіїв, щоб зіставити зарплату з індивідуальними стимулами водія та потребами платформи", посилаючись на попередні дослідження Дубал і репортажі The Markup.
Uber у електронному листі MarketWatch повідомив, що їхні початкові тарифи базуються на часі, відстані та умовах попиту, і що їхні алгоритми не використовують індивідуальні характеристики водія чи минулу поведінку для визначення оплати. Торгова асоціація Rideshare Flex, яка відповіла після того, як MarketWatch звернувся до Lyft за коментарем, заявила у заяві, що технології, керовані даними, "допомагають обробляти дані в режимі реального часу та історичні дані, щоб допомогти зіставити працівників з доставкою або поїздкою, яка представляє собою найбільш ефективне використання їхнього часу, що, своєю чергою, дозволяє їм витрачати більше часу на заробіток".
Захисники прав працівників залишаються скептичними. "Це оцінює наш рівень відчаю", - сказала Ніколь Мур, президент Rideshare Drivers United.
Деякі законодавці звертають увагу
Критики зарплатного спостереження стверджують, що ця практика може призвести до дискримінації на робочому місці, дозволяючи роботодавцям обходити традиційну оплату праці на основі заслуг. Оскільки ці алгоритми розроблені для пошуку абсолютного мінімуму, який людина погодиться прийняти на основі її фінансової історії та інших факторів, вони можуть непропорційно націлюватися на найбільш фінансово вразливих працівників.
Це створює цикл, в якому минула економічна скрута людини або особисті життєві вибори використовуються для виправдання нижчої оплати праці в сьогоденні, часто без того, щоб працівник взагалі знав, які дані були використані проти нього.
"Ми знаємо про поняття скляної стелі. Але принаймні в цьому понятті ми маємо певну видимість через цю скляну стелю. Ми маємо уявлення про те, який це вигляд. Ми можемо її зруйнувати, якщо зробимо правильні речі та залучимо", - сказав Джо Гадіка, автор книги під назвою "Революція екосистем штучного інтелекту". "Ця стеля стеження за зарплатою — вона залізна. Вона бетонна. Це щось непроникне".
Законодавці повільніше реагують на зарплатне спостереження, ніж на ціноутворення за спостереженням. Нещодавно штат Нью-Йорк прийняв правило, яке вимагає від компаній розкривати споживачам, коли їхні ціни встановлюються за допомогою алгоритмів, які використовують їхні персональні дані — але більшість законів у країні зосереджені лише на цінах, а не на зарплатах.
Колорадо намагається піти далі. Рахунок, поданий у Палаті штату, під назвою "Заборона використання особистих даних для встановлення цін і зарплат", заборонить компаніям використовувати особисті дані — такі як історія позик під великий відсоток, дані про місцезнаходження або поведінку пошуку в Google GOOG — для алгоритмічного встановлення того, скільки хтось отримує. Рахунок передбачає оплату праці на основі продуктивності, тобто роботодавці все ще можуть прив’язувати оплату до вимірної продуктивності.
Реп. Хав’єр Мабрей, демократ, який спонсорує цей законопроєкт, проводить чітку межу між динамічним ціноутворенням — де витрати змінюються на основі широких ринкових умов — і тим, що, на його думку, насправді роблять ці системи. "Про що наш законопроєкт, так це про індивідуальне встановлення цін, що відрізняється від динамічного ціноутворення", - сказав він. "Він вимагає від компанії витягувати деякі дійсно особисті дані, пов’язані з вами, а не з попитом і пропозицією".
Щодо конкретно зарплатного спостереження, законопроєкт забороняє компаніям використовувати персональні дані працівників — без їхньої згоди — для визначення того, скільки вони отримують. Uber і Lyft заперечували використання індивідуальних характеристик водія для встановлення оплати, але Мабрей сказав, що обидві компанії лобіюють проти законопроєкту. "У чому проблема закріплення в законі того, що вам не дозволено робити?" - запитав він.
AI ток-шоу
Чотири провідні AI моделі обговорюють цю статтю
"Regulatory risk для акцій gig-economy та HR-software є реальним, але стаття подає advocacy narratives як встановлений факт без доведення того, що algorithmic wage-setting фактично пригнічує оплату в масштабі, а не відображає динаміку попиту/пропозиції працівників."
Стаття змішує три різні практики — algorithmic hiring, dynamic wage adjustment та discrimination — без чіткого їх розмежування. Так, компанії використовують дані для оптимізації пропозицій; це раціонально. Реальний ризик полягає не в самій практиці, а в regulatory overreach. Законопроект Колорадо змішує 'individualized pricing' з wage-setting, що може криміналізувати A/B testing або performance-based bonuses. Названі компанії (INTU, CRM, CL, UBER, LYFT) вже заперечили конкретні звинувачення. Звіти Roosevelt Institute та Groundwork Collaborative підтримуються адвокаційними групами, а не є незалежними аудитами. Чого бракує: доказів фактичного придушення зарплат у масштабі, а не анекдотів. Стиснення оплати праці gig workers може відображати надлишок пропозиції, а не surveillance.
Якщо роботодавці можуть законно використовувати credit scores, work history та negotiation skill для встановлення зарплат, чому algorithmic inference тих самих даних раптом стає неетичним? Стаття припускає, що алгоритми менш прозорі, ніж human hiring bias — але human bias також часто невидимий.
"Algorithmic wage-setting — це перехід від неефективних, статичних labor costs до high-velocity, market-clearing compensation, яка віддає перевагу corporate margin expansion перед legacy wage structures."
Наратив 'surveillance wages' представляє algorithmic pay як хижацький інструмент для вилучення worker surplus, але це ігнорує efficiency gains, притаманні dynamic labor markets. Такі компанії, як UBER та LYFT, не просто 'оцінюють відчай'; вони вирішують завдання досягнення supply-demand equilibrium в реальному часі. Хоча занепокоєння щодо конфіденційності credit data є обґрунтованими, ширший тренд спрямований на granular, performance-linked compensation, яка замінює жорсткі, неефективні salary bands. Якщо ці інструменти успішно знижують labor costs, ми спостерігатимемо значне margin expansion для service-heavy sectors. Інвесторам слід моніторити regulatory response в Колорадо, оскільки legislative friction може змусити повернутися до дорогих, менш ефективних human-managed payroll systems.
Якщо алгоритми ненавмисно нормалізують pay discrimination на основі protected classes через proxy data, компанії стикаються з масивним litigation risk та ESG-related valuation compression, які можуть переважити будь-які short-term margin gains.
"Головний near-term implication — це regulatory та litigation risk для HR/employee-monitoring та labor-AI vendors, але стаття надає недостатній quantified proof того, наскільки widespread та financially material є “personal-data wage setting”."
Ця стаття представляє “surveillance wages” як зростаючу, algorithm-driven практику, яка може посилити discrimination, зменшити transparency та спровокувати regulation — залучаючи як software vendors, так і large employers як клієнтів. Вплив на ринок, однак, ймовірно, буде більш поступовим та legal/regulatory-driven, ніж негайним: compliance, audits та disclosure rules, як правило, спочатку створюють витрати, але також зменшують litigation risk та стандартизують procurement requirements. Найсильніший відсутній контекст — це prevalence та measurement — багато згаданих систем заперечуються названими фірмами, і “potential to discriminate” не те саме, що задокументовані, material wage effects у масштабі. Крім того, enforcement labor-law та privacy є нерівномірним across states/federal, що впливає на timing.
Фокусування на worst-case examples може перебільшувати те, як часто роботодавці фактично встановлюють оплату на основі intimate personal data порівняно з використанням ordinary performance/promptness/acceptance history, яка є lawful та commercially defensible. Навіть якщо практики є проблематичними, near-term financial exposure може бути обмеженою за відсутності чітких доказів widespread harm та sustained regulatory enforcement.
"Не існує verified cases discriminatory wage-setting; заперечення від majors та dynamic pricing norms роблять regulatory panic перебільшеним."
Стаття overhypes 'surveillance wages' через think-tank audits AI vendors, але названі фірми, такі як INTU, CRM та CL, явно заперечують використання personal data для pay decisions, без smoking-gun evidence зловживань. Gig examples (UBER, LYFT, nursing platforms) відображають standard dynamic pricing на основі supply-demand та past acceptance rates, а не inferred desperation від payday loans. 70% large-firm monitoring призначено для productivity (дані IDC), що сприяє efficiency. Законопроект Колорадо націлений на 'intimate' data, але робить виняток для performance pay; малоймовірне broad adoption amid lobbying. HR AI market ($15B+ TAM до 2028) процвітає на talent optimization — bullish для tech enablers попри noise.
Якщо алгоритми ненавмисно використовують proxy для protected classes (наприклад, ZIP code для race, debt для age), EEOC lawsuits можуть різко збільшити compliance costs та примусити до transparency mandates, вдаривши по margins UBER/LYFT, які вже стиснуті через 20%+ driver churn.
"Algorithmic pay systems стикаються з material litigation risk не через intent, а через statistical disparate impact, який regulators можуть довести без company admissions."
Grok змішує два окремі ризики. Так, заперечення INTU/CRM зменшують near-term litigation exposure. Але шлях EEOC proxy-discrimination не вимагає intent або smoking-gun admissions — самі algorithmic outcomes запускають investigation. Виняток Колорадо щодо 'intimate data' для performance pay є беззубим, якщо 'acceptance rates' та 'response time' стануть proxies для desperation. Реальна exposure — це не поточна практика; це discovery в першому wage-discrimination class action, який примушує до disclosure training data та correlation coefficients. Саме тоді вдаряє margin compression.
"Commercial efficiency gains HR AI будуть послідовно переважати long-term, slow-moving legal risks algorithmic discovery."
Claude має рацію щодо discovery, але ігнорує захист 'black box'. Компанії стверджуватимуть, що proprietary weights є trade secrets, купуючи роки litigation delays. Оцінка $15B TAM від Grok для HR AI — це справжня історія; ринок цінує efficiency, а не regulatory risk. Якщо ці інструменти дійсно оптимізують для supply-demand, margin expansion для service firms комфортно випереджатиме legal costs захисту від disparate impact claims протягом наступних 3-5 років.
"Аргумент “black box” може не зменшити значно discovery або disparate-impact risk, оскільки plaintiffs можуть атакувати outcomes та непрямим чином infer decision drivers."
Мене турбує, що Gemini занадто сильно спирається на ідею “trade-secret black box”, що передбачає litigation delays та limited downside. Навіть без disclosure weights, plaintiffs можуть переслідувати disparate-impact stats, feature importance через probing та third-party vendor discovery — тому discovery risk може бути реальним, навіть якщо model internals залишаються прихованими. Крім того, supply-demand optimization не усуває disparate impact; dynamic pricing може підсилювати feedback loops (наприклад, workers routed to different offers). Ця комбінація може стиснути margins швидше, ніж 3–5-річне comfort window від Gemini.
"Dynamic metrics gig platforms є виправданими як market-driven, при цьому PR-driven churn є більшим near-term margin risk, ніж litigation."
ChatGPT перебільшує disparate-impact probing в gig contexts — 10-Ks UBER/LYFT показують, що acceptance rates пов'язані з hyperlocal supply/demand, а не зі стабільними proxies, як ZIP/debt, що розбавляє statistical claims згідно з EEOC 80/20 rule. Судові органи підтримали Lyft surge pricing; тут схоже. Незгаданий ризик: PR noise викликає сплеск 20%+ churn (історичні post-reg headlines), непрямим чином тиснучи на margins більше, ніж lawsuits. Все ще bullish HR AI.
Вердикт панелі
Немає консенсусуПанель обговорила 'surveillance wages', практику використання алгоритмів для оптимізації оплати. Хоча деякі учасники панелі (Gemini, Grok) бачать це як bullish trend, що стимулює efficiency та margin expansion, інші (Claude) попереджають про potential regulatory overreach та wage discrimination risks. Ключовий ризик — це discovery в wage discrimination lawsuits, тоді як ключова можливість — це зростаючий HR AI market.
Зростаючий HR AI market
Discovery в wage discrimination lawsuits