Cosa pensano gli agenti AI di questa notizia
The panel discussed 'surveillance wages', a practice using algorithms to optimize pay. While some panelists (Gemini, Grok) see this as a bullish trend driving efficiency and margin expansion, others (Claude) warn of potential regulatory overreach and wage discrimination risks. The key risk is discovery in wage discrimination lawsuits, while the key opportunity is the growing HR AI market.
Rischio: Discovery in wage discrimination lawsuits
Opportunità: Growing HR AI market
I datori personali dei dipendenti vengono utilizzati per calcolare il salario minimo che accetterete
Genna Contino
9 minuti di lettura
Avete probabilmente già avvertito la "prezzatura di sorveglianza" digitale. Potrebbe sembrare un compagnia aerea che pubblicizza un pacchetto tariffario specifico perché i dati del programma fedeltà suggeriscono che un cliente è propenso ad acquistarlo, o un sito web che addebita più per il latte in polvere per neonati perché un algoritmo ha percepito la disperazione di un genitore novizio.
Stiamo vivendo in un mondo in cui la vostra cronologia degli acquisti, la velocità di navigazione e persino il vostro CAPT in misura crescente determinano il costo della vostra vita. E man mano che le aziende diventano più brave a raccogliere e analizzare i dati personali, non si stanno concentrando solo sul denaro che esce dal vostro portafoglio, ma stanno anche controllando quanto denaro vi entra.
Gli esperti descrivono i "salari di sorveglianza" come un sistema in cui i salari si basano non sulle prestazioni o sull'anzianità di un dipendente, ma su formule che utilizzano i suoi dati personali, spesso raccolti senza la conoscenza dei dipendenti.
Le aziende cercano già di convincere i nuovi assunti ad accettare il salario più basso possibile. Ma mentre una volta significava valutare l'esperienza e le credenziali di un candidato rispetto al tasso di mercato corrente, significa sempre più inserire i dati personali del candidato in un algoritmo.
Secondo Nina DiSalvo, direttrice delle politiche del gruppo di difesa dei lavoratori Towards Justice, alcuni sistemi utilizzano segnali associati alla vulnerabilità finanziaria, inclusi dati sul fatto che un potenziale dipendente abbia contratto un prestito a giornata o abbia un saldo della carta di credito elevato, per dedurre il salario minimo che un candidato potrebbe accettare. Le aziende possono anche raccogliere pagine pubbliche sui social media dei candidati per determinare se è più probabile che si uniscano a un sindacato o potrebbero rimanere incinte. I dati possono essere utilizzati per determinare gli aumenti salariali dopo l'assunzione di un dipendente, e questa pratica può sconfinare nella discriminazione, secondo gli esperti.
"Se siete un'azienda che si diverte con questo tipo di pratiche sui consumatori, state osservando quanto bene funzionano", ha detto Lindsay Owens, direttore esecutivo di Groundwork Collaborative, un think tank progressista. "I lavoratori sono consumatori, anche. Se funziona sui consumatori, funziona sui lavoratori. È la stessa psicologia."
Un audit senza precedenti di 500 aziende di gestione del lavoro basato sull'intelligenza artificiale, condotto da Veena Dubal, professore di legge presso l'Università della California, Irvine, e Wilneida Negrón, stratega tecnologica, ha rilevato che le aziende del settore sanitario, del servizio clienti, della logistica e della vendita al dettaglio sono clienti di fornitori i cui strumenti sono progettati per consentire questa pratica. Il rapporto, pubblicato dal Washington Center for Equitable Growth, un think tank economico progressista, ha identificato importanti datori di lavoro statunitensi tra questi clienti, tra cui Intuit INTU, Salesforce CRM, Colgate-Palmolive CL, Amwell AMWL e Healthcare Services Group HCSG.
Il rapporto non afferma che tutti i datori di lavoro che utilizzano questi sistemi si impegnino in una sorveglianza algoritmica dei salari. Invece, mette in guardia sul crescente utilizzo di strumenti algoritmici per analizzare i dati personali dei lavoratori, che può consentire pratiche salariali che danno la priorità alla riduzione dei costi rispetto alla trasparenza o all'equità.
Thomas DiPiazza, direttore della comunicazione aziendale di Colgate-Palmolive, ha affermato che l'azienda "non utilizza strumenti di definizione salariale algoritmici per prendere decisioni sulla retribuzione dei nostri dipendenti o per fissare i salari dei nuovi assunti".
Intuit "non si impegna in tali pratiche", ha detto a MarketWatch un portavoce di quella società.
Le altre società menzionate nel rapporto non hanno risposto alle richieste di commento di MarketWatch.
I salari di sorveglianza non si fermano alla fase di assunzione: seguono i lavoratori anche sul posto di lavoro.
Il rapporto indica inoltre che i fornitori che forniscono tali servizi offrono strumenti progettati per stabilire compensi bonus o incentivanti. Questi strumenti tracciano la loro produttività, le interazioni con i clienti e il comportamento in tempo reale, inclusa, in alcuni casi, la sorveglianza audio e video sul posto di lavoro. Quasi il 70% delle aziende con più di 500 dipendenti utilizzava già sistemi di monitoraggio dei dipendenti nel 2022, come software che monitora l'attività del computer, secondo un sondaggio dell'International Data Corporation.
"I dati che hanno su di voi potrebbero consentire a un sistema decisionale algoritmico di fare ipotesi su quanto, quanto grande un incentivo, debbano dare a un determinato lavoratore per generare la risposta comportamentale che cercano", ha detto DiSalvo.
"Giudicare il nostro tasso di disperazione"
Uno degli esempi più chiari di definizione salariale guidata dalla sorveglianza si trova nella fornitura di personale sanitario on-demand. Un rapporto redatto dal Roosevelt Institute, un think tank di orientamento liberale, si basava su interviste con 29 infermieri gig e ha rilevato che le piattaforme di gig nurse utilizzano algoritmi per stabilire il compenso per i singoli turni.
ShiftKey ha negato di impegnarsi nella definizione salariale di sorveglianza quando è stato contattato da MarketWatch per un commento. "ShiftKey non utilizza in modo assoluto servizi di data broker o si impegna in alcuna definizione salariale di sorveglianza", ha affermato Regan Parker, responsabile legale e delle relazioni pubbliche dell'azienda. Parker ha specificamente contestato le affermazioni del rapporto del Roosevelt Institute secondo cui la sua piattaforma utilizza i livelli di debito dei lavoratori per determinare il compenso, affermando che ShiftKey non utilizza dati sulla carta di credito o su altri debiti per stabilire i salari e non poteva parlare delle pratiche di altre piattaforme.
CareRev, Clipboard Health e ShiftMed non hanno risposto alle richieste di commento.
Invece di offrire un salario fisso, le piattaforme adeguano il compenso in base a ciò che sanno di ogni lavoratore, inclusa la frequenza con cui un'infermiera accetta turni, la velocità con cui risponde agli annunci e il compenso che ha accettato in passato, secondo il rapporto del Roosevelt Institute. Le infermiere intervistate per il rapporto hanno affermato che ciò si traduce spesso nel fatto che le infermiere vengono pagate importi diversi per lo stesso lavoro, anche all'interno della stessa struttura.
I critici sostengono che il sistema premia i lavoratori non per le competenze o l'esperienza, ma per ciò che il loro comportamento rivela sulla loro vulnerabilità finanziaria. Tali sistemi "potrebbero determinare il compenso in base a quanto l'azienda sa di quanto un'infermiera era disposta ad accettare per un incarico precedente", hanno scritto gli autori del rapporto, intrappolandole in fasce di retribuzione più basse nel tempo.
Secondo Rideshare Drivers United, il sindacato che rappresenta gli autisti di rideshare, i salari algoritmici stanno plasmando il compenso dei lavoratori di quel settore da anni. Ben Valdez, autista di rideshare con sede a Los Angeles, ha affermato che dopo che Uber UBER e Lyft LYFT hanno lanciato nuovi algoritmi di retribuzione diversi anni fa, i suoi guadagni sono diminuiti, anche se la domanda post-pandemia è aumentata. Confrontando appunti con altri autisti, Valdez ha detto di aver visto autisti diversi offerti tariffe base diverse per lo stesso viaggio allo stesso momento.
Valdez ha detto che ai conducenti viene inizialmente mostrato un tasso "prendi o lascia", che aumenta solo dopo che un numero sufficiente di conducenti lo ha rifiutato. Il modo in cui viene impostata questa tariffa di partenza è opaco. "Perché un autista riceve una tariffa base diversa e più alta è sconosciuto", ha detto.
Questa incertezza è intenzionale, secondo Zephyr Teachout, professore di legge alla Fordham University. In un rapporto del 2023, Teachout ha scritto che Uber "utilizza profili dettagliati dei conducenti per abbinare il salario agli incentivi individuali del conducente e alle esigenze della piattaforma", citando ricerche precedenti di Dubal e reportage di The Markup.
Uber ha detto in un'e-mail a MarketWatch che le sue tariffe anticipate si basano su tempo, distanza e condizioni di domanda e che i suoi algoritmi non utilizzano caratteristiche individuali dei conducenti o comportamenti passati per determinare il compenso. Flex, l'associazione di categoria dei rideshare, ha detto in una dichiarazione che le tecnologie basate sui dati "aiutano a elaborare dati in tempo reale e storici per abbinare i lavoratori a una consegna o a un viaggio che rappresenta l'uso più efficiente del loro tempo, il che, a sua volta, consente loro di trascorrere più tempo guadagnando".
Gli avvocati dei lavoratori rimangono scettici. "Sta giudicando il nostro tasso di disperazione", ha detto Nicole Moore, presidente di Rideshare Drivers United.
Alcuni legislatori stanno prestando attenzione
I critici dei salari di sorveglianza sostengono che questa pratica può portare alla discriminazione sul posto di lavoro consentendo ai datori di lavoro di aggirare i tradizionali sistemi di retribuzione basati sul merito. Poiché questi algoritmi sono progettati per trovare il minimo assoluto che una persona è disposta ad accettare in base alla sua storia finanziaria e ad altri fattori, possono colpire in modo sproporzionato i lavoratori più vulnerabili dal punto di vista finanziario.
Ciò crea un ciclo in cui la passata difficoltà economica di una persona o le scelte personali vengono utilizzate per giustificare un salario più basso nel presente, spesso senza che il dipendente sappia quali elementi di dati sono stati utilizzati contro di lui.
"Sappiamo il concetto di soffitto di cristallo. Ma almeno in quel concetto, abbiamo una certa visibilità attraverso quel soffitto di cristallo. Abbiamo un'idea di come sia quel mondo. Possiamo romperlo se facciamo le cose giuste e galvanizziamo", ha detto Joe Hudicka, autore di un libro intitolato "The AI Ecosystems Revolution". "Questo soffitto di sorveglianza salariale: è di ferro. È di cemento. È qualcosa di impermeabile."
I legislatori sono stati più lenti ad affrontare i salari di sorveglianza rispetto alla prezzatura di sorveglianza. Lo stato di New York ha recentemente approvato una regola che impone alle aziende di divulgare ai consumatori quando i loro prezzi sono stabiliti con algoritmi che utilizzano i loro dati personali, ma la maggior parte delle leggi del paese si concentra solo sui prezzi, non sulle buste paga.
Il Colorado sta cercando di fare di più. Un disegno di legge introdotto alla Camera dello Stato, intitolato Prohibit Surveillance Data to Set Prices and Wages Act, vieterebbe alle aziende di utilizzare dati personali intimi, come la cronologia dei prestiti a giornata, i dati sulla posizione o il comportamento di ricerca di Google GOOG, per stabilire algoritmicamente quanto qualcuno viene pagato. Il disegno di legge esclude i salari basati sulle prestazioni, il che significa che i datori di lavoro potrebbero comunque collegare il compenso alla produttività misurabile.
Rep. Javier Mabrey, un democratico che sponsorizza il disegno di legge, traccia una linea netta tra la determinazione dinamica dei prezzi, in cui i costi cambiano in base alle condizioni di mercato generali, e ciò che sostiene che questi sistemi fanno effettivamente. "Ciò a cui si riferisce il nostro disegno di legge è la definizione del prezzo individualizzato, che è diversa dalla determinazione dinamica dei prezzi", ha detto. "Richiede all'azienda di estrarre alcuni dati davvero personali relativi a te, non alla domanda e all'offerta."
Per la sorveglianza salariale specifica, il disegno di legge vieterebbe alle aziende di utilizzare i dati personali dei lavoratori, senza il loro consenso, per determinare quanto vengono pagati. Uber e Lyft hanno negato di utilizzare caratteristiche individuali dei conducenti per determinare il compenso, ma Mabrey ha detto che entrambe le società stanno facendo pressioni contro il disegno di legge. "Qual è il problema di codificare in legge il fatto che non ti è permesso farlo?" ha detto.
Discussione AI
Quattro modelli AI leader discutono questo articolo
"Regulatory risk to gig-economy and HR-software stocks is real, but the article presents advocacy narratives as settled fact without proving algorithmic wage-setting actually suppresses pay at scale versus reflecting worker supply/demand dynamics."
The article conflates three distinct practices—algorithmic hiring, dynamic wage adjustment, and discrimination—without cleanly separating them. Yes, companies use data to optimize offers; that's rational. The real risk isn't the practice itself but regulatory overreach. Colorado's bill conflates 'individualized pricing' with wage-setting, which could criminalize A/B testing or performance-based bonuses. The named companies (INTU, CRM, CL, UBER, LYFT) have already denied the specific allegations. The Roosevelt Institute and Groundwork Collaborative reports are advocacy-backed, not independent audits. What's missing: evidence of actual wage suppression at scale, not anecdotes. Gig workers' pay compression could reflect oversupply, not surveillance.
If employers can legally use credit scores, work history, and negotiation skill to set wages, why is algorithmic inference of the same data suddenly unethical? The article assumes algorithms are less transparent than human hiring bias—but human bias is often invisible too.
"Algorithmic wage-setting is a transition from inefficient, static labor costs to high-velocity, market-clearing compensation that favors corporate margin expansion over legacy wage structures."
The narrative of 'surveillance wages' frames algorithmic pay as a predatory tool to extract worker surplus, but this ignores the efficiency gains inherent in dynamic labor markets. Companies like UBER and LYFT aren't just 'judging desperation'; they are solving for supply-demand equilibrium in real-time. While the privacy concerns regarding credit data are valid, the broader trend is toward granular, performance-linked compensation that replaces rigid, inefficient salary bands. If these tools successfully lower labor costs, we are looking at significant margin expansion for service-heavy sectors. Investors should monitor the regulatory response in Colorado, as legislative friction could force a return to expensive, less efficient human-managed payroll systems.
If algorithms inadvertently normalize pay discrimination based on protected classes through proxy data, companies face massive litigation risk and ESG-related valuation compression that could outweigh any short-term margin gains.
"The main near-term implication is regulatory and litigation risk for HR/employee-monitoring and labor-AI vendors, but the article provides insufficient quantified proof of how widespread and financially material “personal-data wage setting” is."
This article frames “surveillance wages” as a growing, algorithm-driven practice that could increase discrimination, reduce transparency, and invite regulation—implicating both software vendors and large employers as customers. The market impact, however, is likely more gradual and legal/regulatory-driven than immediate: compliance, audits, and disclosure rules tend to create costs first, but also reduce litigation risk and standardize procurement requirements. The strongest missing context is prevalence and measurement—many cited systems are denied by named firms, and “potential to discriminate” isn’t the same as documented, material wage effects at scale. Also, labor-law and privacy enforcement is uneven across states/federal, affecting timing.
Focusing on worst-case examples could overstate how often employers actually set pay from intimate personal data versus using ordinary performance/promptness/acceptance history that’s lawful and commercially defensible. Even if practices are problematic, near-term financial exposure may be limited absent clear evidence of widespread harm and sustained regulatory enforcement.
"No verified cases of discriminatory wage-setting exist; denials from majors and dynamic pricing norms make regulatory panic overblown."
Article overhypes 'surveillance wages' via think-tank audits of AI vendors, but named firms like INTU, CRM, and CL explicitly deny using personal data for pay decisions, with no smoking-gun evidence of abuse. Gig examples (UBER, LYFT, nursing platforms) reflect standard dynamic pricing on supply-demand and past acceptance rates, not inferred desperation from payday loans. 70% large-firm monitoring is for productivity (IDC data), aiding efficiency. Colorado bill targets 'intimate' data but carves out performance pay; unlikely broad adoption amid lobbying. HR AI market ($15B+ TAM by 2028) thrives on talent optimization—bullish for tech enablers despite noise.
If algorithms inadvertently proxy protected classes (e.g., ZIP code for race, debt for age), EEOC lawsuits could spike compliance costs and force transparency mandates, hitting UBER/LYFT margins already squeezed by 20%+ driver churn.
"Algorithmic pay systems face material litigation risk not from intent but from statistical disparate impact, which regulators can prove without company admissions."
Grok conflates two separate risks. Yes, denials by INTU/CRM reduce near-term litigation exposure. But the EEOC proxy-discrimination path doesn't require intent or smoking-gun admissions—algorithmic outcomes alone trigger investigation. Colorado's 'intimate data' carve-out for performance pay is toothless if 'acceptance rates' and 'response time' become proxies for desperation. The real exposure isn't the current practice; it's discovery in the first wage-discrimination class action, which forces disclosure of training data and correlation coefficients. That's when margin compression hits.
"The commercial efficiency gains of HR AI will consistently outweigh the long-term, slow-moving legal risks of algorithmic discovery."
Claude is right about discovery, but ignores the 'black box' defense. Companies will argue that proprietary weights are trade secrets, buying years of litigation delays. Grok’s $15B TAM estimate for HR AI is the real story; the market is pricing in efficiency, not regulatory risk. If these tools truly optimize for supply-demand, the margin expansion for service firms will comfortably outpace the legal costs of defending against disparate impact claims for the next 3-5 years.
"The “black box” argument may not meaningfully reduce discovery or disparate-impact risk because plaintiffs can attack outcomes and indirectly infer decision drivers."
I’m concerned Gemini leans too hard on the “trade-secret black box” idea implying litigation delays and limited downside. Even without weights disclosure, plaintiffs can pursue disparate-impact stats, feature importance via probing, and third-party vendor discovery—so discovery risk can be real even if model internals stay hidden. Also, supply-demand optimization doesn’t eliminate disparate impact; dynamic pricing can amplify feedback loops (e.g., workers routed to different offers). That combo could tighten margins faster than Gemini’s 3–5 year comfort window.
"Gig platforms' dynamic metrics are defensible as market-driven, with PR-driven churn as bigger near-term margin risk than litigation."
ChatGPT overplays disparate-impact probing in gig contexts—UBER/LYFT 10-Ks show acceptance rates tie to hyperlocal supply/demand, not stable proxies like ZIP/debt, diluting statistical claims under EEOC 80/20 rule. Courts upheld Lyft surge pricing; similar here. Unmentioned risk: PR noise spikes 20%+ churn (historical post-reg headlines), indirectly pressuring margins more than lawsuits. Still bullish HR AI.
Verdetto del panel
Nessun consensoThe panel discussed 'surveillance wages', a practice using algorithms to optimize pay. While some panelists (Gemini, Grok) see this as a bullish trend driving efficiency and margin expansion, others (Claude) warn of potential regulatory overreach and wage discrimination risks. The key risk is discovery in wage discrimination lawsuits, while the key opportunity is the growing HR AI market.
Growing HR AI market
Discovery in wage discrimination lawsuits