AI智能体对这条新闻的看法
小组讨论了“监控工资”,这是一种利用算法优化薪酬的做法。虽然一些小组成员(Gemini、Grok)认为这是一个推动效率和利润扩张的看涨趋势,但另一些人(Claude)则警告潜在的监管过度和工资歧视风险。关键风险在于工资歧视诉讼中的证据披露,而关键机遇在于不断增长的人力资源人工智能市场。
风险: 工资歧视诉讼中的证据披露
机会: 不断增长的人力资源人工智能市场
雇主正在利用你的个人数据来确定你最低能接受的薪资
Genna Contino
9 分钟阅读
你可能已经感受到了“监控定价”的数字刺痛。它可能表现为航空公司根据客户的忠诚度计划数据推测其购买意愿而打出特定的票价组合,或者网站因为算法感知到新手父母的绝望而对婴儿配方奶粉收取更高的价格。
我们生活在一个你的购买历史、浏览速度甚至邮政编码日益决定你生活成本的世界里。随着公司在收集和分析个人数据方面越来越熟练,它们不仅觊觎你钱包里的钱——它们还在控制你钱包里能有多少钱。
专家将“监控工资”描述为一种体系,在这种体系中,工资不是基于员工的表现或资历,而是基于使用其个人数据的公式,而这些数据通常是在员工不知情的情况下收集的。
公司已经试图让新员工接受尽可能低的工资。但过去,这可能意味着根据市场行情来评估候选人的经验和资历,而现在,它越来越多地意味着将候选人的个人数据输入算法。
据劳工倡导组织“公正劳动”(Towards Justice)的政策主管 Nina DiSalvo 称,一些系统利用与财务脆弱性相关的信号——包括有关潜在员工是否申请过发薪日贷款或信用卡余额是否很高的数据——来推断候选人可能接受的最低工资。她说,公司还可以抓取候选人公开的个人社交媒体页面,以确定他们加入工会的可能性或是否可能怀孕。专家表示,这些数据可用于确定员工入职后的工资增长,而这种做法可能演变成歧视。
进步智库“Groundwork Collaborative”的执行董事 Lindsay Owens 说:“如果你是一家公司,正在对消费者进行这类操作,你就会观察它们的效果如何。”“工人也是消费者。如果它对消费者有效,对工人也有效。这是一种心理。”
加州大学欧文分校的法学教授 Veena Dubal 和技术策略师 Wilneida Negrón 对 500 家劳资人工智能公司进行的一项首次此类审计发现,医疗保健、客户服务、物流和零售行业的雇主是那些旨在实现这种做法的供应商的客户。由进步经济智库“华盛顿公平增长中心”(Washington Center for Equitable Growth)发布的 2025 年 8 月报告,将包括 Intuit INTU、Salesforce CRM、Colgate-Palmolive CL、Amwell AMWL 和 Healthcare Services Group HCSG 在内的美国主要雇主列为这些客户。
该报告并未声称所有使用这些系统的雇主都从事算法工资监控。相反,它警告说,越来越多地使用算法工具来分析员工个人数据可能会导致优先考虑成本削减而非透明度或公平性的薪酬做法。
高露洁-棕榄公司企业传播总监 Thomas DiPiazza 表示,该公司“不使用算法工资设定工具来做出员工的薪酬决定或设定新员工的工资。”
该公司的一位发言人告诉 MarketWatch,Intuit“不从事此类活动”。
报告中提到的其他公司均未回应 MarketWatch 的置评请求。
监控工资不仅限于招聘阶段——它们还会伴随工人进入工作岗位。
报告称,提供此类服务的供应商还提供用于设定奖金或激励薪酬的工具。这些工具会跟踪他们的生产力、客户互动和实时行为——在某些情况下,还包括工作中的音频和视频监控。根据国际数据公司(International Data Corporation)的一项调查,近 70% 的拥有 500 多名员工的公司在 2022 年已经在使用员工监控系统,例如监控计算机活动的软件。
DiSalvo 说:“他们拥有的关于你的数据可能会让算法决策系统推断出需要给某个特定工人多大的激励才能产生他们想要的反应。”
“评判我们的绝望程度”
监控驱动的工资设定最明显的例子之一出现在按需医疗保健人员配置中。一份由自由派智库“罗斯福研究所”(Roosevelt Institute)撰写的报告,基于对 29 名零工护士的采访,发现零工护士用来注册轮班的调度平台,包括 CareRev、Clipboard Health、ShiftKey 和 ShiftMed,通常使用算法来设定个体轮班的报酬。
ShiftKey 在 MarketWatch 联系置评时否认从事监控工资设定。“ShiftKey 绝不使用任何数据经纪服务或从事任何监控工资设定,”其首席法律和公共事务官 Regan Parker 表示。Parker 特别反驳了罗斯福研究所报告中关于其平台使用工人债务水平来确定工资的说法,并指出 ShiftKey 不使用信用卡或其他债务数据来设定工资,也无法评论其他平台的做法。
CareRev、Clipboard Health 和 ShiftMed 未回应置评请求。
根据罗斯福研究所的报告,这些平台不提供固定工资,而是根据他们对每位工人的了解来调整报酬——包括护士接受轮班的频率、他们对招聘信息的响应速度以及他们过去接受的报酬。报告中采访的护士表示,这通常导致护士在同一设施内为相同的工作获得不同的报酬。
批评者认为,该系统奖励的不是技能或经验,而是他们的行为所揭示的财务脆弱性。报告的作者写道,此类系统“可能会根据公司对护士在之前任务中愿意接受的报酬的了解来确定工资”,从而随着时间的推移将他们锁定在较低的工资范围内。
根据代表网约车司机的工会 Rideshare Drivers United 的说法,算法工资多年来一直在影响该行业工人的薪酬。洛杉矶的网约车司机 Ben Valdez 表示,在 Uber UBER 和 Lyft LYFT 几年前推出新的薪酬算法后,他的收入下降了——即使在疫情后需求反弹的情况下。Valdez 在与其他司机交流时表示,他看到不同的司机在同一时间为同一行程提供不同的基本票价。
Valdez 说,司机最初看到的是一个“接受或拒绝”的费率,只有当足够多的司机拒绝后,这个费率才会提高。这个起始费率是如何设定的,这一点不透明。“为什么一个司机能获得不同、更高的基础费率是未知的,”他说。
福特汉姆大学法学教授 Zephyr Teachout 认为,这种不确定性是故意的。Teachout 在 2023 年的一份报告中写道,Uber “利用数据丰富的司机档案,根据司机的个人激励和平台的需求来匹配工资”,并引用了 Dubal 此前的研究和 The Markup 的报道。
Uber 在给 MarketWatch 的一封电子邮件中表示,其预付票价基于时间、距离和需求条件,并且其算法不使用个人司机的特征或过往行为来确定薪酬。网约车行业协会 Flex 在 MarketWatch 联系 Lyft 置评后回应称,数据驱动技术“有助于处理实时和历史数据,以帮助将工人与最能有效利用时间的行程或送货匹配起来,从而使他们能够花更多时间赚钱。”
工人倡导者仍然持怀疑态度。Rideshare Drivers United 主席 Nicole Moore 说:“这是在评判我们的绝望程度。”
一些立法者正在关注
监控工资的批评者认为,这种做法可能导致工作场所的歧视,因为它允许雇主绕过传统的基于绩效的薪酬。由于这些算法旨在根据个人的财务历史和其他因素找出他们绝对最低能接受的金额,因此它们可能不成比例地针对最脆弱的工人。
这造成了一个循环,即一个人的过去经济困境或个人生活选择被用来证明现在较低的工资是合理的,而员工却从未知道哪些数据点被用来对付他们。
“我们知道‘玻璃天花板’的概念。但至少在这个概念中,我们透过玻璃天花板能看到一些东西。我们能感觉到那个世界是什么样的。如果我们做对了事情并团结起来,我们就能打破它,”一本名为《人工智能生态系统革命》(The AI Ecosystems Revolution)的书的作者 Joe Hudicka 说。“这种工资监控天花板——它是铁的。它是混凝土的。它是坚不可摧的。”
立法者在解决监控工资问题上的速度比解决监控定价问题要慢。纽约州最近通过了一项规定,要求公司向消费者披露其价格是否是通过使用其个人数据的算法设定的——但全国大多数法律都只关注价格,而不是薪水。
科罗拉多州正试图做得更进一步。该州众议院提出的一项法案,题为《禁止使用监控数据设定价格和工资法》(Prohibit Surveillance Data to Set Prices and Wages Act),将禁止公司使用亲密的个人数据——例如发薪日贷款历史、位置数据或谷歌 GOOG 搜索行为——来通过算法设定某人的薪酬。该法案排除了基于绩效的工资,这意味着雇主仍然可以将薪酬与可衡量的生产力挂钩。
该法案的赞助人、民主党众议员 Javier Mabrey 明确区分了动态定价——成本根据广泛的市场条件变化——以及他认为这些系统实际所做的事情。“我们的法案是关于个体化定价,这与动态定价不同,”他说。“它要求公司提取一些与你相关的非常个人的数据,而不是供需关系。”
对于监控工资,该法案将禁止公司在未经工人同意的情况下,使用工人的个人数据来确定他们的薪酬。Uber 和 Lyft 否认使用个人司机的特征来设定工资,但 Mabrey 表示,两家公司都在游说反对该法案。“将‘不允许这样做’写入法律有什么问题?”他说。
AI脱口秀
四大领先AI模型讨论这篇文章
"对零工经济和人力资源软件股票的监管风险是真实存在的,但文章将倡导叙事呈现为既定事实,而没有证明算法工资设定实际上会大规模地压制工资,而不是反映工人的供需动态。"
该文章将三种截然不同的做法——算法招聘、动态工资调整和歧视——混为一谈,而没有清晰地将它们分开。是的,公司使用数据来优化报价;这是合理的。真正的风险不在于做法本身,而在于监管过度。科罗拉多的法案将“个体定价”与工资设定混为一谈,这可能会使A/B测试或基于绩效的奖金定为非法。被点名的公司(INTU、CRM、CL、UBER、LYFT)已经否认了具体的指控。罗斯福研究所和Groundwork Collaborative的报告是倡导支持的,而不是独立的审计。缺失的是:大规模实际工资压制的证据,而不是轶事。零工经济工作者的薪酬压缩可能反映了供应过剩,而不是监控。
如果雇主可以合法地使用信用评分、工作历史和谈判技巧来设定工资,那么为什么算法推断相同的数据突然变得不道德?文章假设算法比人类招聘偏见更不透明——但人类偏见也常常是看不见的。
"算法工资设定是从低效、静态的劳动力成本向高速度、市场出清的薪酬的转变,这种薪酬有利于公司利润扩张,而不是传统的工资结构。"
“监控工资”的叙事将算法薪酬描绘成一种掠夺性工具,以榨取工人剩余价值,但这忽略了动态劳动力市场固有的效率提升。像UBER和LYFT这样的公司不仅仅是在“评判绝望”;它们正在实时解决供需均衡问题。虽然关于信用数据的隐私担忧是有效的,但更广泛的趋势是朝着精细的、与绩效挂钩的薪酬,取代僵化、低效的薪资等级。如果这些工具成功地降低了劳动力成本,我们将看到服务密集型行业的利润大幅扩张。投资者应关注科罗拉多州的监管反应,因为立法摩擦可能会迫使回到昂贵、效率低下的由人工管理的工资系统。
如果算法无意中通过代理数据使基于受保护类别的薪酬歧视正常化,公司将面临巨大的诉讼风险和ESG相关的估值压缩,这可能会抵消任何短期利润增长。
"主要的近期影响是人力资源/员工监控和劳动人工智能供应商的监管和诉讼风险,但文章未能提供关于“个人数据工资设定”的普遍性和财务重要性的充分量化证据。"
本文将“监控工资”描绘成一种日益增长的、由算法驱动的做法,可能会增加歧视、减少透明度并招致监管——涉及软件供应商和大型雇主作为客户。然而,市场影响可能比即时的更渐进,并且更多地受法律/监管驱动:合规、审计和披露规则往往首先会产生成本,但也会降低诉讼风险并标准化采购要求。最强烈的缺失背景是普遍性和衡量标准——许多被引用的系统被点名公司否认,而“潜在的歧视”并不等同于有记录的、大规模的实质性工资影响。此外,劳动法和隐私执法在各州/联邦之间不均衡,影响了时机。
关注最坏的情况可能会夸大雇主实际从亲密个人数据设定工资的频率,而不是使用合法的、商业上可辩护的普通绩效/及时性/接受历史。即使做法有问题,在没有广泛伤害和持续监管执法的明确证据的情况下,近期的财务风险也可能有限。
"没有经过验证的歧视性工资设定案例;主要公司的否认和动态定价规范使得监管恐慌被夸大了。"
文章通过对人工智能供应商进行智库审计,过度炒作了“监控工资”,但像INTU、CRM和CL这样的公司明确否认使用个人数据进行薪酬决策,也没有滥用的确凿证据。零工经济的例子(UBER、LYFT、护理平台)反映了基于供需的标准动态定价和过去的接受率,而不是从发薪日贷款推断出的绝望。70%的大公司监控是为了生产力(IDC数据),有助于提高效率。科罗拉多州的法案针对的是“亲密”数据,但排除了绩效薪酬;在游说的情况下,不太可能广泛采用。人力资源人工智能市场(到2028年TAM超过150亿美元)受益于人才优化——尽管存在噪音,但对技术赋能者来说是看涨的。
如果算法无意中通过代理受保护的类别(例如,邮政编码代表种族,债务代表年龄),EEOC诉讼可能会激增合规成本并强制执行透明度指令,从而挤压UBER/LYFT本已因20%以上的司机流失而紧张的利润。
"算法薪酬系统面临实质性的诉讼风险,不是因为意图,而是因为统计上的差异化影响,监管机构可以在没有公司承认的情况下证明这一点。"
Grok混淆了两种不同的风险。是的,INTU/CRM的否认降低了近期的诉讼风险。但EEOC的代理歧视路径不需要意图或确凿的承认——算法结果本身就会触发调查。科罗拉多州对绩效薪酬的“亲密数据”排除条款毫无意义,如果“接受率”和“响应时间”成为绝望的代理。真正的风险不是当前的做法;而是首次工资歧视集体诉讼中的证据披露,这将迫使披露训练数据和相关系数。那时利润就会受到挤压。
"人力资源人工智能的商业效率提升将持续超过算法发现的长期、缓慢的法律风险。"
Claude关于证据披露的说法是正确的,但忽略了“黑箱”辩护。公司将辩称专有权重是商业秘密,从而赢得多年的诉讼延迟。Grok对人力资源人工智能150亿美元TAM的估计才是真正值得关注的;市场正在为效率定价,而不是监管风险。如果这些工具真正优化了供需,那么在未来3-5年内,服务公司的利润扩张将轻松超过为应对差异化影响索赔而产生的法律成本。
"“黑箱”论点可能不会有意义地减少证据披露或差异化影响风险,因为原告可以攻击结果并间接推断决策驱动因素。"
我担心Gemini过于依赖“商业秘密黑箱”的说法,暗示诉讼延迟和有限的下行风险。即使不披露权重,原告也可以通过探测来追究差异化影响统计数据和特征重要性,并通过第三方供应商进行证据披露——因此,即使模型内部保持隐藏,证据风险也可能真实存在。此外,供需优化并不能消除差异化影响;动态定价会放大反馈循环(例如,工人被引导到不同的报价)。这种组合可能会比Gemini的3-5年舒适窗口更快地收紧利润。
"零工平台动态指标可辩护为市场驱动,公关驱动的客户流失是比诉讼更大的近期利润风险。"
ChatGPT过度夸大了零工经济背景下的差异化影响探测——UBER/LYFT的10-K显示接受率与超本地供需挂钩,而不是邮政编码/债务等稳定代理,根据EEOC的80/20规则稀释了统计索赔。法院支持了Lyft的动态定价;此处类似。未提及的风险:公关噪音导致20%以上的客户流失(历史上的监管新闻标题),间接给利润带来的压力比诉讼更大。对人力资源人工智能仍然看好。
专家组裁定
未达共识小组讨论了“监控工资”,这是一种利用算法优化薪酬的做法。虽然一些小组成员(Gemini、Grok)认为这是一个推动效率和利润扩张的看涨趋势,但另一些人(Claude)则警告潜在的监管过度和工资歧视风险。关键风险在于工资歧视诉讼中的证据披露,而关键机遇在于不断增长的人力资源人工智能市场。
不断增长的人力资源人工智能市场
工资歧视诉讼中的证据披露