สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
คณะกรรมการได้หารือเกี่ยวกับ "ค่าจ้างแบบสอดแนม" ซึ่งเป็นแนวปฏิบัติที่ใช้อัลกอริทึมเพื่อเพิ่มประสิทธิภาพค่าจ้าง แม้ว่าผู้ร่วมอภิปรายบางคน (Gemini, Grok) จะมองว่าเป็นแนวโน้มเชิงบวกที่ขับเคลื่อนประสิทธิภาพและการขยายกำไร แต่บางคน (Claude) ก็เตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากการใช้อำนาจตามกฎระเบียบและการเลือกปฏิบัติในการจ่ายค่าจ้าง ความเสี่ยงที่สำคัญคือการค้นพบในการดำเนินคดีเกี่ยวกับการเลือกปฏิบัติในการจ่ายค่าจ้าง ในขณะที่โอกาสที่สำคัญคือตลาด HR AI ที่กำลังเติบโต
ความเสี่ยง: การค้นพบในการดำเนินคดีเกี่ยวกับการเลือกปฏิบัติในการจ่ายค่าจ้าง
โอกาส: ตลาด HR AI ที่กำลังเติบโต
นายจ้างกำลังใช้ข้อมูลส่วนตัวของคุณเพื่อคำนวณเงินเดือนต่ำสุดที่คุณจะยอมรับ
Genna Contino
ใช้เวลาอ่าน 9 นาที
คุณอาจจะรู้สึกถึงความเจ็บปวดทางดิจิทัลของ “การกำหนดราคาโดยการเฝ้าระวัง” แล้วอย่างแน่นอน มันอาจจะดูเหมือนสายการบินที่โฆษณาแพ็กเกจราคาเฉพาะเนื่องจากข้อมูลของโปรแกรมความภักดีของลูกค้าบ่งชี้ว่าพวกเขามีแนวโน้มที่จะซื้อมัน หรือเว็บไซต์ที่เรียกเก็บเงินเพิ่มขึ้นสำหรับนมผงเด็กเพราะอัลกอริทึมรับรู้ถึงความสิ้นหวังของพ่อแม่มือใหม่
เรากำลังอยู่ในโลกที่ประวัติการซื้อของคุณ ความเร็วในการเข้าชมเว็บไซต์ และแม้แต่รหัสไปรษณีย์ของคุณกำหนดต้นทุนของชีวิตคุณมากขึ้นเรื่อยๆ และเมื่อบริษัทต่างๆ เก่งขึ้นในการรวบรวมและวิเคราะห์ข้อมูลส่วนบุคคล พวกเขาไม่ได้มุ่งเน้นไปที่เงินที่ออกจากกระเป๋าของคุณเท่านั้น แต่พวกเขายังควบคุมจำนวนเงินที่เข้าไปในกระเป๋าของคุณด้วย
ผู้เชี่ยวชาญอธิบายว่า “เงินเดือนจากการเฝ้าระวัง” เป็นระบบที่เงินเดือนขึ้นอยู่กับผลการปฏิบัติงานหรือประสบการณ์ของพนักงาน แต่เป็นสูตรที่ใช้ข้อมูลส่วนบุคคลของพวกเขา ซึ่งมักจะถูกรวบรวมโดยไม่รู้ตัวของพนักงาน
บริษัทต่างๆ พยายามที่จะให้ผู้สมัครใหม่ยอมรับข้อเสนอเงินเดือนที่ต่ำที่สุดเท่าที่จะเป็นไปได้ แต่ในขณะที่เมื่อก่อนหมายถึงการประเมินประสบการณ์และคุณสมบัติของผู้สมัครเทียบกับอัตราตลาดที่กำลังเป็นไปอยู่ ตอนนี้มันหมายถึงการป้อนข้อมูลส่วนบุคคลของผู้สมัครลงในอัลกอริทึมมากขึ้นเรื่อยๆ
ตามที่ Nina DiSalvo ผู้จัดการนโยบายของกลุ่มสนับสนุนแรงงาน Towards Justice ระบบบางระบบใช้สัญญาณที่เกี่ยวข้องกับความเปราะบางทางการเงิน ซึ่งรวมถึงข้อมูลว่าผู้สมัครงานที่มีศักยภาพได้กู้เงิน payday หรือมียอดคงเหลือบัตรเครดิตสูง เพื่ออนุมานว่าผู้สมัครงานอาจยอมรับเงินเดือนเท่าไร บริษัทต่างๆ สามารถขูดหน้าเพจโซเชียลมีเดียส่วนตัวของสาธารณะของผู้สมัครเพื่อพิจารณาว่าพวกเขามีแนวโน้มที่จะเข้าร่วมสหภาพแรงงานหรือไม่ หรืออาจตั้งครรภ์ได้ ข้อมูลนี้สามารถใช้เพื่อกำหนดการเพิ่มเงินเดือนหลังจากที่พนักงานได้รับการว่าจ้าง และแนวทางปฏิบัตินี้สามารถนำไปสู่การเลือกปฏิบัติได้ ผู้เชี่ยวชาญกล่าว
“หากคุณเป็นบริษัทที่กำลังเล่นตลกกับแนวทางปฏิบัติเหล่านี้กับผู้บริโภค คุณจะดูว่ามันได้ผลดีแค่ไหน” Lindsay Owens ผู้อำนวยการของ Groundwork Collaborative ซึ่งเป็นกลุ่มคลังความคิดเห็นก้าวหน้า กล่าว “คนทำงานก็เป็นผู้บริโภคเช่นกัน ถ้ามันได้ผลกับผู้บริโภค มันก็จะได้ผลกับคนทำงานเช่นกัน มันเป็นจิตวิทยาเดียวกัน”
การตรวจสอบครั้งแรกของบริษัทที่เกี่ยวข้องกับแรงงานและการจัดการปัญญาประดิษฐ์ 500 แห่ง โดย Veena Dubal ศาสตราจารย์ด้านกฎหมายจาก University of California, Irvine และ Wilneida Negrón นักวางกลยุทธ์ด้านเทคโนโลยี พบว่านายจ้างในอุตสาหกรรมการดูแลสุขภาพ บริการลูกค้า โลจิสติกส์ และค้าปลีกเป็นลูกค้าของผู้ขายที่มีเครื่องมือที่ออกแบบมาเพื่อเปิดใช้งานแนวทางปฏิบัตินี้ รายงานที่เผยแพร่โดย Washington Center for Equitable Growth ซึ่งเป็นกลุ่มคลังความคิดเห็นทางเศรษฐกิจก้าวหน้า ระบุว่านายจ้างรายใหญ่ของสหรัฐฯ เป็นลูกค้าเหล่านี้ รวมถึง Intuit INTU, Salesforce CRM, Colgate-Palmolive CL, Amwell AMWL และ Healthcare Services Group HCSG
รายงานไม่ได้กล่าวอ้างว่านายจ้างทุกคนที่ใช้ระบบเหล่านี้มีส่วนร่วมในการเฝ้าระวังค่าจ้างด้วยอัลกอริทึม แต่เตือนว่าการใช้เครื่องมืออัลกอริทึมที่เพิ่มขึ้นเพื่อวิเคราะห์ข้อมูลส่วนบุคคลของคนทำงานสามารถเปิดใช้งานแนวทางปฏิบัติในการจ่ายเงินที่ให้ความสำคัญกับการลดต้นทุนมากกว่าความโปร่งใสหรือความเป็นธรรม
Thomas DiPiazza ผู้อำนวยการฝ่ายสื่อสารองค์กรของ Colgate-Palmolive กล่าวว่า บริษัท “ไม่ได้ใช้เครื่องมือตั้งค่าค่าจ้างด้วยอัลกอริทึมเพื่อตัดสินใจเกี่ยวกับการชดเชยของพนักงานของเราหรือเพื่อกำหนดเงินเดือนสำหรับผู้สมัครใหม่”
Intuit “ไม่เข้าร่วมในการปฏิบัติเช่นนั้น” ตัวแทนของบริษัทกล่าวกับ MarketWatch
บริษัทอื่นๆ ที่ระบุชื่อในรายงานไม่ได้ตอบสนองต่อคำขอความคิดเห็นของ MarketWatch
เงินเดือนจากการเฝ้าระวังไม่ได้หยุดอยู่แค่ขั้นตอนการจ้างงานเท่านั้น มันยังติดตามคนงานไปยังที่ทำงานอีกด้วย
รายงานระบุว่าผู้ขายที่ให้บริการเหล่านี้ยังมีเครื่องมือที่สร้างขึ้นเพื่อกำหนดค่าตอบแทนโบนัสหรือแรงจูงใจ เครื่องมือเหล่านี้ติดตามผลผลิต ปฏิสัมพันธ์กับลูกค้า และพฤติกรรมแบบเรียลไทม์ รวมถึงในบางกรณี การเฝ้าระวังด้วยเสียงและวิดีโอในที่ทำงาน เกือบ 70% ของบริษัทที่มีพนักงานมากกว่า 500 คนมีการใช้ระบบตรวจสอบพนักงานตั้งแต่ปี 2022 เช่น ซอฟต์แวร์ที่ตรวจสอบกิจกรรมของคอมพิวเตอร์ ตามการสำรวจของ International Data Corporation
“ข้อมูลที่พวกเขาเกี่ยวกับคุณอาจทำให้ระบบตัดสินใจด้วยอัลกอริทึมสันนิษฐานว่าพวกเขาต้องให้แรงจูงใจขนาดเท่าใดให้กับคนงานคนหนึ่งเพื่อสร้างการตอบสนองทางพฤติกรรมที่พวกเขาต้องการ” DiSalvo กล่าว
‘ตัดสินอัตราความสิ้นหวังของเรา’
ตัวอย่างที่ชัดเจนที่สุดของการตั้งค่าค่าจ้างที่ขับเคลื่อนด้วยการเฝ้าระวังปรากฏในงานจัดหาบุคลากรทางการแพทย์แบบตามความต้องการ รายงานที่จัดทำโดย Roosevelt Institute ซึ่งเป็นกลุ่มคลังความคิดเห็นที่มีแนวโน้มแบบเสรีนิยม โดยอิงจากการสัมภาษณ์พยาบาล gig 29 คน พบว่าแพลตฟอร์มที่พยาบาล gig ใช้เพื่อลงทะเบียนสำหรับกะ รวมถึง CareRev, Clipboard Health, ShiftKey และ ShiftMed ใช้ algorithms เพื่อกำหนดค่าจ้างสำหรับกะแต่ละกะเป็นประจำ
ShiftKey ปฏิเสธการมีส่วนร่วมในการตั้งค่าค่าจ้างจากการเฝ้าระวังเมื่อติดต่อกับ MarketWatch เพื่อแสดงความคิดเห็น “ShiftKey ไม่ได้ใช้บริการ data broker ใดๆ หรือเข้าร่วมในการตั้งค่าค่าจ้างจากการเฝ้าระวังใดๆ” Regan Parker เจ้าหน้าที่ฝ่ายกฎหมายและกิจการสาธารณะอาวุโสของบริษัทกล่าว Parker โต้แย้งอย่างเฉพาะเจาะจงถึงข้อกล่าวหาจากรายงานของ Roosevelt Institute ที่ระบุว่าแพลตฟอร์มของตนใช้ระดับหนี้ของคนงานเพื่อกำหนดค่าจ้าง โดยระบุว่า ShiftKey ไม่ได้ใช้ข้อมูลบัตรเครดิตหรือหนี้อื่นๆ เพื่อกำหนดค่าจ้าง และไม่สามารถพูดถึงแนวทางปฏิบัติของแพลตฟอร์มอื่นๆ ได้
CareRev, Clipboard Health และ ShiftMed ไม่ได้ตอบสนองต่อคำขอความคิดเห็น
แทนที่จะเสนอค่าจ้างคงที่ แพลตฟอร์มจะปรับค่าจ้างตามสิ่งที่พวกเขาค้นพบเกี่ยวกับคนงานแต่ละคน รวมถึงความถี่ที่พยาบาลยอมรับกะ ความเร็วในการตอบสนองต่อการโพสต์ และค่าจ้างที่พวกเขาเคยยอมรับในอดีต ตามรายงานของ Roosevelt Institute พยาบาลที่สัมภาษณ์สำหรับรายงานกล่าวว่าสิ่งนี้มักส่งผลให้พยาบาลได้รับเงินจำนวนต่างกันสำหรับงานเดียวกัน แม้แต่ภายในสถานที่เดียวกัน
นักวิจารณ์โต้แย้งว่าระบบนี้ให้รางวัลแก่คนงานไม่ใช่ตามทักษะหรือประสบการณ์ แต่ตามสิ่งที่พฤติกรรมของพวกเขาเปิดเผยเกี่ยวกับความเปราะบางทางการเงินของพวกเขา ระบบดังกล่าว “อาจกำหนดค่าจ้างตามสิ่งที่บริษัทรู้ว่าพยาบาลเต็มใจยอมรับสำหรับงานก่อนหน้า” ผู้เขียนรายงานเขียน โดยล็อคพวกเขาไว้ในวงเงินค่าจ้างที่ต่ำกว่าเมื่อเวลาผ่านไป
ตาม Rideshare Drivers United สหภาพที่ตัวแทนของคนขับ rideshare แนวทางปฏิบัติค่าจ้างแบบอัลกอริทึมกำลังหล่อหลอมค่าจ้างสำหรับคนงานในอุตสาหกรรมนั้นมาหลายปีแล้ว Ben Valdez คนขับ rideshare ที่อยู่ในลอสแอนเจลิส กล่าวว่าหลังจากที่ Uber UBER และ Lyft LYFT ปล่อยอัลกอริทึมการจ่ายเงินใหม่ๆ หลายปีก่อน รายได้ของเขาลดลง แม้ว่าความต้องการหลังการระบาดใหญ่จะฟื้นตัวก็ตาม Valdez กล่าวว่าจากการแลกเปลี่ยนข้อมูลกับคนขับคนอื่นๆ เขาได้เห็นคนขับที่แตกต่างกันได้รับค่าโดยสารเริ่มต้นที่แตกต่างกันสำหรับทริปเดียวกันในเวลาเดียวกัน
Valdez กล่าวว่าคนขับมักจะได้รับอัตราเริ่มต้นแบบ “take-it-or-leave-it” ซึ่งจะเพิ่มขึ้นก็ต่อเมื่อคนขับจำนวนมากปฏิเสธเท่านั้น วิธีการกำหนดอัตราเริ่มต้นนั้นไม่ชัดเจน “ทำไมคนขับคนหนึ่งถึงได้รับค่าโดยสารเริ่มต้นที่สูงกว่ากันนั้นไม่ทราบ” เขากล่าว
ความไม่แน่นอนนั้นมีไว้โดยเจตนา ตามที่ Zephyr Teachout ศาสตราจารย์ด้านกฎหมายจาก Fordham University ในรายงานฉบับหนึ่งในปี 2023 Teachout เขียนว่า Uber “ใช้โปรไฟล์คนขับที่มีข้อมูลมากมายเพื่อจับคู่ค่าจ้างกับแรงจูงใจของแต่ละคนและข้อกำหนดของแพลตฟอร์ม” โดยอ้างถึงงานวิจัยก่อนหน้านี้ของ Dubal และรายงานจาก The Markup
Uber กล่าวในอีเมลถึง MarketWatch ว่าอัตราค่าโดยสาร upfront ของตนอิงตามเวลา ระยะทาง และสภาพแวดล้อมความต้องการ และอัลกอริทึมของตนไม่ได้ใช้ลักษณะเฉพาะของคนขับหรือพฤติกรรมในอดีตเพื่อกำหนดค่าจ้าง Flex ซึ่งเป็นสมาคมการค้า rideshare ซึ่งตอบสนองหลังจาก MarketWatch ติดต่อ Lyft เพื่อแสดงความคิดเห็น กล่าวในแถลงการณ์ว่าเทคโนโลยีที่ขับเคลื่อนด้วยข้อมูล “ช่วยประมวลผลข้อมูลแบบเรียลไทม์และข้อมูลในอดีตเพื่อช่วยจับคู่คนงานกับการส่งมอบหรือการเดินทางที่แสดงถึงการใช้เวลาที่มีประสิทธิภาพสูงสุด ซึ่งช่วยให้พวกเขาสามารถใช้เวลาในการหารายได้มากขึ้น”
ผู้สนับสนุนคนงานยังคงสงสัย “มันกำลังตัดสินอัตราความสิ้นหวังของเรา” Nicole Moore ประธาน Rideshare Drivers United กล่าว
นักกฎหมายบางคนกำลังให้ความสนใจ
นักวิจารณ์ของการจ่ายเงินจากการเฝ้าระวังโต้แย้งว่าแนวทางปฏิบัตินี้อาจนำไปสู่การเลือกปฏิบัติในที่ทำงานโดยอนุญาตให้ผู้ว่าจ้างหลีกเลี่ยงการจ่ายเงินตามคุณธรรมแบบดั้งเดิม เนื่องจากอัลกอริทึมเหล่านี้ได้รับการออกแบบมาเพื่อค้นหาขั้นต่ำสัมบูรณ์ที่บุคคลจะยอมรับตามประวัติทางการเงินและปัจจัยอื่นๆ พวกเขาสามารถกำหนดเป้าหมายผู้ที่เปราะบางทางการเงินมากที่สุดได้โดยไม่สมส่วน
สิ่งนี้สร้างวัฏจักรที่ความยากลำบากทางเศรษฐกิจในอดีตหรือการตัดสินใจส่วนตัวของบุคคลถูกนำมาใช้เพื่อสนับสนุนค่าจ้างที่ต่ำกว่าในปัจจุบัน โดยที่พนักงานมักจะไม่รู้ว่าข้อมูลใดบ้างที่ถูกนำมาใช้กับพวกเขา
“เรารู้จักแนวคิดของเพดานแก้ว แต่ ณ ขั้นตอนนี้ เราสามารถมองเห็นผ่านเพดานแก้วนั้นได้ เรามีความรู้สึกว่าโลกนั้นมีลักษณะอย่างไร เราสามารถทำลายมันได้หากเราทำสิ่งต่างๆ ที่ถูกต้องและรวมตัวกัน” Joe Hudicka ผู้เขียนหนังสือชื่อ “The AI Ecosystems Revolution” กล่าว “เพดานการเฝ้าระวังค่าจ้างนี้—มันเป็นเหล็ก มันเป็นคอนกรีต มันเป็นสิ่งที่ทะลุไม่ได้”
นักกฎหมายช้ากว่าในการจัดการกับค่าจ้างจากการเฝ้าระวังมากกว่าการกำหนดราคาโดยการเฝ้าระวัง รัฐนิวยอร์กเพิ่งผ่านกฎที่กำหนดให้บริษัทเปิดเผยต่อผู้บริโภคเมื่อราคาของพวกเขาถูกกำหนดด้วยอัลกอริทึมที่ใช้ข้อมูลส่วนบุคคลของพวกเขา—แต่กฎหมายส่วนใหญ่ในประเทศกำลังพิจารณาเฉพาะราคา ไม่ใช่เงินเดือน
โคโลราโดกำลังพยายามที่จะก้าวไปไกลกว่า กฎหมายที่เสนอในสภา House มีชื่อว่า Prohibit Surveillance Data to Set Prices and Wages Act จะห้ามบริษัทใช้ข้อมูลส่วนบุคคลที่ใกล้ชิด เช่น ประวัติการกู้เงิน payday ข้อมูลตำแหน่ง หรือพฤติกรรมในการค้นหา Google GOOG เพื่อกำหนดค่าจ้างด้วยอัลกอริทึม กฎหมายนี้จะเว้นข้อยกเว้นสำหรับการจ่ายเงินตามผลการปฏิบัติงาน ซึ่งหมายความว่านายจ้างยังคงสามารถเชื่อมโยงค่าจ้างกับผลิตภาพที่วัดผลได้
Rep. Javier Mabrey นักการเมืองเดโมแครตที่สนับสนุนกฎหมายนี้ วาดเส้นแบ่งที่คมชัดระหว่างการกำหนดราคาแบบไดนามิก—ที่ซึ่งต้นทุนเปลี่ยนแปลงตามสภาพแวดล้อมของตลาดที่กว้างขึ้น—และสิ่งที่เขากล่าวว่าเป็นสิ่งที่ระบบเหล่านี้ทำจริงๆ “สิ่งที่เรากำลังพูดถึงในกฎหมายของเราคือการกำหนดราคาแบบเฉพาะบุคคล ซึ่งแตกต่างจากการกำหนดราคาแบบไดนามิก ซึ่งต้องใช้บริษัทดึงข้อมูลส่วนตัวที่เกี่ยวข้องกับคุณ ไม่ใช่ความต้องการและอุปทาน”
สำหรับค่าจ้างจากการเฝ้าระวังโดยเฉพาะ กฎหมายนี้จะห้ามบริษัทใช้ข้อมูลส่วนบุคคลของคนงาน—โดยไม่ได้รับความยินยอม—เพื่อกำหนดว่าพวกเขาจะได้รับค่าจ้างเท่าไร Uber และ Lyft ปฏิเสธว่าไม่ได้ใช้ลักษณะเฉพาะของคนขับเพื่อกำหนดค่าจ้าง แต่ Mabrey กล่าวว่าทั้งสองบริษัทกำลังล็อบบี้ต่อต้านกฎหมายนี้ “ปัญหาคืออะไรของการกำหนดไว้ในกฎหมายว่าคุณไม่ได้รับอนุญาตให้ทำ?” เขากล่าว
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"ความเสี่ยงด้านกฎระเบียบต่อหุ้นในกลุ่มเศรษฐกิจแบบกิ๊กและซอฟต์แวร์ HR เป็นเรื่องจริง แต่บทความนี้นำเสนอเรื่องเล่าของการรณรงค์ว่าเป็นข้อเท็จจริงที่แน่นอน โดยไม่ได้พิสูจน์ว่าการกำหนดค่าจ้างด้วยอัลกอริทึมนั้นกดค่าจ้างในวงกว้างจริงๆ เมื่อเทียบกับการสะท้อนอุปทาน/อุปสงค์ของคนงาน"
บทความนี้ผสมปนเปสามแนวปฏิบัติที่แตกต่างกัน ได้แก่ การจ้างงานด้วยอัลกอริทึม การปรับค่าจ้างแบบไดนามิก และการเลือกปฏิบัติ โดยไม่แยกแยะให้ชัดเจน ใช่ บริษัทต่างๆ ใช้ข้อมูลเพื่อปรับข้อเสนอให้เหมาะสม นั่นเป็นเรื่องสมเหตุสมผล ความเสี่ยงที่แท้จริงไม่ใช่การปฏิบัตินั้นเอง แต่เป็นการใช้อำนาจตามกฎระเบียบที่มากเกินไป ร่างกฎหมายของโคโลราโดผสมปนเป 'การกำหนดราคาแบบรายบุคคล' กับการกำหนดค่าจ้าง ซึ่งอาจทำให้การทดสอบ A/B หรือโบนัสตามผลการปฏิบัติงานกลายเป็นความผิดทางอาญา บริษัทที่ระบุ (INTU, CRM, CL, UBER, LYFT) ได้ปฏิเสธข้อกล่าวหาเฉพาะแล้ว รายงานของ Roosevelt Institute และ Groundwork Collaborative ได้รับการสนับสนุนจากการรณรงค์ ไม่ใช่การตรวจสอบอิสระ สิ่งที่ขาดหายไปคือหลักฐานของการกดค่าจ้างจริงในวงกว้าง ไม่ใช่เรื่องเล่า การบีบอัดค่าจ้างของคนงานอิสระอาจสะท้อนถึงอุปทานส่วนเกิน ไม่ใช่การสอดแนม
หากนายจ้างสามารถใช้คะแนนเครดิต ประวัติการทำงาน และทักษะการเจรจาต่อรองเพื่อกำหนดค่าจ้างได้อย่างถูกกฎหมาย เหตุใดการอนุมานข้อมูลเดียวกันด้วยอัลกอริทึมจึงกลายเป็นสิ่งผิดจริยธรรมไปเสียได้ บทความนี้สันนิษฐานว่าอัลกอริทึมมีความโปร่งใสน้อยกว่าอคติในการจ้างงานของมนุษย์ แต่ความอคติของมนุษย์ก็มักจะมองไม่เห็นเช่นกัน
"การกำหนดค่าจ้างด้วยอัลกอริทึมเป็นการเปลี่ยนผ่านจากต้นทุนแรงงานที่ไม่มีประสิทธิภาพและคงที่ ไปสู่ค่าตอบแทนที่รวดเร็วและสอดคล้องกับตลาด ซึ่งเอื้อต่อการขยายกำไรขององค์กรมากกว่าโครงสร้างค่าจ้างแบบเดิม"
เรื่องเล่าของ 'ค่าจ้างแบบสอดแนม' วางกรอบค่าจ้างด้วยอัลกอริทึมว่าเป็นเครื่องมือที่เอารัดเอาเปรียบเพื่อดึงส่วนเกินของคนงานออกไป แต่สิ่งนี้มองข้ามผลกำไรด้านประสิทธิภาพที่มีอยู่ในตลาดแรงงานแบบไดนามิก บริษัทอย่าง UBER และ LYFT ไม่เพียงแค่ 'ตัดสินความสิ้นหวัง' เท่านั้น แต่พวกเขากำลังแก้ไขสมดุลอุปสงค์-อุปทานแบบเรียลไทม์ แม้ว่าข้อกังวลด้านความเป็นส่วนตัวเกี่ยวกับข้อมูลเครดิตจะสมเหตุสมผล แต่แนวโน้มที่กว้างขึ้นคือการจ่ายค่าตอบแทนตามผลการปฏิบัติงานที่ละเอียด ซึ่งเข้ามาแทนที่กลุ่มเงินเดือนที่ตายตัวและไม่มีประสิทธิภาพ หากเครื่องมือเหล่านี้ลดต้นทุนแรงงานได้สำเร็จ เราจะเห็นการขยายตัวของกำไรที่สำคัญสำหรับภาคบริการหนัก นักลงทุนควรกำกับดูแลการตอบสนองด้านกฎระเบียบในโคโลราโด เนื่องจากแรงเสียดทานทางกฎหมายอาจบังคับให้กลับไปใช้ระบบการจ่ายเงินเดือนที่บริหารจัดการโดยมนุษย์ซึ่งมีค่าใช้จ่ายสูงและไม่มีประสิทธิภาพน้อยกว่า
หากอัลกอริทึมทำให้การเลือกปฏิบัติในการจ่ายค่าจ้างตามกลุ่มที่ได้รับการคุ้มครองโดยไม่ได้ตั้งใจผ่านข้อมูลตัวแทน บริษัทต่างๆ จะเผชิญกับความเสี่ยงทางกฎหมายจำนวนมาก และการลดมูลค่าที่เกี่ยวข้องกับ ESG ซึ่งอาจมีน้ำหนักมากกว่าผลกำไรระยะสั้น
"ผลกระทบที่สำคัญในระยะใกล้คือความเสี่ยงด้านกฎระเบียบและการดำเนินคดีสำหรับผู้ขายซอฟต์แวร์ HR/การตรวจสอบพนักงาน และ AI ด้านแรงงาน แต่บทความนี้ให้หลักฐานเชิงปริมาณไม่เพียงพอว่า "การกำหนดค่าจ้างด้วยข้อมูลส่วนบุคคล" แพร่หลายและมีความสำคัญทางการเงินเพียงใด"
บทความนี้จัดกรอบ 'ค่าจ้างแบบสอดแนม' ว่าเป็นแนวปฏิบัติที่เพิ่มขึ้นซึ่งขับเคลื่อนด้วยอัลกอริทึม ซึ่งอาจเพิ่มการเลือกปฏิบัติ ลดความโปร่งใส และนำไปสู่กฎระเบียบ ซึ่งเกี่ยวข้องกับทั้งผู้ขายซอฟต์แวร์และนายจ้างรายใหญ่ในฐานะลูกค้า อย่างไรก็ตาม ผลกระทบต่อตลาดน่าจะค่อยเป็นค่อยไปและขับเคลื่อนด้วยกฎหมาย/กฎระเบียบมากกว่าทันที: การปฏิบัติตามข้อกำหนด การตรวจสอบ และกฎการเปิดเผยข้อมูลมักจะสร้างต้นทุนก่อน แต่ก็ช่วยลดความเสี่ยงทางกฎหมายและสร้างมาตรฐานข้อกำหนดการจัดซื้อจัดจ้าง บริบทที่ขาดหายไปที่แข็งแกร่งที่สุดคือความแพร่หลายและการวัดผล — ระบบที่อ้างถึงหลายแห่งถูกปฏิเสธโดยบริษัทที่ระบุ และ “ศักยภาพในการเลือกปฏิบัติ” ไม่ใช่สิ่งเดียวกับการกดค่าจ้างที่เป็นรูปธรรมในวงกว้าง นอกจากนี้ การบังคับใช้กฎหมายแรงงานและกฎหมายความเป็นส่วนตัวก็ไม่สม่ำเสมอกันในแต่ละรัฐ/รัฐบาลกลาง ซึ่งส่งผลต่อระยะเวลา
การมุ่งเน้นไปที่ตัวอย่างที่เลวร้ายที่สุดอาจทำให้ประเมินความถี่ที่นายจ้างกำหนดค่าจ้างจากข้อมูลส่วนบุคคลที่ละเอียดอ่อนเกินไป เมื่อเทียบกับการใช้ประวัติผลการปฏิบัติงาน/ความตรงต่อเวลา/การยอมรับตามปกติที่ถูกกฎหมายและสามารถป้องกันได้ในเชิงพาณิชย์ แม้ว่าแนวทางปฏิบัติจะเป็นปัญหา แต่ความเสี่ยงทางการเงินในระยะใกล้ก็อาจมีจำกัด หากไม่มีหลักฐานที่ชัดเจนของความเสียหายในวงกว้างและการบังคับใช้กฎระเบียบอย่างต่อเนื่อง
"ไม่มีกรณีการกำหนดค่าจ้างที่เลือกปฏิบัติที่ได้รับการยืนยัน การปฏิเสธจากบริษัทใหญ่และการกำหนดราคาแบบไดนามิกทำให้ความตื่นตระหนกด้านกฎระเบียบเกินจริง"
บทความนี้กล่าวเกินจริงเกี่ยวกับ 'ค่าจ้างแบบสอดแนม' ผ่านการตรวจสอบ AI vendor โดยกลุ่มคลังสมอง แต่บริษัทที่ระบุเช่น INTU, CRM และ CL ปฏิเสธอย่างชัดเจนว่าไม่ได้ใช้ข้อมูลส่วนบุคคลในการตัดสินใจค่าจ้าง โดยไม่มีหลักฐานที่ชัดเจนของการละเมิด ตัวอย่างกิ๊ก (UBER, LYFT, แพลตฟอร์มพยาบาล) สะท้อนถึงการกำหนดราคาแบบไดนามิกตามอุปทาน-อุปสงค์และอัตราการยอมรับในอดีต ไม่ใช่การอนุมานความสิ้นหวังจากสินเชื่อวันเงินเดือน การตรวจสอบบริษัทขนาดใหญ่ 70% มีไว้เพื่อประสิทธิภาพ (ข้อมูล IDC) ช่วยเพิ่มประสิทธิภาพ ร่างกฎหมายโคโลราโดมุ่งเป้าไปที่ข้อมูล 'ละเอียดอ่อน' แต่ยกเว้นค่าจ้างตามผลการปฏิบัติงาน มีแนวโน้มที่จะไม่ได้รับการยอมรับในวงกว้างท่ามกลางการล็อบบี้ ตลาด HR AI (TAM 15 พันล้านเหรียญสหรัฐฯ ขึ้นไปภายในปี 2028) เจริญรุ่งเรืองจากการเพิ่มประสิทธิภาพผู้มีความสามารถ — เป็นบวกสำหรับผู้สนับสนุนเทคโนโลยี แม้จะมีเสียงรบกวนก็ตาม
หากอัลกอริทึมทำให้กลุ่มที่ได้รับการคุ้มครองโดยไม่ได้ตั้งใจ (เช่น รหัสไปรษณีย์สำหรับเชื้อชาติ, หนี้สินสำหรับอายุ) การฟ้องร้อง EEOC อาจเพิ่มขึ้นอย่างรวดเร็ว ทำให้ต้นทุนการปฏิบัติตามข้อกำหนดสูงขึ้น และบังคับให้มีข้อกำหนดด้านความโปร่งใส ซึ่งส่งผลกระทบต่อกำไรของ UBER/LYFT ที่ถูกบีบอัดอยู่แล้วจากการหมุนเวียนของคนขับ 20% ขึ้นไป
"ระบบค่าจ้างด้วยอัลกอริทึมเผชิญกับความเสี่ยงทางกฎหมายที่สำคัญ ไม่ใช่จากเจตนา แต่จากผลกระทบที่แตกต่างกันทางสถิติ ซึ่งหน่วยงานกำกับดูแลสามารถพิสูจน์ได้โดยไม่ต้องมีการยอมรับจากบริษัท"
Grok ผสมปนเปความเสี่ยงสองประการ ใช่ การปฏิเสธโดย INTU/CRM ช่วยลดความเสี่ยงทางกฎหมายในระยะสั้น แต่เส้นทางการเลือกปฏิบัติโดยตัวแทน EEOC ไม่จำเป็นต้องมีเจตนาหรือการยอมรับที่ชัดเจน — ผลลัพธ์ของอัลกอริทึมเพียงอย่างเดียวก็กระตุ้นให้เกิดการสอบสวนได้ การยกเว้น 'ข้อมูลละเอียดอ่อน' ของโคโลราโดสำหรับค่าจ้างตามผลการปฏิบัติงานนั้นไร้ประโยชน์หาก 'อัตราการยอมรับ' และ 'เวลาตอบสนอง' กลายเป็นตัวแทนของความสิ้นหวัง ความเสี่ยงที่แท้จริงไม่ใช่การปฏิบัติในปัจจุบัน แต่เป็นการค้นพบในการดำเนินการทางกฎหมายแบบกลุ่มครั้งแรกเกี่ยวกับการเลือกปฏิบัติในการจ่ายค่าจ้าง ซึ่งบังคับให้เปิดเผยข้อมูลการฝึกอบรมและค่าสัมประสิทธิ์สหสัมพันธ์ นั่นคือตอนที่การบีบอัดกำไรจะเกิดขึ้น
"ผลกำไรด้านประสิทธิภาพทางการค้าของ HR AI จะมีน้ำหนักมากกว่าความเสี่ยงทางกฎหมายระยะยาวที่เคลื่อนไหวช้าของการค้นพบด้วยอัลกอริทึมอย่างสม่ำเสมอ"
Claude พูดถูกเกี่ยวกับการค้นพบ แต่ไม่สนใจการป้องกันแบบ 'กล่องดำ' บริษัทต่างๆ จะโต้แย้งว่าน้ำหนักที่เป็นกรรมสิทธิ์เป็นความลับทางการค้า ซึ่งจะซื้อเวลาในการดำเนินคดีหลายปี การประมาณการ TAM 15 พันล้านเหรียญสหรัฐฯ ของ Grok สำหรับ HR AI คือเรื่องจริง ตลาดกำลังประเมินประสิทธิภาพ ไม่ใช่ความเสี่ยงด้านกฎระเบียบ หากเครื่องมือเหล่านี้เพิ่มประสิทธิภาพอุปทาน-อุปสงค์ได้อย่างแท้จริง การขยายกำไรสำหรับบริษัทบริการจะแซงหน้าต้นทุนทางกฎหมายในการต่อสู้กับการเรียกร้องผลกระทบที่แตกต่างกันได้อย่างสบายๆ ในช่วง 3-5 ปีข้างหน้า
"ข้อโต้แย้ง "กล่องดำ" อาจไม่ช่วยลดการค้นพบหรือความเสี่ยงจากผลกระทบที่แตกต่างกันอย่างมีนัยสำคัญ เนื่องจากโจทก์สามารถโจมตีผลลัพธ์และอนุมานปัจจัยขับเคลื่อนการตัดสินใจได้ทางอ้อม"
ฉันกังวลว่า Gemini เอนเอียงมากเกินไปกับแนวคิด "กล่องดำที่เป็นความลับทางการค้า" ซึ่งบ่งชี้ถึงความล่าช้าในการดำเนินคดีและความเสี่ยงที่จำกัด แม้ว่าจะไม่มีการเปิดเผยน้ำหนัก แต่โจทก์สามารถดำเนินการทางสถิติผลกระทบที่แตกต่างกัน ความสำคัญของคุณลักษณะผ่านการสอบสวน และการค้นพบจากบุคคลที่สาม ดังนั้นความเสี่ยงในการค้นพบอาจเป็นเรื่องจริง แม้ว่าภายในของแบบจำลองจะยังคงถูกซ่อนไว้ก็ตาม นอกจากนี้ การเพิ่มประสิทธิภาพอุปทาน-อุปทานไม่ได้ขจัดผลกระทบที่แตกต่างกัน การกำหนดราคาแบบไดนามิกสามารถขยายวงจรป้อนกลับได้ (เช่น คนงานถูกส่งไปยังข้อเสนอที่แตกต่างกัน) การผสมผสานนั้นอาจทำให้กำไรลดลงเร็วกว่ากรอบเวลา 3-5 ปีที่ Gemini คาดการณ์ไว้
"ตัวชี้วัดแบบไดนามิกของแพลตฟอร์มกิ๊กสามารถป้องกันได้ว่าเป็นไปตามกลไกตลาด โดยมีการหมุนเวียนที่ขับเคลื่อนด้วย PR เป็นความเสี่ยงต่อกำไรในระยะใกล้ที่ใหญ่กว่าการดำเนินคดี"
ChatGPT กล่าวเกินจริงเกี่ยวกับการตรวจสอบผลกระทบที่แตกต่างกันในบริบทกิ๊ก — 10-K ของ UBER/LYFT แสดงให้เห็นว่าอัตราการยอมรับเชื่อมโยงกับอุปทาน/อุปสงค์ในท้องถิ่น ไม่ใช่ตัวแทนที่มั่นคง เช่น รหัสไปรษณีย์/หนี้สิน ซึ่งเจือจางการเรียกร้องทางสถิติภายใต้กฎ 80/20 ของ EEOC ศาลได้ยืนยันการกำหนดราคาแบบ Surge ของ Lyft เช่นเดียวกับที่นี่ ความเสี่ยงที่ไม่ได้กล่าวถึง: เสียง PR ที่เพิ่มขึ้น 20%+ การหมุนเวียน (พาดหัวข่าวหลังกฎระเบียบในอดีต) ส่งผลกระทบต่อกำไรทางอ้อมมากกว่าการฟ้องร้อง ยังคงเป็นบวกสำหรับ HR AI
คำตัดสินของคณะ
ไม่มีฉันทามติคณะกรรมการได้หารือเกี่ยวกับ "ค่าจ้างแบบสอดแนม" ซึ่งเป็นแนวปฏิบัติที่ใช้อัลกอริทึมเพื่อเพิ่มประสิทธิภาพค่าจ้าง แม้ว่าผู้ร่วมอภิปรายบางคน (Gemini, Grok) จะมองว่าเป็นแนวโน้มเชิงบวกที่ขับเคลื่อนประสิทธิภาพและการขยายกำไร แต่บางคน (Claude) ก็เตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากการใช้อำนาจตามกฎระเบียบและการเลือกปฏิบัติในการจ่ายค่าจ้าง ความเสี่ยงที่สำคัญคือการค้นพบในการดำเนินคดีเกี่ยวกับการเลือกปฏิบัติในการจ่ายค่าจ้าง ในขณะที่โอกาสที่สำคัญคือตลาด HR AI ที่กำลังเติบโต
ตลาด HR AI ที่กำลังเติบโต
การค้นพบในการดำเนินคดีเกี่ยวกับการเลือกปฏิบัติในการจ่ายค่าจ้าง