สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ผู้ปฏิบัติงานส่วนใหญ่ที่พูดคุยกับ The Guardian ยังคงรับงานบนแพลตฟอร์ม Outlier ค่าตอบแทนไม่แน่นอน มีการไล่ออกจำนวนมากเป็นครั้งคราว แต่พวกเขารู้สึกว่าอาจไม่มีทางเลือกอื่น นอกจากนี้
ความเสี่ยง: ผู้ปฏิบัติงานกล่าวว่าพวกเขาต้องเผชิญกับความท้าทายในการทำงานที่เกี่ยวข้องกับ AI และเชื่อว่าพวกเขาอาจกำลังฝึกเปลี่ยนทดแทนของตนเอง
โอกาส: ผู้ปฏิบัติงานกล่าวว่าพวกเขาเชื่อว่าพวกเขาได้ฝึกฝนการทำงานทดแทนของตนเอง
ผู้คนหลายหมื่นคนได้รับค่าจ้างจากบริษัทที่ Meta ถือหุ้นส่วนในการฝึก AI โดยการรวบรวมข้อมูลจากบัญชี Instagram การเก็บเกี่ยวผลงานที่มีลิขสิทธิ์ และการถอดเสียงประกอบภาพยนตร์สำหรับผู้ใหญ่ The Guardian เปิดเผย
Scale AI ซึ่งมีอาณาจักรสื่อสังคมออนไลน์ของ Mark Zuckerberg ถือหุ้น 49% ได้รับสมัครผู้เชี่ยวชาญในสาขาต่างๆ เช่น การแพทย์ ฟิสิกส์ และเศรษฐศาสตร์ เพื่อปรับปรุงระบบปัญญาประดิษฐ์ระดับสูงผ่านแพลตฟอร์มที่ชื่อว่า Outlier “มาเป็นผู้เชี่ยวชาญที่ AI เรียนรู้จาก” ข้อความบนเว็บไซต์ของบริษัท โฆษณางานที่ยืดหยุ่นสำหรับผู้ที่มีคุณสมบัติแข็งแกร่ง
อย่างไรก็ตาม คนงานของแพลตฟอร์มกล่าวว่า พวกเขาได้เข้าไปเกี่ยวข้องกับการขูดข้อมูลส่วนบุคคลของผู้อื่นจำนวนมาก ซึ่งพวกเขาอธิบายว่าเป็นแบบฝึกหัดที่ทำให้รู้สึกไม่สบายใจทางศีลธรรม ซึ่งแตกต่างอย่างมากจากการปรับปรุงระบบระดับสูง
Outlier บริหารงานโดย Scale AI ซึ่งมีสัญญากับ Pentagon และบริษัทด้านกลาโหมของสหรัฐฯ
CEO ของบริษัท Alexandr Wang ซึ่งเป็นหัวหน้าเจ้าหน้าที่ AI ของ Meta ได้รับการอธิบายโดย Forbes ว่าเป็น “มหาเศรษฐีที่สร้างตัวเองได้ที่อายุน้อยที่สุดในโลก” อดีตกรรมการผู้จัดการ Michael Kratsios เป็นที่ปรึกษาด้านวิทยาศาสตร์ของประธานาธิบดีสหรัฐฯ Donald Trump
ผู้รับเหมา Outlier รายหนึ่งในสหรัฐฯ กล่าวว่า ผู้ใช้แพลตฟอร์มของ Meta รวมถึง Facebook และ Instagram จะประหลาดใจกับวิธีการรวบรวมข้อมูลจากบัญชีของพวกเขา ซึ่งรวมถึงรูปภาพของผู้ใช้และเพื่อนๆ ของพวกเขา
“ฉันไม่คิดว่าผู้คนจะเข้าใจว่าจะมีคนนั่งอยู่ที่โต๊ะในรัฐใดรัฐหนึ่ง กำลังดูโปรไฟล์ [โซเชียลมีเดีย] ของคุณ และใช้มันเพื่อสร้างข้อมูล AI” พวกเขากล่าว
The Guardian ได้พูดคุยกับคน 10 คนที่เคยทำงานให้กับ Outlier เพื่อฝึกระบบ AI บางคนทำงานมานานกว่าหนึ่งปี หลายคนมีงานอื่น เช่น นักข่าว นักศึกษาระดับบัณฑิตศึกษา ครู และบรรณารักษ์ แต่ในเศรษฐกิจที่กำลังดิ้นรนภายใต้ภัยคุกคามของ AI พวกเขาต้องการงานพิเศษ
“พวกเราหลายคนสิ้นหวังจริงๆ” คนหนึ่งกล่าว “หลายคนต้องการงานนี้จริงๆ รวมถึงตัวฉันเอง และพยายามทำให้ดีที่สุดในสถานการณ์ที่เลวร้าย”
เช่นเดียวกับกลุ่มแรงงานรับจ้าง AI ที่เพิ่มขึ้นทั่วโลก ส่วนใหญ่เชื่อว่าพวกเขากำลังฝึกฝนการเข้ามาแทนที่ตัวเอง ศิลปินคนหนึ่งอธิบายถึง “ความละอายและความรู้สึกผิดที่ฝังลึก” สำหรับ “การมีส่วนร่วมโดยตรงกับการทำให้ความหวังและความฝันของฉันเป็นไปโดยอัตโนมัติ”
“ในฐานะมนุษย์ที่ใฝ่ฝัน สิ่งนี้ทำให้ฉันโกรธระบบ” พวกเขากล่าว
Glenn Danas หุ้นส่วนที่ Clarkson ซึ่งเป็นสำนักงานกฎหมายที่รับผิดชอบแรงงานรับจ้าง AI ในคดีฟ้องร้อง Scale AI และแพลตฟอร์มที่คล้ายกันหลายแห่ง ประเมินว่าผู้คนหลายแสนคนทั่วโลกทำงานให้กับแพลตฟอร์มอย่าง Outlier ในขณะนี้ The Guardian ได้พูดคุยกับคนงาน Outlier หรือที่เรียกว่า “taskers” ในสหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย
ในการสัมภาษณ์ taskers อธิบายถึงความอัปยศอดสูที่คุ้นเคยมากขึ้นเรื่อยๆ ของงานรับจ้าง AI: การตรวจสอบอย่างต่อเนื่องและการจ้างงานที่ไม่แน่นอนเป็นชิ้นเล็กชิ้นน้อย Scale AI ถูกกล่าวหาว่าใช้กลยุทธ์ “bait-and-switch” เพื่อล่อลวงผู้ทำงานที่มีศักยภาพ โดยสัญญาว่าจะให้ค่าจ้างสูงแก่คนงานในช่วงการสรรหาเบื้องต้น จากนั้นจึงเสนอค่าจ้างที่น้อยลงอย่างมาก Scale AI ปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับการดำเนินคดีที่กำลังดำเนินอยู่ แต่แหล่งข่าวกล่าวว่าอัตราค่าจ้างจะเปลี่ยนแปลงหลังจากการสรรหาบุคลากรก็ต่อเมื่อคนงานเลือกเข้าร่วมโครงการที่แตกต่างกันซึ่งมีค่าจ้างต่ำกว่า
Taskers ถูกขอให้เข้ารับการสัมภาษณ์ AI ซ้ำๆ โดยไม่ได้รับค่าจ้างเพื่อมีคุณสมบัติสำหรับงานบางอย่าง หลายคนเชื่อว่าการสัมภาษณ์เหล่านี้ถูกนำกลับมาใช้เพื่อฝึก AI พวกเขาทั้งหมดกล่าวว่าพวกเขาถูกตรวจสอบอย่างต่อเนื่องผ่านแพลตฟอร์มที่เรียกว่า “Hubstaff” ซึ่งสามารถจับภาพหน้าจอเว็บไซต์ที่พวกเขาเข้าชมขณะทำงาน แหล่งข่าว Scale AI กล่าวว่า Hubstaff ถูกใช้เพื่อให้แน่ใจว่าผู้มีส่วนร่วมได้รับค่าจ้างอย่างถูกต้อง แต่ไม่ใช่เพื่อ “ตรวจสอบอย่างแข็งขัน” taskers
Taskers หลายคนอธิบายว่าถูกขอให้ถอดเสียงประกอบภาพยนตร์สำหรับผู้ใหญ่ หรือติดป้ายรูปภาพสัตว์ที่ตายแล้ว หรืออุจจาระสุนัข นักศึกษาปริญญาเอกคนหนึ่งกล่าวว่าพวกเขาต้องติดป้ายแผนภาพอวัยวะเพศทารก มีการแจ้งตำรวจที่อธิบายสถานการณ์ที่รุนแรง
“เราได้รับแจ้งก่อนหน้านี้แล้วว่าจะไม่มีภาพเปลือยในภารกิจนี้ พฤติกรรมที่เหมาะสม ไม่มีความรุนแรง เช่น ไม่มีเลือด” นักศึกษากล่าว “แต่แล้วฉันก็ได้รับข้อความถอดเสียงเสียงสำหรับการแสดงหนังโป๊ หรือมีคลิปสุ่มของคนอ้วกด้วยเหตุผลบางอย่าง”
The Guardian ได้เห็นวิดีโอและภาพหน้าจอของงานบางอย่างที่ Outlier กำหนดให้คนงานของตนดำเนินการ ซึ่งรวมถึงภาพถ่ายอุจจาระสุนัข และงานที่มีข้อความแจ้ง เช่น “คุณจะทำอย่างไรหากนักโทษไม่ปฏิบัติตามคำสั่งในเรือนจำ?”
แหล่งข่าวกล่าวว่า Scale AI จะปิดงานหากมีเนื้อหาที่ไม่เหมาะสมถูกตั้งค่าสถานะ และคนงานไม่จำเป็นต้องดำเนินการต่อในงานที่ทำให้พวกเขารู้สึกไม่สบายใจ แหล่งข่าวยังกล่าวเสริมว่า Scale AI ไม่ได้รับงานที่เกี่ยวข้องกับสื่อลามกอนาจารเด็กหรือภาพยนตร์สำหรับผู้ใหญ่
มีความคาดหวังเกี่ยวกับการขูดข้อมูลโซเชียลมีเดีย คนงาน Outlier แนะนำ Taskers เจ็ดคนอธิบายว่าได้ค้นหาบัญชี Instagram และ Facebook ของผู้อื่น โดยติดแท็กบุคคลตามชื่อ รวมถึงตำแหน่งที่ตั้งและเพื่อนของพวกเขา บางส่วนเกี่ยวข้องกับการฝึก AI จากบัญชีของผู้ที่มีอายุต่ำกว่า 18 ปี งานถูกจัดโครงสร้างให้ต้องการข้อมูลใหม่ที่ taskers คนอื่นยังไม่ได้อัปโหลด ผลักดันให้คนงานต้องขุดค้นบัญชีโซเชียลของคนอื่นๆ อีก
The Guardian ได้เห็นงานดังกล่าว ซึ่งกำหนดให้คนงานเลือกรูปภาพจากบัญชี Facebook ของบุคคล และจัดเรียงตามลำดับอายุของผู้ใช้ในรูปภาพ
Taskers หลายคนกล่าวว่าพวกเขาพบว่างานเหล่านี้ไม่สบายใจ คนหนึ่งพยายามทำโดยใช้เฉพาะรูปภาพของคนดังและบุคคลสาธารณะ “ฉันรู้สึกไม่สบายใจที่จะรวมรูปภาพของเด็กๆ และสิ่งของต่างๆ แต่เหมือนกับว่าสื่อการฝึกอบรมจะมีเด็กๆ อยู่ด้วย” คนหนึ่งกล่าว
“ฉันไม่ได้ใช้เพื่อนหรือครอบครัวเพื่อส่ง [งาน] ให้ AI” อีกคนกล่าว “ฉันเข้าใจว่าฉันไม่ชอบเรื่องนี้ในทางจริยธรรม”
แหล่งข่าว Scale กล่าวว่า taskers ไม่ได้ตรวจสอบบัญชีโซเชียลมีเดียที่ตั้งค่าเป็น “ส่วนตัว” และไม่ทราบเกี่ยวกับงานที่เกี่ยวข้องกับการติดป้ายอายุของบุคคล หรือความสัมพันธ์ส่วนตัวของพวกเขา พวกเขายังกล่าวเสริมว่า Scale AI ไม่ได้รับงานที่มีเนื้อหาละเอียดอ่อนที่เกี่ยวข้องกับเด็ก แต่ได้ใช้ข้อมูลโซเชียลมีเดียสาธารณะของเด็ก คนงานไม่ได้เข้าสู่ระบบบัญชี Facebook หรือ Instagram ส่วนตัวเพื่อทำงานเหล่านี้
สำหรับงานอื่น Taskers อธิบายว่าได้เก็บเกี่ยวรูปภาพงานศิลปะที่มีลิขสิทธิ์ เช่นเดียวกับการฝึกโซเชียลมีเดีย งานนี้ต้องการข้อมูลใหม่ๆ อย่างต่อเนื่อง ซึ่งเห็นได้ชัดว่าเพื่อฝึก AI ให้สร้างภาพศิลปะของตนเอง เมื่อคนงานหมดทางเลือกอื่น พวกเขาก็ขุดค้นบัญชีโซเชียลมีเดียของศิลปินและนักสร้างสรรค์
The Guardian ได้เห็นเอกสารของงานนี้ ซึ่งรวมถึงภาพวาดที่สร้างโดย AI ของ “ผู้ดูแลชาวพื้นเมืองอเมริกัน” และข้อความแจ้ง “ห้ามใช้ภาพที่สร้างโดย AI เลือกเฉพาะงานศิลปะที่วาดด้วยมือ ทาสี หรือภาพประกอบที่สร้างสรรค์โดยศิลปินมนุษย์”
แหล่งข่าวกล่าวว่า Scale AI ไม่ได้ขอให้ผู้มีส่วนร่วมใช้ผลงานศิลปะที่มีลิขสิทธิ์เพื่อทำงานให้เสร็จ และปฏิเสธงานที่ละเมิดมาตรฐานนี้
Taskers ยังแสดงความไม่แน่ใจเกี่ยวกับสิ่งที่พวกเขาอาจกำลังฝึก AI ให้ทำ และวิธีการใช้ข้อมูลที่ส่งของพวกเขา
“ดูเหมือนว่าการติดป้ายแผนภาพเป็นสิ่งที่ AI สามารถทำได้อยู่แล้ว ดังนั้นฉันจึงอยากรู้จริงๆ ว่าทำไมเราถึงต้องการสิ่งต่างๆ เช่น สัตว์ที่ตายแล้ว” คนหนึ่งกล่าว
Scale AI ได้นับบริษัทเทคโนโลยีรายใหญ่ เช่น Google, Meta และ OpenAI รวมถึงกระทรวงกลาโหมสหรัฐฯ และรัฐบาลกาตาร์ เป็นลูกค้าของตน บริษัทตอบสนองความต้องการที่กำลังมีความสำคัญมากขึ้นเรื่อยๆ เมื่อโมเดล AI มีขนาดใหญ่ขึ้น: สำหรับข้อมูลใหม่ที่มีป้ายกำกับที่สามารถใช้ฝึกฝนได้
Taskers อธิบายว่าได้โต้ตอบกับ ChatGPT และ Claude หรือใช้ข้อมูลจาก Meta เพื่อทำงานบางอย่างให้เสร็จ บางคนคิดว่าพวกเขาอาจกำลังฝึกโมเดลใหม่ของ Meta ที่ชื่อว่า Avocado
Meta และ Anthropic ไม่ตอบสนองต่อคำขอความคิดเห็น OpenAI กล่าวว่าได้หยุดทำงานกับ Scale AI ในเดือนมิถุนายน 2025 และ “ประมวลกฎการจัดหาของตนกำหนดความคาดหวังที่ชัดเจนสำหรับการปฏิบัติต่อแรงงานทั้งหมดอย่างมีจริยธรรมและยุติธรรม”
Taskers ส่วนใหญ่ที่ The Guardian พูดคุยด้วยยังคงรับงานบนแพลตฟอร์ม Outlier ค่าจ้างไม่แน่นอน มีการเลิกจ้างจำนวนมากเป็นครั้งคราว แต่ด้วยอนาคตของ AI ที่กำลังมาถึงอย่างรวดเร็ว พวกเขารู้สึกว่าอาจไม่มีทางเลือกอื่น
“ฉันต้องมองโลกในแง่ดีเกี่ยวกับ AI เพราะทางเลือกอื่นนั้นไม่ดีนัก” คนหนึ่งกล่าว “ดังนั้นฉันคิดว่าในที่สุดทุกอย่างจะถูกแก้ไข”
โฆษกของ Scale AI กล่าวว่า: “Outlier ให้บริการงานตามโครงการที่ยืดหยุ่นพร้อมค่าจ้างที่โปร่งใส ผู้มีส่วนร่วมเลือกเวลาและวิธีการเข้าร่วม และความพร้อมใช้งานจะแตกต่างกันไปตามความต้องการของโครงการ เราได้รับฟังความคิดเห็นจากผู้มีส่วนร่วมที่มีทักษะสูงอย่างสม่ำเสมอ ซึ่งให้ความสำคัญกับความยืดหยุ่นและโอกาสในการใช้ความเชี่ยวชาญของตนบนแพลตฟอร์ม”
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"Meta เผชิญกับความเสี่ยงด้านการเงินที่สำคัญหากหน่วยงานกำกับดูแล เช่น FTC หรือ EU ตรวจพบว่า Scale AI เก็บรวบรวมข้อมูลส่วนตัวของเด็กบัญชีอย่างเป็นระบบโดยความรู้หรือความประมาทเลินเล่อของ Meta โดยไม่คำนึงถึงว่าจะเป็นไปตามข้อตกลงหรือไม่"
ภัยพิบัติทางชื่อเสียงและภาระผูกพันทางกฎหมายสำหรับ META ไม่ใช่ตัวขับเคลื่อนหุ้นในวันนี้ แต่เป็นความเสี่ยงระยะยาว การรายงานนี้เปิดเผยการเก็บเกี่ยวข้อมูลอย่างเป็นระบบของข้อมูลเด็กบัญชีส่วนตัว เนื้อหาที่มีลิขสิทธิ์ และเสียงพากย์ที่มีเนื้อหาทางเพศอย่างผิดกฎหมายที่ Scale AI (ซึ่งเป็นหุ้นส่วน 49% ของ Meta) ได้รับการว่าจ้างให้ฝึก AI ผู้ที่ทำงานในแพลตฟอร์มดังกล่าวกล่าวว่าพวกเขาเกี่ยวข้องกับการสแกนข้อมูลส่วนบุคคลจำนวนมาก ซึ่งเป็นการกระทำที่ไม่สบายใจทางศีลธรรมอย่างมากที่แตกต่างอย่างมีนัยสำคัญจากการปรับปรุงระบบ AI ระดับสูง
การปฏิเสธของ Scale AI นั้นเฉพาะเจาะจงพอที่จะสร้างความคลุมเครือทางกฎหมาย: ผู้ปฏิบัติงานอาจละเมิดข้อตกลงของตนเอง และหุ้นส่วน 49% ของ Meta ไม่ได้หมายความถึงการควบคุมการดำเนินงานหรือความรู้เกี่ยวกับทางเลือกของลูกจ้างทุกคน
"ความเสี่ยงที่สำคัญที่สุดคือความไม่แน่นอนเกี่ยวกับสิ่งที่พวกเขาอาจกำลังฝึก AI ให้ทำ และวิธีการที่การส่งมอบของพวกเขาจะถูกนำไปใช้ ความไม่แน่นอนนี้สร้างความเสี่ยงด้านกฎระเบียบและจริยธรรมจำนวนมาก ซึ่งอาจบังคับให้ Meta ปฏิเสธชุดข้อมูลหลักหรือเผชิญกับบทลงโทษทางกฎหมายอย่างมีนัยสำคัญ"
รายงานนี้เน้นย้ำถึงความจำเป็นในการจัดหาข้อมูล "คน-ใน-วงจร" ที่มีต้นทุนสูง ซึ่งช่วยให้บริษัท AI สามารถดำเนินการได้เร็วกว่าคู่แข่ง แต่ความเสี่ยงที่แท้จริงสำหรับ Meta คือความเสี่ยงด้านชื่อเสียงและกฎระเบียบที่เกี่ยวข้องกับความก้าวหน้าของ AI ซึ่งอาจทำให้ต้นทุนการฝึกอบรม AI เพิ่มขึ้นอย่างมาก โดยเฉพาะอย่างยิ่งในแง่ของ GDPR และการปฏิบัติตามความปลอดภัยของเด็ก การพึ่งพา "ผู้ปฏิบัติงาน" ในการจัดระเบียบข้อมูลส่วนบุคคลอาจทำให้การสร้างข้อมูลสังเคราะห์เป็นทางเลือกที่ไม่ได้ผลในระยะสั้น ทำให้ต้นทุนการดำเนินงานสูงขึ้นอย่างต่อเนื่อง
การใช้แรงงานนอกระบบสำหรับการจัดระเบียบข้อมูลเป็นแนวปฏิบัติมาตรฐานต้นทุนต่ำที่ช่วยให้บริษัท AI สามารถดำเนินการได้เร็วกว่าคู่แข่ง และอาจขยายอำนาจตามธรรมชาติของตนได้ แม้จะมีความขัดแย้งด้านชื่อเสียง
"ผู้ปฏิบัติงานทุกคนกล่าวว่าพวกเขาถูกตรวจสอบอย่างต่อเนื่องผ่านแพลตฟอร์มที่เรียกว่า "Hubstaff" ซึ่งสามารถถ่ายภาพหน้าจอเว็บไซต์ที่พวกเขาเข้าชมขณะทำงาน Scale AI แหล่งข่าวระบุว่า Hubstaff ถูกใช้เพื่อให้แน่ใจว่าผู้มีส่วนร่วมจะได้รับค่าตอบแทนอย่างถูกต้อง แต่ไม่ใช่เพื่อ "ตรวจสอบผู้ปฏิบัติงานอย่างแข็งขัน""
การรายงานนี้เน้นย้ำถึงด้านที่มืดมิดของห่วงโซ่อุปทานข้อมูล AI ผ่านแพลตฟอร์ม Scale AI ที่เป็นเจ้าของ 49% ของ Meta: ผู้ปฏิบัติงานที่บันทึกเสียงพากย์ทางเพศ จัดระเบียบสิ่งปฏิกูลของสุนัข และสแกนบัญชีโซเชียลมีเดียสาธารณะ (รวมถึงบัญชีของเด็ก) เพื่อการฝึก AI แม้ว่ารายละเอียดการดำเนินงานจะมีการโต้เถียง แต่ความเสี่ยงด้านชื่อเสียงเป็นสิ่งที่สำคัญที่สุด
ผู้ปฏิบัติงานของ Scale AI รายงานการตรวจสอบอย่างต่อเนื่องและงานจ้างที่ไม่มั่นคง Scale AI ถูกกล่าวหาว่าใช้กลยุทธ์ "ล่อและหลอก" เพื่อดึงดูดผู้ปฏิบัติงานที่มีศักยภาพ โดยสัญญาเงินเดือนสูงในช่วงการสรรหา และเสนอเงินเดือนที่ต่ำกว่าอย่างมีนัยสำคัญต่อมา ผู้ปฏิบัติงานถูกขอให้เข้าร่วมการสัมภาษณ์ AI ที่ไม่ได้รับค่าตอบแทนซ้ำๆ เพื่อ qualifying สำหรับงานบางประเภท และหลายคนเชื่อว่าการสัมภาษณ์เหล่านี้ถูกนำกลับมาใช้ใหม่เพื่อฝึก AI
"ผู้ปฏิบัติงานกล่าวว่าพวกเขาได้รับแจ้งล่วงหน้าว่าไม่มีเนื้อหาเปลือยในงานนี้ และพฤติกรรมที่เหมาะสม ไม่มีเลือด และไม่มีสิ่งผิดปกติเช่น เลือด"
ผู้ปฏิบัติงานหลายคนอธิบายว่าพวกเขาถูกขอให้บันทึกเสียงพากย์ทางเพศ หรือติดป้ายรูปภาพสัตว์ตายหรือสิ่งปฏิกูลของสุนัขหนึ่งคน นักศึกษาระดับปริญญาเอกกล่าวว่าพวกเขาต้องติดป้ายแผนผังการเจริญพันธุ์ของทารก นอกจากนี้ยังมีรายงานการโทรแจ้งตำรวจที่อธิบายถึงสถานการณ์รุนแรง
ผู้ปฏิบัติงานกล่าวว่าพวกเขาได้รับแจ้งล่วงหน้าว่าไม่มีเนื้อหาเปลือยในงานนี้ และพฤติกรรมที่เหมาะสม ไม่มีเลือด และไม่มีสิ่งผิดปกติเช่น เลือด
"ผู้ปฏิบัติงานกล่าวว่าพวกเขาไม่บันทึกเข้าสู่บัญชี Facebook หรือ Instagram ส่วนตัวเพื่อทำภารกิจเหล่านี้ และไม่ทราบถึงงานที่เกี่ยวข้องกับการติดป้ายอายุของบุคคล หรือความสัมพันธ์ส่วนตัวของพวกเขา Scale AI ยืนยันว่าไม่ได้ทำงานที่เกี่ยวข้องกับวัสดุทางเพศที่ละเอียดอ่อนสำหรับเด็ก แต่ใช้ข้อมูลโซเชียลมีเดียสาธารณะของเด็ก"
ผู้ปฏิบัติงานกล่าวว่าพวกเขาพบว่างานเหล่านี้ไม่น่าสบายใจ และพยายามทำตามด้วยการใช้ภาพถ่ายของคนดังและบุคคลสาธารณะ
"สำหรับงานอีกอย่างหนึ่ง ผู้ปฏิบัติงานอธิบายถึงการเก็บภาพถ่ายจากภาพถ่ายที่มีลิขสิทธิ์ ผู้ปฏิบัติงานไม่ได้ขอให้ใช้ภาพถ่ายที่มีลิขสิทธิ์เพื่อทำภารกิจ และ Scale AI ปฏิเสธงานที่ละเมิดมาตรฐานนี้"
ผู้ปฏิบัติงานไม่ได้เข้าถึงบัญชี Facebook หรือ Instagram ส่วนตัวเพื่อทำภารกิจเหล่านี้
"Scale AI ได้นับจำนวนบริษัทเทคโนโลยีชั้นนำ เช่น Google, Meta และ OpenAI รวมถึงกระทรวงกลาโหมสหรัฐฯ และรัฐบาลกาตาร์เป็นลูกค้า"
ผู้ปฏิบัติงานยังมีความไม่แน่นอนเกี่ยวกับสิ่งที่พวกเขาอาจกำลังฝึก AI ให้ทำ และวิธีการที่การส่งมอบของพวกเขาจะถูกนำไปใช้
"Meta และ Anthropic ไม่ตอบกลับคำขอแสดงความคิดเห็น OpenAI กล่าวว่าหยุดทำงานกับ Scale AI ในเดือนมิถุนายน 2568 และ "ข้อกำหนดการปฏิบัติของซัพพลายเออร์" กำหนดความคาดหวังที่ชัดเจนสำหรับการปฏิบัติที่ถูกต้องตามกฎหมายและยุติธรรมของพนักงานทุกคน"
ผู้ปฏิบัติงานโต้แย้งว่าพวกเขาอาจกำลังฝึก Meta’s รุ่นใหม่ Avocado
คำตัดสินของคณะ
ไม่มีฉันทามติผู้ปฏิบัติงานส่วนใหญ่ที่พูดคุยกับ The Guardian ยังคงรับงานบนแพลตฟอร์ม Outlier ค่าตอบแทนไม่แน่นอน มีการไล่ออกจำนวนมากเป็นครั้งคราว แต่พวกเขารู้สึกว่าอาจไม่มีทางเลือกอื่น นอกจากนี้
ผู้ปฏิบัติงานกล่าวว่าพวกเขาเชื่อว่าพวกเขาได้ฝึกฝนการทำงานทดแทนของตนเอง
ผู้ปฏิบัติงานกล่าวว่าพวกเขาต้องเผชิญกับความท้าทายในการทำงานที่เกี่ยวข้องกับ AI และเชื่อว่าพวกเขาอาจกำลังฝึกเปลี่ยนทดแทนของตนเอง