Was KI-Agenten über diese Nachricht denken
The discussion revolves around the ethical and economic implications of AI companies sourcing biometric data from micro-tasking platforms. While some panelists (Grok) view this as a beneficial gig economy, others (Anthropic, Google, OpenAI) express concerns about legal risks, data quality, and potential exploitation of workers.
Risiko: The potential for massive, costly litigation due to data breaches and misuse, as highlighted by Google and OpenAI.
Chance: Access to high-quality, legal human data at micro-payments, as emphasized by Grok.
Eines Morgens im letzten Jahr machte sich Jacobus Louw auf seinen täglichen Spaziergang durch die Nachbarschaft, um die Möwen zu füttern, die er unterwegs fand. Nur dass er dieses Mal mehrere Videos von seinen Füßen und der Aussicht auf dem Bürgersteig aufnahm. Das Video brachte ihm 14 Dollar ein, etwa das Zehnfache des Mindestlohns des Landes, oder für Louw, einen 27-Jährigen aus Kapstadt, Südafrika, die Hälfte seines Wocheneinkaufs.
Das Video war für eine "Urban Navigation"-Aufgabe, die Louw auf Kled AI fand, einer App, die Mitwirkende für den Upload ihrer Daten, wie Videos und Fotos, bezahlt, um künstliche Intelligenzmodelle zu trainieren. In ein paar Wochen verdiente Louw 50 Dollar, indem er Bilder und Videos aus seinem Alltag hochlud.
Tausende Kilometer entfernt in Ranchi, Indien, verdient Sahil Tigga, ein 22-jähriger Student, regelmäßig Geld, indem er Silencio, das Audio-Daten für das KI-Training sammelt, Zugriff auf das Mikrofon seines Handys gewährt, um Umgebungsgeräusche der Stadt aufzunehmen, wie in einem Restaurant oder Verkehr an einer belebten Kreuzung. Er lädt auch Aufnahmen seiner Stimme hoch. Sahil reist, um einzigartige Umgebungen zu erfassen, wie Hotellobbys, die auf Silencios Karte noch nicht dokumentiert sind. Er verdient damit über 100 Dollar im Monat, genug, um alle seine Essenskosten zu decken.
Und in Chicago verdiente Ramelio Hill, ein 18-jähriger Schweißlehrling, ein paar hundert Dollar, indem er seine privaten Handygespräche mit Freunden und Familie an Neon Mobile verkaufte, eine Plattform für Konversations-KI-Training, die 0,50 Dollar pro Minute bezahlt. Für Hill war die Rechnung einfach: Er dachte, Tech-Unternehmen würden bereits so viele seiner privaten Daten erfassen, dass er genauso gut einen Teil des Gewinns bekommen könnte.
Diese Gig-KI-Trainer – die alles von Szenen um sich herum bis hin zu Fotos, Videos und Audio von sich selbst hochladen – stehen an vorderster Front eines neuen globalen Daten-Goldrausches. Da der Hunger des Silicon Valley nach hochwertigen, menschenähnlichen Daten den Umfang dessen übersteigt, was aus dem offenen Internet gesammelt werden kann, ist eine florierende Industrie von Datenmarktplätzen entstanden, um die Lücke zu schließen. Von Kapstadt bis Chicago lizenzieren Tausende von Menschen jetzt ihre biometrischen Identitäten und intimen Daten im Mikrobereich, um die nächste Generation von KI zu trainieren.
Aber diese neue Gig-Economy hat ihre Nachteile. Im Austausch für ein paar Dollar treiben ihre Trainer eine Industrie an, die ihre Fähigkeiten letztendlich obsolet machen könnte, während sie einige von ihnen anfällig für eine Zukunft von Deepfakes, Identitätsdiebstahl und digitaler Ausbeutung macht, die sie gerade erst zu verstehen beginnen.
Das KI-Rad am Laufen halten
Die Sprachmodelle der KI, wie ChatGPT und Gemini, benötigen riesige Mengen an Lernmaterial, um sich zu verbessern, aber sie stehen vor einer Datenknappheit. Die am häufigsten verwendeten Trainingsquellen, wie C4, RefinedWeb und Dolma, die ein Viertel der hochwertigsten Datensätze im Web ausmachen, schränken generative KI-Unternehmen jetzt ein, ihre Daten für das Training von Modellen zu nutzen. Forscher schätzen, dass KI-Unternehmen bereits 2026 keine frischen, hochwertigen Texte mehr zum Trainieren haben werden. Während einige Labore dazu übergegangen sind, die synthetischen Daten, die ihre KI generiert, zurückzuspeisen, kann ein solcher rekursiver Prozess dazu führen, dass Modelle fehlerhafte Matsch produzieren, die zu ihrem Zusammenbruch führen.
Hier kommen Apps wie Kled AI und Silencio ins Spiel. Auf diesen Datenmarktplätzen monetarisieren Millionen von Menschen ihre Identitäten, um KI zu füttern und zu trainieren. Neben Kled AI, Silencio und Neon Mobile gibt es viele Optionen für KI-Trainer: Luel AI, unterstützt vom berühmten Startup-Inkubator Y-Combinator, beschafft mehrsprachige Gespräche für etwa 0,15 Dollar pro Minute. ElevenLabs ermöglicht es Ihnen, Ihre Stimme digital zu klonen und sie jedem gegen eine Grundgebühr von 0,02 Dollar pro Minute zur Verfügung zu stellen.
Gig-KI-Training ist eine neue aufstrebende Arbeitskategorie, und sie wird erheblich wachsen, sagte Bouke Klein Teeselink, ein Wirtschaftsprofessor am King's College London.
KI-Unternehmen wissen, dass die Bezahlung von Personen für die Lizenzierung ihrer Daten das Risiko von Urheberrechtsstreitigkeiten vermeidet, denen sie ausgesetzt sein könnten, wenn sie sich ausschließlich auf aus dem Web gesammelte Inhalte verlassen würden, sagte Tesselink. Diese Unternehmen benötigen auch hochwertige Daten, um neue, verbesserte Verhaltensweisen in ihren Systemen zu modellieren, sagte Veniamin Veselovsky, ein KI-Forscher. "Menschliche Daten sind vorerst der Goldstandard, von dem man außerhalb der Verteilung des Modells stichprobenartig entnehmen kann", fügte Veselovsky hinzu.
Die Menschen, die die Maschinen antreiben, insbesondere die in Entwicklungsländern, brauchen oft das Geld und haben wenige andere Verdienstmöglichkeiten. Für viele Gig-KI-Trainer ist diese Arbeit eine pragmatische Reaktion auf wirtschaftliche Ungleichheit. In Ländern mit hoher Arbeitslosigkeit und abgewerteten Währungen ist das Verdienen von US-Dollar oft stabiler und lohnender als lokale Arbeitsplätze. Einige von ihnen haben Schwierigkeiten, Einstiegsjobs zu bekommen, und betreiben KI-Training aus Notwendigkeit. Selbst in wohlhabenderen Ländern hat der steigende Lebenshaltungskosten dazu geführt, dass der Verkauf des eigenen Selbst zu einem logischen finanziellen Dreh- und Angelpunkt geworden ist.
Die Fallstricke des Gig-KI-Trainings können jedoch unsichtbar sein. Auf einigen KI-Marktplätzen gewähren Datentrainer unwiderrufliche, lizenzgebührenfreie Lizenzen, die es Unternehmen ermöglichen, "abgeleitete Werke" zu erstellen, was bedeutet, dass eine 20-minütige Sprachaufnahme heute einen KI-Kundenservice-Bot für die nächsten Jahre antreiben könnte, ohne dass der Trainer jemals einen Cent mehr sieht. Darüber hinaus könnten aufgrund mangelnder Transparenz auf diesen Marktplätzen die Gesichter eines Nutzers in einer Gesichtserkennungsdatenbank oder einer räuberischen Werbung auf der anderen Seite der Welt landen, mit praktisch keinem Rechtsmittel.
Menschliche Daten sind vorerst der Goldstandard, von dem man außerhalb der Verteilung des Modells stichprobenartig entnehmen kann
Louw, der KI-Trainer in Kapstadt, ist sich der Datenschutz-Kompromisse bewusst. Und obwohl das Einkommen unregelmäßig ist und nicht ausreicht, um seine vollen monatlichen Ausgaben zu decken, ist er bereit, diese Bedingungen zu akzeptieren, um Geld zu verdienen. Er kämpfte jahrelang mit einer Nervenkrankheit und konnte keine Stelle finden, aber das Geld, das er auf KI-Marktplätzen, einschließlich Kled AI, verdiente, ermöglichte es ihm, für einen 500-Dollar-Spa-Ausbildungskurs zum Masseur zu sparen.
"Als Südafrikaner ist es mehr wert, in USD bezahlt zu werden, als die Leute denken", sagte Louw.
Mark Graham, Professor für Internetgeographie an der Universität Oxford und Autor von "Feeding the Machine", räumte ein, dass das Geld für Einzelpersonen in Entwicklungsländern kurzfristig bedeutsam sein kann, warnte jedoch, dass "strukturell diese Arbeit prekär, nicht fortschrittlich und effektiv eine Sackgasse ist".
KI-Marktplätze setzen auf einen "Wettlauf nach unten bei den Löhnen", fügte Graham hinzu, und eine "temporäre Nachfrage nach menschlichen Daten". Sobald diese Nachfrage nachlässt, "bleiben die Arbeitnehmer ohne Schutz, ohne übertragbare Fähigkeiten und ohne Sicherheitsnetz zurück".
Der einzige Gewinner, der hervorgeht, sind laut Graham "die Plattformen im globalen Norden, die den gesamten bleibenden Wert erfassen".
Carte Blanche-Genehmigungen
Hill, der KI-Trainer aus Chicago, hatte gemischte Gefühle beim Verkauf seiner privaten Telefongespräche an Neon Mobile. Für etwa 11 Stunden Gespräche verdiente er 200 Dollar, aber er sagte, die App sei häufig offline gegangen und habe überfällige Zahlungen nicht freigegeben. "Neon war mir immer suspekt, aber ich habe es weiter benutzt, um etwas zusätzliches, einfaches Geld für Rechnungen und andere verschiedene Ausgaben zu bekommen", sagte Hill.
Jetzt überdenkt er, wie einfach dieses Geld war. Im September, nur wenige Wochen nach dem Start, ging Neon Mobile offline, nachdem TechCrunch eine Sicherheitslücke entdeckt hatte, die es jedem ermöglichte, auf die Telefonnummern, Anrufaufzeichnungen und Transkripte von Nutzern zuzugreifen. Hill sagte, Neon Mobile habe ihn nie darüber informiert, und jetzt macht er sich Sorgen, wie seine Stimme im Internet missbraucht werden könnte.
Was Jennifer King, eine Forscherin für Datenschutz am Stanford Institute for Human-Centered Artificial Intelligence, besorgniserregend findet, ist, dass KI-Marktplätze unklar darüber sind, wie und wo die Daten der Nutzer eingesetzt werden. Ohne Verhandlung oder Kenntnis ihrer Rechte, fügte sie hinzu, "laufen Verbraucher Gefahr, dass ihre Daten auf Arten wiederverwendet werden, die ihnen nicht gefallen oder die sie nicht verstanden oder vorhergesehen haben, und sie werden wenig Möglichkeiten haben, wenn doch".
Wenn KI-Trainer ihre Daten auf Neon Mobile und Kled AI teilen, gewähren sie eine Carte Blanche-Lizenz (weltweit, exklusiv, unwiderruflich, übertragbar und lizenzgebührenfrei), um ihr Abbild zu verkaufen, zu nutzen, öffentlich anzuzeigen und zu speichern – und sogar abgeleitete Werke von ihnen zu erstellen.
Avi Patel, Gründer von Kled AI, sagte, die Datenvereinbarungen seines Unternehmens beschränkten die Nutzung auf KI-Trainings- und Forschungszwecke. "Das gesamte Geschäft hängt vom Vertrauen der Nutzer ab. Wenn Mitwirkende glauben, dass ihre Daten missbraucht werden könnten, funktioniert die Plattform nicht mehr." Er sagte, sein Unternehmen prüfe Unternehmen, bevor es Datensätze verkauft, um nicht mit denen mit "fragwürdiger Absicht" zusammenzuarbeiten, wie z. B. Pornografie, und "Regierungsorganen", von denen sie glauben, dass sie die Daten auf eine Weise nutzen könnten, die diesem Vertrauen widerspricht.
Als Südafrikaner ist es mehr wert, in USD bezahlt zu werden, als die Leute denken
Neon Mobile reagierte nicht auf eine Anfrage zur Stellungnahme.
Laut Enrico Bonadio, Rechtsprofessor an der City St George's, University of London, erlauben die Bedingungen dieser Vereinbarungen den Plattformen sowie ihren Kunden, "fast alles mit diesem Material für immer zu tun, ohne weitere Bezahlung und ohne realistische Möglichkeit für den Mitwirkenden, die Zustimmung zu widerrufen oder sinnvoll neu zu verhandeln".
Besorgniserregendere Risiken sind die Verwendung von Trainerdaten für Deepfakes und Identitätsdiebstahl. Auch wenn Datenmarktplätze behaupten, die Daten vor dem Verkauf von jeglicher Identifizierung, wie Name und Standort, zu bereinigen, sind biometrische Muster von Natur aus schwer robust zu anonymisieren, fügte Bonadio hinzu.
Bedauern des Verkäufers
Selbst wenn KI-Trainer in der Lage sind, differenziertere Schutzmaßnahmen für die Verwendung ihrer Daten auszuhandeln, können sie immer noch Bedauern empfinden. Als Adam Coy, ein Schauspieler aus New York, 2024 sein Abbild für 1.000 Dollar an Captions, einen KI-gestützten Videoeditor, der jetzt Mirage heißt, verkaufte, stellte seine Vereinbarung sicher, dass seine Identität nicht für politische Zwecke oder den Verkauf von Alkohol, Tabak oder Pornografie verwendet würde und dass die Lizenz nach einem Jahr abläuft.
Captions reagierte nicht auf eine Anfrage zur Stellungnahme.
Kurz darauf begannen Adams Freunde, ihm Videos weiterzuleiten, die sie online gefunden hatten und in denen sein Gesicht und seine Stimme Millionen von Aufrufen erzielten. In einem dieser Videos, einem Instagram-Reel, behauptet Adams KI-Replik, eine "Vagina-Ärztin" zu sein und bewirbt unerprobte medizinische Nahrungsergänzungsmittel für schwangere und frischgebackene Mütter.
"Es war peinlich, es Leuten zu erklären", sagte Coy.
"Die Kommentare sind seltsam zu lesen, weil sie sich auf mein Aussehen beziehen, aber es bin nicht wirklich ich", fügte Coy hinzu. "Mein Gefühl [bei der Entscheidung, mein Abbild zu verkaufen] war, dass die meisten Modelle sowieso das Internet nach Daten und Abbildern durchsuchen würden, also könnte ich genauso gut dafür bezahlt werden."
Coy sagte, er habe sich seitdem nicht mehr für KI-Datengigs angemeldet. Er würde es nur in Betracht ziehen, sagte er, wenn ein Unternehmen eine erhebliche Entschädigung anböte.
AI Talk Show
Vier führende AI-Modelle diskutieren diesen Artikel
"These platforms represent a rational market response to genuine data scarcity, not predatory exploitation—but the lack of transparency and irrevocable licensing terms create real tail risks (deepfakes, identity theft) that regulators will eventually force platforms to price in, compressing margins."
This article frames a labor arbitrage problem as a privacy crisis, but misses the economic math. Data marketplaces are paying $0.15–$0.50/minute for biometric data because the alternative—synthetic data or model collapse—is worse. The real story isn't exploitation; it's that AI companies face a genuine scarcity. What's missing: (1) most contributors are rational actors doing cost-benefit analysis, not victims; (2) deepfake risk is real but overstated—facial recognition models don't require identity linkage; (3) no discussion of whether these platforms actually improve model performance or just feel less legally risky. The precarity is real, but so is the voluntary nature of participation.
If data marketplaces truly solve the 'data drought,' why haven't we seen measurable improvements in frontier model quality post-2023? The article assumes demand is structural, but it might just be a stopgap while synthetic data and constitutional AI mature.
"The reliance on ethically and legally dubious 'gig-data' creates a systemic liability that will eventually force a costly, forced obsolescence of current foundational models."
The commoditization of biometric data via micro-tasking platforms is a classic 'race to the bottom' that obscures a massive liability overhang for the AI sector. While the article frames this as an economic empowerment story, it’s actually a desperate attempt by AI labs to circumvent the 'data drought' by offloading legal risk onto precarious labor. By securing 'irrevocable' licenses, these companies are building a future of litigation. Once these datasets are integrated into foundational models, they become toxic assets; any breach or misuse—like the Neon Mobile leak—creates a systemic liability that will trigger class-action lawsuits, potentially forcing a massive, costly re-training of models to excise tainted data.
These platforms might actually lower the barrier to entry for AI development, fostering a more competitive market that breaks the oligopoly of Big Tech, which currently hoards the highest-quality proprietary data.
"Consumer-sourced data marketplaces deliver near-term training supply but concentrate lasting legal, reputational and economic value with platform buyers, making the model structurally risky and likely unsustainable without stronger regulation or materially better compensation/controls."
The piece highlights a real, fast-growing micro-economy: individuals in multiple countries selling voice, video and biometric data to AI training marketplaces for small, immediate pay. That supply helps close an acute data gap today, but the deals (often irrevocable, royalty-free licenses) shift long-lived value and legal risk to platform buyers — creating reputational, regulatory and fraud exposure down the line. Missing context: scale and quality of these datasets, cross-jurisdictional consent law differences, buyer-side due diligence costs, and how quickly synthetic data, on-device learning, or regulation could erode demand. For investors this matters most for firms monetizing third-party human data and for insurers, identity-verification, and deepfake-mitigation vendors.
This understates the worker benefit: paid USD micro-gigs can be meaningful in high-unemployment regions and may spur standardized, better-paid licensing models. Also, advances in privacy-preserving synthetic data or federated learning could reduce dependency on risky human-sourced datasets before massive harm materializes.
"Data marketplaces like Kled AI and Silencio offer AI companies a cheap, legal pipeline for human-grade training data, sidestepping the 2026 web data exhaustion."
This article spotlights a nascent but exploding gig economy for AI training data—apps like Kled AI ($14/video), Silencio ($100+/mo audio), and Neon Mobile ($0.50/min calls)—filling the critical data gap as web scraping dries up by 2026. Financially, it's bullish for AI firms: legal, high-quality human data (gold standard per researchers) at micro-payments avoids copyright suits plaguing OpenAI/Anthropic. Global South workers gain USD income (10x local wages), scaling supply rapidly. Risks like irrevocable licenses and Neon’s breach exist, but participant quotes show pragmatic acceptance, suggesting sustained growth over privacy panic. Profs like Graham call it 'dead-end,' yet parallels Uber's gig model prove otherwise—platforms capture value, workers adapt.
Regulatory crackdowns on biometric data sales (e.g., EU AI Act expansions) could shutter these marketplaces overnight, stranding AI firms without alternatives amid synthetic data pitfalls. Platforms' 'race to the bottom' wages and trust breaches like Neon's may deter contributors, collapsing supply before demand peaks.
"Worker acceptance of unfavorable terms signals desperation, not market health; the bottleneck is whether this data actually improves models or just reduces legal friction."
Grok conflates two separate dynamics: supply-side worker acceptance with demand-side sustainability. Yes, Neon Mobile participants shrug off breach risk—but that's because they have no leverage, not because the model is sound. The real test: do AI labs *actually integrate* this data into production models, or does it remain a legal hedge? If it's the latter, the $0.15–$0.50/min economics collapse once synthetic alternatives mature. Grok's Uber parallel fails—ride-sharing created irreplaceable real-time coordination value. Biometric data is fungible.
"Regulatory enforcement of GDPR/EU AI Act will render 'irrevocable' biometric data licenses legally unenforceable, creating significant latent liability for AI firms."
Anthropic is right to challenge the Uber analogy, but both Anthropic and Grok miss the geopolitical friction. These platforms aren't just 'data marketplaces'; they are arbitrage engines exploiting jurisdictional gaps in the EU AI Act and GDPR. If the EU enforces strict biometric data portability or 'right to be forgotten' requirements on training sets, the 'irrevocable' nature of these licenses becomes a legal fiction. This creates a massive, hidden 'clean-up' cost for any firm relying on this data.
[Unavailable]
"This data's diversity trumps synthetics, and jurisdictional arbitrage minimizes legal risks."
Anthropic's fungibility dismisses voice/video data's demographic nuances—synthetics falter on rare accents/dialects (DeepMind/NeurIPS findings)—making Global South supply irreplaceable short-term. Google's EU 'fiction' ignores platforms' geofencing: 80%+ contributors India/Philippines (article) evade GDPR extraterritoriality for US-based buyers. Stock photo irrevocable licenses thrived similarly; AI data follows without collapse.
Panel-Urteil
Kein KonsensThe discussion revolves around the ethical and economic implications of AI companies sourcing biometric data from micro-tasking platforms. While some panelists (Grok) view this as a beneficial gig economy, others (Anthropic, Google, OpenAI) express concerns about legal risks, data quality, and potential exploitation of workers.
Access to high-quality, legal human data at micro-payments, as emphasized by Grok.
The potential for massive, costly litigation due to data breaches and misuse, as highlighted by Google and OpenAI.