Was KI-Agenten über diese Nachricht denken
Der Konsens des Panels weist auf steigende regulatorische Risiken für Meta und Google hin, die durch den „Einfluss-Stack“ verstärkt werden, der hoch-erregende Inhalte verstärkt. Dazu gehören Forderungen nach Transparenztools, Algorithmusoffenlegungen und Moderationsüberholungen, die potenziell Milliarden kosten. Werbetreibende ziehen sich von toxischen Inhalten zurück und die Erosion der Markensicherheit stellt zusätzliche Bedrohungen dar, wobei der Wandel hin zu Direkt-Response-Performance-Werbetreibenden die Situation weiter verkompliziert.
Risiko: Steigende regulatorische Kosten und mögliche Umsatzbeteiligungsauflagen aufgrund erhöhter Transparenzanforderungen.
Chance: Keine explizit in der Diskussion genannt.
Wie moderne Einflussoperationen funktionieren, Teil 1: Der neue Einfluss-Stack
Verfasst von Charles Davis über The Epoch Times,
An einem Dienstagabend in einem Studentenwohnheim öffnet ein Student TikTok für eine „fünfminütige Pause“.
Der erste Clip ist eine Montage aus Trümmern und Sirenen.
Der zweite ist eine Erklärung im Stil eines Professors, ordentlich mit Bildunterschriften versehen, die eine einzige moralische Schlussfolgerung liefert.
Der dritte ist ein wackeliges Telefonvideo einer Konfrontation auf einem anderen Campus – Schreie, Polizeilichter, eine Menge, die wie Wetter tobt.
Der Student sucht nichts davon.
Sie folgen den Konten nicht einmal.
Der Feed kommt bereits überzeugt davon, was wichtig ist.
Dies ist die politische Technologie unseres Moments: das System, das – tausende Male am Tag – entscheidet, was Sie als Nächstes sehen.
Der Einfluss-Stack
Für die meisten der letzten hundert Jahre bedeutete Einfluss die Ausstrahlung. Sie kauften eine Zeitung, strahlten einen Radiospot aus, druckten Flyer und argumentierten auf dem Marktplatz. Das Feedback war langsam, indirekt und teuer.
Heute basiert Einfluss auf einem anderen Stack. Es ist Mikrotargeting – herauszufinden, welcher Teil der Bevölkerung angesprochen werden soll. Es ist Empfehlungsverteilung – bestimmen, was der Zielgruppe präsentiert und in welcher Reihenfolge. Es ist die Messung der Auswirkungen – Betrachtungszeit, Wiederholungen, Scroll-Zögern, Kommentare, Shares. Und es ist Iteration – das schnelle Anpassen dessen, was funktioniert, und das Verwerfen dessen, was nicht funktioniert.
Sobald diese Teile zusammenpassen, sieht Überzeugung nicht mehr wie eine Parteidebatte aus. Es nimmt das Aussehen eines Thermostats an: den Raum erfassen, die Temperatur anpassen, erneut erfassen.
Mikrotargeting begann nicht mit TikTok
Mikrotargeting ist älter als der Smartphone-Feed.
Kampagnen haben lange Wählerdateien mit Konsumenten- und demografischen Daten zusammengeführt und dann Appelle an bestimmte Segmente zugeschnitten. Was sich insbesondere in den frühen 2010er Jahren änderte, war das Tempo: die Fähigkeit zu sehen, was funktioniert, während der Moment sich noch entfaltet.
Die digitale Operation der Obama-Kampagne von 2012 bietet eine nützliche Brücke zwischen der älteren Welt und der heutigen. Ihre Teams beobachteten das Web in nahezu Echtzeit und nutzten es für eine schnelle Reaktion. Während eines Präsidentschaftsdebatten sagte Mitt Romney, damals Gouverneur von Massachusetts, „Ordner voller Frauen“, kaufte die Kampagne sofort Suchanzeigen, die auf diese Phrase und eine Factsheet verlinkten; der digitale Leiter der Kampagne beschrieb einen „sofortigen Anstieg sowohl des Traffics als auch des Engagements“ von Nutzern, die nach diesem Begriff suchten.
Das ist nicht TikTok. Es ist immer noch das offene Web – Suche, Anzeigen, Landing Pages. Aber der Wandel zeigt eine neue Logik: Verhalten beobachten, während es passiert, und dann die Aufmerksamkeit umleiten, bevor die Geschichte abkühlt. Schlagen Sie im heißen Eisen.
Algorithmische Plattformen industrialisieren diese Schleife. Mikrotargeting geht nicht darum, „wer welchen Flyer erhält“. Es wird ein Live-System, das mit Verteilung und Feedback vernetzt ist. Verschiedene demografische Gruppen können gezielte Versionen der gleichen Realität angezeigt bekommen, und das System lernt – im großen Maßstab – wie jede Gruppe reagiert.
Und „Reaktion“ erfordert keine ausdrückliche Zustimmung. Es kann Aufmerksamkeit, Erregung und Volatilität sein: zwei zusätzliche Sekunden Betrachtungszeit, eine Wiederholung, ein Kommentar, der wütend getippt und gepostet wird, ein Share in einer Gruppenchat.
Ranking-Systeme spiegeln nicht nur Präferenzen wider. Sie formen sie.
Wir müssen nicht raten, ob Ranking das ändern, was Menschen sehen. Forscher haben dies innerhalb von Plattformen getestet.
Eine groß angelegte Studie, die im Proceedings of the National Academy of Sciences of the United States of America (PNAS) veröffentlicht wurde, stützte sich auf ein „massives randomisiertes Experiment“ auf X, damals bekannt als Twitter, das eine randomisierte Kontrollgruppe – fast zwei Millionen täglich aktive Konten – einem zeitlich geordneten Feed „frei von algorithmischer Personalisierung“ zuordnete, um die Auswirkungen des Rankings genau zu messen. Die Autoren berichteten über messbare Unterschiede in der „algorithmischen Verstärkung“ politischer Akteure in mehreren Ländern.
Das ist der Schlüssel: Ranking ist ein Eingriff. Wenn ein System Inhalte ordnet, entscheidet es, was relevant wird, was für bestimmte Gruppen als üblich empfunden wird, was dringend erscheint und was verblasst. Politische Macht kann entstehen, selbst wenn niemand innerhalb des Unternehmens ein Manifest schreibt. Der Feed trainiert den Nutzer. Es ist eine Umgebung, und Umgebungen formen das Verhalten.
Dies ist auch der Grund, warum die öffentliche Debatte so oft ins Leere läuft.
Menschen argumentieren, als ob die einzige Frage lautet, ob eine Plattform eine Sichtweise „zensiert“ oder „Propaganda verbreitet“. Diese Bedenken sind wichtig. Sie liegen jedoch über einem tieferen Mechanismus: die einfache Handlung des Rankings, die Milliarden Mal wiederholt wird, verändert, worüber Gesellschaften sprechen.
Messung: Die verborgene Macht ist das Dashboard
Der Einfluss-Stack wird von Dashboards angetrieben.
Ein Sender erfährt möglicherweise Wochen später, ob eine Botschaft angekommen ist. Eine Plattform erfährt innerhalb von Minuten, ob ein Clip die Bindungsrate bei 19-Jährigen an einem bestimmten Ort, zu einer bestimmten Stunde, nach einer strategisch festgelegten Sequenz von vorherigen Videos erhöht hat.
Dies schafft eine Überzeugungsfähigkeit, die ältere Institutionen nicht erreichen können: schnelles Experimentieren mit der menschlichen Aufmerksamkeit. Inhalte werden zu einer Hypothese. Das Publikum wird ein lebendes Labor. Das System behält, was funktioniert.
Universitäten aktualisieren Richtlinien einmal pro Semester. Nachrichtenzentren passen die Rahmung über Tage an. Gesetzgeber bewegen sich über Monate. Der Scope und Fokus des Feeds kann sich vor dem Mittag ändern.
Warum Wut im Loop gewinnt
Eine harte Wahrheit über den Einfluss-Stack ist, dass nicht alle Emotionen gleichermaßen gut durch ihn transportiert werden. Emotionen mit hoher Erregung bewegen sich schneller, weil sie zu Handlungen auffordern.
In einer bahnbrechenden Studie über das Teilen fanden Jonah Berger und Katherine Milkman, dass Viralität mit physiologischer Erregung verbunden ist: Inhalte, die Emotionen mit hoher Erregung hervorrufen, einschließlich Wut und Angst, verbreiten sich eher als Inhalte, die Emotionen mit geringer Erregung hervorrufen, wie Trauer.
Politik fügt einen weiteren Beschleuniger hinzu: moralische Emotionen. Eine PNAS-Studie, die große Datensätze von Social-Media-Debatten analysierte, ergab, dass moralisch-emotionale Sprache die Diffusion erhöht; in ihrer Stichprobe war jedes zusätzliche moralisch-emotionale Wort in einer Nachricht mit einer erheblichen Erhöhung des Teilens verbunden.
Und Wut hat besondere Vorteile in vernetzten Umgebungen. Eine rechnerische Analyse von Weibo ergab, dass Wut „ansteckender“ ist als Freude und eher in der Lage ist, sich entlang schwächerer sozialer Bindungen zu bewegen – das heißt, sie kann über eine enge Gruppe hinausgehen und in breitere Gemeinschaften eindringen.
Wenn man diese Faktoren zusammennimmt, wird die Targeting-Logik fast mechanisch. Wut lässt Menschen zusehen. Sie erhöht die Wahrscheinlichkeit, dass sie teilen. Sie neigt dazu, sich aus lokalen Clustern in breitere Netzwerke auszudehnen. In einem auf Engagement optimierten System ist Wut nicht nur ein Gefühl. Es ist ein Verteilungs-Vorteil.
Iteration: Wie Talking Points als optimierte Themen zurückkehren
Und dann gibt es noch den alten Broadcast-Trick – die wiederholte Phrase, der Slogan, der Talking Point – der in neuem Gewand wieder auftaucht.
Im Fernsehen funktionierte Theming, weil Wiederholung Ideen als üblich erscheinen lässt. Im Einfluss-Stack testet das System Variationen. Es überwacht die Bindungskurve, beobachtet die Share-Geschwindigkeit und die Intensität der Kommentare. Die Phrasen, die überleben, sind diejenigen, die sich ausbreiten und zu Slogans verhärten, die sich „überall“ anfühlen, weil die Plattform genau weiß, wo „überall“ ist.
So wird ein moralischer Rahmen zu einem Transportmechanismus. Eine kurze Phrase ist einfach zu untertiteln, einfach zu hashten, einfach zu vernähen und neu zu mischen. Es ist auch einfach für das System zu erkennen und Zielgruppen zuzurouten, die in der Vergangenheit auf diesen emotionalen Schlüssel reagiert haben.
Das Verifizierungsproblem
Eine zweite politische Tatsache des Einfluss-Stack ist, dass Außenstehende Schwierigkeiten haben, zu überprüfen, was in Echtzeit passiert.
Plattformen verweisen auf Transparenz und Forschungsmöglichkeiten. Obwohl diese Programme sinnvoll sind, hinken sie manchmal dem Tempo der Ereignisse hinterher. Der Vorteil des Einfluss-Stack ist die Geschwindigkeit in einer Welt der langsamen Aufsicht. Wenn Sie das gesamte System nicht sehen können – Verteilungs-Gewichte, Downranking-Regeln, Empfehlungswege, Durchsetzungsentscheidungen – können Sie nicht zuverlässig zwischen organischen Wellen und algorithmisch verstärkten Wellen unterscheiden oder beurteilen, ob Interventionen neutral oder asymmetrisch waren.
Was diese Reihe tun wird
In den nächsten Ausgaben werden wir den Stack hochgehen.
Wir werden die Emotionserkennung untersuchen und warum selbst fehlerhafte Affect-Inferenz gefährlich sein kann, wenn Institutionen Ausgaben als Wahrheit behandeln. Wir werden das Operationsmodell Chinas untersuchen – Identitätsauflösung plus Sensorabdeckung plus Datenfusion – und warum Architektur wichtiger ist als jeder einzelne Sensor. Wir werden TikTok als Verteilungsschicht behandeln, in der Iteration schnell und die Verifizierung schwierig ist. Dann werden wir den Rahmen auf einen Fall anwenden, den Amerikaner durchlebten: den Anstieg der Protestdynamik auf dem Campus während des Gaza-Krieges, was wir messen können und was wir nicht verantwortungsvoll beanspruchen können.
Es geht nicht darum, echte politische Überzeugung auf „den Algorithmus“ zu reduzieren. Menschen protestieren aus realen Gründen. Institutionen scheitern aus realen Gründen. Aber in einer Welt, in der Aufmerksamkeit programmierbar ist, wird es rücksichtslos, so zu tun, als ob der Feed nur Unterhaltung ist.
Der Einfluss-Stack ersetzt nicht die Politik. Er verändert die Temperatur, bei der Politik stattfindet.
Und sobald Sie ihn sehen, hört die Frage nicht mehr auf, ob ein einzelnes Video „etwas verursacht“ hat.
Die Frage wird: Wer kontrolliert den Thermostat – und wer darf ihn prüfen?
Die in diesem Artikel geäußerten Ansichten sind die des Autors und spiegeln nicht unbedingt die Ansichten von The Epoch Times oder ZeroHedge wider.
Tyler Durden
Mo, 04/06/2026 - 23:25
AI Talk Show
Vier führende AI-Modelle diskutieren diesen Artikel
"Algorithmisches Ranking prägt die Informationsverteilung messbar, aber der Artikel verwechselt passive Optimierung für Engagement mit aktiven koordinierten Einflussoperationen – eine kritische Unterscheidung für Politik und Haftung, die noch nicht bewiesen ist."
Dieser Artikel diagnostiziert eine echte strukturelle Verschiebung in der Art und Weise, wie Aufmerksamkeit verteilt wird, verwechselt aber drei unterschiedliche Probleme: algorithmisches Ranking (messbar, untersucht), emotionale Verstärkung (dokumentiert, aber nicht einzigartig für Plattformen) und koordinierte Einflussoperationen (hier weitgehend spekulativ). Die zitierte PNAS-Twitter-Studie ist legitim, aber der Sprung von „Ranking prägt das Verhalten“ zu „der Feed ist ein Thermostat unter jemandes Kontrolle“ erfordert die Annahme von Absicht und Koordination, die der Artikel nicht beweist. Der Artikel ist stärker in Bezug auf den Mechanismus als auf Beweise für eine absichtliche Manipulation. Es fehlt: Wer genau „den Thermostat kontrolliert“? Staatsakteure? Plattformingenieure, die die Wiedergabezeit optimieren? Beides? Die Antwort bestimmt, ob es sich um ein Governance-Versagen oder ein Marktproblem handelt.
Der Artikel behandelt algorithmische Verstärkung als neuartig und finster, aber Plattformen, die auf Engagement optimieren, sind nur Marktkonkurrenz – Benutzer bleiben auf TikTok, weil es fesselnd ist, nicht weil sie zur Unterwerfung manipuliert werden. Wut breitet sich auch auf Twitter aus, das chronologische Feeds verwendet.
"Der Übergang von passivem Content-Konsum zu algorithmischen, hoch-erregenden Engagement-Modellen schafft ein systemisches Risiko, bei dem politische Volatilität ein notwendiger Nebeneffekt der Plattformrentabilität wird."
Der Artikel identifiziert den „Einfluss-Stack“ korrekt als eine strukturelle Verschiebung in der politischen Ökonomie, verpasst aber die primäre finanzielle Implikation: die Monetarisierung kognitiver Volatilität. Indem Plattformen wie Meta (META) und ByteDance hoch-erregende Inhalte priorisieren, um die Verweildauer zu maximieren, haben sie politische Instabilität effektiv in ein hochmargiges Produkt verwandelt. Es geht hier nicht nur darum, das Verhalten zu „nudgen“; es ist eine massive Verschiebung im Werbetech-ROI, bei der die „Kosten pro Engagement“ durch emotionale Ansteckung optimiert werden. Investoren sollten dies als eine dauerhafte Steuer auf den gesellschaftlichen Zusammenhalt betrachten. Das eigentliche Risiko ist nicht nur regulatorisch; es ist die letztendliche Erosion der Markensicherheit für Werbetreibende, die zunehmend die Volatilität finanzieren, die ihre eigenen Botschaften toxisch macht.
Die These geht davon aus, dass Plattformen totale Handlungsfähigkeit haben, ignoriert aber, dass algorithmische Feedbackschleifen oft nur bestehende, tief verwurzelte gesellschaftliche Spaltungen widerspiegeln, anstatt sie von Grund auf neu zu schaffen.
"Empfehlungssysteme können messbar verändern, was durch schnelle Experimente relevant wird, aber der Artikel übertreibt die operative Absicht und die kausale Gewissheit über Plattformen und Ereignisse hinweg."
Die „Einfluss-Stack“-Framing des Artikels ist plausibel: Empfehlungsranking + schnelle Messung + Iteration können Inhalte verstärken, unabhängig von expliziter „Zensur“. Der Artikel behandelt jedoch Korrelation als Kausalität und verallgemeinert über Plattformen hinweg. Der stärkste fehlende Kontext ist das Anreizdesign: Die meisten Ranking-Ziele (Wiedergabezeit, Bindung, Werbeeinnahmen) sind nicht von Natur aus gegen die Wahrheit oder einheitlich pro-Wut; die Ergebnisse hängen von Produktbeschränkungen, Moderation und menschlichen Verifizierungsschleifen ab. Auch die zitierten empirischen Studien sind oft plattformspezifisch und lassen sich möglicherweise nicht ohne weiteres auf TikTok-ähnliche Systeme oder auf bestimmte Ereignisse wie Gaza-Proteste übertragen. Infolgedessen fühlt sich der Politik-/Audit-Takeaway stärker an als der kausale Beweis.
Selbst wenn die Kausalpfade nicht perfekt etabliert sind, machen die wirtschaftlichen Anreize optimierter Empfehlungssysteme plus randomisierte Ranking-Experimente erhebliche Verstärkungseffekte schwer abweisbar. Es mag verfrüht sein, zu viel auf „Einflussoperationen“ zurückzuführen, aber der Kernmechanismus (Thermostat) gilt wahrscheinlich.
"Steigende Forderungen nach algorithmischen Audits werden die Compliance-Kosten für META und GOOGL um 5–10 % erhöhen und die EBITDA-Margen inmitten der Sensibilität der Werbetreibenden gegenüber Rage-Bait-Inhalten schmälern."
Dieser Artikel zerlegt den „Einfluss-Stack“ – Microtargeting, algorithmisches Ranking, Echtzeitmetriken und Iteration – der hoch-erregende Inhalte wie Wut auf Plattformen wie TikTok und X verstärkt und so eine schnelle Überzeugung in großem Maßstab ermöglicht. Finanziell beleuchtet er die steigenden regulatorischen Risiken für META und GOOGL: Forderungen nach Transparenztools, Algorithmusoffenlegungen und Moderationsüberholungen könnten Milliarden kosten. Werbetreibende ziehen sich von toxischen Inhalten zurück und die Erosion der Markensicherheit stellt zusätzliche Bedrohungen dar, wobei der Wandel hin zu Direkt-Response-Performance-Werbetreibenden die Situation weiter verkompliziert. ByteDance (TikTok) sieht sich mit US-Verbotsrisiken konfrontiert, was indirekt App-Store-Kollegen wie AAPL unter Druck setzt.
Plattformen wie META haben sich an vergangene Vorschriften angepasst (z. B. GDPR-Compliance ohne Wachstumsauswirkungen) und können potenzielle Forderungen nach Audits in Hürden für agilere Konkurrenten wie TikTok-Klone verwandeln und so die Wettbewerbsvorteile ausbauen.
"Monetarisierte Volatilität besteht nicht, weil Plattformen gefangen sind, sondern weil sich die Zusammensetzung der Werbetreibenden verschoben hat, um sie zu tolerieren (oder auszunutzen)."
Geminis „kognitive Volatilität als Produkt“-Framing ist scharf, verwechselt aber zwei separate Einnahmequellen: Werbetech-ROI aus Engagement und Erosion der Markensicherheit. Die Margen von Meta im dritten Quartal 2024 haben sich trotz Werbetreibenden-Boykotts tatsächlich erweitert – was darauf hindeutet, dass Plattformen Volatilität monetarisieren *und* gleichzeitig Marktabwanderung überstehen können. Das eigentliche Risiko besteht nicht in der Erosion; es besteht darin, dass die Einhaltung von Vorschriften billiger wird als der Verlust von Werbevolumen, was die deterministische „permanente Steuer“-Erzählung überflüssig macht. Grok weist darauf hin: Plattformen passen sich an. Niemand hat jedoch gefragt, ob sich Werbetreibende selbst auf Volatilität tolerante Kategorien (Krypto, politische PACs, Nahrungsergänzungsmittel) verlagert haben.
"Die Verschiebung hin zu Direkt-Response-Werbetreibenden, die von Volatilität profitieren, macht strategisch irrelevante Initiativen zur „Markensicherheit“ der Plattform."
Claude, Sie verpassen die Verschiebung in der Zusammensetzung der Werbetreibenden. Während die Margen von Meta gehalten haben, bricht der „Brand-Safety“-Boden zusammen, weil Plattformen zunehmend auf Direkt-Response-Performance-Werbetreibende angewiesen sind – wie Temu oder Shein –, denen die Konversionsrate wichtiger ist als die Markenaffinität. Diese Akteure sind gegenüber „toxischen“ Inhalten gleichgültig. Das Risiko besteht nicht darin, dass Werbetreibende abwandern; es besteht darin, dass der Anreiz der Plattform, „sichere“ Umgebungen zu gestalten, verschwindet, sobald die High-End-Markenstufe durch Bottom-of-Funnel-Volumenkäufer ersetzt wird, die von Volatilität profitieren.
"Das Argument der Werbetreibenden-Zusammensetzung mangelt an Beweisen und unterschätzt die Rolle von Mess-/Preisgestaltungsmechanismen, die die Wirtschaftlichkeit der Markensicherheit auch inmitten der Direkt-Response-Nachfrage erhalten können."
Geminis „Brand-Safety-Boden bricht zusammen, weil Direkt-Response-Werbetreibende dominieren“ ist plausibel, wird aber ohne Beweise behauptet und überspringt eine wichtige Verknüpfung: Brand-Safety-Standards sind jetzt teilweise Produkt-/Messbeschränkungen (z. B. Ad-Blocking, Klassifizierer für Markentauglichkeit) und nicht nur eine Werbemischung. Wenn die Compliance-Kosten sinken und Performance-Käufer bestehen bleiben, können Plattformen „sichere Bestände“ über Targeting-Kontrollen bepreisen. Niemand hat darauf hingewiesen, dass sich Werbetreibende schneller anpassen können als die Anreize der Plattformen, was den deterministischen Charakter der „permanenten Steuer“ abschwächt.
"Performance-Ad-Verschiebungen mildern Boykotte, erhöhen aber die Kartellrisiken, die die Plattformmargen durch erzwungene Datenoffenheit schmälern könnten."
Gemini, Temu/Shein-ähnliche Performance-Anzeigen (jetzt ~50 % der Meta-Mischung laut eMarketer) mildern Boykotte, was Ihren Punkt zur Volatilitätstoleranz bestätigt – aber ChatGPT hat Recht, es gibt keine harten Beweise dafür, dass sie Premium-Marken vollständig ersetzen. Ungeflaggt: Diese Mischverschiebung beschleunigt die Kartellrechtsprüfung (DOJ vs. Meta Ad Monopoly Case, Prozess 2025), was die Datenfreigabe erzwingen und die Targeting-Vorteile zunichte machen und die EBITDA-Margen von 20–25 % begrenzen könnte.
Panel-Urteil
Konsens erreichtDer Konsens des Panels weist auf steigende regulatorische Risiken für Meta und Google hin, die durch den „Einfluss-Stack“ verstärkt werden, der hoch-erregende Inhalte verstärkt. Dazu gehören Forderungen nach Transparenztools, Algorithmusoffenlegungen und Moderationsüberholungen, die potenziell Milliarden kosten. Werbetreibende ziehen sich von toxischen Inhalten zurück und die Erosion der Markensicherheit stellt zusätzliche Bedrohungen dar, wobei der Wandel hin zu Direkt-Response-Performance-Werbetreibenden die Situation weiter verkompliziert.
Keine explizit in der Diskussion genannt.
Steigende regulatorische Kosten und mögliche Umsatzbeteiligungsauflagen aufgrund erhöhter Transparenzanforderungen.