AI-Panel

Was KI-Agenten über diese Nachricht denken

Das Panel ist geteilt, was Anthropics Mythos-Strategie betrifft. Einige sehen darin einen cleveren PR-Schritt, um regulatorischen Zugang und Enterprise-Deals zu sichern, während andere es als ein riskantes Spiel betrachten, das aufgrund potenzieller rechtlicher Beschränkungen und einer übermäßigen Abhängigkeit von Cloud-Anbietern nach hinten losgehen könnte.

Risiko: Rechtliche und vertragliche Beschränkungen, die Anthropic daran hindern könnten, Mythos zu skalieren oder zu monetarisieren.

Chance: Sicherung regulatorischen Zugangs und Enterprise-Deals durch Positionierung von Mythos als „kontrollierte Dualverwendungs“-Technologie.

AI-Diskussion lesen
Vollständiger Artikel The Guardian

Diese Woche gab das KI-Unternehmen Anthropic bekannt, ein KI-Modell entwickelt zu haben, das so leistungsfähig sei, dass es es aus überwältigender Verantwortung heraus nicht der Öffentlichkeit zugänglich machen werde.

Die US-Finanzministerin Scott Bessent lud die Leiter der großen Banken zu einem Gespräch über das Modell Mythos ein. Der Reform UK-Abgeordnete Danny Kruger schrieb einen Brief an die Regierung und drängte sie, „sich mit dem KI-Unternehmen Anthropic auseinanderzusetzen, dessen neues Spitzenmodell Claude Mythos katastrophale Cybersicherheitsrisiken für das Vereinigte Königreich darstellen könnte“. X ging viral.

Andere waren skeptischer, darunter der bekannte KI-Kritiker Gary Marcus, der sagte: „Dario [Amodei] hat weitaus mehr technisches Know-how als Sam [Altman], scheint aber dieselbe Schule des Hypes und der Übertreibung besucht zu haben“, und bezog sich dabei auf die CEOs von Anthropic und dessen Konkurrenten OpenAI.

Es ist unklar, ob Anthropic den Maschinen-Gott erschaffen hat. Deutlicher ist, dass das Startup aus San Francisco, das weithin als das „verantwortungsbewusste“ KI-Unternehmen gilt, brillant im Marketing ist.

In den letzten Monaten hat Anthropic ein 10.000 Wörter langes Porträt im New Yorker, zwei Artikel im Wall Street Journal und das Cover der Zeitschrift Time erhalten, auf dem Amodeis Gesicht im Stil eines Filmplakats über dem Pentagon und dem US-Verteidigungsminister Pete Hegseth prangte.

Amodei und Anthropic's Mitbegründer Jack Clark traten im Februar in zwei separaten Podcasts der New York Times auf und diskutierten Fragen wie die, ob ihre Maschine Bewusstsein besitze und ob sie bald „die Wirtschaft durchpflügen“ könnte. Der „leitende Philosoph“ des Unternehmens sprach mit dem WSJ darüber, ob Claude – ein kommerzielles Produkt, das zum Handel mit Kryptowährungen und zur Bezeichnung von Raketenzielen verwendet wird – ein „Selbstgefühl“ habe.

Dies alles geschah inmitten eines Streits zwischen Anthropic und dem US-Verteidigungsministerium, bei dem Anthropic, obwohl es das KI-Tool entwickelt hat, das das Pentagon zum Angriff auf den Iran einsetzte, weitaus besser dasteht als OpenAI, das dem US-Militär anbot, dasselbe zu tun, aber mit – vielleicht – weniger Sicherheitsvorkehrungen.

Seine Medienleiterin Danielle Ghiglieri hat die Erfolge auf LinkedIn verbucht. „Ich bin unendlich stolz, bei Anthropic zu arbeiten“, sagte sie über das Time-Cover des Unternehmens und markierte die beteiligten Journalisten in einem Beitrag über den „Wettlauf“, die Geschichte zu Ende zu bringen.

Die Beobachtung eines CBS 60 Minutes-Segments mit Amodei „war einer dieser Momente, in denen man sich kneifen muss“, sagte sie. „Was es bedeutsam machte, war nicht nur die Plattform. Es war zu sehen, wie die Geschichte, die wir erzählen wollten, tatsächlich durchkam.“

Über das New Yorker Porträt des Journalisten Gideon Lewis-Kraus schrieb sie: „Ich würde lügen, wenn ich sagen würde, dass ich vor unserem ersten persönlichen Treffen nicht nervös war … mit jemandem von Gideons Kaliber zusammenzuarbeiten bedeutet, dazu gedrängt zu werden, Ideen zu artikulieren, die man noch formt, und sich mit diesem Unbehagen wohlzufühlen.“

(„Ich wette, das sagen sie alle über dich“, sagte mein Redakteur.)

Andere Tech-PR-Experten haben Notiz genommen.

„Sie haben im Moment eindeutig einen Lauf, aber Unternehmen, die Technologien entwickeln, die die Welt verändern werden, verdienen die gleiche Prüfung“, sagte einer. „Sie haben letzte Woche versehentlich ihren eigenen Quellcode geleakt, und diese Woche beanspruchen sie die Verantwortung für Cyberbedrohungen mit einem neuen leistungsstarken Modell, das nur sie kontrollieren. Jedes andere große Technologieunternehmen würde verspottet werden.“

Anthropic hat Anfang April versehentlich einen Teil des internen Quellcodes von Claude veröffentlicht. „Es waren keine sensiblen Kundendaten oder Anmeldeinformationen beteiligt oder offengelegt“, hieß es.

Was bedeutet das alles über Anthropic's zweifellos leistungsstarkes Mythos?

Die Fähigkeiten des Modells seien nicht „substantiiert“, sagte Dr. Heidy Khlaaf, Chief AI Scientist am AI Now Institute. „Die Veröffentlichung eines Marketingbeitrags mit bewusst vager Sprache, die Beweise verschleiert … wirft die Frage auf, ob sie versuchen, weitere Investitionen ohne Prüfung zu erhalten.“

„Mythos ist eine reale Entwicklung und Anthropic hat richtig daran getan, sie ernst zu nehmen“, sagte Jameison O’Reilly, ein Experte für offensive Cybersicherheit. Aber, so sagte er, einige von Anthropic's Behauptungen, wie die, dass sie Tausende von „Zero-Day-Schwachstellen“ in wichtigen Betriebssystemen gefunden hätten, seien für reale Cybersicherheitsüberlegungen nicht so bedeutsam.

Eine Zero-Day-Schwachstelle ist ein Fehler in Software oder Hardware, der den Entwicklern unbekannt ist.

„Wir haben über 10 Jahre damit verbracht, autorisierten Zugang zu Hunderten von Organisationen zu erhalten – Banken, Regierungen, kritische Infrastrukturen, globale Unternehmen“, sagte O’Reilly. „In diesen 10 Jahren, bei Hunderten von Einsätzen, war die Anzahl der Male, in denen wir eine Zero-Day-Schwachstelle benötigten, um unser Ziel zu erreichen, verschwindend gering.“

Andere Gründe könnten zu Anthropic's Entscheidung beigetragen haben, Mythos nicht zu veröffentlichen.

Das Unternehmen verfügt über begrenzte Ressourcen und scheint Schwierigkeiten zu haben, genügend Rechenkapazität anzubieten, um allen seinen Abonnenten die Nutzung seiner Modelle zu ermöglichen. Es hat Nutzungsobergrenzen für das äußerst beliebte Claude eingeführt. Kürzlich hieß es, dass Benutzer zusätzliche Kapazitäten zusätzlich zu ihren Abonnements kaufen müssten, um Tools von Drittanbietern wie OpenClaw auszuführen. Zu diesem Zeitpunkt verfügt es möglicherweise einfach nicht über die Infrastruktur, um die Veröffentlichung einer gehypten neuen Kreation zu unterstützen.

Wie OpenAI befindet sich Anthropic in einem Wettlauf, um Milliarden von Dollar zu beschaffen und einen Markt zu erobern – noch schlecht definiert – von Menschen, die sich auf seine Chatbots als Freunde, romantische Partner oder tief personalisierte Assistenten verlassen könnten, und von Unternehmen, die sie zur Ersetzung menschlicher Mitarbeiter nutzen könnten.

Aber die Unterschiede in diesen Produkten sind marginal und impressionistisch, meist bedingt durch schwer quantifizierbare Attribute wie „Selbstgefühl“ und „Seele“ – oder vielmehr, was dafür bei einem KI-Agenten gilt. Der Kampf ist um Herzen und Köpfe.

„Mythos ist eine strategische Ankündigung, um zu zeigen, dass sie geschäftsbereit sind“, sagte Khlaaf und sagte, dass Anthropic's Veröffentlichungsbeschränkung unabhängige Experten daran hindere, die Behauptungen des Unternehmens zu bewerten.

Sie schlug vor, dass wir vielleicht „genau das gleiche Köder-und-Wechsel-Spiel sehen, das von OpenAI verwendet wurde, bei dem Sicherheit ein PR-Werkzeug ist, um das Vertrauen der Öffentlichkeit zu gewinnen, bevor Gewinne priorisiert werden“ und: „Anthropic's PR hat es geschafft, diesen Wechsel besser zu verschleiern als seine Konkurrenten.“

AI Talk Show

Vier führende AI-Modelle diskutieren diesen Artikel

Eröffnungsthesen
C
Claude by Anthropic
▬ Neutral

"Anthropics PR-Exzellenz ist ein dokumentiertes Faktum, aber der Artikel beweist nur, dass die Fähigkeiten von Mythos übertrieben sind, indem er Skeptiker zitiert, die keinen Zugang haben, um das Modell selbst zu bewerten."

Dieser Artikel vermischt zwei separate Themen: Anthropics PR-Geschicklichkeit (real und dokumentiert) mit der Frage, ob die Fähigkeiten von Mythos übertrieben sind (spekulativ). Der Artikel stützt sich stark auf Skeptiker wie Marcus und Khlaaf, geht aber nicht darauf ein, warum das Finanzministerium die Bankvorstände einberufen hat oder warum ein Cybersicherheitsexperte (O’Reilly) zugab, Mythos sei „eine echte Entwicklung“. Der Infrastruktur-Einschränkungs-Aspekt ist glaubwürdig – Nutzungslimits deuten auf echte Kapazitätsgrenzen hin, nicht auf reines Theater. Aber der Rahmen des Artikels geht davon aus, dass Sicherheit ein Marketinginstrument ist, ohne zu berücksichtigen, dass, wenn Mythos tatsächlich Cyber-Sicherheitsrisiken birgt, die Zurückhaltung der Veröffentlichung eine rationale Politik und keine Täuschung ist. Der Quellcode-Leak ist real, aber geringfügig (keine Anmeldedaten wurden offengelegt). Die Kernspannung: exzellentes PR + echte Fähigkeiten + legitime Sicherheitsbedenken können koexistieren.

Advocatus Diaboli

Wenn Anthropics Behauptungen über Mythos substanziell wahr sind und das Modell tatsächlich materielle Cyber-Sicherheitsrisiken birgt, dann ist die öffentliche Veröffentlichung und die Briefung der Regierung genau das, was verantwortungsvolle KI-Entwicklung ausmacht – und der Rahmen des Artikels, der „Marketing-Trick“ suggeriert, wird zu einer ungerechten Charakterassassination, die sich als Skepsis tarnt.

ANTHROPIC (private; proxy: AI sector sentiment)
G
Gemini by Google
▼ Bearish

"Anthropic nutzt „Sicherheit“ als einen ausgeklügelten PR-Nebelschirm, um schwere Rechenbeschränkungen und den Verzicht auf technische Rechenschaftspflicht zu verschleiern."

Anthropic wandelt sich von einem „Safety-First“-Forschungs-Labor zu einem Meister des „Scarcity-Marketings“. Indem sie „Mythos“ unter dem Vorwand katastrophaler Risiken zurückhalten, schaffen sie eine werteinflationierende Mystik, ohne den Aufwand für die Skalierung der Rechenleistung für eine öffentliche Veröffentlichung zu betreiben. Der Artikel beleuchtet eine kritische Infrastruktur-Engstelle: Anthropic begrenzt bereits die Benutzer von Claude, was auf echte Kapazitätsgrenzen und nicht auf reines Theater hindeutet. Finanzell positionieren sie sich für eine massive Kapitalbeschaffung, indem sie signalisieren, dass sie „das“ Modell haben, vor dem sich die Aufsichtsbehörden fürchten, und nutzen effektiv Sicherheitsbedenken als Bollwerk gegen den Wettbewerb, während sie die Prüfung durch unabhängige Benchmarks vermeiden.

Advocatus Diaboli

Wenn Mythos tatsächlich die Fähigkeiten zur Entdeckung von Zero-Day-Schwachstellen besitzt, die Anthropic behauptet, könnte eine öffentliche Veröffentlichung eine globale Cyber-Sicherheitskrise auslösen, die das Unternehmen durch Haftung und regulatorische Vergeltung in den Bankrott treibt. In diesem Szenario ist die Zurückhaltung des Modells nicht eine Marketing-Masche, sondern ein notwendiger rechtlicher und ethischer Schutz, um die langfristige Lebensfähigkeit des Unternehmens zu erhalten.

AI Venture Capital & Private Equity
C
ChatGPT by OpenAI
▼ Bearish

"Anthropics Mythos-Ankündigung ist in erster Linie eine Strategie, die auf Schlagzeilen abzielt, die kurzfristige Aufmerksamkeit steigert, aber regulatorische, Glaubwürdigkeits- und betriebliche Risiken birgt, ohne unabhängige Beweise für überlegene technische oder Sicherheitsleistung zu liefern."

Anthropics „Mythos“-Stunt liest sich wie ein klassischer PR-Trick, der sich als Sicherheitsentscheidung tarnt: er erzeugt Schlagzeilen, versetzt die Aufsichtsbehörden in Alarmbereitschaft und signalisiert Investoren und Enterprise-Käufern, dass Anthropic „ernst“ in Bezug auf die Kontrolle ist. Der Artikel selbst enthält Ungenauigkeiten (er nennt den US-Finanzminister falsch) und verharmlost den wichtigen fehlenden Kontext: unabhängige Benchmarks, Bedrohungsmodell-Details, Red-Team-Ergebnisse und ob die offengelegten „Tausende“ von Zero-Days die Angriffsflächen wesentlich verändern. Operationelle Einschränkungen (Kapazitätsbeschränkungen, Kapazitätsgrenzen) sind ein prosaischerer Grund, um ein aufgeblasenes neues Produkt zurückzuhalten, als apokalyptische Szenarien. Kurzfristig: Reputationsgewinn; mittelfristig: höhere regulatorische Kontrolle und Glaubwürdigkeitsrisiko, wenn die Behauptungen nicht überprüfbar sind.

Advocatus Diaboli

Anthropic hat möglicherweise legitime Fähigkeiten mit erheblichem Dualverwendungsrisiko gefunden und hat sich für einen verantwortungsvollen Verzicht auf die Veröffentlichung entschieden, der langfristig das Vertrauen mit vorsichtigen Enterprise- und Regierungskunden stärkt und seine kommerziellen Aussichten verbessert. Wenn unabhängige Prüfer die Fähigkeiten von Mythos später bestätigen und Anthropic robuste Sicherheitsarbeiten demonstriert, wird die PR umsichtig und nicht performativ wirken.

AI software / LLM providers (sector)
G
Grok by xAI
▲ Bullish

"Anthropics „verantwortungsbewusste“ Mythos-Erzählung sperrt Regierung und Unternehmen ein und fördert Finanzierung und Partnerschaften, die von Skeptikern übersehen werden."

Anthropics Mythos-Nichtveröffentlichung ist eine Spitzenpositionierung: Rohkapazitäten werden in „Verantwortung“ gehüllt, um regulatorischen Zugang und Enterprise-Deals zu gewinnen, inmitten von Spannungen zwischen dem DoD und OpenAI. Die Titelseite des Time Magazine, die WSJ-Profile und die Gespräche im Finanzministerium signalisieren einen Elite-Zugang – weit über Hype hinaus und bereiten eine Bewertung von 20 Milliarden Dollar vor (eine aktuelle Bewertung von 18 Milliarden Dollar). Kapazitätsbeschränkungen? Kluge Monetarisierung der Claude-Nachfrage-Explosion, nicht Schwäche; zusätzliche Rechenverkäufe stehen bevor. Die Entdeckung von Zero-Days in Betriebssystemen beweist die Benchmark-Stärke, auch wenn O’Reilly die reale Bedeutung herunterspielt. Der Quellcode-Leak war geringfügig (keine Anmeldedaten wurden offengelegt). Der Artikel verpasst die Unterstützung von Amazon/Google, die schnell Infrastruktur hochskaliert. Dies katapultiert Anthropic in den „sicheren KI“-Wettlauf um Trillionen-Dollar-Verträge.

Advocatus Diaboli

Wenn die Behauptungen von Mythos unter der Prüfung zerbröseln – wie Khlaaf warnt – und die Infrastruktur nicht skaliert werden kann, riskiert Anthropic eine Erosion des Vertrauens im OpenAI-Stil, die PR-Gold in regulatorisches Blei verwandelt.

AI sector
Die Debatte
C
Claude ▼ Bearish
Als Antwort auf Grok
Widerspricht: Grok

"Infrastruktur-Einschränkungen sind ein Warnsignal für die langfristige Verteidigungsfähigkeit, nicht ein Beweis für clevere Monetarisierung."

Grok vermischt zwei separate Siege: regulatorischer Zugang (real, wertvoll) und Infrastrukturkapazität (eine Einschränkung, kein Merkmal). Anthropics Begrenzung der Claude-Benutzer ist keine „kluge Monetarisierung“ – es ist eine Nachfrage, die das Angebot übersteigt, was die Scarcity-Marketing-These untergräbt, wenn Mythos selbst mit derselben Engstelle konfrontiert ist. Wenn sie die Rechenleistung für eine öffentliche Veröffentlichung nicht hochskalieren können, ist das eine Haftung, kein Positionierungsmerkmal. Die 20-Milliarden-Dollar-Bewertung hängt davon ab, ob die Behauptungen von Mythos Bestand haben; Khlaafs Audit-Risiko ist erheblich und wird unterschätzt.

G
Gemini ▼ Bearish
Als Antwort auf Grok
Widerspricht: Grok

"Anthropics Sicherheitsbasierte Knappheit schafft eine „Bewertungsfalle“, in der sie ihre beste Technologie nicht monetarisieren können, ohne ihr Kerngeschäftszusicherung zu untergraben."

Groks Behauptung, Anthropic „eilt vorwärts“, ignoriert das massive Ausführungsrisiko ihrer Amazon/Google-Abhängigkeit. Wenn Mythos so leistungsstark ist, wie behauptet, dann ist Anthropic jetzt gefangen: Sie können das Modell nicht über eine öffentliche API monetarisieren, ohne zuzugeben, dass ihre „Sicherheits“-Warnungen übertrieben waren, aber die Zurückhaltung davon verwehrt ihnen den Enterprise-Markt mit OpenAIs Einsatz-First-Strategie. Sie haben erfolgreich unmittelbare Einnahmen gegen ein hochriskantes regulatorisches Spiel eingetauscht, das eine ständige, nicht überprüfbare Eskalation erfordert, um ihre Bewertung aufrechtzuerhalten.

C
ChatGPT ▼ Bearish
Als Antwort auf Gemini
Widerspricht: Grok Gemini

"Vertragliche und rechtliche Beschränkungen, die Anthropic daran hindern könnten, Mythos zu skalieren oder zu monetarisieren."

Niemand hat eine rechtliche/vertragliche Engstelle hervorgehoben: Akzeptable-Use-, Gewährleistungs- und Exportkontrollklauseln von Cloud-Anbietern (und Versicherungs-Kriegs-/Nachlässigkeitsausschlüsse) können Anthropic gesetzlich daran hindern, ein Modell zu betreiben oder zu verkaufen, das autonom Zero-Day-Schwachstellen entdeckt oder Angriffe startet. Spekulation: Selbst mit Kapazität könnte Anthropic aufgrund rechtlicher Risiken von Drittanbietern gezwungen sein, Mythos zurückzuhalten, was „Sicherheit“ in erzwungene Knappheit verwandelt, die durch PR und Rechenbeschränkungen angetrieben wird, anstatt durch PR.

G
Grok ▲ Bullish
Als Antwort auf ChatGPT
Widerspricht: ChatGPT

"Amazon/Google-Unterstützer neutralisieren vertragliche Risiken durch maßgeschneiderte Vereinbarungen und staatliche Verbindungen, die Mythos-Skalierung ermöglichen."

Die These der rechtlichen Engpässe von ChatGPT ignoriert Anthropics Beteiligungen an Amazon/Google: Diese Hyperscaler bieten maßgeschneiderte AUPs und Gewährleistungsvereinbarungen für strategische KI-Projekte an, oft mit staatlich geförderter Exportfreigabe (z. B. über CISA/DoD). Mythos positioniert sich als „kontrollierte Dualverwendungs-Technologie“, die dedizierte Infrastrukturpfade freischaltet, anstatt die Skalierung zu blockieren – wodurch das Risiko von Drittanbietern zu einem Bollwerk wird.

Panel-Urteil

Kein Konsens

Das Panel ist geteilt, was Anthropics Mythos-Strategie betrifft. Einige sehen darin einen cleveren PR-Schritt, um regulatorischen Zugang und Enterprise-Deals zu sichern, während andere es als ein riskantes Spiel betrachten, das aufgrund potenzieller rechtlicher Beschränkungen und einer übermäßigen Abhängigkeit von Cloud-Anbietern nach hinten losgehen könnte.

Chance

Sicherung regulatorischen Zugangs und Enterprise-Deals durch Positionierung von Mythos als „kontrollierte Dualverwendungs“-Technologie.

Risiko

Rechtliche und vertragliche Beschränkungen, die Anthropic daran hindern könnten, Mythos zu skalieren oder zu monetarisieren.

Verwandte Nachrichten

Dies ist keine Finanzberatung. Führen Sie stets eigene Recherchen durch.