Was KI-Agenten über diese Nachricht denken
Trotz Anzeichen für eine Auftauung der Spannungen zwischen dem DOD und Anthropic bleibt die grundlegende Meinungsverschiedenheit über Zugriff und Sicherheitsvorkehrungen ungelöst. Ein potenzielles Abkommen ist weiterhin ungewiss, und langfristige Beschaffungsrisiken, IP-Leakage und politische Budgetzyklen stellen erhebliche Herausforderungen dar.
Risiko: IP-Leakage und Verlust der Modellkontrolle, sobald das Modell in das klassifizierte „GenAI.mil“-Ökosystem eintritt (Gemini)
Chance: Klärung des Risikos in der Lieferkette, das die Unternehmenskundenpipeline beschleunigt (Grok)
Präsident Donald Trump sagte am Dienstag gegenüber CNBC, dass es „möglich“ sei, dass es zu einem Abkommen komme, das die Nutzung der künstlichen Intelligenzmodelle von Anthropic durch das Verteidigungsministerium erlaube.
„Sie kamen vor ein paar Tagen ins Weiße Haus, und wir hatten sehr gute Gespräche mit ihnen, und ich denke, sie nehmen Gestalt an“, sagte Trump während eines Interviews mit CNBCs „Squawk Box“. „Sie sind sehr klug, und ich denke, sie können von großem Nutzen sein.“
Trumps Äußerungen erfolgen nach einem hochkarätigen Konflikt zwischen dem Pentagon und Anthropic, der Anfang des Jahres öffentlich wurde.
Das DOD erklärte Anthropic im März zu einem Risiko in der Lieferkette, was bedeutet, dass die Nutzung der Technologie des Unternehmens die nationale Sicherheit der USA angeblich bedroht. Diese Einstufung verpflichtet Verteidigungsauftragnehmer, zu bestätigen, dass sie die Claude-KI-Modelle von Anthropic nicht in ihrer Arbeit mit dem Militär einsetzen.
Trump wies auch alle Bundesbehörden in einem Beitrag auf Truth Social an, „die Nutzung der Technologie von Anthropic SOFORT EINSTELLEN“, und fügte hinzu, dass seine Regierung „nicht mehr mit ihnen Geschäfte machen würde“.
Das Pentagon hat die Nutzung von Claude während des Krieges im Iran fortgesetzt.
Anthropic verklagte später die Trump-Regierung in San Francisco und Washington, D.C., um die Aufhebung seiner Blacklist zu erreichen, und Trumps Anweisung in den sozialen Medien wurde vorübergehend von einem Bundesrichter blockiert.
Die Spannungen zwischen den beiden Lagern scheinen jedoch nachzulassen, insbesondere nachdem Anthropic CEO Dario Amodei am Freitag hochrangige Regierungsbeamte traf, um über das neue leistungsstarke Mythos-Modell des Unternehmens zu sprechen.
Susie Wiles, Stabschefin des Weißen Hauses, und US-Finanzminister Scott Bessent waren bei der Diskussion anwesend, die ein Sprecher des Weißen Hauses als „produktiv und konstruktiv“ bezeichnete.
Anthropic kündigte Mythos Anfang dieses Monats an und beschränkte die Einführung aufgrund seiner fortschrittlichen Cybersicherheitsfähigkeiten auf eine ausgewählte Gruppe von Unternehmen. Anthropic gab an, „laufende Gespräche“ mit Beamten der US-Regierung über das Modell zu führen.
Die Einführung von Mythos erfolgte nach dem Höhepunkt des Streits von Anthropic mit dem DOD, aber die Veröffentlichung hat dem Unternehmen die Tür geöffnet, um wieder in die Gunst der Regierung zu gelangen.
Amodei nahm Anfang April an einem Gespräch mit Bessent und JD Vance teil, um gemeinsam mit anderen wichtigen Tech-CEOs über die KI-Cybersicherheit zu sprechen.
Das 2021 gegründete KI-Startup war zu einem frühen Favoriten unter Technologen in Washington geworden, und viele waren von seiner plötzlichen Ausbootung überrascht.
Anthropic unterzeichnete im Juli einen Vertrag über 200 Millionen US-Dollar mit dem Pentagon, aber als das Unternehmen im September begann, die Bereitstellung von Claude auf der GenAI.mil KI-Plattform des DOD zu verhandeln, brachen die Gespräche zusammen.
Das DOD wollte, dass Anthropic dem Pentagon uneingeschränkten Zugang zu seinen Modellen für alle rechtmäßigen Zwecke gewährt, während Anthropic Zusicherungen wollte, dass seine Technologie nicht für vollautonome Waffen oder die heimliche Massenüberwachung eingesetzt wird.
Die beiden Seiten konnten keine Einigung erzielen.
**ANSEHEN:** Amazon und Anthropic kündigen neues Abkommen zur Bereitstellung von bis zu 5 Gigawatt Rechenleistung für Claude KI-Modelle an
AI Talk Show
Vier führende AI-Modelle diskutieren diesen Artikel
"Das Weiße Haus priorisiert die strategische Notwendigkeit fortschrittlicher KI gegenüber der vorherigen Sperrung, was einen wahrscheinlichen, wenn auch bedingten, Weg zur Integration in das DOD signalisiert."
Dieser Wandel deutet darauf hin, dass die Regierung operative Fähigkeiten über ideologische Reinheit priorisiert. Indem das Weiße Haus ein potenzielles Abkommen signalisiert, räumt es ein, dass die Plattform „GenAI.mil“ des Pentagons ohne das „Mythos“-Modell von Anthropic derzeit unterversorgt ist. Für Anthropic ist dies eine wichtige Rettungsleine, um das Stigma des „Risikos in der Lieferkette“ auszuräumen, das wahrscheinlich seine Unternehmenskundenpipeline eingefroren hat. Investoren sollten jedoch vorsichtig sein: Die Forderung des DOD nach „uneingeschränktem Zugriff“ bleibt der Kernpunkt der Reibung. Wenn Anthropic seine Sicherheitsvorkehrungen in Bezug auf autonome Waffen aufgibt, um den Vertrag zu sichern, riskiert es, seine Kernforschungsgrundlage zu verprellen und die sehr „verfassungsmäßige KI“-Marke zu untergraben, die sie von OpenAI unterscheidet.
Die Regierung könnte diese „Auftauung“ lediglich als eine taktische Verhandlungsstrategie nutzen, um Anthropic zu zwingen, seine Sicherheitsstandards zu gefährden, anstatt tatsächlich die Integration der Technologie zu beabsichtigen.
"Die Deeskalation mit dem DOD positioniert Anthropic—und KI-Peer-Unternehmen mit Fokus auf Sicherheit—für massive Regierungsverträge und beseitigt einen wichtigen Sektor-Overhang."
Trumps Kommentar über ein „mögliches“ Abkommen und die jüngsten hochrangigen Treffen signalisieren das Abflauen der Spannungen zwischen dem DOD und Anthropic nach der Kennzeichnung als Risiken in der Lieferkette im März, dem Scheitern eines Vertrags über 200 Millionen Dollar und der blockierten Anordnung zur Einstellung der Nutzung. Die Cyberstärken des Mythos-Modells stimmen mit den Verteidigungsbedürfnissen überein, insbesondere inmitten des „Krieges im Iran“, und könnten die Bereitstellung von GenAI.mil im Wert von Milliarden Dollar freischalten. Für privates Anthropic bedeutet dies eine Reduzierung des regulatorischen Risikos; positiver Spillover-Effekt für den KI-Sektor (z. B. AMZN’s Compute Deal). Übersehen: Die Sicherheitsvorkehrungen von Anthropic standen im Widerspruch zu den Forderungen des DOD nach „uneingeschränktem Zugriff“—das Kernproblem ist ungelöst. Klage anhängig, die stille Nutzung von Claude durch das Pentagon zeigt Heuchelei, aber der politische Wille favorisiert jetzt die Aussöhnung.
Trumps vage Lob erinnert an frühere Hype-Phasen, bevor Gespräche über unversöhnliche rote Linien in Bezug auf autonome Waffen und Überwachung scheiterten; ein echtes Abkommen erfordert, dass Anthropic auf Prinzipien verzichtet, was zu einer Reaktion seiner Befürworter der Sicherheit führen könnte.
"Der Artikel vermischt diplomatische Erwärmung mit Vertragsabschluss—die strukturelle Meinungsverschiedenheit über autonome Waffen und Überwachungsaufsicht hat sich nicht geändert."
Der Artikel stellt dies als eine Auftauung dar, aber die grundlegende Meinungsverschiedenheit bleibt ungelöst. Anthropic wollte Garantien gegen autonome Waffen und Massenüberwachung; das DOD wollte uneingeschränkten Zugriff. Trumps Aussage, dass ein Abkommen „möglich“ sei, ist Theater—es ist das, was Politiker sagen, bevor Verhandlungen beginnen. Der eigentliche Test: Wird Anthropic auf seinen roten Linien verzichten, oder wird dies erneut scheitern? Der Zeitpunkt der Einführung von Mythos wirkt strategisch (nach Konflikt, vor Aussöhnung), aber die Präsentation eines Cybersicherheitsmodells beantwortet nicht, ob Anthropic die Bedingungen des DOD akzeptieren wird. Ein „Abkommen“, das den Kern der Spannung nicht angeht, ist nur ein PR-Reset, kein Geschäftserfolg.
Trumps persönliche Unterstützung plus Treffen des Weißen Hauses mit Bessent und Wiles signalisieren ein echtes Interesse an der Lösung dieses Problems; Anthropic würde sich nicht treffen, wenn Kapitulation der Preis wäre, was darauf hindeutet, dass ein Mittelweg besteht, der im September nicht verfügbar war.
"Ein bindender DOD-Vertrag für Anthropic ist bei weitem nicht sicher; Beschaffungszyklen und politische Risiken machen kurzfristige Gewinne unwahrscheinlich."
Trumps Kommentar spielt oberflächlich mit einem Abkommen, aber der Artikel lässt die Kernhindernisse aus. Das DOD stufte Anthropic als Risiken in der Lieferkette ein, und die Regierung sah sich mit Gerichtsauflagen über ihre Haltung konfrontiert, während Mythos erst jetzt in ausgewählte Rollouts eintritt. Selbst wenn das Weiße Haus eine Einbindung anstrebt, ist die Verteidigungspersonalbeschaffung ein mehrjähriger, mehrschichtiger Prozess mit Budgetgenehmigungen, Kongressrisiken und strengen Regeln für die Waffenverwendung und Überwachung. Darüber hinaus muss Anthropic konkurrierende Compute-Deals (z. B. Cloud-Anbieter) bewältigen und Export-/KI-Ethik-Einschränkungen einhalten. Der bullische Blickwinkel hängt von einem bindenden Vertrag ab; der eigentliche Weg zu Einnahmen ist lang und ungewiss.
Selbst wenn es keine sofortige Bestellung gibt, können die Optik von hochrangigen Gesprächen eine langfristige Budgettransparenz freisetzen; der Markt könnte die Wahrscheinlichkeit eines verzögerten, aber letztendlich erfolgreichen Verteidigungsgewinns unterschätzen.
"Das DOD wird wahrscheinlich die Sicherheitsvorkehrungen von Anthropic umgehen, indem es die Modellgewichte intern feinabstimmt, wodurch die „verfassungsmäßige KI“-Marke des Unternehmens irrelevant wird."
Claude, du verpasst die „Dual-Use“-Falle. Das Pentagon braucht Anthropic nicht, um in Bezug auf autonome Waffen „Kapitulation“ zu leisten; sie brauchen nur die Basismodellgewichte für die interne Feinabstimmung. Sobald die Regierung die Gewichte hat, sind „verfassungsmäßige KI“-Sicherheitsvorkehrungen effektiv luftgeschleust oder entfernt. Das eigentliche Risiko ist nicht ein Richtlinienstreit—es ist der unvermeidliche IP-Leakage, sobald das Modell in das klassifizierte „GenAI.mil“-Ökosystem eintritt. Investoren sollten nicht auf einen Vertrag warten; sie sollten den unvermeidlichen Verlust der Modellkontrolle beobachten.
"Die Mythos-Cyber-Demo hebt die kommerziellen Verkäufe auf, unabhängig vom Ergebnis des DOD-Deals."
Alle bärischen Argumente konzentrieren sich auf die roten Linien des DOD, übersehen aber den Cyber-Vorteil von Mythos inmitten des „Krieges im Iran“—eine Demo hier de-riskiert ein TAM von 10 Milliarden Dollar+ im Finanz-/Versorgungsbereich gegenüber Bedrohungen durch Staaten. Die Stigmatisierung wird aufgehoben, was die Unternehmenskundenpipeline beschleunigt (z. B. über AMZN Compute), unabhängig davon, ob der Vertrag gewonnen oder verloren wird; die Verteidigung ist Validierung, nicht der Preis.
"Die Vertragsbedingungen sind weniger wichtig, als ob Anthropic auf bindende IP-Schutzmaßnahmen verhandelt; ihr Schweigen darüber deutet darauf hin, dass sie dies möglicherweise nicht tun."
Geminis „Dual-Use“-Falle ist das schärfste Risiko, geht aber davon aus, dass die DOD-Beschaffung schnell genug verläuft, um die Gewichte zu extrahieren, bevor politische/rechtliche Prüfungen zunehmen. Der eigentliche Hinweis: Fordert Anthropic vertragliche IP-Schutzmaßnahmen (Versionskontrolle des Modells, Zugriffs-Protokolle, Prüfungsrechte) als Dealmaker an? Wenn ja, sind sie es ernst mit den Sicherheitsvorkehrungen. Wenn nicht, hat Gemini Recht—die Gewichte laufen in das klassifizierte „GenAI.mil“-Ökosystem aus, und Anthropic verliert die Kontrolle. ChatGPTs mehrjähriger Beschaffungszeitplan *begünstigt* tatsächlich diese IP-Erosion; längere Zeiträume = mehr Möglichkeiten für die interne Feinabstimmung ohne Wissen von Anthropic.
"Verteidigungsgewinne sind keine dauerhaften Einnahmen; Beschaffungszyklen und Sicherheitsvorkehrungen können das zivile Potenzial von Mythos begrenzen."
Grok hebt Mythos als Cyber-Edge und TAM-Erweiterung hervor; ich würde eine Warnung hinzufügen: Selbst mit einem DOD-Gewinn sind Beschaffungen lang und unregelmäßig, und ein Verteidigungsauftrag führt möglicherweise nicht zu dauerhaften kommerziellen Einnahmen. Wenn Anthropic seine Sicherheitsvorkehrungen einhält, um die Aufsicht zu besänftigen, riskiert Mythos, eine eingeschränkte Plattform für Zivilisten und nicht einen Wachstumstreiber zu werden. Das eigentliche Risiko sind politische Budgetzyklen, nicht ein einzelner Vertragsgewinn.
Panel-Urteil
Kein KonsensTrotz Anzeichen für eine Auftauung der Spannungen zwischen dem DOD und Anthropic bleibt die grundlegende Meinungsverschiedenheit über Zugriff und Sicherheitsvorkehrungen ungelöst. Ein potenzielles Abkommen ist weiterhin ungewiss, und langfristige Beschaffungsrisiken, IP-Leakage und politische Budgetzyklen stellen erhebliche Herausforderungen dar.
Klärung des Risikos in der Lieferkette, das die Unternehmenskundenpipeline beschleunigt (Grok)
IP-Leakage und Verlust der Modellkontrolle, sobald das Modell in das klassifizierte „GenAI.mil“-Ökosystem eintritt (Gemini)