Was KI-Agenten über diese Nachricht denken
Der Umzug von OpenAI zu Amazon Bedrock wird sowohl als strategischer Schwenk als auch als potenzielle Umsatzdiversifizierung angesehen, es gibt jedoch Bedenken hinsichtlich der Stückkosten, der Margenverwässerung und der Bereitschaft von Trainium für die hochskalierte Produktion. Das Panel ist sich über die langfristigen Auswirkungen auf OpenAI und Amazon uneinig.
Risiko: Die Bereitschaft von Trainium für die hochskalierte Produktion und die potenzielle Margenverwässerung für Amazon aufgrund der hohen Rechenkosten von OpenAI.
Chance: Erweiterter Zugang zu den Modellen von OpenAI auf AWS Bedrock, der potenziell größere Enterprise ARR erschließen und die Kundenbindung dämpfen könnte.
Einen Tag nachdem OpenAI seine Beziehung zu Microsoft neu gestaltet hat, um alle seine Produkte in jeder Cloud ausführen zu können, gab das Unternehmen für künstliche Intelligenz bekannt, dass seine Modelle über Amazon Web Services verfügbar sein werden.
AWS-Kunden können die Modelle von OpenAI sowie dessen Codex-Agenten zum Schreiben von Code über Amazon Bedrock ausprobieren, wie die Unternehmen am Dienstag ankündigten. Die Dienste werden in den nächsten Wochen allgemein verfügbar sein.
"Das ist es, wonach uns unsere Kunden schon sehr lange fragen", sagte Matt Garman, CEO von AWS, bei einer Einführungsveranstaltung in San Francisco.
Bisher konnten Entwickler auf sogenannte Open-Weight-Modelle von OpenAI zurückgreifen, die im August auf AWS kamen.
OpenAI CEO Sam Altman schickte eine aufgezeichnete Nachricht zu der Ankündigung, da er sich derzeit über die Bay Bridge in Oakland für seinen Fall gegen Elon Musk vor Gericht befindet.
"Ich wünschte, ich könnte heute persönlich bei Ihnen sein, mein Zeitplan wurde mir heute weggenommen", sagte Altman in dem Video. "Ich wollte jedoch eine kurze Nachricht senden, da wir uns sehr über unsere Partnerschaft mit AWS und das, was sie für unsere Kunden bedeutet, freuen, und ich wollte Matt und dem gesamten AWS-Team danken."
Ein neuer Dienst namens Amazon Bedrock Managed Agents, der von OpenAI angetrieben wird, wird den Aufbau hochentwickelter kundenspezifischer Agenten ermöglichen, die sich an frühere Interaktionen erinnern können, so die Unternehmen.
Microsoft ist seit vor der Einführung von ChatGPT im Jahr 2022 ein wichtiger Anbieter von Rechenleistung für OpenAI. Denise Dresser, Revenue Chief von OpenAI, teilte den Mitarbeitern in einem Memo Anfang des Monats mit, dass die langjährige Beziehung zu Microsoft entscheidend war, aber "auch unsere Fähigkeit eingeschränkt hat, Unternehmen dort zu erreichen, wo sie sind – für viele ist das Bedrock".
Am Montag kündigten OpenAI und Microsoft eine bedeutende Änderung in ihrer Vereinbarung an, die es dem KI-Unternehmen ermöglichen wird, Umsatzbeteiligungszahlungen zu deckeln und Kunden über jeden Cloud-Anbieter zu bedienen. Amazon CEO Andy Jassy nannte die Ankündigung in einem Beitrag auf X "sehr interessant" und fügte hinzu, dass am Dienstag weitere Details bekannt gegeben würden.
OpenAI und Amazon sind sich auch in anderer Hinsicht näher gekommen.
Im November kündigte OpenAI eine Verpflichtung über 38 Milliarden US-Dollar gegenüber Amazon Web Services an, Tage nachdem Microsoft Azure als einzige Cloud für die Bereitstellung von API-Produkten (Application Programming Interface) für Drittanbieter angekündigt wurde.
Drei Monate später erweiterte OpenAI seine Beziehung zu Amazon, das eine Investition von 50 Milliarden US-Dollar in Altmans Unternehmen ankündigte. OpenAI erklärte, es würde zwei Gigawatt der kundenspezifischen Trainium-Chips von AWS für das Training von KI-Modellen nutzen.
Die Partnerschaft wurde bekannt gegeben, nachdem The Wall Street Journal berichtet hatte, dass OpenAI interne Ziele bei Nutzern und Umsatz verfehlt hat. Die Aktien von KI-Hardwareunternehmen, darunter die Chiphersteller Nvidia und Broadcom, fielen aufgrund des Berichts, der auch interne Diskrepanzen bei den Ausgabenplänen hervorhob.
"Das ist lächerlich", sagten Sam Altman und OpenAI CFO Sarah Friar in einer Erklärung zu der Geschichte. "Wir sind uns völlig einig, so viel Rechenleistung wie möglich zu kaufen und jeden Tag hart daran zu arbeiten."
**WATCH:** OpenAI hat angeblich Umsatzziele verfehlt: Hier erfahren Sie, was Sie wissen müssen
AI Talk Show
Vier führende AI-Modelle diskutieren diesen Artikel
"Der Übergang von OpenAI zu einer Multi-Cloud-Strategie ist eine defensive Maßnahme, um die notwendige Rechenkapazität und Reichweite im Unternehmensbereich zu sichern, birgt aber das Risiko, die Preissetzungsmacht und die Margen zu untergraben."
Der Umzug von OpenAI zu Amazon Bedrock ist ein strategischer Schwenk von einem „gefangenen“ Vermögenswert zu einem plattformunabhängigen Kraftpaket. Durch die Entkopplung von Microsoft Azure gewinnt OpenAI an Verhandlungsmacht, um bessere Preise für Rechenleistung zu erzielen und auf das massive Unternehmensvertriebsnetz von AWS zuzugreifen, das für die Skalierung der Akzeptanz entscheidend ist. Die Investitionszusage von Amazon in Höhe von 50 Milliarden US-Dollar deutet jedoch darauf hin, dass OpenAI im Wesentlichen einen „Cloud-Vermieter“ gegen einen anderen tauscht, wahrscheinlich auf Kosten einer erheblichen langfristigen Verwässerung des Eigenkapitals oder einer Margenkompression. Investoren sollten beobachten, ob diese Multi-Cloud-Strategie die Stückkosten tatsächlich verbessert oder ob sie lediglich das zugrunde liegende Problem der nicht nachhaltigen Rechenkosten und der vom WSJ gemeldeten verfehlten Umsatzziele verschleiert.
Dieser Schritt könnte die Modelle von OpenAI kommodifizieren und sie in einen Preiskampf gegen Anthropic und Meta zwingen, während gleichzeitig ihr einzigartiger Integrationsvorteil mit dem Microsoft-Ökosystem geschwächt wird.
"Die OpenAI-Modelle von Bedrock erfassen Unternehmens-Inferenz-Workloads, beschleunigen das Umsatzwachstum von AWS auf über 15 % im Jahr 2025 und rechtfertigen die Premium-Bewertung von AMZN."
Die Bedrock-Integration von OpenAI eröffnet AWS seine vollständige Modellsuite (GPT-4o, o1, Codex) plus speicheraktivierte Agenten und zielt auf Unternehmen ab, die in AMZN-Stacks gefangen sind – und adressiert damit Dressers Memo zu MSFT-Beschränkungen. Die Verpflichtung von 38 Milliarden US-Dollar und 2 GW für Trainium zum Training (im Gegensatz zur Azure-Exklusivität) und die Investition von 50 Milliarden US-Dollar von AWS nach der Umsatzverfehlung des WSJ signalisieren eine glaubwürdige Multi-Cloud-Skalierung. AMZN profitiert am meisten: Die Bedrock-Inferenzvolumina könnten das AWS-Wachstum im ersten Halbjahr 2025 um 5-10 % steigern und AMZN auf das 45-fache des Forward-KGV bei 15 % Cloud-Beschleunigung neu bewerten. MSFT Azure verliert das Exklusivitäts-Premium, behält aber die Trainingsbindung.
AWS Trainium ist im Vergleich zu den kampferprobten Nvidia-Clustern von MSFT im 2-GW-Maßstab noch nicht bewiesen, und die jüngsten Umsatz-/Nutzer-Rückgänge von OpenAI werfen Zweifel an der Ausführung von Mega-Verpflichtungen inmitten von Spannungen bei der gedeckelten MSFT-Umsatzbeteiligung auf.
"OpenAI hat gerade seine Beziehung zu Microsoft kommodifiziert, indem es die Umsatzbeteiligung gedeckelt und sich für AWS geöffnet hat, was signalisiert, dass das Unternehmen seine Modelle als zunehmend austauschbar ansieht und Bargeld über die Exklusivität der Partnerschaft stellt."
Dies sieht aus wie ein strategischer Rückzug von OpenAI, der als Expansion getarnt ist. Der Artikel begräbt die eigentliche Geschichte: OpenAI hat gerade seine Umsatzbeteiligungszahlungen an Microsoft gedeckelt und die Erlaubnis ausgehandelt, Kunden auf konkurrierenden Clouds zu bedienen. Das ist eine massive Verlagerung der Verhandlungsmacht. Der Zugang von AWS zu GPT-4/o-Modellen ist real, aber der Zeitpunkt – kurz nachdem das WSJ berichtete, dass OpenAI interne Umsatzziele verfehlte – deutet auf Verzweiflung nach diversifizierten Umsatzströmen hin, nicht auf Stärke. Die Investition von 50 Milliarden US-Dollar von Amazon und die Verpflichtung von 2 GW Trainium fühlen sich wie eine Entschädigung für jahrelangen Ausschluss an. Der Burggraben von MSFT Azure ist gerade Risse bekommen.
Die Multi-Cloud-Strategie von OpenAI könnte eine echte kundenorientierte Maßnahme sein, die den TAM für beide Unternehmen erweitert; Microsofts Azure verliert die Modelle von OpenAI nicht, nur die Exklusivität, und die Kundenbindung geht tiefer als die API-Verfügbarkeit.
"Dieser Schritt signalisiert eine bedeutende Verlagerung hin zu einem Multi-Cloud-KI-Stack, der die Einführung von KI in Unternehmen beschleunigt und gleichzeitig Microsoft und OpenAI unter Druck setzt, Konditionen und Margen neu zu verhandeln."
Die Expansion von OpenAI auf AWS Bedrock erweitert den Zugang zu seinen Modellen über Microsoft hinaus und signalisiert eine bewusste Multi-Cloud-Strategie, die größere Enterprise ARR erschließen und die Kundenbindung dämpfen könnte. Für AWS verbreitet es die Traktion von Bedrock, indem es die Fähigkeiten von OpenAI mit Codex und den neuen speicheraktivierten Agenten bündelt und potenziell Marktanteile von Azure gewinnt, da Unternehmen KI in mehreren Clouds einsetzen. Der Aufwärtstrend hängt von der Leistung von Open-Weight-Modellen, der Preisgestaltung und der Datenverwaltung über zwei Schienen ab; der Artikel geht nur oberflächlich auf die Rentabilitätsimplikationen für OpenAI und die genauen Umsatzbedingungen mit Microsoft ein, die wichtig sein werden, wenn die Cloud-Kosten steigen. Das Ausführungsrisiko bleibt bestehen: Latenz, Modellaktualisierungen und Cross-Cloud-Support müssen die Enterprise SLAs erfüllen.
Wenn das Ökosystem wirklich Multi-Cloud wird, könnte Microsoft weniger Preishebel über OpenAI haben als erwartet, aber AWS könnte aggressive Rabatte anbieten, die die Margen für OpenAI und Microsoft schmälern und das exklusivitätsgetriebene Wertversprechen untergraben.
"Die Investition von Amazon in OpenAI ist eine margendilutive Wachstums-Wette und kein fundamentaler Bewertungs-Re-Rating-Katalysator."
Grok, Ihre Prognose eines Forward-KGV von 45x für Amazon ist gefährlich optimistisch. Sie gehen von einem linearen AWS-Wachstumsschub von 10 % durch Bedrock aus, aber die Einführung von KI in Unternehmen wird derzeit durch den Nachweis des ROI und nicht nur durch die Modellverfügbarkeit gebremst. Wenn die Stückkosten von OpenAI so wackelig bleiben, wie das WSJ andeutet, subventioniert Amazon im Wesentlichen einen Partner mit hohem Burn-Rate, um das Top-Line-Wachstum anzukurbeln. Dies ist kein Re-Rating-Katalysator; es ist eine margendilutive Wette, die die massiven Investitionsausgaben ignoriert, die zur Unterstützung dieser Workloads erforderlich sind.
"Die 50-Milliarden-Dollar-AWS-Verpflichtung von OpenAI generiert hochmargige, gebundene Einnahmen für Amazon, kontert Subventionsängste und sichert Nvidia-Kosten über Trainium ab."
Gemini, Ihr Subventionsanspruch dreht die Ökonomie um: Die 50 Milliarden US-Dollar sind die mehrjährige Ausgabenverpflichtung von OpenAI bei AWS (plus 2 GW Trainium), die AMZN hochmargige Einnahmen bei geringen inkrementellen Kosten sichert – weit entfernt von margendilutiv. Dies de-riskt das AWS-Wachstum angesichts der Umsatzverfehlung von OpenAI und könnte die AWS-Run-Rate um 7-8 % steigern, wenn die Bedrock-Inferenz zunimmt. Der ungenannte Nvidia-Hedge über Trainium Custom Silicon ist der schlafende Bull für die AMZN-Margen.
"Die 50 Milliarden US-Dollar sind eine Ausgabenverpflichtung, keine Marge, und die unbewiesene Skalierung von Trainium bei 2 GW untergräbt die bullische AWS-These."
Groks Margenrechnung geht davon aus, dass AWS die vollen 50 Milliarden US-Dollar als hochmargige Einnahmen erzielt, aber das ist die *Ausgabenverpflichtung*, nicht der Gewinn. OpenAI wird nutzungsabhängige Rabatte aushandeln; AWS behält bei KI-Inferenz im großen Maßstab keine Bruttogewinnmargen von 70 %. Noch kritischer: Niemand hat den Elefanten angesprochen – wenn Trainium tatsächlich bei 2 GW funktioniert, warum ist OpenAI dann nicht bereits von Nvidia für das Training abgewandert? Das Schweigen deutet darauf hin, dass entweder Trainium nicht produktionsreif ist oder OpenAI beides braucht. Das ist ein Ausführungsrisiko, das Groks Re-Rating ignoriert.
"Trainium bei 2 GW ist in der Produktion unbewiesen, und ohne dass OpenAI von Nvidia abwandert, ist das Margenpotenzial von Bedrock für AWS weitaus unsicherer, als Grok andeutet."
Groks Margensteigerung hängt von 2 GW Trainium im großen Maßstab ab, aber das ist unbewiesene Produktionskapazität und OpenAI ist für das Training immer noch auf Nvidia angewiesen. Wenn Trainium nicht bereit ist oder OpenAI nicht von Nvidia weg migrieren kann, könnten die Margensteigerungen von AWS weitaus geringer ausfallen und Bedrock lediglich Kosten verschieben, anstatt die Wirtschaftlichkeit zu verbessern. Die bullische Steigerung von 7-8 % bei AWS und das KGV von 45x erscheinen spekulativ, ohne greifbare Beweise für den Erfolg der Bereitstellung und die Zuverlässigkeit von Cross-Cloud-SLAs.
Panel-Urteil
Kein KonsensDer Umzug von OpenAI zu Amazon Bedrock wird sowohl als strategischer Schwenk als auch als potenzielle Umsatzdiversifizierung angesehen, es gibt jedoch Bedenken hinsichtlich der Stückkosten, der Margenverwässerung und der Bereitschaft von Trainium für die hochskalierte Produktion. Das Panel ist sich über die langfristigen Auswirkungen auf OpenAI und Amazon uneinig.
Erweiterter Zugang zu den Modellen von OpenAI auf AWS Bedrock, der potenziell größere Enterprise ARR erschließen und die Kundenbindung dämpfen könnte.
Die Bereitschaft von Trainium für die hochskalierte Produktion und die potenzielle Margenverwässerung für Amazon aufgrund der hohen Rechenkosten von OpenAI.