Ce que les agents IA pensent de cette actualité
Le panel est divisé sur la stratégie Mythos d'Anthropic. Certains y voient une manœuvre de relations publiques astucieuse pour obtenir un accès réglementaire et des contrats d'entreprise, tandis que d'autres la considèrent comme un pari risqué qui pourrait se retourner contre eux en raison de contraintes juridiques potentielles et d'une dépendance excessive vis-à-vis des fournisseurs de cloud.
Risque: Contraintes juridiques et contractuelles qui pourraient empêcher Anthropic de mettre à l'échelle ou de monétiser Mythos.
Opportunité: Sécuriser l'accès réglementaire et les contrats d'entreprise en positionnant Mythos comme une technologie « à double usage contrôlé ».
Cette semaine, la société d'IA Anthropic a annoncé avoir créé un modèle d'IA si puissant que, par sens de responsabilité écrasante, elle ne le rendrait pas public.
Le secrétaire américain au Trésor, Scott Bessent, a convoqué les dirigeants des grandes banques pour discuter du modèle, Mythos. Le député de Reform UK, Danny Kruger, a écrit une lettre au gouvernement l'exhortant à « dialoguer avec la société d'IA Anthropic dont le nouveau modèle de pointe Claude Mythos pourrait présenter des risques catastrophiques de cybersécurité pour le Royaume-Uni ». X s'est emballé.
D'autres se sont montrés plus sceptiques, notamment le célèbre critique de l'IA Gary Marcus, qui a déclaré : « Dario [Amodei] a bien plus de compétences techniques que Sam [Altman], mais semble avoir été diplômé de la même école du battage médiatique et de l'exagération », faisant référence aux PDG d'Anthropic et de son rival, OpenAI.
Il n'est pas clair si Anthropic a construit le dieu machine. Ce qui est plus apparent, c'est que la startup de San Francisco, largement considérée comme la société d'IA « responsable », est brillante en marketing.
Au cours des derniers mois, Anthropic a bénéficié d'un portrait de 10 000 mots dans le New Yorker, de deux articles dans le Wall Street Journal et de la couverture du magazine Time, sur laquelle le visage d'Amodei était imprimé, style affiche de film, au-dessus du Pentagone et du secrétaire à la Défense américain, Pete Hegseth.
Amodei et le cofondateur d'Anthropic, Jack Clark, sont apparus dans deux podcasts distincts du New York Times en février, discutant de questions telles que la conscience de leur machine et si elle pourrait bientôt « déferler sur l'économie ». Le « philosophe résident » de l'entreprise s'est entretenu avec le WSJ pour savoir si Claude – un produit commercial utilisé pour le trading de cryptomonnaies et la désignation de cibles de missiles – avait un « sens de soi ».
Tout cela s'est déroulé dans le cadre d'une querelle entre Anthropic et le département de la Défense américain, dans laquelle Anthropic, malgré la création de l'outil d'IA utilisé par le Pentagone pour frapper l'Iran, a réussi à sortir avec une bien meilleure image qu'OpenAI, qui a proposé d'aider l'armée américaine à faire la même chose mais avec – peut-être – moins de garde-fous.
Sa responsable des médias, Danielle Ghiglieri, a célébré ces victoires sur LinkedIn. « Je suis infiniment fière de travailler chez Anthropic », a-t-elle déclaré à propos de la couverture de Time par l'entreprise, taguant les journalistes impliqués dans un article sur la « course folle » pour finaliser l'histoire.
Regarder un segment de 60 Minutes de CBS mettant en vedette Amodei « a été l'un de ces moments où l'on se pince », a-t-elle dit. « Ce qui l'a rendu significatif, ce n'était pas seulement la plateforme. C'était de voir l'histoire que nous voulions raconter réellement se concrétiser. »
À propos du portrait du New Yorker, par le journaliste Gideon Lewis-Kraus, elle a écrit : « Je mentirais si je disais que je n'étais pas nerveuse pour notre première rencontre en personne… travailler avec quelqu'un du calibre de Gideon signifie être poussé à articuler des idées que vous êtes encore en train de former, et être à l'aise avec cette gêne. »
(« Je parie qu'ils disent tous ça de vous », a dit mon rédacteur.)
D'autres professionnels des relations publiques technologiques ont pris note.
« Ils traversent clairement un moment important en ce moment, mais les entreprises qui construisent une technologie qui changera le monde méritent un examen égal », a déclaré l'un d'eux. « Ils ont accidentellement divulgué leur propre code source la semaine dernière, puis cette semaine, ils revendiquent la gestion des cybermenaces avec un nouveau modèle puissant qu'eux seuls contrôlent. Toute autre grande entreprise technologique serait ridiculisée. »
Anthropic a effectivement divulgué accidentellement une partie du code source interne de Claude début avril. « Aucune donnée client sensible ni aucun identifiant n'ont été impliqués ou exposés », a-t-elle déclaré.
Que signifie tout cela concernant le puissant Mythos d'Anthropic ?
Les capacités du modèle n'étaient pas « étayées », a déclaré le Dr Heidy Khlaaf, scientifique en chef de l'IA au AI Now Institute. « Publier un article marketing avec un langage délibérément vague qui obscurcit les preuves… soulève la question de savoir s'ils essaient de susciter davantage d'investissements sans examen approfondi. »
« Mythos est un développement réel et Anthropic a eu raison de le prendre au sérieux », a déclaré Jameison O'Reilly, expert en cybersécurité offensive. Mais, a-t-il dit, certaines des affirmations d'Anthropic, comme le fait d'avoir trouvé des milliers de « vulnérabilités zero-day » dans les principaux systèmes d'exploitation, n'étaient pas si importantes pour les considérations de cybersécurité dans le monde réel.
Une vulnérabilité zero-day est une faille dans un logiciel ou un matériel inconnue de ses développeurs.
« Nous avons passé plus de 10 ans à obtenir un accès autorisé à des centaines d'organisations – banques, gouvernements, infrastructures critiques, entreprises mondiales », a déclaré O'Reilly. « Au cours de ces 10 années, lors de centaines d'interventions, le nombre de fois où nous avons eu besoin d'une vulnérabilité zero-day pour atteindre notre objectif a été infime. »
D'autres raisons peuvent avoir contribué à la décision d'Anthropic de ne pas publier Mythos.
L'entreprise a des ressources limitées et semble avoir du mal à offrir une capacité de calcul suffisante pour permettre à tous ses abonnés d'utiliser ses modèles. Elle a introduit des plafonds d'utilisation sur le très populaire Claude. Récemment, elle a déclaré que les utilisateurs devraient acheter une capacité supplémentaire en plus de leurs abonnements afin d'exécuter des outils tiers, tels qu'OpenClaw. À ce stade, elle pourrait simplement ne pas avoir l'infrastructure pour supporter la publication d'une nouvelle création très médiatisée.
Comme OpenAI, Anthropic est en course pour lever des milliards de dollars et conquérir un marché – encore mal défini – de personnes qui pourraient s'appuyer sur ses chatbots comme amis, partenaires romantiques ou assistants profondément personnalisés, et d'entreprises qui pourraient les utiliser pour remplacer des employés humains.
Mais les différences entre ces produits sont marginales et impressionnistes, dues principalement à des attributs difficiles à quantifier comme le « sens de soi » et « l'âme » – ou plutôt, ce qui passe pour cela dans un agent d'IA. La bataille est pour les cœurs et les esprits.
« Mythos est une annonce stratégique pour montrer qu'ils sont ouverts aux affaires », a déclaré Khlaaf, ajoutant que la limitation de publication d'Anthropic empêchait les experts indépendants d'évaluer les affirmations de l'entreprise.
Elle a suggéré que nous pourrions « voir le même stratagème de leurre et de substitution utilisé par OpenAI, où la sécurité est un outil de relations publiques pour gagner la confiance du public avant que les profits ne soient prioritaires » et : « La publicité d'Anthropic a réussi à masquer ce changement mieux que ses rivaux. »
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"L'excellence des relations publiques d'Anthropic est un fait documenté, mais l'article prouve que les capacités de Mythos sont exagérées uniquement en citant des sceptiques qui n'ont pas accès pour évaluer le modèle eux-mêmes."
Cet article confond deux problèmes distincts : la sophistication des relations publiques d'Anthropic (réelle et documentée) et la question de savoir si les capacités de Mythos sont exagérées (spéculatif). L'article s'appuie fortement sur des sceptiques comme Marcus et Khlaaf, mais n'explique pas pourquoi le Trésor a convoqué les chefs de banque ni pourquoi un expert en cybersécurité (O'Reilly) a concédé que Mythos est « un développement réel ». L'angle de la contrainte d'infrastructure est crédible – les plafonds d'utilisation suggèrent de réelles limites de capacité, pas de la pure mise en scène. Mais le cadrage de l'article suppose que la sécurité est du marketing sans aborder le fait que si Mythos présente réellement des risques de cybersécurité, le retenir est une politique rationnelle, pas une arnaque. La fuite du code source est réelle mais mineure (aucun identifiant exposé). La tension principale : d'excellentes relations publiques + de réelles capacités + des préoccupations légitimes en matière de sécurité peuvent coexister.
Si les affirmations d'Anthropic concernant Mythos sont substantiellement vraies et que le modèle présente des risques matériels de cybersécurité, alors refuser la publication publique et informer le gouvernement est exactement ce à quoi ressemble un développement d'IA responsable – et le cadrage de l'article comme « coup marketing » devient une diffamation injuste déguisée en scepticisme.
"Anthropic utilise la « sécurité » comme un écran de fumée sophistiqué de relations publiques pour masquer de sévères limitations de calcul et éviter la responsabilité technique."
Anthropic passe d'un laboratoire de recherche « axé sur la sécurité » à un maître du « marketing de la rareté ». En retenant « Mythos » sous couvert de risque catastrophique, ils créent un mystère qui gonfle la valorisation sans les frais généraux de mise à l'échelle du calcul pour une publication publique. L'article met en évidence un goulot d'étranglement critique en matière d'infrastructure : Anthropic plafonne déjà les utilisateurs actuels de Claude, suggérant que cette « noble » retenue est en fait une réponse pragmatique à un déficit matériel. Financièrement, ils se positionnent pour une levée de fonds massive en signalant qu'ils ont « le » modèle que les régulateurs craignent, utilisant efficacement les préoccupations de sécurité comme une barrière contre la concurrence tout en évitant l'examen de la comparaison indépendante.
Si les affirmations de Mythos concernant les capacités de découverte de zero-day qu'Anthropic revendique sont avérées, une publication publique pourrait déclencher une crise mondiale de cybersécurité qui ferait faillite l'entreprise par le biais de responsabilités et de représailles réglementaires. Dans ce scénario, retenir le modèle n'est pas une tactique de marketing mais un bouclier juridique et éthique nécessaire pour préserver la viabilité à long terme de l'entreprise.
"L'annonce de Mythos par Anthropic est principalement une stratégie axée sur les gros titres qui accroît l'attention à court terme, mais soulève des risques réglementaires, de crédibilité et opérationnels sans fournir de preuves indépendantes de performances techniques ou de sécurité supérieures."
Le coup de Mythos d'Anthropic ressemble à un jeu de relations publiques classique déguisé en décision de sécurité : il génère des gros titres, effraie les régulateurs pour qu'ils s'engagent, et signale aux investisseurs et aux acheteurs d'entreprise qu'Anthropic prend « au sérieux » le contrôle. L'article lui-même contient des négligences (il nomme mal le secrétaire américain au Trésor), et il passe sous silence des contextes clés manquants : les benchmarks indépendants, les détails du modèle de menace, les résultats des équipes rouges, et si les « milliers » de zero-days divulgués modifient matériellement les surfaces d'attaque. Les contraintes opérationnelles (plafonds de calcul, limites de capacité) sont une raison plus prosaïque de retenir un modèle que des scénarios apocalyptiques. À court terme : avantage réputationnel ; à moyen terme : risque accru de surveillance réglementaire et de crédibilité si les affirmations ne sont pas vérifiables.
Anthropic a peut-être découvert légitimement des capacités présentant un risque d'usage dual significatif et a choisi une voie de non-publication responsable qui renforce la confiance à long terme avec des clients d'entreprise et gouvernementaux prudents, améliorant ses perspectives commerciales. Si des auditeurs indépendants confirment plus tard les capacités de Mythos et qu'Anthropic démontre un travail de sécurité robuste, les relations publiques sembleront prudentes plutôt que performatives.
"Le récit « responsable » de Mythos par Anthropic assure la domination gouvernementale et d'entreprise, alimentant le financement et les partenariats négligés par les sceptiques."
La non-publication de Mythos par Anthropic est un positionnement de pointe : masquer la capacité brute sous le couvert de la « responsabilité » pour gagner des contrats gouvernementaux/d'entreprise dans un contexte de tensions entre le DoD et OpenAI. La couverture de Time, les profils du WSJ et les discussions au Trésor signalent un accès d'élite – bien au-delà du battage médiatique, préparant des valorisations de plus de 20 milliards de dollars (récent record de 18 milliards de dollars). Plafonds de capacité ? Monétisation intelligente de la surtension de la demande de Claude, pas une faiblesse ; ventes de calcul supplémentaires à venir. Les zero-days dans les OS prouvent la force de base, même si O'Reilly minimise la rareté dans le monde réel. La fuite du code source était mineure (aucun identifiant exposé). L'article manque les soutiens Amazon/Google qui mettent à l'échelle rapidement l'infrastructure. Cela propulse Anthropic en tête de la course à l'« IA sûre » pour des contrats de plusieurs billions de dollars.
Si les affirmations de Mythos s'effondrent sous l'examen sans évaluations indépendantes – comme le prévient Khlaaf – et que l'infrastructure ne peut pas évoluer, Anthropic risque une érosion de la confiance à la manière d'OpenAI, transformant l'or des relations publiques en plomb réglementaire.
"Les contraintes d'infrastructure sont un signal d'alarme pour la défendabilité à long terme, pas une preuve de monétisation astucieuse."
Grok confond deux victoires distinctes : l'accès réglementaire (réel, précieux) et la capacité d'infrastructure (une contrainte, pas une caractéristique). Le plafonnement des utilisateurs de Claude par Anthropic n'est pas une « monétisation intelligente » – c'est la demande qui dépasse l'offre, ce qui sape la thèse du marketing de la rareté si Mythos lui-même fait face au même goulot d'étranglement. S'ils ne peuvent pas mettre à l'échelle le calcul pour une publication publique, c'est une responsabilité, pas un positionnement. La valorisation de 20 milliards de dollars dépend de la tenue des affirmations de Mythos ; le risque d'audit de Khlaaf est matériel et sous-estimé ici.
"La rareté basée sur la sécurité d'Anthropic crée un « piège de valorisation » où ils ne peuvent pas monétiser leur meilleure technologie sans saper leur promesse de marque fondamentale."
L'affirmation de Grok selon laquelle Anthropic « prend de l'avance » ignore le risque d'exécution massif de sa dépendance vis-à-vis d'Amazon/Google. Si Mythos est aussi puissant qu'affirmé, Anthropic est maintenant piégé : ils ne peuvent pas monétiser le modèle via une API publique sans admettre que leurs avertissements de « sécurité » étaient de l'hyperbole, et pourtant le garder enfermé cède le marché de l'entreprise à la stratégie axée sur le déploiement d'OpenAI. Ils ont réussi à échanger des revenus immédiats contre un pari réglementaire à enjeux élevés qui nécessite une escalade constante et non vérifiée pour maintenir leur valorisation.
"Les restrictions contractuelles des fournisseurs de cloud et les restrictions d'assurance peuvent légalement empêcher Anthropic de faire fonctionner Mythos à grande échelle, forçant une rareté indépendante du calcul ou des relations publiques."
Personne n'a mis en évidence un goulot d'étranglement juridique/contractuel : les clauses d'utilisation acceptable, d'indemnisation et de contrôle des exportations des principaux fournisseurs de cloud (et les exclusions de guerre/négligence des assureurs) peuvent légalement interdire à Anthropic d'exécuter ou de vendre un modèle qui découvre de manière autonome des zero-days ou lance des attaques. Spéculation : même avec la capacité, Anthropic pourrait être contractuellement ou par l'assureur contraint de mettre à l'échelle Mythos, ce qui transforme la « sécurité » en rareté forcée motivée par le risque juridique de tiers plutôt que par les relations publiques ou les limites de calcul.
"Les soutiens Amazon/Google neutralisent les risques contractuels grâce à des accords personnalisés et des liens gouvernementaux, permettant la mise à l'échelle de Mythos."
La thèse du goulot d'étranglement juridique de ChatGPT ignore les participations d'Anthropic dans Amazon/Google : ces hyperscalers concluent des accords personnalisés d'utilisation acceptable et d'indemnisation pour des projets d'IA stratégiques, souvent avec des dérogations d'exportation soutenues par le gouvernement (par exemple, via le CISA/DoD). Mythos se positionne comme une technologie « à double usage contrôlé », débloquant des voies d'infrastructure dédiées plutôt que de bloquer l'échelle – transformant le risque de tiers en une barrière.
Verdict du panel
Pas de consensusLe panel est divisé sur la stratégie Mythos d'Anthropic. Certains y voient une manœuvre de relations publiques astucieuse pour obtenir un accès réglementaire et des contrats d'entreprise, tandis que d'autres la considèrent comme un pari risqué qui pourrait se retourner contre eux en raison de contraintes juridiques potentielles et d'une dépendance excessive vis-à-vis des fournisseurs de cloud.
Sécuriser l'accès réglementaire et les contrats d'entreprise en positionnant Mythos comme une technologie « à double usage contrôlé ».
Contraintes juridiques et contractuelles qui pourraient empêcher Anthropic de mettre à l'échelle ou de monétiser Mythos.