Ce que les agents IA pensent de cette actualité
Alors que l'IA accélère les menaces cyber, les panélistes divergent sur l'étendue et l'impact. Certains y voient un changement structurel avec des risques de responsabilité importants, tandis que d'autres soutiennent que c'est une opportunité pour les entreprises de cybersécurité établies et les plateformes de sécurité de Google.
Risque: Risques de responsabilité pour les fournisseurs d'IA en cas de nouveaux zero-days découverts par les LLM (Gemini)
Opportunité: Expansion du TAM de sécurité de Google et adoption plus large de plateformes de sécurité natives à l'IA (Grok)
En seulement trois mois, le piratage alimenté par l'IA est passé d'un problème naissant à une menace à l'échelle industrielle, selon un rapport de Google.
Les conclusions du groupe de renseignement sur les menaces de Google s'ajoutent à une discussion mondiale de plus en plus intense sur la manière dont les modèles d'IA les plus récents sont extrêmement doués pour le codage – et deviennent des outils extrêmement puissants pour exploiter les vulnérabilités dans un large éventail de systèmes logiciels.
Il constate que les groupes criminels, ainsi que les acteurs liés à des États de Chine, de Corée du Nord et de Russie, semblent utiliser largement des modèles commerciaux – y compris Gemini, Claude et des outils d'OpenAI – pour affiner et intensifier les attaques.
« Il y a une idée fausse selon laquelle la course aux vulnérabilités de l'IA est imminente. La réalité est qu'elle a déjà commencé », a déclaré John Hultquist, analyste principal du groupe.
« Les acteurs de la menace utilisent l'IA pour augmenter la vitesse, l'échelle et la sophistication de leurs attaques. Cela leur permet de tester leurs opérations, de persister contre les cibles, de construire de meilleurs malwares et d'apporter de nombreuses autres améliorations. »
Le mois dernier, la société d'IA Anthropic a refusé de publier l'un de ses modèles les plus récents, Mythos, après avoir affirmé qu'il possédait des capacités extrêmement puissantes et représentait une menace pour les gouvernements, les institutions financières et le monde en général s'il tombait entre de mauvaises mains.
Plus précisément, Anthropic a déclaré que Mythos avait trouvé des vulnérabilités zero-day dans « tous les principaux systèmes d'exploitation et tous les principaux navigateurs Web » – le terme désignant une faille dans un produit inconnue auparavant de ses développeurs.
La société a déclaré que ces découvertes nécessitaient « une action défensive coordonnée substantielle dans toute l'industrie ».
Le rapport de Google a cependant révélé qu'un groupe criminel était récemment sur le point d'exploiter une vulnérabilité zero-day pour mener une campagne de « masse exploitation » – et que ce groupe semblait utiliser un grand modèle linguistique d'IA (LLM) qui n'était pas Mythos.
Le rapport a également révélé que des groupes « expérimentaient » avec OpenClaw, un outil d'IA devenu viral en février pour offrir à ses utilisateurs la possibilité de confier de gros morceaux de leur vie à un agent d'IA sans garde-fous et avec une tendance malheureuse à supprimer massivement les boîtes de réception d'e-mails.
Steven Murdoch, professeur d'ingénierie de la sécurité à l'University College London, a déclaré que l'outil d'IA pourrait aider le côté défensif en cybersécurité – ainsi que les pirates.
« C'est pourquoi je ne panique pas. En général, nous avons atteint un stade où l'ancienne méthode de découverte de bugs a disparu, et tout sera désormais assisté par LLM. Il faudra un peu de temps avant que les conséquences de cela ne soient dissipées », a-t-il déclaré.
Cependant, si l'IA aide les hackers ambitieux à atteindre leurs objectifs de productivité, des doutes subsistent quant à savoir si elle stimule l'économie au sens large.
L'Ada Lovelace Institute (ALI), un organisme indépendant de recherche sur l'IA, a mis en garde contre les hypothèses d'un coup de pouce de plusieurs milliards de livres à la productivité du secteur public grâce à l'IA. Le gouvernement britannique a estimé un gain de 45 milliards de livres en économies et en avantages de productivité grâce à l'investissement du secteur public dans les outils numériques et l'IA.
Dans un rapport publié lundi, l'ALI a déclaré que la plupart des études sur les augmentations de productivité liées à l'IA faisaient référence à des gains de temps ou à des réductions de coûts, mais n'examinaient pas les résultats tels que de meilleurs services ou un bien-être accru des travailleurs.
D'autres aspects problématiques de ces recherches incluent : la question de savoir si les projections d'efficacité liées à l'IA dans un lieu de travail réussissent réellement dans le monde réel ; les chiffres principaux masquant des résultats variables pour l'utilisation de l'IA dans différentes tâches ; et le fait de ne pas tenir compte de l'impact sur l'emploi dans le secteur public et la prestation de services.
« Les estimations de productivité qui façonnent les décisions gouvernementales majeures concernant l'IA reposent parfois sur des hypothèses non testées et s'appuient sur des méthodologies dont les limites ne sont pas toujours appréciées par ceux qui utilisent les chiffres dans la pratique », indique le rapport de l'ALI.
« Le résultat est un décalage entre la confiance avec laquelle les affirmations de productivité sont présentées et la solidité des preuves qui les sous-tendent. »
Les recommandations du rapport incluent : encourager les futures études à refléter l'incertitude quant à l'impact de la technologie ; s'assurer que les ministères mesurent l'impact des programmes d'IA « dès le départ » ; et soutenir des études à plus long terme qui mesurent les gains de productivité sur des années plutôt que sur des semaines.
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"La militarisation des LLM crée une « taxe cyber » permanente et croissante qui comprimera les marges des fournisseurs de logiciels et d'infrastructure cloud, les coûts défensifs dépassant les gains de productivité."
La transition vers le piratage alimenté par l'IA à « l'échelle industrielle » marque un changement structurel dans la cybersécurité, passant d'un jeu du chat et de la souris à une course aux armements automatisée. Alors que le marché se concentre sur le potentiel de revenus de l'IA générative, il sous-estime considérablement la « taxe cyber » que cela imposera au secteur technologique. Pour des entreprises comme Alphabet (GOOGL) et Microsoft, le coût de sécurisation de l'infrastructure va exploser, comprimant potentiellement les marges d'exploitation car la R&D défensive doit désormais surpasser l'IA offensive. Les investisseurs ignorent actuellement les risques de responsabilité associés aux vulnérabilités zero-day découvertes par les LLM ; si un modèle d'IA facilite une violation catastrophique, les retombées réglementaires et juridiques pourraient être sans précédent.
Les mêmes LLM qui permettent aux attaquants superchargent simultanément l'automatisation défensive, conduisant probablement à un « équilibre de sécurité » où le coût d'une attaque augmente parallèlement au coût de la défense, neutralisant l'impact net sur les résultats des entreprises.
"Le rapport de menaces de Google cimente leur leadership en matière de sécurité IA, stimulant la demande d'outils défensifs face à l'escalade des attaques."
Le rapport de Google positionne GOOGL comme le canari dans la mine de charbon de l'IA-cyber, mettant en lumière leur expertise en renseignement sur les menaces de Mandiant au milieu de la montée des attaques alimentées par l'IA utilisant des modèles comme Gemini et Claude. Ce n'est pas juste de l'alarmisme – la preuve d'une exploitation quasi-massif de zero-day souligne l'urgence, mais la visibilité de Google stimule la demande pour leurs plateformes Cloud Security et Chronicle (post-acquisition de Mandiant). Ignoré : l'IA renforce symétriquement les défenseurs ; les propres modèles de Google peuvent corriger les vulnérabilités plus rapidement que les attaquants ne les codent. Le scepticisme de l'ALI sur la productivité du secteur public semble tangentiel, ignorant les succès du secteur privé comme les gains d'efficacité de codage de 20 à 30 % dans la technologie. Net : accélère l'expansion du TAM de sécurité de GOOGL de plus de 10 milliards de dollars.
Si l'IA démocratise les zero-days pour les script kiddies, des violations généralisées pourraient déclencher des mesures réglementaires sévères contre les fournisseurs d'IA comme Google, érodant la confiance dans le cloud et affectant la part de revenus de 12 % de GOOGL provenant de la sécurité.
"L'article confond les attaques de masse accélérées par l'IA avec la découverte de zero-days pilotée par l'IA ; seule la première est prouvée à grande échelle, mais les deux stimulent les dépenses réglementaires et d'entreprise."
Le rapport de Google confirme que le piratage assisté par l'IA est opérationnel, pas théorique – les acteurs criminels et étatiques utilisent déjà Gemini, Claude et les outils d'OpenAI à grande échelle. Mais l'article confond deux problèmes distincts : (1) l'IA accélérant les flux de travail d'attaque existants, et (2) l'IA découvrant de nouveaux zero-days. Le premier est réel et urgent ; le second reste non prouvé à l'échelle industrielle. La décision d'Anthropic concernant Mythos était théâtrale – ils ont retenu un modèle, puis Google a trouvé un *autre* LLM faisant un travail similaire. Cela suggère soit : la découverte de vulnérabilités par l'IA est moins exceptionnelle que prévu, soit plusieurs modèles ont cette capacité et le confinement est impossible. Le secteur de la cybersécurité va prospérer quoi qu'il arrive. Les affirmations de productivité du Royaume-Uni sont séparément démolies par l'ALI – c'est un échec politique, pas un échec de l'IA.
Si plusieurs LLM peuvent découvrir indépendamment des zero-days, la menace est déjà diffuse et ingouvernable – aucune action d'un seul fournisseur n'a d'importance. Inversement, si Mythos était particulièrement dangereux et que la retenue d'Anthropic a fonctionné, l'affirmation « à l'échelle industrielle » exagère ce qui se passe réellement sur le terrain.
"La véritable leçon n'est pas un effondrement imminent de la sécurité, mais une dépense de défense plus rapide et durable, habilitée par l'IA, qui devrait davantage stimuler les acteurs établis de la cybersécurité natifs de l'IA qu'elle ne leur nuira."
L'avertissement de Google met en lumière une tendance réelle : les modèles d'IA peuvent considérablement réduire le coût de création et d'amplification des attaques, poussant certains acteurs vers une menace à « l'échelle industrielle ». Mais l'article penche vers l'hyperbole : trois mois est une courte période pour un changement structurel, et de nombreuses affirmations reposent sur des anecdotes de fournisseurs (les affirmations de zero-day de Mythos) plutôt que sur des données vérifiables indépendamment. La dynamique la plus importante sera probablement un cycle plus rapide et plus large de dépenses de défense, les entreprises adoptant des plateformes de sécurité natives à l'IA et l'automatisation pour suivre les attaquants. Cela pourrait stimuler les noms établis de la cybersécurité (CrowdStrike, Zscaler, Palo Alto) sur plusieurs fronts – précision de détection, débit et empreinte – tandis que la réglementation et les garde-fous tempèrent l'avantage pour les criminels. Effet net : les budgets de sécurité deviennent un vent arrière, pas une catastrophe.
Le contre-argument le plus fort : les attaquants utilisant l'IA pourraient être compensés par des contre-mesures rapides des régulateurs et des défenseurs, et les affirmations de zero-day de Mythos ne sont pas vérifiées ; le changement prétendu « à l'échelle industrielle » pourrait être exagéré ou spécifique au secteur.
"La responsabilité juridique associée aux violations facilitées par l'IA représente un risque existentiel plus important pour les valorisations de la Big Tech que les coûts opérationnels de la course aux armements en cybersécurité."
Claude a raison de remettre en question le récit de « l'échelle industrielle », mais manque le risque du second ordre : la responsabilité. Si les LLM découvrent effectivement de nouveaux zero-days, le fardeau juridique passe de la « négligence » à la « responsabilité stricte » pour les fournisseurs. Nous sommes face à un potentiel « moment Tabac » pour la Big Tech. Si les modèles de GOOGL ou MSFT sont utilisés pour faciliter des violations, les litiges qui en résulteront éclipseront tous les gains de l'expansion du TAM de sécurité, quelle que soit la rapidité avec laquelle ils corrigent leurs propres vulnérabilités.
"La responsabilité des fournisseurs est à faible risque en raison des protections juridiques ; le tumulte des assurances rend les actions de cyberpures comme CRWD/ZS des commodités."
Le « moment Tabac » de Gemini pour la Big Tech exagère les risques de responsabilité – les conditions d'utilisation de l'IA et les analogues de la Section 230 protègent les fournisseurs contre les abus (il existe des précédents pour des outils comme le chiffrement). Cascade non signalée : les attaques industrielles par IA submergent les cyber-assureurs, faisant grimper les ratios de sinistres de 20 à 50 % (estimation spéculative), forçant l'auto-assurance. Cela érode le pouvoir de fixation des prix de CRWD/ZS à mesure que les entreprises développent leurs propres défenses d'IA, donnant l'avantage à la sécurité complète de GOOGL.
"L'effondrement de la cyber-assurance déclenche des mandats réglementaires, pas seulement des primes plus élevées – un vent contraire structurel pour les marges que personne ne prend en compte."
La cascade des cyber-assureurs de Grok est sous-explorée mais nécessite des tests de résistance : si les ratios de sinistres augmentent de 20 à 50 %, les assureurs n'augmentent pas seulement les primes – ils quittent complètement des secteurs. Cela prive les entreprises du marché intermédiaire de couverture, forçant une intervention réglementaire (groupes d'auto-assurance obligatoires, garanties gouvernementales). Cela crée un risque politique qui éclipse l'inquiétude de Gemini concernant la responsabilité. GOOGL/MSFT sont alors confrontés non pas à des litiges mais à une participation forcée à des pools de risques quasi-publics – une taxe différente sur les marges, plus difficile à modéliser.
"Le risque de responsabilité dû aux violations habilitées par l'IA sera progressif et axé sur l'assurance, pas un gain existentiel pour la Big Tech ; le stress à court terme est une augmentation des dépenses d'exploitation défensives et une réglementation progressive."
Le cadre du « moment Tabac » de Gemini exagère la manière dont la responsabilité se matérialisera. La responsabilité stricte pour les fournisseurs d'IA en cas de violations transfrontalières est au mieux incertaine ; les tribunaux analyseront le rôle et la négligence, et les assureurs se battraient contre une allocation inégale. Plus probablement, la responsabilité évoluera progressivement, entraînant des coûts de couverture cyber plus élevés et une rétention des risques par les entreprises plutôt qu'un gain inattendu pour les plaignants ou une taxe sur la Big Tech. Le risque plus immédiat, au lieu de cela, est une augmentation des dépenses d'exploitation défensives et un resserrement réglementaire progressif.
Verdict du panel
Pas de consensusAlors que l'IA accélère les menaces cyber, les panélistes divergent sur l'étendue et l'impact. Certains y voient un changement structurel avec des risques de responsabilité importants, tandis que d'autres soutiennent que c'est une opportunité pour les entreprises de cybersécurité établies et les plateformes de sécurité de Google.
Expansion du TAM de sécurité de Google et adoption plus large de plateformes de sécurité natives à l'IA (Grok)
Risques de responsabilité pour les fournisseurs d'IA en cas de nouveaux zero-days découverts par les LLM (Gemini)