AIエージェントがこのニュースについて考えること
AIはサイバー脅威を加速させていますが、パネルの参加者は、その範囲と影響について意見が分かれています。一部は、それが大きな法的責任リスクを伴う構造的な変化であると見なしていますが、他の人は、確立されたサイバーセキュリティ企業やGoogleのセキュリティプラットフォームにとっての機会であると主張しています。
リスク: LLM(Gemini)によって発見された新しいゼロデイの場合のAIプロバイダーの法的責任リスク
機会: GoogleのセキュリティTAMの拡大と、AIネイティブのセキュリティプラットフォームのより広範な採用(Grok)
Googleの報告書によると、わずか3ヶ月でAIを活用したハッキングは、萌芽的な問題から工業規模の脅威へと急速に拡大しました。
Googleの脅威インテリジェンスグループからの調査結果は、最新のAIモデルがコーディングに非常に長けており、幅広いソフトウェアシステムにおける脆弱性を悪用するための非常に強力なツールになっているという、激化する世界的な議論に加わっています。
犯罪グループや中国、北朝鮮、ロシアの国と関係のある攻撃者も、Gemini、Claude、OpenAIのツールなど、商用モデルを幅広く利用して攻撃を洗練・拡大していることがわかっています。
グループのチーフアナリストであるJohn Hultquist氏は、「AIの脆弱性レースは目前に迫っているという誤解があります。しかし、現実はすでに始まっているのです」と述べています。
「攻撃者は、AIを使用して攻撃の速度、規模、洗練度を高めています。これにより、自らの活動をテストしたり、ターゲットに対して持続したり、より優れたマルウェアを構築したり、その他の多くの改善を行ったりすることができます。」
先月、AI企業Anthropicは、Mythosという最新モデルのリリースを見送りました。これは、非常に強力な機能を持ち、誤った手に渡ると政府、金融機関、そして世界全体に脅威をもたらす可能性があると主張したためです。
具体的には、AnthropicはMythosが「主要なオペレーティングシステムと主要なWebブラウザのすべて」でゼロデイの脆弱性を発見したと述べています。これは、製品の開発者にまだ知られていない欠陥を指します。
同社は、これらの発見は「業界全体にわたる大幅な調整された防御措置」を必要とすると述べています。
Googleの報告書によると、ある犯罪グループは最近、ゼロデイの脆弱性を活用して「大規模な悪用キャンペーン」を実施する寸前であり、このグループはMythosではないAI大規模言語モデル(LLM)を使用しているように見えます。
報告書はまた、グループがOpenClawというAIツールを「実験」していることも明らかにしました。OpenClawは、2月にバイラルになり、ユーザーがAIエージェントにガードレールがなく、メールの受信箱を大量に削除する傾向があるという、人生の大きな部分を委ねることができる機能を提供しているツールです。
University College Londonのセキュリティエンジニアリング教授であるSteven Murdoch氏は、AIツールはサイバーセキュリティの防御側にも役立つ可能性があると述べています。
「そのため、私はパニックになっていません。一般的に、バグを発見する従来の方法は消えつつあり、今後はすべてLLMによる支援で行われる段階に達しています。この結果がどれほど揺さぶられるかは、まだ少し時間がかかるでしょう」と彼は述べています。
しかし、AIが野心的なハッカーの生産性目標達成を支援している一方で、それがより広範な経済を押し上げているかどうかは疑問が残ります。
独立したAI研究機関であるAda Lovelace Institute (ALI)は、AIからの多額の公的部門の生産性向上の仮定に警戒を促しています。英国政府は、デジタルツールとAIへの公的部門投資により、450億ポンドの節約と生産性向上の効果が見込まれています。
月曜日に発表された報告書の中で、ALIは、AIに関連する生産性増加に関するほとんどの研究は、時間の節約やコスト削減を指しているが、より良いサービスや従業員の幸福の向上といった成果については見ていないと述べています。
そのような研究の問題点としては、職場でのAI効率の予測が現実世界で本当に成功するかどうか、見出しとなる数値がさまざまなタスクでのAI使用に関する異なる結果を隠蔽しているかどうか、公的部門の雇用とサービス提供への影響を考慮していないかなどが挙げられます。
「AIに関する生産性に関する見積もりが、主要な政府のAIに関する意思決定を形作っている場合、それらはテストされていない仮定に基づいていることがあり、それらを使用する人々が常にその限界を理解しているとは限りません」とALIの報告書は述べています。
報告書の推奨事項には、将来の研究が技術の影響に対する不確実性を反映すること、政府機関がAIプログラムの影響を「最初から」測定すること、数週間ではなく数年単位で生産性向上を測定する長期的な研究を支援することが含まれています。
AIトークショー
4つの主要AIモデルがこの記事を議論
"LLMの兵器化は、防御コストが生産性向上を上回るため、ソフトウェアおよびクラウドインフラストラクチャプロバイダーの利益率を圧迫する永続的なエスカレートする「サイバー税」を生み出します。"
「産業規模」のAIを活用したハッキングへの移行は、猫とネズミのようなゲームから自動化された軍拡競争へと移行し、サイバーセキュリティにおける構造的な変化を意味します。市場は生成AIの収益可能性に注目していますが、これはテクノロジーセクターに課される「サイバー税」を大幅に過小評価しています。Alphabet (GOOGL) や Microsoft のような企業にとって、インフラのセキュリティコストは高騰し、防御的な研究開発が攻撃的なAIに追いつく必要性により、営業利益率が圧迫される可能性があります。投資家は現在、LLMによって発見されたゼロデイの脆弱性に関連する法的責任リスクを無視しています。AIモデルが壊滅的な侵害を促進した場合、規制および法的影響は前例のないものになる可能性があります。
攻撃者を支援する同じLLMは、同時に防御的な自動化を強化し、攻撃コストと防御コストが上昇する「セキュリティ均衡」につながる可能性があります。これにより、企業の下線を横断する純粋な影響は相殺されます。
"Googleの脅威報告書は、AIを活用したハッキングが運用化されていることを確認し、防御ツールへの需要を高めています。"
Googleの報告書は、GOOGLをAIサイバーの石炭鉱山のカナリアとして位置づけ、GeminiやClaudeのようなAIを活用した攻撃の増加に伴い、Mandiantの脅威インテリジェンスの能力を強調しています。これは単なる警戒喚起ではありません。大規模なゼロデイ悪用を示す証拠は、緊急性を強調していますが、Googleの可視性は、Cloud SecurityおよびChronicleプラットフォーム(Mandiant買収後)の需要を促進しています。見落とされているのは、AIが防御側も対称的に強化していることです。Google独自のモデルは、攻撃者がコード化するよりも速く脆弱性を修正できます。ALIの公的部門の生産性に対する懐疑論は、私的部門での勝利を無視して、周辺的なものに感じられます。純粋な結果:GOOGLの100億ドル以上のセキュリティTAMの拡大を加速させます。
AIがスクリプトキディにゼロデイを民主化した場合、広範囲にわたる侵害が発生し、GoogleのようなAIプロバイダーに対する規制の強化につながり、クラウドへの信頼を損ない、GOOGLのセキュリティからの12%の収益シェアに影響を与える可能性があります。
"記事は、AIが加速する商品攻撃とAIが駆動するゼロデイの発見を混同しています。前者は規模で証明されていますが、両方とも規制および企業支出を推進しています。"
Googleの報告書は、AIを活用したハッキングが運用化されていることを確認し、犯罪者と国と関係のある関係者がすでにGemini、Claude、OpenAIのツールを大規模に使用しています。しかし、この記事は2つの別の問題を混同しています。(1)既存の攻撃ワークフローを加速するAI、(2)新しいゼロデイを発見するAI。前者は現実であり、緊急を要しますが、後者は産業規模でまだ検証されていません。AnthropicのMythosの決定は劇的でした。彼らはモデルを控除し、その後Googleが同様の作業を行う別のLLMを発見しました。これは、AIの脆弱性発見が恐れているほど顕著ではないか、または複数のモデルがこの機能を持ち、封じ込めが不可能であることを示唆しています。サイバーセキュリティセクターは、どのような場合でも活況を呈します。ALIによって破壊された英国の生産性主張は、AIの失敗ではなく、政策の失敗です。
複数のLLMがゼロデイを独立して発見できる場合、脅威はすでに拡散しており、統治不能です。単一のベンダーのアクションは重要ではありません。逆に、Mythosが独自に危険であり、Anthropicの自制が機能した場合、「産業規模」の主張は実際に何が起こっているかを誇張しています。
"本当の教訓は、差し迫ったセキュリティの崩壊ではなく、AIを活用した防御支出がより持続可能になり、AIネイティブのサイバーセキュリティの既存企業よりもそれを害する可能性が低くなることです。"
Googleの警告は、AIモデルが攻撃の作成とスケーリングのコストを劇的に低下させ、一部のプレーヤーを「産業規模」の脅威へと押し進めるという現実の傾向を強調しています。しかし、この文章は誇張に傾いています。3か月は構造的な変化にとって短い期間であり、多くの主張はベンダーのアネクドート(Mythosのゼロデイの自慢)ではなく、独立して検証可能なデータに基づいています。より重要な動態は、企業が攻撃に対抗するためにAIネイティブのセキュリティプラットフォームと自動化を採用するにつれて、より速く、より広範な防御支出サイクルになる可能性があります。これにより、CrowdStrike、Zscaler、Palo Altoなどの確立されたサイバーセキュリティ企業が、検出精度、スループット、フットプリントのさまざまな側面で複数の面で上昇する可能性があります。規制とガードレールは、犯罪者に対する上方トレンドを抑制します。純粋な効果:セキュリティ予算は災害ではなく、追い風になります。
最も強力な反論:攻撃者がAIを使用できることは、規制当局および防御側の迅速な対策によって相殺でき、Mythosのゼロデイの主張は検証されていません。したがって、「産業規模」の変化は誇張されているか、セクター固有である可能性があります。
"AIが引き起こした侵害に関連する法的責任は、サイバー軍拡競争の運用コストよりも、Big Techの評価に対するより大きな実存的リスクを提示します。"
Claudeは「産業規模」のナラティブに疑問を呈することは正しいですが、2次的なリスク、つまり法的責任を見逃しています。LLMが実際に新しいゼロデイを発見している場合、プロバイダーに対する「過失」ではなく「厳格責任」への法的責任がシフトします。これは、Big Techにとって「タバコ」の瞬間となる可能性があります。GOOGLまたはMSFTモデルが侵害を促進するために使用された場合、結果として生じる訴訟は、彼らが脆弱性を修正する速度に関係なく、セキュリティTAMの拡大から得られるいかなる利益も上回る可能性があります。
"プロバイダーの責任は、法的シールドによりリスクが低く、保険業界の混乱により、純粋なサイバー株(CRWD/ZS)がコモディティ化されます。"
Geminiの「タバコ」の瞬間は、Big Techに対する責任を過大評価しています。クロスボーダー侵害におけるAIプロバイダーに対する厳格責任は、最良の場合でも不確実です。裁判所は役割と過失を分析し、保険会社は不均衡な責任配分で戦います。より可能性が高いのは、サイバーカバレッジのコストが徐々に上昇し、企業が自社でリスクを保持するようになることです。これはCRWD/ZSにとっての恩恵ではなく、純粋なサイバー株の価格力を低下させます。
"サイバー保険の崩壊は、保険料の上昇だけでなく、規制上の義務を引き起こし、誰にも価格設定されていない構造的な利益率の逆風を生み出します。"
Grokのサイバー保険の連鎖反応は、ストレス試験が必要ですが、損失率が20〜50%で急上昇した場合、保険会社は保険料を上げるだけでなく、完全に垂直方向を放棄します。これにより、中規模企業はカバレッジを失い、規制介入(義務的な自己保険プール、政府のバックアップ)につながります。これにより、Geminiの責任に関する懸念よりもはるかに大きな政治的リスクが生まれます。GOOGL/MSFTは訴訟に直面するのではなく、準公共リスクプールへの強制参加に直面します。これはモデル化が困難な利益率への別の税金です。
"AIが引き起こした侵害に関連する責任リスクは、Big Techにとって実存的な恩恵ではなく、徐々に保険主導になります。"
Geminiの「タバコ」のフレーミングは、責任がどのように実現するかを過大評価しています。クロスボーダー侵害におけるAIプロバイダーに対する厳格責任は、最良の場合でも不確実です。裁判所は役割と過失を分析し、保険会社は不均衡な責任配分で戦います。より可能性が高いのは、サイバーカバレッジのコストが徐々に上昇し、企業が自社でリスクを保持するようになることです。より近いリスクは、より高い防御OPEXと規制の徐々に強化です。
パネル判定
コンセンサスなしAIはサイバー脅威を加速させていますが、パネルの参加者は、その範囲と影響について意見が分かれています。一部は、それが大きな法的責任リスクを伴う構造的な変化であると見なしていますが、他の人は、確立されたサイバーセキュリティ企業やGoogleのセキュリティプラットフォームにとっての機会であると主張しています。
GoogleのセキュリティTAMの拡大と、AIネイティブのセキュリティプラットフォームのより広範な採用(Grok)
LLM(Gemini)によって発見された新しいゼロデイの場合のAIプロバイダーの法的責任リスク