世界を動かす技術を、日本語で。

Googleは犯罪者ハッカーがAIを利用して重大なソフトウェアの脆弱性を発見したと発表しました

概要

  • 2026年5月、Googleが大規模なハッキング攻撃を阻止
  • AI技術を活用したサイバーセキュリティ対策の成果
  • 攻撃は国家レベルの高度な手法と推定
  • 主要メディアが事件の詳細を報道
  • サイバーセキュリティの重要性が再認識された事例

Google、国家規模のハッカー攻撃をAIで阻止

  • 2026年5月、 Google がAI技術を活用し、 大規模なハッキング攻撃 を未然に防止
  • 攻撃は 国家支援型の高度なハッカー集団 によるものと推定
  • 標的は Googleのインフラストラクチャユーザーデータ
  • AIシステムが 異常なアクセスパターン をリアルタイムで検知
  • 被害発生前に 自動対応封じ込め を実施

報道内容と各社の分析

  • The New York Times、AP News、CNBCなど主要メディアが 事件の詳細 を報道
    • 攻撃の規模と手法の高度さを強調
    • Googleの AIセキュリティ体制 の有効性を評価
  • 専門家は AI技術の進化 がサイバー攻撃対策に不可欠と指摘
  • 国家レベルの攻撃が今後も増加する可能性を示唆

今回の事件が示すサイバーセキュリティの課題

  • AIによる リアルタイム監視自動防御 の重要性
  • 攻撃者の手法が より巧妙化・自動化 している現状
  • グローバル企業にとって セキュリティ投資の継続 が不可欠
  • 一般ユーザーも 多要素認証定期的なパスワード更新 などの対策が求められる

今後の展望

  • AIのさらなる進化による セキュリティ強化 への期待
  • 各国政府・企業間での 情報共有と協力体制 の構築
  • サイバー攻撃への 迅速な対応体制 の整備が急務
  • サイバーセキュリティ分野の 人材育成と教育 の重要性

Hackerたちの意見

でも、先月発表されたAnthropicのMythosのような新しいAIモデルは、そういった穴を見つけるのが得意すぎるみたいで、Anthropicはアメリカとイギリスの限られた企業や政府機関にしか共有してないんだよね。この記事にはすぐに疑いを持っちゃうな。GPT 5.5もほぼ同じ能力を持ってるし。著者は企業のマーケティングをそのまま鵜呑みにしてるか、実際にはこれが思ってるほど複雑じゃないことに気づいてないんじゃないかな。もしかしたら、このグループは obscure なコードの一行を何千回も調べて、やっと何かを見つけたのかもしれない。

この記事にはすぐに疑いを持っちゃうな…。著者は企業のマーケティングをそのまま鵜呑みにしてるか、実際にはこれが思ってるほど複雑じゃないことに気づいてないんじゃないかな。 https://www.nytimes.com/by/dustin-volz > 私はタイムズのワシントン支局にいて、主にアメリカのサイバーセキュリティや情報機関の動向を追ってるよ。国家安全保障局、中央情報局、サイバーセキュリティ・インフラセキュリティ庁、連邦捜査局など、海外の同等機関、特に中国、ロシア、イラン、北朝鮮についてもね。 > 私の仕事は、国家間のハッキング対立、デジタルスパイ活動、オンライン影響操作、選挙干渉、政府の監視、悪意のあるAIツールの使用など、関連するトピックを広くカバーしてるよ。 > タイムズに入る前はウォール・ストリート・ジャーナルで8年間、サイバー対立と情報を扱ってた。最近の仕事では、アメリカの通信ネットワークへの大規模な中国の侵入を暴露する記事をいくつか書いたんだけど、それはFBIの盗聴システムを侵害し、アメリカの対スパイ活動の失敗の中でも最悪の一つとされてる。リュート社やナショナル・ジャーナルでも働いてて、キャリアのスタートはワシントンでNSAの監視慣行を改革するための議会の取り組みを追ってたんだ。 > 私の仕事は国際的にも認められていて、ホワイトハウス記者協会、ジェラルド・ローブ賞、アジア出版者協会、ビジネス編集と執筆の進歩を目指す協会などから評価されてるよ。最近は何してた?

GPT 5.5はMythosと同じ能力は持ってないよ。Mythosの「同等」とされる5.5-Cyberモデルがあるけど、これもMythosと同じようにアクセスが制限されてる。OpenAIによれば、主な違いは、5.5(や他のモデル)には内蔵の安全策があるけど、5.5-Cyberにはそれがなくて、セキュリティ作業にはより「許容的」なんだって。 https://openai.com/index/gpt-5-5-with-trusted-access-for-cyb...

それはMythosの主張が明確だね。ただ、Mythosにアクセスできるプロジェクトの経験から言うと、他のモデルを使ってもあまり何も見つからないってことがわかる。つまり、一般的には君が言うようにマーケティングだと思ってるけど、記者が言った主張は正しくないにしても、かなり明確に述べられてるよ。

ブラックハットハッキングは、これらのLLMにぴったりの使い道みたいだね。攻撃者は一度だけ成功すればいいから、攻撃がたまに失敗するのは大したことじゃないかも。これで、ゼロデイのエクスプロイトを持ってる人たちにとっては価値が下がるかもね。

それって、蓄えられたゼロデイが公開されてパッチが当てられる前に、試しに「活用」される機会が増えるってことなのかな。

この立場は意味がわからない。彼らは一般の人々と同じアクセス権を持ってるし、Red Teamのメンバーも同じことをするだろう。

それにしても、自分のロックをどうやって開けるかをChatGTPに聞けないのが残念だな。図書館にその情報が載ってる本があるのに。

じゃあ、中国のGPTに聞いてみればいいんじゃない?こういうトピックに関しては、これらのモデルの方が制限が少ないみたいだし(爆薬のレシピも手に入るかも、ただし全部が本物で安全とは限らないけど)/j

連邦政府の機関にも提供されてるだろうね。私には関係ないけど。

...あるいはYouTubeで。

そういえば、ファジング技術が出たときは、発見されたバグや悪用されたバグが急増したよね。AIはもっと一般的だから、似たような急増があると思う。ただ、ファジングは安価だけど、計算リソースや技術は「所有」できるからね。AIの経済学は、支払わないと自己ホスティングが難しい(高価なハードウェアやオープンソースモデルが追いついてきてる)。国家の関係者やハッカーは、より良い攻撃をするためのリソースを持ってるだろうし。さらに悪いことに、私の経験ではAIが生成したコードは全体のシステムの挙動に盲目的なんだ。だから、エクスプロイトは簡単に利用できるエラーか、もっと大きなシステムレベルのバグになるんじゃないかと心配してる。

「私たちは、この脆弱性の発見と武器化をサポートするために、アクターがAIモデルを活用した可能性が高いと自信を持っています」と報告書に書いてあった。なんでそんな「高い自信」があるんだろう?ただの伝統的なゼロデイじゃないのに。皮肉を言ってるわけじゃなくて、攻撃がどうやってLLMの助けを借りて発見されたって示す可能性があるのか、本当に気になる。攻撃者のコンピュータが押収されて、実際のLLMのトランスクリプト履歴が回収できたとか?でも、記事にはハッカーが捕まったっていう情報はなくて、ただパッチが開発されたってだけだし。

もしかしたら、脆弱性に気づいた後に、LLMに似た手段でエクスプロイトを見つけさせようとしたのかも。証明にはならないけど、こういう変なものはその方法でしか見つからないって自信を与えるかもしれないね。

もしかしたら、AIがAPIを突っついてバグを見つけるために素早く適応しているようなトラフィックを見たのかも?でも今のところ、脆弱性を探している人たちはみんな何らかの形でAIを使ってる気がする。使わない理由がないよね。使わない方が不思議だよ。

記事には過剰な説明文が含まれているって書いてあった。そして、以前のバージョンでは幻覚的なライブラリの参照があったと思うけど、今のバージョンには見当たらないね。

なんでそんな「高い自信」があるんだろう?ただの伝統的なゼロデイじゃないのに。エムダッシュの過剰使用と、READMEの絵文字の箇条書き。

企業レベルでのLLM製品にとっては、素晴らしいマーケティングだね。たとえ確信がなくても、今それを利用するインセンティブは十分にあるし、テックメディアが注目しなくなった後に「うっかり謝罪」することになるだろうね。

なんで彼らが「高い自信」を持ってるのか気になるな、ただの従来のゼロデイじゃないのに。Google、Cloudflare、Microsoftの3社は、インターネットで起こってることのほとんどを見てるからね。もし彼らが攻撃されてるのを見たら、そこから逆算してかなりのところまで行けると思うよ、洗練された相手に対してもね。もしそれが彼らのLLMなら、たぶんトランスクリプトを保存してるだろうし。影響を受けたAPI機能を検索エンジンで探したら、ほぼ確実に知ってるはず。競合の検索サービスを使ったとしても、Google Analyticsが入ってるサイトに行っただろうし。あ、これらの会社のうちの1つは、あなたのDNSルックアップも持ってるだろうし、世界中のメールトラフィックのかなりの部分も。ワークステーションからのテレメトリもあるし、自動アップロードされたクラッシュレポートも…もし悪いことがあれば、裏で協力して真相を突き止めることができる。だから、彼らの脅威インテリジェンス組織が何かに高い自信を持ってると言ったら、信じたくなるよね。

記事は彼らが(Pythonの)ソースコードを持っていることを強く示唆していて、それがLLM生成っぽいって。あなたはどうかわからないけど、私はだいたいLLMのコードはすぐにわかるよ。

人間は時々干し草の中から針を見つけることができるけど、複数の干し草の中から複数の針を見つけて、それを攻撃に繋げるのは不可能だよ。AIは複雑な検索空間をもっと効率的に処理できるから、それがポイントだね。

GoogleのGTIGレポートから: https://cloud.google.com/blog/topics/threat-intelligence/ai-... 「Geminiが使われたとは思わないが、これらのエクスプロイトの構造と内容に基づいて、攻撃者がこの脆弱性の発見と武器化をサポートするためにAIモデルを利用した可能性が高いという自信がある。例えば、スクリプトには教育的なドキュメンテーションが豊富に含まれていて、幻のCVSSスコアもあり、LLMのトレーニングデータに特徴的な構造化された教科書的なPython形式を使用している(例: 詳細なヘルプメニューやクリーンな_C ANSIカラークラス)。」

これからこういうのがたくさん出てくるだろうね。楽な道を選んでるだけ。Googleで働いたことがある人なら分かると思うけど、責任感が育たない環境なんだよね。Googleの製品ポートフォリオについて何も知らない人たちが、製品に関するアドバイザーの役割を持ってることもあるし。彼らは気にしないし、誰も彼らに疑問を持たない。無駄な指標でカラフルなグラフを作って、「会社に価値を加えてる」って言い訳するだけ。彼らに責任を求めるのは、油と水を混ぜるようなもんだよ。

「あなたの安全のために(子供たちの安全のためにも)、今すぐIDを見せてください」というストーリー。もうこの流れにはうんざり。

記事は読んでないけど、予想してみる: 「あなたの安全のために、私たちの最高のモデルを使うにはIDとバイオメトリクスのスキャンが必要です」って感じかな。

僕のAndroidフォンは、デバイスをアンロックするたびに顔の写真を撮るんだ。画像にはアクセスできないけど、誰かがもう僕の目の写真を持ってる!なんでか、どうやってオフにするのか分からないんだけど、誰か知ってる?(あと、カチンスキーの疲れた写真をここに挿入して。)

双子はどうやって扱うんだろう?

オムレツを作るには、卵を割らなきゃいけないよね?これらの企業はAIを一般に公開して、すべてがうまくいくと思ってたんだろうけど…社会や人を嫌う悪党がいて、彼らはそのためにAIを使うんだよ。それが明らかじゃない?AIには、他の制限物質(核関連とか)と同じように規制が必要だよ。

ローカルモデルがすごい勢いで進化してる。ハードウェアも改善されてるし。いつになったら、ローカルモデルに「非自明な悪いこと」を手伝ってもらえるようになるのかな?でも、それをどう規制するかは分からない。小さなモデルを公開するのを違法にするだけ?それとも、無許可のものを使うのを禁止する?(悪いことをしたい人がそんな法律で抑止されるとは思えないけど。)

ここでの目的は何なんだろう?もしGoogle検索が重大なソフトウェアの欠陥を見つけるために使われたら、こんな風に報告されるのかな?Mythos、OpenAIのMythosに相当するものの間で、「AIは強力だ」ってトレンドを続ける興味があるのか、サイバーセキュリティにおけるLLMの技術的能力に間接的に注目を集めようとしてるのか、よく分からないな(潜在的な収益源として)。

彼らはAIがコンピュータセキュリティの最新のビッグニュースだと宣言してる。だから、もし本物の空軍がジェット機を持ってるのに、プロペラ機で戦うことになりたくないなら、AIに大きく投資し始めた方がいいよ。もちろん、GoogleのAIが望ましいけどね。

次の見出し:Googleは次のAIモデルを一般には公開せず、「信頼できる」パートナーだけに提供することにした、危険すぎるから。