概要
- AI企業Anthropicが開発した新モデルClaude Mythosの危険性を強調
- AI企業は自社技術の脅威を訴えつつ販売を進める矛盾
- 恐怖を煽ることで規制回避や市場独占を狙う戦略
- Mythosの実力やリスクには専門家から疑問の声も
- AIの規制や社会的責任についての議論の重要性
AI企業が自ら語る「危険なAI」の矛盾
-
Anthropic が開発した最新AIモデル Claude Mythos の危険性を強調
-
Mythosは サイバーセキュリティの脆弱性発見能力 が人間専門家を大きく上回ると主張
-
「誤った手に渡れば 経済・公共安全・国家安全保障 に甚大な被害」と警告
-
しかし、 実際には販売や提携を進める 現実
-
AI企業が「自社技術は危険」と発信する独特なPR手法
- 例:OpenAIも過去に「GPT-2は危険」と発表しつつ後にリリース
- CEOたち自身が「世界の終わりを招くかもしれない」と発言
恐怖マーケティングの狙い
- 批判者によれば、 AI企業は終末論で注目を集める ことで
- 現在進行中の環境破壊や労働搾取などの現実的な問題から目を逸らす
- 技術の危険性を誇張し 株価や市場価値を高める
- 規制当局に「自分たちしか制御できない」と思わせ 規制回避 を狙う
- 「唯一頼れるのはAI企業自身」という 無力感の演出
- University of Edinburghの Shannon Vallor教授 の指摘
Mythosの実力と疑問点
- Anthropicは 数千件の重大な脆弱性を発見 したと発表
- 40以上の企業・団体と提携し セキュリティ強化 を推進
- しかし、 誤検知率(False Positive Rate) など業界標準の指標を公開せず
- 既存ツールとの比較検証も未実施
- AI Now InstituteのHeidy Khlaaf博士 による懐疑的な見解
- 「Mythosに超越的な力があるという物語には多くのほころび」
AI企業のインセンティブと社会的責任
- OpenAIは非営利組織として設立されるも、後に営利化
- Anthropicも「安全性最優先」の方針を撤回し、株式公開を視野
- 企業インセンティブが行動を決定
- GoogleはAI兵器開発の「レッドライン」を撤廃
- 「市場支配の機会を善意で放棄する企業は期待できない」とVallor教授
終末論とユートピア論の両立
- AI経営陣は「破滅」も「救済」も同時に語る
- 例:Sam Altmanは「AIが気候危機解決や宇宙進出を実現」と主張
- Dario Amodeiは「データセンターに天才が集う国」と表現
- 終末論もユートピア論も 規制やガバナンスを無効化する神話化
- 「AIは人間の制御を超えた存在」という誤った印象の拡散
AIは本当に制御不能か?
- 過去にも「Metaverseが世界を変える」「Bitcoinが通貨を置き換える」などの誇大な未来予測
- 実際には AIも他の技術同様に規制・管理可能
- 核兵器や生物兵器ですら人間社会が規制してきた歴史
- 「AIだけが制御不能」とする物語への批判
結論:AI規制と社会的議論の必要性
- AIのリスクは現実だが、 過度な恐怖や神話化は企業の利益誘導
- 社会がAIの未来を 主体的に議論し、規制・ガバナンスを設計 する重要性
- AIは「神」でも「悪魔」でもなく、人間が管理すべき 単なる製品
参考 :
- BBC「Tech Decoded」ニュースレター
- OpenAI、Anthropic、Google DeepMindなどの公式発表