概要
- OpenAIはPentagonと高度AIシステムの機密環境展開で合意
- 他社より厳格な安全ガードレールを契約に明記
- 3つのレッドライン(大量監視・自律兵器・高リスク自動決定)を堅持
- クラウド限定展開とOpenAI技術者の関与で安全性を強化
- Anthropicとの比較や契約の透明性も強調
PentagonとのAIシステム展開合意の要点
- OpenAI は Pentagon (Department of War, DoW)と機密環境での 高度AIシステム展開 に合意
- 全AI企業への同条件適用 を要請、協調姿勢
- Anthropic 含む他社契約よりも 厳しい安全ガードレール を導入
3つのレッドライン
- OpenAI技術の大量国内監視 への利用禁止
- 自律兵器システムの直接制御 への利用禁止
- 社会信用など高リスク自動意思決定 への利用禁止
他AIラボとの比較
- 他社は ガードレールを緩和 し、主に 使用規定 に依存
- OpenAIは 多層的な安全対策 を導入
- 安全スタック の独自裁量保持
- クラウド限定展開
- OpenAI認定技術者 の現場関与
- 強力な契約上の保護条項
契約内容の詳細
- クラウドのみ展開、エッジデバイス展開なし
- 安全スタック の維持と独立検証体制
- 自律兵器・大量監視 に関する明確な禁止条項
- 米国法令(DoD指令3000.09等) への準拠
- プライバシー保護 (米国憲法修正4条等)を遵守
- 国内法執行利用 も厳しく制限
OpenAI技術者の関与
- 現場配備のOpenAIエンジニア によるサポート
- 安全・アライメント研究者 が運用に継続的関与
合意の背景と目的
- 米軍のAI活用の必要性 と 国際的脅威 への対応
- 安全対策が不十分な段階では契約拒否、準備期間を経て安全策を確立
- 国家安全保障とAI研究所間の連携強化 を目指す
- 全AIラボに同条件適用 を政府に要請、Anthropicとの対立緩和を希望
Anthropicとの違い・比較
- OpenAI契約はクラウド限定・安全スタック維持 でより強固な保護
- Anthropicが合意できなかった理由は不明、今後の参加を期待
サプライチェーンリスク指定について
- Anthropicをサプライチェーンリスクと見なすべきでない との立場を政府に表明
自律兵器・大量監視への懸念と回答
- 自律兵器への利用不可能 (クラウド限定・安全スタック・契約条項・現行法規による担保)
- 大量監視への利用不可能 (契約・安全スタック・法令遵守・OpenAI人材の関与で担保)
安全スタックの維持
- OpenAIは安全スタックの完全制御を保持
- 安全・アライメント研究者 が継続的に改善
契約違反・法令変更時の対応
- 契約違反時は契約解除が可能
- 法令・DoW方針変更時も現行基準に準拠 するよう契約で明記
Anthropicの懸念への対応
- 大量国内監視は違法・契約で明確禁止
- 自律兵器はクラウド展開で技術的に不可能
- OpenAI技術者・安全スタックによる多層防御