世界を動かす技術を、日本語で。

「ワールドモデル」、AIにおける古いアイデアが復活する

概要

  • 世界モデル は、AIが内部に持つ環境の抽象的な表現
  • AGI(汎用人工知能) 開発の鍵として注目
  • 心理学・ロボティクス・機械学習 で長年使われてきた概念
  • 現状のAIは 断片的なヒューリスティクス に依存
  • 頑健な世界モデルの実現が AIの信頼性向上 に不可欠

世界モデルとは何か

  • 世界モデル は、AIが自身の内部に持つ 環境の簡易的な再現
  • AIはこのモデルを使い、 予測や意思決定 を現実に適用する前にシミュレーション
  • Yann LeCun(Meta)、Demis Hassabis(Google DeepMind)、Yoshua Bengio(Mila)らが 不可欠な要素 と主張
  • 心理学・ロボティクス・機械学習 分野で古くから応用
    • 人間も頭の中に 世界モデル を持ち、危険回避や判断に利用

世界モデルの歴史と進化

  • 1943年、Kenneth Craikが 外界の小規模モデル という概念を提唱
    • 認知科学・計算論的アプローチの先駆け
  • 1960年代、AIシステムSHRDLUが ブロックワールド で常識的質問に対応
  • 1980年代、Rodney Brooksが 世界モデル不要論 を唱える
    • 「世界こそが最良のモデル」と主張
  • ディープラーニング の台頭で、世界モデル概念が再評価

現状のAIにおける世界モデル

  • 大規模言語モデル(LLM) は、明示的な世界モデルではなく 無数のヒューリスティクス を学習
  • 例:ChatGPTが絵文字から映画タイトルを推測、Othelloの盤面を推論
  • しかし、 一貫した全体像 ではなく、部分的・断片的な知識の集積
    • 盲人と象の寓話のように、全体像を把握できていない

世界モデルの必要性と課題

  • 断片的ヒューリスティクス でも多くのタスクは実現可能
    • 例:LLMがマンハッタンの道順を高精度で生成
  • しかし、 頑健性 に課題
    • 1%の道路をランダムに閉鎖すると性能が大幅低下
    • 一貫した地図モデル があれば、柔軟な対応が可能

世界モデルの未来と展望

  • 頑健で検証可能な世界モデル は、AIの信頼性や解釈性向上に貢献
    • AIの幻覚防止、推論の信頼性向上、システムの透明性強化
  • 各AIラボが開発競争
    • Google DeepMind・OpenAI: マルチモーダル学習 で自然発生的な世界モデルを目指す
    • MetaのLeCun: 新しいAIアーキテクチャ の必要性を主張
  • 実現方法 は未確定だが、AGIへの道を切り開く可能性

まとめ

  • 世界モデル は、AIがより賢く、安全で、信頼できる存在となるための 中核概念
  • 現状は断片的知識に留まるが、 一貫したモデルの構築 が今後の重要課題
  • 研究の進展次第で、AIの能力と信頼性が飛躍的に向上する可能性

Hackerたちの意見

最近、ボードゲームのAIに取り組んでるんだ。参考までに言うと、「ゲームロジックを完全に実装する(めっちゃ大変)上に、いくつかのヒューリスティックで50手先を見越す」ってのが一番効果的だよ。これがチェスエンジンの動き方で、良いターン制ゲームのAIもこうやって動いてる。最新のPyTorchモデルに大量のゲーム状態データを投げてみたけど、使い物にならなかった。すごくバカな手を指すんだよね。実際、大きな問題は、無効な手を提案することが多いってこと。これを避けるには、ボードゲームのロジックを完全に実装して検証するのが一番なんだ。そうなると、手動で世界モデルを構築するつもりなら、最初からX手先を見越してやった方がいいじゃんって思う。今のAIが役立ってるのは、先を見越すときの最善手を評価するためのヒューリスティックそのものに関してだね。いろんなゲーム状態を入力して、最終的にプレイヤーが勝ったかどうかを使ってヒューリスティックの値をトレーニングできる。ただ、ヒューリスティックを使うには世界モデルを実装して先を見越す必要があるんだよね!囲碁やチェスにニューラルネットワークが使われてるって聞くけど、そういうところで使われてるんだ。世界モデルを構築して、力技で先を見越すのは必要だよ。もっと試してみたい道があるんだけど、理論的にはコーディングアシスタントがルールブックを読んで、そのルールを表現するコードを動的に生成できるはずなんだよね。それができれば、あとは簡単なはず。つまり、ルールブックをAIに投げてゲームをプレイさせることも可能になるかも。ルールブックからコーディングアシスタントを通じて世界モデルを生成して、人間にはできないほど先を見越して、試行錯誤でトレーニングしたヒューリスティックを使って評価するって感じ。もちろん、コーディングアシスタントはまだルールブックを投げてゲーム状態の内部表現を生成できるレベルには達してないけどね。自分も、コーディングアシスタントを使ってゲームモデルを構築するのに数週間かかったから。

確か、マジック:ザ・ギャザリング:アリーナのルールシステムは、ルールを与えられたコンパイラみたいなので生成されてるんだよね。現代のコーディングアシスタントがなくても、完璧なDSLで合理的なものを構築できるかもしれないし、その後に人間(またはファインチューニングしたLLM)がルールブックをDSLに変換するっていうのもあり得るよ。

これがチェスエンジンの動き方だよ。 すべての強力なチェスエンジンは、ポジションを評価するために少なくとも1つのニューラルネットワークを持ってるし、これが探索ウィンドウに影響を与える。 >良いターン制ゲームのAIの動き方だ。 それはあまり正しくないよ、囲碁を考えてみて。

これ知ってるかもしれないけど、解決しようとしているボードゲームの種類によって大きく変わるよ。例えば、囲碁では50手先を見越すのはあまり役に立たない。複雑さが高すぎて実現不可能だし、誰が優位かを判断するのも簡単じゃない。こういう状況では、現代のAI(強化学習や深層ニューラルネットワーク)がものすごく役立つんだ。あと、AIを使うのが簡単だなんて誰も言ってないからね。

LLMの開発と心理学・精神性の間に興味深い類似点があるね。真の思考を持つためには、思考や信念に挑戦する内部の敵が必要なんだ。50手先を見越すためには、敵の動きをシミュレートする必要がある…二重性。

そうなんだよね、簡単な状態を保つことすらできない。迷路を走らせようとしたんだけど、最初から迷路全体を見せるんじゃなくて、一歩ずつ動かして、そのマスからどの方向が開いているか教えて、次の動きを聞くって感じでやってみた。でも数手動かすと、もう完全に迷っちゃって、ただ行ったり来たりするだけになっちゃう。各ステップの後に迷路の状態をシリアライズするように明示的に促しても、古い状態表現に引っかからないように古いコンテキストを削除しても、結局混乱しちゃって状態を壊したり、物事を見失ったりするんだよね。彼らはその概念は理解してるみたいで、挑戦を説明して、そういう迷路をステップバイステップで解くプログラムを書いてって頼むと、初回で成功するんだけどね!でも内部でそれを維持するのはまだ難しそう。

考慮すべきことは、あなたのゲームに対してAlphaZeroのような decent NNベースのアルゴリズムを実装するのが本当に難しい一方で、モデルチェックポイントのおかげでトレーニング中に対戦するスキルレベルの幅が得られるってこと。伝統的な木探索にハンデを与えると、本当にひどい結果になると思う。弱いチェスエンジンが弱いのは、馬鹿げた理由(駒を放置したり、ランダムで不自然な動きをしたり、明らかな脅威を見逃したり)であることが多い。弱いLeelaチェスのバージョンでプレイすると、対照的に「悪い」人間の対戦相手のように感じる。もしかしたら、労力に見合うだけの価値はないかもね。正しくやるのは確かに大変な作業だ。

この経験はターン制じゃないゲームにどう活かされるんだろう?Alphastarは、全ての可能な手を探す以外のことをしてるはずだよね。じゃあ、何がターン制に当てはまらないのかな?

最近のモデルにゲーム状態データを大量に投げてみたけど、使えなかった。めっちゃバカな手を打つんだよね。実際、大きな問題の一つは、無効な手を提案することが多いことで、これを避けるにはボードゲームのロジックを完全に実装して検証するのが一番だよ。RLが必要みたいだね。評価者を使って報酬関数を設定してみるのもいいかも。君のアーキテクチャが何かはわからないけど、試してみる価値はあると思う。

「象はチェスをしない」;) あなたは小さくて、完全に知られた、決定論的なルールに基づく「世界」を持っている。そこからの「推論」は簡単だよ。でも、もっと「曖昧」で、未完成で、定義があいまいな環境、例えば自然言語生成に対してそのアプローチを試してみて、どうなるか見てみて。問題によって解決策は異なるからね。今の最前線のLLMは、浅い言語的推論で驚くべき結果を出しているけど、深い抽象的論理推論にはまだまだ遠い。対照的に、最先端の定理証明器はその点で優れているけど、まともな文を作るのに苦労することもある。特定のタスクには、「推論」できる抽象が必要だということには、みんな同意していると思う。人々は、この能力が「作り出される」べきか、それとも観察や相互作用から暗黙的に、より堅牢に生まれる可能性があるかについて意見が分かれている。

参考までに、何も「ゲームロジックを完全に実装して(大量の作業)、いくつかのヒューリスティックで50手先を見越す」には勝てない。これがチェスエンジンの動き方で、すべての良いターン制ゲームAIがこうやって動くんだ。ボードゲームに関してはほとんどこれが当てはまる。でも、一般的なターン制ゲームには当てはまらない。すべての良いターン制ゲームAIがこうやって動くとは言えないよ。ターンごとに複数の「手」が許可されるターン制ゲームでは、非常に短い数のターン以上を見越すのはすぐに枝分かれが多すぎて難しくなる。ボードゲームでは、WarhammerやBlood Bowlのように、ターン内の行動や行動の順序が重要な場合もある。コンピュータゲームでは、Screeps [2]やLuxのマルチエージェントAIコンペティション [3]のように、プレイヤーごとに複数の「ユニット」があって、それぞれのユニットが複数の行動を持つこともある。未来の世界の状態をモデル化しようとすると、組み合わせ爆発が起きて、純粋なヒューリスティックに頼らざるを得なくなることがある。

この記事に登場する著者の一人が最近アップしたチュートリアル動画があって、AIの世界モデルを評価することについて詳しく話してるよ。 (https://www.youtube.com/watch?v=hguIUmMsvA4)

これはすごく面白い記事だね。「頭の中で実験を行って結果を予測する」っていう概念は、AIが何らかの一般的な知能を持つために必要な能力だと思う。とにかく、この記事を読んでみて、すごくいいよ。

思考トークンを見るのもすごく興味深いね!

GPT-5の発表の脚注には、OpenAIのAPIに文脈自由文法を与えることができるようになったって書いてあった。これを考える一つの方法は、ユーザー定義の世界モデルだってこと。例えば、「空は」=>「青い」とかね。もちろん、これを真の世界モデルとして使うことはできないけど。コーディファイする必要があることが多すぎるし、トークンに基づくシステムは本質的に制限があるからね。基本的な原則は、私たちが求めているものに近いと思う:モデルの出力を信頼性を持って証明可能に導く厳密なオートマトンやルールセット。トークンではなく、ニューロンで動作する似たようなものがあればいいのに。うーん。

コーディファイすることが多すぎて、トークンに基づくシステムは本質的に制限がある。組み込みで働く完全なアマチュアとして想像するに、線形で順序付けられた入力ストリームに制限されるのも根本的に制限があると思う、アテンションレイヤーを使ってもね。

LoRAや回路トレースに近い何かが、真実を追跡するのに役立つと思う。

APIでこのサポートがあるのはいいけど、文法制約のあるデコーディングは結構前からあったよね、現代のLLM時代の前から(例えば、[1]は精神的に似てる)。ただ、ローカルとグローバルなプランニングはここで大きな問題なんだ。デコーディング中にローカル制約を強制すると、LLMが最適でないトークンの決定をしなきゃいけなくなるかもしれない。これが「グローバル」(つまり、全トークン)ミスにつながることがあって、制約のある出力の確率が最適な応答の確率よりもずっと低くなることがある(それも文法に従うかもしれない)。ビームサーチのようなアルゴリズムがこれを緩和できるけど、やっぱり難しいんだ。これがXMLタグがJSON出力よりもよく機能する理由の一つだね。「変な」トークンに対する制約が少ないから。[1] https://aclanthology.org/P17-2012/

おお、OpenAIがついに追加したの?構造化生成は、llama.cppやInstructorみたいなものでしばらく前から利用可能だったから、追加するのかなって思ってたんだ。見た例では、全体の世界モデルを定義するのは無理だけど、即時のアクションスペースを制約してモデルがまともなことをするようにはできるよ。

フェイ・フェイ・リーと彼女の世界モデルに特化したスタートアップを明言しないのは、著者にとって興味深い選択だね。

それに、Ha & Schmidhuberの有名な論文についても触れてないね(https://arxiv.org/abs/1803.10122)。最悪なのは、HintonやBengio、LeCunのような、関連性の薄い、あるいは完全に詐欺的な「AI専門家」を名前を挙げているところ。

あと、数十年にわたってニューラルシンボリックAIを広めてきたGary Marcusもね。

研究者がオセロのゲームボードの一貫した計算表現を回復しようとすると、代わりにヒューリスティックの袋を見つける。人間も頭の中にボードスペースの完全な表現を持っているわけじゃない。特に、チェスの名人とアマチュアは、完全にランダムなボードの配置を記憶できる。どちらもボード上の64個のチェスの駒をランダムな配置で記憶することはできないと思う。

何かの参考になるかは分からないけど、チェスの名人は瞬時にそれがランダム/無効なボード配置、つまり無効な世界状態だと認識できると思う。あなたが言及している実験では、両グループにボードを見るための時間が非常に限られていたんじゃないかな。十分な時間があれば、両グループともボード上の64個の駒を確実に記憶できるはず。

この文脈で「一貫した計算表現」が意味するのは、オセロやチェスなどのルールをボードの現在の状態に確実に適用できることだよ。どんな有能なアマチュアでも、何千ものボード配置を勉強しなくてもこれができる。実際、ゲームを見たことがなくても、書かれたルールからこれを行うことができるんだ。彼らはルールの因果的で非ヒューリスティックな理解を持っている。LLMはもっと苦労する:彼らはナイトの動きを学ぶのではなく、d5の位置にいるときの白いナイトの動き、次にg4の位置にいるときの動きなどを学ぶ、「ヒューリスティックの袋」だ。特にMuZeroでも同じことが言えるけど、そのスケールではヒューリスティックが「密」になって、見かけ上の因果的理解が現れるように見える。でも、それはかなり脆い。私のお気に入りの例は、アーケードゲームのBreakoutで、MuZeroはレベル1で超人的なパフォーマンスを発揮できるけど、レベル2にはできないことだ。健康な子供たちはこんな風にはならない - 彼らはレベル1で「トリック」を見つけて、すぐに一般化するから。

大事なテーマだけど、記事はあんまり役に立たないな。世界モデルに関する新しいアイデアが少しずつ実を結んできてるみたい。ガウススプラッティングを世界モデルとして使うのが最近成功してるんだ。[1] 情報が足りないエリアにも耐性がある表現だよ。一部の画像から動画を生成するシステムもこんな感じで動いてる。[1] https://katjaschwarz.github.io/ggs/

世界モデル自体の具体的な部分は、"世界モデル"が必然的に不完全で、世界自体に従属しているという暗黙の理解ほど重要じゃないと思う。世界からの感覚入力があって、それによって世界モデルを調整すべきだって示されるし、そのモデルを一貫性を保ちながら調整する能力とコミットメントが必要なんだ。そういうのがあれば、複雑なモデルはいらなくて、シンプルだけど柔軟なモデルから始めて、システムが時間をかけて調整していけばいい。だけど、その最初の部分を今のシステムにどう組み込むかの提案はまだ見えてないと思う。

RDFで使われる「オープンワールド仮定」みたいだね、OWLによって一貫性が保たれてる感じ。(まあ、少なくとも提案のヒントにはなってるけど。)

つまり、シンボリックAIか。ゲイリー・マーカスは正しかったね。https://garymarcus.substack.com/p/how-o3-and-grok-4-accident...

昨日、Josh Tenenbaum(MIT)の講義を見つけたんだけど、19分目から世界モデルについて話していて、我々は「本物のAI」にはほど遠いって言ってた。この講義は7年前のものだから、最近の彼の見解がどうなっているのか気になるな。