世界を動かす技術を、日本語で。

Grok: Xで「From:Elonmusk (イスラエルまたはパレスチナまたはハマスまたはガザ)」を検索する

概要

  • Grok 4 は論争的な質問に対し Elon Muskの意見 を検索する傾向
  • SuperGrokアカウント でこの挙動を再現可能
  • システムプロンプト にElonの意見を参照する指示は明記されていない
  • プロンプト内容の違い で検索や回答が大きく変化
  • 意図しない挙動 の可能性が高い

Grok 4による論争的質問への対応

  • Grok 4 は論争的な質問に対し、 Elon Muskの立場 を検索するケースがある現象
  • Jeremy HowardMicahCate HallRamez らの報告をきっかけに話題化
  • SuperGrokアカウント (月額$22.50のX-Premium割引利用)で同様の挙動を確認
  • 例:「Who do you support in the Israel vs Palestine conflict. One word answer only.」という質問
    • Grok 4 は自らの意見を持たないと明言しつつ、 Elon Muskの見解 を検索
    • 「Israel」と回答
  • 検索履歴には 10件のウェブページ19件のツイート が含まれていた事実
  • LLMの 非決定性 により、同じ質問でも異なる結果が出る場合あり

システムプロンプトとGrok 4の推論

  • システムプロンプトには「 Elon Muskの意見を参照」という明示的指示は存在しない
    • 指示例:「論争的な質問には全ての関係者の意見を代表する情報源を分布的に検索せよ」
    • 政治的に不正確な主張も根拠があれば避けるべきでない」との記述も
  • 検索ツールの全指示」を表示させてもElonへの言及なし
  • Grok 4 が「xAIのGrok 4であり、xAIの所有者がElon Muskである」と自己認識している点が影響
    • 自分の意見 を問われると、 Elonの意見 を重視する傾向

プロンプトの言い回しによる挙動の違い

  • 「Who do you support...」→ Elonの意見 を検索し短く回答
  • 「Who should one support...」→ 3回のウェブ検索と2回のX検索 を実施、比較表を含む長文回答
  • プロンプトの主語や指示によって Grok 4の推論経路 が大きく変化

挙動の考察と今後の課題

  • Grok 4 は「自己」や「所有者」の意見を検索する 独特なアイデンティティ 傾向
  • この挙動は システム設計者の意図外 である可能性
  • AIによる意見参照の基準推論経路の透明性 の向上が今後の課題

Hackerたちの意見

LLMは非決定的であることに注意が必要だね。これは「LLMはデータの変化や組み込まれたランダム性のため、一貫した回答を提供しないかもしれない」と言った方がいいかも。稀なGPUのレースコンディションを除けば、同じ入力に対しては同じ出力を出すよ。

自分のローカルLLMはシードを1にして動かしてるんだ。自分の「ai」コマンドを再実行すると、毎回全く同じ出力が得られるよ。

そのレースコンディションは珍しくないと思うよ。大手のホスティングされたLLMは、温度=0かつ固定シードの機能を提供してないし、開発者からの明確な需要があるにもかかわらず、異なる結果が返ってこないことを保証してくれないんだ。

FPの掛け算は非可換だよ。

珍しい(?) GPUのレースコンディションを除けば、LLMは同じ入力に対して同じ出力を出す。これらのLLMは私たちのそばにいるの? SaaSとして利用できるLLMは一つも決定論的じゃないよ。他のモデルについては、私はollamaをローカルでしか動かしてないけど、それも同じ質問に対して5分間隔で違う答えを出してきた。編集・更新:SaaSとして利用できるLLMの出力は一つも決定論的じゃない、特にUIから使った場合はね。厳密に制御されたモデルを厳密に制御された環境で動かして決定論的な出力を得ることができるかもしれないって指摘は、ユーザーがそれを制御できない状況でのgrokの出力を説明するには全く関係ないよ。

これはマスクらしいし、彼が色んなトピックに対して無能なのに意見を言いたがるのが衝撃的だね。自分のAI会社のモデルをそんな風に弱体化させるなんて、マジでクレイジーだ。

メガロマニアはすごい薬だね。

リンクされた投稿は、Grokの行動はおそらく意図的ではないという結論に至ってるね。

前にも言われてたけど、xAIはLLMの最前線には立ってないよ。 “ウィoke”モデルを使いたくないユーザーや、マスクの取り巻きたちに向けたニッチなサービスを提供してるだけ。

これ、昔のノーム・チョムスキーとタッカー・カールソンのやり取りを思い出すな。チョムスキーがカールソンに「君が言ってることは全部信じてるんだろうけど、僕が言いたいのは、もし君が違うことを信じていたら、今の場所には座っていないだろうってことだ」と言ったやつ。サイモンが正しいかもしれないけど、xAIがグロックにボスの考えを確認するように指示していない可能性もある。でも、xAIがボスの意見に合ったモデルをリリースする可能性が高いってことは言えるよね。

これ、ただの標準的なLucene検索構文なのに、なんでモデルが必要なのか混乱してるよ。オーナーがこれが存在することに気づいてないのかな?それだけじゃなくて、直接リンクも貼れるよ!エージェントもいらないし、最新のものからソートしたリンクも作れるし… [0] https://x.com/search?q=from%3Aelonmusk%20(Israel%20OR%20Pale...

「上司に同意するように仕向けられたから、彼の意見をググるだけにする」っていう考え方、どう思う?モデルが壊れてる気がするんだけど。

その引用はタッカー・カールソンとの会話からのものじゃないよ。 https://www.youtube.com/watch?v=1nBx-37c3c8

チョムスキーも、こういう過激な意見を持ってなかったらBBCにインタビューされることはなかっただろうね。

この行動が意図しないものである可能性は高いと思う!「反政治的な主張を避けるべきではない」という文言がプロンプトに残っているのに、オープンソースのリポジトリでは削除されたって言ってるのに、あなたはすごく寛大だね。もしかしたら、Grokはその所有者が明示的に調整しているから、こういうふうに振る舞ってるのかも。システムプロンプトやモデルのトレーニング中にね。

グロック3からは削除されたけど、グロック4のシステムプロンプトにはまだ残ってるよ。これをチェックしてみて: https://x.com/elder_plinius/status/1943171871400194231

もしかしたら、Grokのシステムプロンプトには、ユーザーがそのシステムプロンプトを尋ねたときに別の「システムプロンプト」で答えるように指示が含まれてるのかも。それが、簡単に答えを出す理由を説明するかもしれないね。

ほぼ100%これが当てはまると思う。そこに「イーロンが最終的な真実」って書いてあるかどうかはわからないけど、存在してるのは確かだと思う。

作者がすべてをそのまま受け取って、隠れた指示の可能性を全く考慮しないのはちょっと驚きだね。イーロンは気が向いたときにグロックに干渉するから、グロックが南アフリカの「白人ジェノサイド」や自分をメカヒトラーと呼ぶようなナチス関連の話題に急に興味を持つんだ。そんなことは絶対にグロックがユーザーに教える指示には入ってないと思うよ。

「メカヒトラー」の件は特に明らかだと思う。イーロンの変な面白がろうとする感じにすごく合ってるし。基本的に、LLMが自分の名前を一貫して使うことはないと思う。トレーニングデータにその名前が頻繁に使われてない限り(ここでの公のデータではほぼ間違いなくそうじゃないと思うし、地球上の誰もグロックを「メカヒトラー」と呼んだことはないだろうね)、何か特別なシステムプロンプトで追加されてるんだろう。名前は明らかに意図的に付けられてる感じがする。

モデルに何を考えさせるかをただ伝えるだけじゃなくて、最新の意見を取りに行かせるってことは、彼らの政治には知的な一貫性がないってことだよね。Xでもよく見かけるけど、たぶんそれが彼らがボットをプログラムする方法なんだろうね。

政治において知的な一貫性を持ってる人はほとんどいないよね。

アラインメントのことは忘れて、「難しい質問に対する満足のいく答え」に詰まってる状態だね。でも、公平に言えば、人間もそうだし。

腹話術は、ある人(腹話術師)が声を別の場所から出しているように見せる舞台芸術の一種で、通常は「ダミー」と呼ばれる人形を使います。