世界を動かす技術を、日本語で。

サム・アルトマンのモロトフカクテル事件に対する反応

概要

  • 家族への攻撃プライバシー の問題提起
  • AIの影響力社会的責任 への自覚
  • OpenAIでの経験個人的反省
  • 業界全体の課題民主主義の重要性
  • 対話と安全性の確保 への呼びかけ

家族写真公開とその背景

  • Molotovカクテル による自宅への攻撃発生
  • 家族写真 の公開を通じた 抑止力 への期待
  • プライバシー重視 からの例外的対応
  • 言葉やイメージの力 への再認識
  • AIや自分への批判記事 が危険性を高めた認識

AIと社会への信念

  • 全人類の繁栄科学技術の進歩 を使命とする信念
  • AIは人類能力拡張の最強ツール という確信
  • AIの需要は無限大 であり、社会に大きな変革をもたらす予測
  • AIのリスクと不安 は正当であり、 社会全体の対応 が不可欠
  • 新たな経済政策安全性の確保 が急務

AIの民主化と未来のコントロール

  • AIの権力集中 の危険性への警鐘
  • 未来のコントロールは全人類とその制度のもの であるべきという主張
  • 個人のエンパワーメント集団的意思決定 の必要性
  • 少数のAI研究所だけで未来を決めるべきでない という考え

適応力と変化への対応

  • 適応力の重要性柔軟な思考 の必要性
  • スーパーインテリジェンスの影響 の未知数
  • 技術発展と社会変化 への迅速な対応

OpenAIでの個人的反省

  • Elonとの対立 で一方的な支配を拒否したことへの誇り
  • 対立回避の性格 がOpenAIや自身に痛みをもたらした反省
  • 前取締役会との衝突 など、過去の失敗への自己批判
  • OpenAIの成長とミッション達成 への誇り
    • 強力なAIの開発
    • インフラ整備と資本調達
    • 安全で堅牢なサービス提供
  • スタートアップから大規模プラットフォームへの変化 への自覚

業界全体への見解

  • AGI(汎用人工知能) の存在がもたらす 権力構造の変化
  • 「支配の指輪」 のような権力集中の危険性
  • 技術の広範な共有と民主的管理 が唯一の解決策
  • 民主主義プロセスの優先 と企業の権力制限の必要性
  • 批判や懸念の多くは正当 であり、 誠実な議論 を歓迎
  • 技術進歩は未来をより良くする可能性 があるという信念
  • 過激なレトリックや暴力の抑制 への呼びかけ

結論と今後への姿勢

  • AIと社会の共進化 を目指す覚悟
  • 対話・安全・共通善 の追求
  • 家族と全人類のためのより良い未来 への願い

Hackerたちの意見

真面目な出来事に対して軽い答えだな。サムの「信じている」部分は全く信じられないよ。

不人気な意見だけど、結構よく書けてると思う。

ハハ、AIブートキャンプをやってる時に、参加者にアルトマンについてどう思うか聞かれたんだ。ちょっとためらって、「アルトマンの言うことは、石を投げる距離以上には信じられない」って答えたよ。グレアムが「この男は欲しいものを手に入れるためには手段を選ばない」と言ってるのを信じてるなら、そんな人の言葉を信じる理由はないよね。

10時間前にここでオープンAIが「AIによる大量死や経済的災害の責任を制限する法律を支持している」という投稿がフロントページに載ったんだ。今、彼は「すべての人の繁栄に向けて働き、すべての人を力づけ、科学と技術を進めることは道徳的義務だ」と言ってる。彼がその投稿で書いたことの一言も信じてないのは分かってる。ただ、彼が眠れずにイライラしてるってことだけは本当かもね。人々が公然と嘘をついても何の影響もないのは慣れてるはずなのに、やっぱり驚くよ。 [0] https://news.ycombinator.com/item?id=47717587

彼は明らかに典型的な病的な嘘つきのC-suiteエグゼクティブだね。

数日前に私についての挑発的な記事が出た。昨日、誰かが「AIについての大きな不安の時期に出てきたと思う。それが私にとってもっと危険な状況を作り出した」と言ってきた。文脈として、彼のブログ記事はこのニューヨーカーの記事への反応のようだね。「サム・アルトマンは私たちの未来をコントロールするかもしれない—彼を信頼できるのか?」 https://www.newyorker.com/magazine/2026/04/13/sam-altman-may... https://news.ycombinator.com/item?id=47659135

この記事に関わったジャーナリストのロナン・ファローが、ケイティ・クーリックのYouTubeチャンネルでこのことについて話してた。彼らは約18ヶ月かけてこれに取り組んだんだ。このインタビューはとても興味深かった。

結局、その記事は実際には過激ではなかったみたい。

彼はニューヨーカーの記事について話してるんだと思うけど、全然過激じゃなかったよ。むしろ、私には完全に中立に見えた。彼らが事実として正当化できることを報道していて、彼や他の誰かを特に悪く描こうとしているわけではなかった。ただ、彼らがしっかりした情報源を持っていると思われる出来事を列挙しているだけだよ(もしそうじゃないなら、訴えてやればいいし、そうなら黙ってろって感じ)。あなたの行動を中立的に見たら過激に感じるなら、自分の人生や行動を見直す必要があるかもね。人々がどんなに嫌いでも、他人の家を燃やそうとするべきじゃないってことは言うまでもないよ。

記事を「扇動的」じゃなくて「批判的」って呼ぶ方が正しいんじゃない?一通り読んだけど、暴力を呼びかけてるのは見なかったよ。アルトマンは今、ものすごい力を持ってることを忘れちゃいけない。彼や他のAI技術のリーダーたちは、技術的な核爆弾の上に座ってるようなもんだからね。正気の人なら、そりゃ脅威に感じるよ。

真面目に考えると、AIがどんどん仕事を奪っていく中で、社会の今後の計画はどうなるんだろう?政府も気にしてないみたいだし、AIラボも無関心だよね。もっと多くの人が住居や子供、食べ物、健康保険を手に入れられなくなったらどうなるんだろう?生きる理由がない男ほど危険なものはないよ…暴力を推奨するわけじゃないけど、状況が悪化するにつれて、こんな見出しが増えるのは見えてる。

ゲームプランは、グローバリゼーションや以前の自動化のラウンドと同じだね。労働者に自分たちが問題だと思わせるように仕向けるんだ。税金を労働経済に押し込んで、資本経済にはお金を流し込む。そして、予算の不足を理由に社会サービスを削減する。これがうまくいくのは一時的で、その後はエリソン戦略が使われることになる。貧しい人たちの10%にお金を払って、残りの90%を抑え込むってわけさ。

ちょっと気になったんだけど…なんでそう思うの?私はこれが完全に狂ってると思う。今は仕事をしてないから、何が起きてるのかを批判的に考える余裕があるんだけど…全然見えないんだよね。私が見るのは、LLMが労働を補完するってこと。モデルの生産者の余剰利益は、激しい競争のせいでほとんどないと思うし(全くないかもしれない)、スイッチングコストも最小限に抑えられる(ほぼゼロに近い)。オープンソースモデルのことも言及してないし、これからも改善され続けると思う。今のところ、モデルに関して特別な専門性はないから、そうなる可能性が高いよ。OAIとAnthropicは、再投資のニーズをカバーするために、運営から十分な税引後キャッシュフローを生み出さなきゃいけない。再投資ができないなら、当然競争力を失うよね。彼らがこのキャッシュ利益を生み出せるかも不確実だし、もちろん破産する可能性も高い。収益を増やし続けられれば、その可能性は下がるけどね。

AIが仕事を奪っていく中で、社会のゲームプランはどうなるの? > もっと多くの人が住宅や子供、食べ物、健康保険などを手に入れられなくなったらどうなるの? 逆に、社会が大きな恩恵を受けて、失業率がこれまで通りならどうなるの? それでも人々は、毎回実現しなかった社会崩壊の終末論を叫び続けるのかな?

過去の他の破壊的な発明と同じように、多くの人に痛みがあると思うけど、それは通り過ぎるよ。社会は成長して適応するから。どこかにある統計を引用するけど、50年前には存在しなかった仕事が今の90%を占めてるって言われてる。未来にどんな機会が生まれるか、誰も想像できないと思う。何がうまくいかないかを想像するのは簡単だけど、私たちはサーベルタイガーを見つけるために進化してきたからね。

誰も持ってないよ。もし労働が価値を持たなくなったら、経済は回らなくなって、AIの豊かさを実現するためのインフラを構築する前に社会が崩壊するよ。「ポストスカーシティ」ってアイデアは好きだけど、どうやってそこにたどり着くのか理解できない。これはそれ自体がプロジェクトで、魔法のように起こるわけじゃないし、誰もそれを実現しようとしてるわけでも、何が必要かの具体的なアイデアを持ってるわけでもない。真のAGIが登場したら、すぐに大量の仕事が失われるだろうし、私が言ってるのは、世界中の本を読んだだけのAIじゃなくて、車を洗うためには運転しなきゃいけないってことがわかるAIのことだよ。その時点で仕事は失われて、超豊かさも実現しないし、政府の支援もないだろうね。企業に人間の従業員を維持することを義務付ける法律を通す選択肢もあるけど、それが唯一の実現可能な緊急対策だと思う。

最近のレイオフや仕事の喪失の原因がAIだという説得力のある経済データはあまりないのに、まるでAIの支配が始まってるかのように話すのはおかしいよ。サム・アルトマンはセールスマンで、彼はただ商品を売ってるだけ。それが彼の全てだし、もし人々が家や食べ物を買えない理由を知りたいなら、権力を持ってる政治家を見た方がいいよ。

もうゲームプランは分かってるし、何が起こるかも知ってるよね(ヒント:この記事を見てみて)。でも、口に出すとトラブルになるから気をつけて。

こんな暴力は解決策じゃない。でも、この投稿はニューヨーカーの記事の後に公の好意を取り戻そうとする薄っぺらい試みのように感じる。 > 今、真夜中に目が覚めてイライラしてる。言葉や物語の力を過小評価してたな。そう、サム・アルトマンが広めた言葉や物語は、恐怖や不安、怒りを引き起こして、誰かが horrific crime に走るしかないと思わせた。アルトマンは、世界で最も裕福で力のある人の一人なのに、親しみやすく見せようとしてる。そんな技術をコントロールしてるのに、特にその技術をアメリカ軍に売ったばかりなのに、そんな選択肢はないよ。AIの民主化についての話は空虚に響く。アルトマンのブログの意図は「私について批判的な記事を書くのをやめてくれ、そうすればもっと暴力が起きるから」ってことみたい。でも、裕福で権力のある人は、客観的な批判から逃れるためにこんな言い訳を使うことはできないよ。

「決して」じゃなくて「ない」と言うのが面白いね。この子は暴力が必要な時期だと思ってたみたい。こういう状況でいつも考えるのは、暴力を正当化するための境界線はどこにあるのかってこと。医療、犯罪、存在的AIなんかは、テーブルをひっくり返すべき瞬間が明確じゃないから、すごくグレーな部分があるよね。どれだけシステムが壊れないといけないんだろう?

こういう暴力は解決策じゃない。これに疑問を持つと反射的にダウンボートされるのは分かってるけど、私は疑問を持つよ。道徳的な質問をすること自体が暴力を煽ることになるのを恐れてる人もいると思う。力の可能性が、実際には制度を維持するために必要不可欠だってことは、かなり信じられることだよね。確かに、多くの市民権の進展は、学校で教わったよりもずっと平和的じゃなかった。

自分のエゴに酔って、無道徳的に行動して、その結果に文句を言うサイコパス。彼が何を考えてるかなんて気にする必要ある?感情的な考察や被害者意識じゃなくて、彼の仕事について話そうよ。

うん。うん。

何に対する答え?質問が分かってる?

複雑じゃないよ。Open AIやAnthropicの評価のおかげで、サム・アルトマンはトランプの戦争犯罪省と手を組んだことで、歴史的に見ても最もダメージの大きいブランド決定の一つをしたかもしれない。これは本当に明白だったはず。1000億ドルのラウンドでダメージを覆い隠そうとしても、IPO後には崩れちゃうよ。悪い決定は悪い選択を生むし、業界全体が彼の絶望を嗅ぎ取ってる。最高レベルの決定は、責任と区別がつかない。サムが成し遂げたのは、道徳的リーダーシップには構造的に不適格だってことを世界に示しただけだよ。

もしそれが良い答え、もしくは少なくとも実行可能な答えじゃなかったら、政府や企業がそんなに使ってるわけないよね。

そうだね、サム・アルトマンが広めた言葉やストーリーは、恐れや不安、怒りを引き起こして、誰かが horrific crime を犯すしかないと思わせたんだ。この最初の発言(暴力は解決策じゃない)を逆転させる問題は、ここで暴力を正当化してる人たちが忘れてることなんだけど、何に対してもそう感じる人は必ずいるってこと。例えば、マーティン・ルーサー・キング・ジュニアの言葉やストーリーも、ある人たちには恐れや不安、怒りを引き起こして、 horrific crime を犯すしかないと思わせた。下で誰かが言ってたけど、平和的革命が不可能だと感じるなら、暴力的革命が必要だって。その人は自分が正義の側にいると思ってる。でも、みんなもそう思ってることを忘れてる。革命が合理的な人が望むところで止まらず、自分たちを食い合ったり反革命に進んでしまう理由は、一度(Xのストーリー)の支持者を排除するのが理解できると言ってしまうと、他のストーリーに対しても同じように暴力を正当化する人が増えてしまうからなんだ。アルトマンがパンドラの箱を開けてると思うのはみんな同じだけど、自分たちでそれを開けたり、そうしようとする革命志望者を許す理由にはならない。振り返ってみれば、ヒトラーの暗殺が成功してたら良かったと言えるし、アメリカによるアヤトラの排除も良かったと言える。でも、個人の認識が殺人を犯す権利を与えるとは言えない。

網目のように薄っぺらいね。

誰か、OpenAIとAnthropicがまるで人類の未来を自分たちがコントロールしているかのように話す理由を教えてくれない? 中国のオープン(ウェイト)モデルがかなり強力で、彼らからたった6ヶ月遅れているだけだし、もう遅れは解消されてるんじゃない? その6ヶ月の差が本当に重要なの? それを維持する理由もあまりないみたいだし。何か見落としてるのかな、それともいつものマーケティングに過ぎないの? AIの重要性について議論してるわけじゃなくて、なんでOpenAIとAnthropicがそんなに重要なのか理解したいだけなんだ。

こういう人たちは、周りに高給の従業員がいて、彼らを支えてるから、実際にそれを信じやすくなってるんだよね。彼らが本当に信じてるように見えるし、ただの「マーケティング」じゃない気がする。どっちが悪いのかわからないけど。

ある人たちは、指数関数的な成長があると思ってるけど、6ヶ月のリードが実質的に無限に膨らむってことだね。

彼らのいつものマーケティングだと思う。アメリカのテック企業にはよくあることだよね。Apple、Google、Microsoft、Meta、Xとか、みんな「宇宙に影響を与えてる」って言ってる。マーケティングと現実の境界を見失うのは残念だね、社員やCEOが。

これはマーケティング戦略だね。もしそれがほぼ確実に意識的で、望めば世界を終わらせることができるとしたら(たとえそうでなくても)、君の夢のSaaSを作るのがどれだけ上手いか想像してみて!

小さなラボからのオープンウェイトモデルって、最先端のモデルから抽出できないなら存在するのかな?何十億ドルもかけて事前学習してるモデルからは無理だよね。

アメリカや中国のことじゃなくて、みんなが持ってる「象のライダー」の心のことなんだよね。象が傷ついたり怖がったりすると、その後の行動は簡単にはコントロールできないし、ライダーが一貫性を保つために作り上げるストーリーが、さらに深い問題の別の層になるんだ。もしそのストーリーが共鳴すれば、もっと多くの象が反応しちゃう。SNSや注目経済は、物事を落ち着かせるのをさらに複雑にしてる。現代の企業は、象の傷や恐怖を心配しないから、失敗した実験みたいなもんだよ。ビジネススクールのカリキュラムを神学校と比べると、個人やグループレベルでの恐怖や不安についての考え方や対処法が全然違うんだ。予測不可能性が加速する中で、傷や修復メカニズムに注意を払うことがすごく重要だって学んでる。

GLM 5.1は、今や西洋のモデルを超えるかもしれないと言われてるモデルで、ARC-AGI2のプライベートセットで5%を記録した。中国のモデルは、基準としては疑わしくも良すぎる。

誰か教えてくれない?なんでOpenAIやAnthropicが、自分たちが人類の未来をコントロールしてるみたいに話すのか。彼は人々の生活を良くするAIを作りたいって言ってるけど、みんなに聞いたの?彼らには意見があるの?億万長者が自分と数人の仲間だけで運転席にいるときに言うのは簡単だよね。それに、彼がなんでこれが自分の責任だと思ってるのか知りたい。彼はただ、いいタイミングでいい場所にいただけで、自分のものにしようとしてるように見える。

6ヶ月で自分一人でAGIやASIをコントロールするのはすごい時間だよ。そのリードは越えられないね。

おそらく、Claudeを精製するのに6ヶ月かかるからだろうけど、もし彼らがMythosみたいにクローズドにしてたら、もっと時間がかかるかもしれないね。

スクロールしてたら。 > 「多くの企業が世界を変えると言ってるけど、私たちは実際に変えた。」って言ってた。つい反応しちゃった。これ、マーケティングメッセージみたいに読める部分が多いよ。サム、君が「全社会が利益を得る」って言うとき、それを実現するために何をしてるのか言わないとダメだよ。誰も信じないし、もっと重要なのは、誰も君を信じる理由がないってこと。そういうことを言って、実際に何をしてるか言わないと、みんな君に逆らうことになるよ。人類のために独裁者のように振る舞うなら、結果を出さなきゃダメだよ。多くの人が君に大きな期待を寄せてるけど、結局は君自身のことだけになってる。

え? 彼らは本当に世界を変えたんだよ。ChatGPTの前と後で、世界は全然違った。彼を「信じる」かどうかの問題じゃない。事実なんだから。引用する内容を間違えたの?

モロトフカクテルは家じゃなくて金属のゲートに投げられたし、何かおかしい人が逮捕されたみたいだね。これはパフォーマンス的な行動だったと思う。徹底的な調査が行われるだろうけど、スチュアート・バラジの殺人事件みたいに、30分で自殺と決めつけられることはないだろうね。

テオ・ヴォンとのインタビューで、彼がどんな遺産を残したいか、どう記憶されたいか聞かれたとき、サムは「どう記憶されるかは考えてない。ただ影響を与えたい」って言ったんだ。これはナイーブだと思うし、悪影響を及ぼすことにつながると思う。歴史は彼に微笑まないだろうね。自分が人々に与える影響について、どう感じてほしいかを考えるのは大事だよ。

過去15年で社会がどう発展してきたかの一つの側面について面白いと思うのは、ほとんど何でもお金にしようとする意識が高まった結果、マーケティングか本物かの一般的な懐疑心が増したことだね。だから、客観的に悪いことが誰かに起こったとしても、その公の反応は scrutinized(精査される)し、時には正当な理由で、時にはそうでない理由で疑問視されることが増えてる。あんまり好きじゃないけど、今はそんな感じだね。

私の考えでは、反AI感情の多くは、特にアメリカの地政学的な敵(中国、ロシア、イランなどから選んで)によるもので、アメリカに悪い結果をもたらしたいと思ってるんじゃないかな(AIが潜在的なAGIとして、アメリカの数少ない成功した経済セクターの一つとして、社会的混乱や崩壊を引き起こしたいという一般的な欲求も含めて)。本当に悪いことの95%以上(マイクロンファブの混乱、AIデータセンターへの攻撃など)は、たぶんその根本的な原因で、役に立つバカや組織にお金をもらってる人たちが実行してるんだろうね。5%は普通のNIMBY的なこと。約0%はZizianの死のカルト信者。可愛い家族の写真で彼らが思いとどまるとは思えない。幸い、フロンティアモデルの企業や主要なインフラ提供者はトップクラスの企業セキュリティにお金を払えるけど(テクノロジー系の人たちはライフスタイルの理由で自宅ではこれをやりたがらないことが多い)、サプライチェーンの他の人たちが心配だな。(そして、破壊的な攻撃は普通の企業スパイ活動や浸透、破壊工作などの上に乗っかってるからね。)