世界を動かす技術を、日本語で。

AIの進展にどうやってついていくか

概要

  • Generative AI は急速に発展し、誤解も多発
  • 情報の誤りや過大・過小評価が広がる現状
  • 公式情報源や信頼できる個人のフォローが重要
  • 推奨情報源や専門家リストを紹介
  • AI理解のための実践的ガイドラインを提示

急速に変化するGenerative AIと誤解

  • Generative AI は現代で最も急速に進化する技術分野
  • 大企業や政府でさえ、 機能不全や危険なAI製品 をリリースする事例
  • 誤解 によるAIの過小評価(「すぐ廃れる」)や過大評価(「プログラマー不要」)の蔓延
  • 技術の本質や進化過程の理解不足が根本原因
  • 情報環境の混乱 により、正しい知識の習得が困難

情報取得のための一般ガイドライン

  • 一次情報源 (公式発表・技術ブログ)にできるだけ近づくこと
  • 二次・三次情報は ノイズ混入 のリスクが高い
  • ここで紹介する 信頼できる個人 や公式発表のみを基本的に信用
  • 好奇心と誠実さ を持つ専門家の意見をフォロー
  • AI関連ニュース は常に批判的な視点で検証

スタート地点となるおすすめ情報源

  • Simon Willison’s Blog
    • 技術者向けの最適な出発点
    • AI最前線の解説、アプリケーション事例、セキュリティ・倫理問題の考察
  • Andrej Karpathy(Twitter・YouTube)
    • Tesla AIディレクター、OpenAI創設メンバー
    • LLM内部構造のわかりやすい解説、AIの社会的影響分析
  • Every’s Chain of Thought
    • 最新AIモデルの実践レビュー、日常業務での活用例
    • ベンチマーク外の「使い心地」評価

主要AIラボの公式情報

  • OpenAI, Google DeepMind, Anthropic, DeepSeek, Meta AI, xAI, Qwen などの公式発表・技術ブログ・論文

    • モデルの仕様・安全性・ベンチマーク等の詳細情報
    • 公式クックブックやガイドは出発点として有用
    • 現場での運用経験 が最も重要な学び
  • Nous Research, Allen AI, Prime Intellect, Pleias, Cohere, Goodfire などの小規模プレイヤーも注目

    • 技術的な深掘りや現場ノウハウの共有

フォローすべき高信頼性の専門家

  • Hamel Husain :AIプロダクト評価・継続的改善のノウハウ
  • Shreya Shankar :AIエンジニアリングの現場知見・実験記録
  • Jason Liu :RAG・AIコンサルティングガイド
  • Eugene Yan :LLMの数理・実践解説
  • Chip Huyen :AIシステム構築・運用の詳細ドキュメント
  • Omar Khattab :プロンプトを超えた新しい抽象化(DSPy)
  • Kwindla Hultman Kramer :リアルタイム音声/ビデオAIの最前線
  • Han Chung Lee :AIアプリ構築に役立つML技術
  • Jo Kristian Bergum :RAGの「R」部分(検索拡張)の専門解説
  • David Crawshaw :ソフトウェアエンジニアリングとAIプログラミング
  • Alexander Doria / Pierre Carl-Langlais :LLMトレーニング・業界動向
  • Nathan Lambert’s “Interconnects” :AIトレーニング・RL等の技術分析
  • Ethan Mollick :AIの実務・社会インパクト分析
  • Arvind Narayanan & Sayash Kapoor’s “AI Snake Oil” :AIの誇大広告・政策評価

ニュース・メディア・SNSでの情報収集

  • Twitter / X :AI開発最前線の議論が集まる唯一の大規模SNS
    • Shawn Wang aka swyx / smol.ai :AI業界動向のキュレーション

    • Dwarkesh Patel :高品質なAI関連ポッドキャスト

    • Esoterica LessWrong / AI Alignment Forum :AIアラインメントの詳細議論

    • Twitterが苦手な場合は Latent Spaceニュースレターsmol.ai で代替

情報の取り扱いと実践への応用

  • 爆発的なAI能力に関する主張 や論文は必ず一次情報源で確認
  • 公式クックブックは理想的手法ではない場合も多い
  • 自らAIを運用し、データで検証 する経験が最重要
  • 小規模ラボの情報も技術トレンド把握に有用

このリストとガイドラインを活用し、 Generative AI の本質理解と安全な活用を目指すことが推奨される。

Hackerたちの意見

最初のポイント(simonwのブログを読む)だけやれば、多分大丈夫だよ。

それをやるのは面倒だから、朝のコーヒーのお供にFireshipで我慢するわ。

+1 - すごく質が高くて、ほとんどクリックベイトがないね。

いいリストだね!僕もGergeley Oroszの「Pragmatic Engineer」を購読してるよ。今はAIに関する話題が多いし、Gary Marcusのサブスタックも読んでる。彼はLLMに懐疑的な視点から話を進めてるんだ。https://newsletter.pragmaticengineer.com/ https://substack.com/@garymarcus それに、LangchainやPydanticAIみたいなPythonパッケージの更新もチェックしてる。業界の動向を知るのに役立つからね。今はXにはいないから、直接フォローできる人は少ないけど、Simon Willisonみたいな人はBlueSkyやMastodonにも投稿してるから助かる。一部の人(Sebastian RaschkaやChip Huyenなど)はLinkedInにも投稿してるし、いろんなところで情報を得てるよ。結局、何が起こってるかは結構把握できてる。

もしかしたら重要な情報を見逃してるかもしれないけど、最も関連性が高くて重要な更新は、最終的にHNのフロントページに上がってくるか、コメントで言及されるみたいだね。

ITに関するすべての技術に対して、これが僕の態度だよ。

追いつくのは90mphのトレッドミルに飛び乗るようなもんだ。もうやめることにしたよ。AI(今はLLMも含めて)は一過性のものじゃなくて、消えないと思うけど、今はすごく変動が激しい状態だね。必要になるまで、あまり時間を投資しないつもり。数年後には景色がもっとはっきりすることを願ってる。そうじゃないかもしれないけど、少なくともすぐに関係なくなったものに時間を無駄にしないで済むからね。今は日常の仕事でAIやLLMを使ってないよ。

そうだね、これらの企業は信じられないほどの投資をしてるし、自分たちの製品を秘密にするのは存在意義に反するよね。

Simon Willisonのウェブログはほぼ十分だね、最高のS/Nだ。

^ https://simonwillison.net

ありがたいことに、彼にはRSSがある!

「[サイモン]に少なく送ってもらうためにお金を払うことができる」($10以上のGitHubスポンサー) > これは、過去1ヶ月のLLMに関する重要な進展を10分でキャッチアップできるように意図されている記事だよね。 https://simonwillison.net/about/

LLMの仕組みをある程度理解しているなら(要するに、見つけられるテキストを全部入れて、テキストをうまくモデル化する統計的な機械を作り、それを契約者に訓練させて会話形式のテキストをモデル化させる)、PR担当者やブロガー、思想的リーダー、ネットの合理主義者たちからの情報を追いかける必要はないかもね。それはあまり役に立たないミレニアリズム的な道に進む可能性が高い。確かにこの分野は動きが早いように感じるけど、実際のモデルの違いはここ数年で程度の違いであって、種類の違いではないし、ほとんどの作業はツールや統合に関するもので、あなたの仕事に役立つならそれを追いかけるのは問題ないよ。テキストのモデルであり、実体がないことを思い出すと、どんな仕事に役立つのか(出力の検証が簡単か不要な場合)や、どんな仕事には役立たないのかを見極めるのに大いに役立つよ。

LLMの仕組みを基本的に理解しているなら、ほとんどのLLMニュースは以下のいずれかに当てはまると思う: - LLMを使うための少し違ったツールを作った人(既存のツールがニーズを満たすかどうかで役立つかどうかは別として) - 何かで少しだけ優れたモデルを作った人(あるベンチマークで前の最先端を数パーセント上回るもの。興味深いけど、こういうのは常に起こってるし、新しいモデルは数ヶ月後には古くなるから、たぶん来年の1月にはKimi-K2やGPT 4.1なんて誰も気にしないだろうね) ほとんどの人はそういうニュースを無視しても問題ないと思う。一方で、以下のようなLLMニュースもある: - モデルに全く新しい能力を与える方法を見つけた人。例:RLや思考の連鎖。今は実際に動くコーディングエージェント。コンピュータの使い方。真のエンドツーエンドのマルチモーダルモデル。インテリジェントなツールの使い方。ほとんどの人はこういう進展に注目すべきだと思うし、次に何が来るのかを楽しみにするべきだよ。でも、大きな能力の飛躍は珍しくてワクワクするから、500ポイント以上のHNの投稿をざっと眺めるだけでも最新情報をキャッチできると思う。他のテクノロジースキルと同じように、LLMやその能力を理解する最良の方法は、ブログや動画ではなく、実際に何かを作ることだと思う。ツールが何ができるのか、何がうまくいくのか、何が自分の仕事に直接役立つのかを自分で体験することが大事だよ。

同意するけど、運転中に寝るのはマズいタイミングだと思う。俺は「何も起こらない」タイプだけど、LLMの仕組みをちゃんと理解しようとしてない人が多いのは大きな間違いだと思う。先週、同僚にClaude Codeの基本的な使い方を教えたら、「え、こんなのあったの?」って驚いてた。おいおい、何やってんの? 確かに盛り上がってるし、LinkedInの狂った連中は楽しんでるけど、SOTAでできることをちょっと試してみるのは悪い投資じゃないと思う。

この意見には強く同意するし、ブログの「ハイシグナル」のリストは「自己宣伝」リストに近いと思った(そこに関わった良い人たちもいるけど、あのリストは洞察よりも「バズ」って感じ)。投稿で言われてる「生成AIは私の人生で見た中で最も早く進化している技術だ」という主張には同意できない。著者のことはわからないけど、俺は「SVMが新しいホットな技術で、ニューラルネットワークはジョークだ!」って言われてた頃からこの分野にいて、ディープラーニングの爆発や、2010年代の多くのDLフレームワークの登場を見てきた(制限ボルツマンマシンや事前学習の実装を覚えてる?)。同じ時期に「UXを向上させる以外にJSを使うな」から、シングルページアプリが標準になったのも見た。もし誰かが「ハイシグナル」の人たちのリストに入りたいなら、実際にこれらの解決策が必要になるまで頭を下げておく方がずっといい。例えば、俺はbackbone.jsの頃にウェブ開発の仕事を辞めたんだけど、シングルページアプリのフロントエンドMVCの初期の試みの一つだった。そしたら、ReactとAngularの大戦争が始まって、無視してた。10年後、ウェブ開発チームで働いてReactを数日で学んだけど、変化が止まらない時期に「追いつかなきゃ」ってストレスを感じなくてよかった。もう一つの例は、5年前にはみんなLSTMをゼロから実装しようとしてたのに、トランスフォーマーの登場でそのモデルが実質的に時代遅れになったこと。キャリアの中で何度も、速く動くことは未熟であることの別の言い方だと学んできた。GLMについて学んだり(生存分析の問題を特定する理解を持つことなんて、神に禁じられたことだが)、日常の問題解決においてまだ評価されていない使い方を学ぶ方が、「今週のプロンプトハック」を学ぶよりも成功すると思う。

LLMを人に説明する時、よく高レベルのアーキテクチャが一番興味を持たれる。トランスフォーマーじゃなくて、トークンごとの予測戦略(自己回帰)だし、必ずしも最も可能性の高いトークンを選ぶわけじゃなく、可能性に比例したトークンを選ぶ。次のトークン予測の細かい部分は、一般の人にはあまり評価されない。彼らはドット積や埋め込み、その他のことには興味がない。ほとんどの人が理解できないし、保持できないし、評価もしないから、その部分を説明するメリットはほとんどない。

ただのテキストモデルじゃないよ。いろんなタイプのデータのモデルだ。ほとんどの現代のモデルはマルチモーダルだね。

正直言って、これは研究の側面でも大体合ってる。確かに、99%の研究は常に漸進的だし(それは全然悪くないよ!レビュアー#2に気を取られないで)。たくさんの論文には無駄な情報が詰まってる。つまり、これらのシステムを理解するための強いバックグラウンドがあれば(正直、数学の知識があるとかなり役立つ。多くの論文は「この数学アイデアを試しました」って感じだから、もしそれを知っていれば、その効果を予測できる)。フィールドが速く進んでいるように感じるのは簡単だけど、実際はそうでもない。パートナーの世話をしなきゃいけなかったときに、1年を無駄にした経験がある。戻ったときにはかなり遅れをとったと思ったけど、実際にはあまり変わってなかった。こういう視点を持つことが「追いつく」助けになると思う。今苦労しているなら、まだ深さが足りないだけかもしれない。それは全然問題ないよ!ただ、追いつくために違うことに集中するように促されるかもしれない。まず走り方を知らないと、一歩遅れることはできないよ。他のインスピレーショナルな比喩を入れてもいいけど。焦りは頭の中にあるだけで、現実にはないんだ。

同意だね。いくつかのコードアシスタントを試してみたけど、能力に大きな違いは感じなかった。主にUIの違いだよね。エディタに入れるか、ターミナルで使うか、ブラウザで使うかって感じ。競争が激しいから、話題になってるものは結構良いものが多い。

いろんなモデルがどう機能するかはかなり理解してる。でも、私が運営しているビジネスは、最新のモデルを活用することで大きな利益を得てる。超低遅延のYOLOスタイルのモデルや「SOTA」の高性能なViT、LLMなど、いろいろね。PR関連の情報を集めるファネルを維持してるけど、論文やベンチマーク、GitHubに直接飛んでる。

モデルの名前を覚えたり、使い方を理解したり、MoEのような概念を知ったり、拡散モデルとトランスフォーマー、エージェントなどの異なるアーキテクチャを理解する必要がある。そして、FluxのようなGenAIやオープンソースプロジェクトもある。これらを把握しておくのは有益だと思うし、いざ自分に関係する時が来たときに驚かないようにするためにも、常に目を光らせておくべきだよ。

同意だね。これが私が学生に言ってることだよ:1. 他人の経験を生きるのをやめて、自分の経験を始めよう。2. ブログを読むのをやめて、アプリを作ろう。3. 誰の経験も使い方や制限によって異なる。理由を理解せずに誰かの意見やイデオロギーを追いかけないで。4. TwitterやSubstackで従業員や研究者を追いかけるのに時間を無駄にしないで。ほとんどの人は自分自身や会社を宣伝してるだけだから。5. 不安やFOMOに時間を奪われないで。実践を通じて学ぶことに集中しよう。重要なことが出てきたら、結局は知ることになるから。6. 情報を得ることは大事だけど、情報に執着することは重要じゃない。時間の管理を賢く行うことが大切だよ。これが私が彼らに言ってること。

いや、別に追いつく必要はないよ。

確かに、テックの世界から出て新しい生活を始めるのもアリだよ!テックの仕事は減少していくし、いずれ崖から落ちるように減っていく。昔の10人分の仕事を1人でやるようになるからね。今週、GPT Plusをキャンセルしたよ。もうあの獣に餌をやるつもりはない!それに、Geminiみたいに無料で地図を生成できないし(友達と共有するための旅行地図や、クリークのチュービングマップなど)、全然ダメなんだよね。

そうだね。何か別のことをする時だね。

記事は「なぜ」を説明してないから、「どうやって」のリストの存在を大きく損なってるよね。大切な時間を使って他のことをするのも全然いいと思う。

その通り。最近「追いつく必要があるのか?」って疑問に思ってる。AIの革新が進む中で、役立つものは結局メインストリームに入ってくるし(私のところにもね)。スプレッドシートやGoogle Docsの初期開発を「追いついて」使わなかったけど、広まったら普通に使えたし、何も逃してないよ。もしAIスタートアップを立ち上げて、資金が尽きる前にPMFを必死に探してるなら、急ぐ必要があるかもしれないけどね。

LLMや関連する最前線のモデルに関するAIの進展を追いたいなら、これは素晴らしいリストだね。半分以上の名前は知ってるし、独自に接触したこともある。AIに関するXのリストがあるけど、全体的にこのテーマに関する最高の情報源だと思う。ただ、ポッドキャストや長文ライターからのRSSフィードもかなり近いかも。(自分が研究者なら、もちろん論文のフィードを追うのが必須で、コメントや二次的な参照は必要ない。)リストにhttps://epoch.aiを追加したい。ポッドキャストではDwarkesh Patel、ブログではPeter Wildeford(スーパーフォーキャスター)、@omarsar0、つまりDAIRのエルビスもいるし、直接関わっている研究者も多いけど、roonや@tszzlみたいな人は情報よりもエンタメ寄りかも。情報環境が汚染されてるって指摘には共感する。一般的に、特にAIに関してはね。NYTみたいなところをフォローすると、政治に集中してて技術そのものについての理解が不完全で変な感じになる。もちろん、MLやAIの隣接領域では、情報源が全く異なる場合もある。たとえば、タンパク質やゲノムモデル、気象モデル、拡散研究、画像生成など。今の分野は非常に広くて活発だから、表面的に起こっていることをすべて把握するのは難しい。追わなきゃダメなの?もちろん、そうじゃない。ここにいる人たちは、ただ好奇心が強くて画期的な技術の進展を追いたいだけだよ。ソフトウェア開発のような場合、AIをスキップするのは長期的にキャリアにとって破壊的だとも言えるけど、その場合は毎回の発表を追う代わりにツールアプローチを取ることができる。(俺の仕事は、全体を一般的に把握しておくことが求められてる。)

「追いつかなきゃ」ってことはないよ。自分の生産性を上げるための特徴やものを見つけるために、ゆるく注意を払って試してみて、実際に効果があるものだけを残せばいいんだ(誰かのインフルエンサーがSNSで言ってることじゃなくて)。実際、AIの可能性についてのワイルドな主張を否定する研究者の話を聞くことで、自分の理解に自信を持てるようになったよ—盲目的に煽られることはないからね[1]。今の段階では、ノイズや混乱、優柔不断が多すぎて、最前線に乗ることで生産的な価値を得るのは難しい。もし本当に革命的なことなら、HNで聞くことになるよ。[1] https://x.com/burkov

うん、いろいろ試してみるのに数時間使う方が、ただ読んでるよりずっと価値があるよ。

...そして、あなたもそうするべきだよ。 それにどれだけ時間をかけるかはあなたの状況次第だね。確かに、AIを実装する仕事をしているなら追いついておくべきだけど、それが大多数の人ではない。 >...は最も急速に進化している技術だよ。 確かに今はたくさんのことが起こってるけど、45年前にあまり良くないAIのことを書こうとしたことがあって、それ以来ずっと追ってきたけど、ある意味ではかなりゆっくり進んでると思う。大きな視点を持つことは良いことだよ。