世界を動かす技術を、日本語で。

クロードコードの新しい隠し機能:スウォーム

概要

  • NicerInPerson によるX(旧Twitter)投稿の内容要約
  • claude-sneakpeek リポジトリの概要と特徴
  • Claude の機能や使い方の説明
  • 関連する開発背景 や意義の解説
  • 今後の展望 や応用可能性について

NicerInPersonによるポストの要約

  • NicerInPerson 氏がX(旧Twitter)上で、 Claude に関する新しいプロジェクトを紹介
  • claude-sneakpeek というGitHubリポジトリの公開告知
  • Claude の使い方や、 API を利用したデモに関する言及
  • 一般ユーザー が新機能を試せる環境の提供
  • 開発者コミュニティ への参加やフィードバックの呼びかけ

claude-sneakpeekリポジトリの概要

  • claude-sneakpeek は、 Anthropic Claude の非公式クライアント実装
  • GitHub 上で公開され、 オープンソース として利用可能
  • Node.js 環境で動作し、 Claude API へのインターフェースを提供
  • チャット形式 でClaudeと対話できるデモアプリケーション
  • 導入手順セットアップ方法 がREADMEで詳しく解説

Claudeの機能と使い方

  • Claude は、 Anthropic が開発したAI言語モデル
  • 自然言語処理会話生成 に特化した高性能AI
  • APIキー を取得し、 .envファイル に設定するだけで利用開始
  • npm installnpm run dev でローカル起動が可能
  • Web UI から簡単にClaudeとやり取りできる設計

開発背景と意義

  • Anthropic Claude の一般公開やAPI提供の流れを受けたコミュニティ主導プロジェクト
  • 開発者研究者 が新しいAIモデルを手軽に試せる環境
  • ユーザー体験 の向上や フィードバック収集 のための試験運用
  • オープンソース による透明性と拡張性の確保
  • AI活用事例 の拡大や、開発エコシステムの発展促進

今後の展望と応用可能性

  • Claude の新機能やAPI拡張への迅速な対応
  • コミュニティ によるプラグインや拡張機能の開発期待
  • 業務自動化カスタムチャットボット への応用
  • 教育分野リサーチ での活用可能性
  • AI倫理セキュリティ 面での議論深化

Hackerたちの意見

チームリーダーとみんな、ボタンを赤にしてくれ!

ハハ!デフォルトのシステムプロンプトは、メインエージェントに適切なガイダンスを提供して、適切な時にだけスウォームモードを使うようにしてる(自分がプランモードに入るのと同じ)。タスクが重要じゃない場合は、さらに自分のCLAUDE.mdでプロンプトを追加して、モードを使わないようにすることもできるよ。

プリンシパルエンジニアたち!アーキテクチャが必要だ!マーケティングチーム、セレブを使った広告が必要だ!プロダクトチーム、来年に向けてのロードマップを作ってくれ!MLの専門家たち、これをトレーニングとRLセットに入れて!ファイナンスの人たち、年間予測とWACCCに対するROIを出して!オペレーション、24/7のカバレッジと99.999%の保証が必要だ。調達、契約を締結して。さあみんな…ボタンを赤にしてくれ!

これはただのサブエージェントで、Claudeに組み込まれてるよ。300,000行のtmuxの抽象化をGoで書く必要はない。Claudeにバックグラウンドのサブエージェントと並行して作業するように指示すればいいんだ。プロンプトを渡したり、進捗を追跡したり、報告するためのファイルがあると便利だよ。エージェントを自分の作業ツリーに制限することもおすすめ。ほとんどの人がオーケストレーターを作ってる中で、私はここにパターンを書き留めてるよ https://workforest.space。ClaudeがすでにClaudeのための最高のオーケストレーターだって気づいた。

Claudeにはすでにサブエージェントがあったよ。これはメインエージェントがいる新しいモード(委任に特化したコンテキスト)で、チーム指向のタスクシステムとサブエージェント同士がコミュニケーションするためのメールボックスシステムが組み合わさってる。プラグインでは実現できない方法でハーネスに統合されてるんだ。

これは機能としてはさらに薄いね。Claude Codeにはすでにサブエージェントがあるから。この新機能は、Claude Codeが実装にこれを実際に使うことを保証するだけだと思う。個人的には、Claude Codeの計画はこれを実現するには詳細が足りないと思う。文脈を保つためにやろうとしてるけど、計画の詳細レベルは信頼性を持たせるには全然足りないよ。

そうだね、(おそらく非同期の)サブエージェントが導入されてから、メインのClaudeインスタンスが実装エージェントを監視するマネージャーとして機能してるんだ。コンテキストをクリーンに保ちながら、すべてが計画通りに進むようにしてるよ。

OT: 「スタックされたPR」のビジュアルを見た瞬間、スタックされたPRが何か理解できたよ。ありがとう!前に読んだことはあったけど、何かの理由でピンと来なかった。実はもうこのやり方で作業してるけど、コミットを「スタックの中のPR」として使って、常に最新の状態に保つようにリベースしてるんだ。これは面倒だね。あなたの見せ方で新たな洞察を得たので、chatGPTと話してみたら、試してみる気になったよ:1. メイン機能ブランチに基づいた2〜3のブランチ 2. 基本ブランチを同じ頻度でリベースできるけど、やりすぎないこと、コンフリクトは基本的に隔離されるべき 3. コンフリクトが深く頻繁に連鎖するなら、やり方が間違ってる 4. マージの順序は重要だけど、ツールが助けてくれるし、一般的には隔離が重要なポイントだよ。

エージェントのサンドボックス化についておすすめはある?前回聞いたときは、みんなDockerを勧めてたよ。

それはサブエージェントじゃないよ。既存のツールとのギャップは、抽象化が会話ではなくタスクに対して行われていることなんだ(サードパーティアプリの問題のせいで、Claude Codeは本質的に会話に制限されていて、この分野で不足している理由でもあるし、Claude Code Webはその方向への最初の一歩だった)。AIが実際に作業を調整しているんだ(ユーザーから常に促されるのではなく)。この機能が必要だった理由の一つは、タスクがあってClaudeにそれをやらせると、Claudeがいろいろ(大抵は些細なこと)を確認しに戻ってこなきゃいけないからなんだ。このワークフローは、コンテキスト管理の問題なしに、より効果的な独立作業を可能にする。サブエージェントがあると、タスクの進捗をタスクボードみたいなもので伝える問題も出てくるから、コンテキストの外でこの状態を管理することも可能だよ。この流れはかなり複雑で、チャットベースの流れでは必要ない追加のコンテキストがたくさん必要だけど、物事を進めるにはずっと良い方法なんだ。このパターンを考えると、最近数ヶ月で多くの人が同時に構築し始めたのは、他のAIを管理するAIなんだ。

基盤モデルプロバイダーが提供するエージェントオーケストレーターが2026年の大きなテーマになりそうだね。完全に新しい分類法のPolecatsやBadgersを考えるんじゃなくて、チームリーダーやチームメンバーなど、今日のソフトウェア開発で使われている用語で包むことで、もっと成功しやすく、理解しやすくなると思う。

敬意を表して反対だな。Polecatsは過度な擬人化に対する合理的な解毒剤だと思う。

完全に同意だね。Gas Townの奇妙な概念のほとんどは、Claudeや基盤モデルの悪い挙動のための回避策に過ぎない。Anthropicは、自分たちのモデルがオーケストレーションステップに従うようにするための最良の立場にいると思う。これらの余分なレイヤーが必要なくなるはずだ。それを超えると、しっかりしたメッセージングとタスク管理の実装以外には、実際にはオーケストレーションにあまり多くのことはないはずだよ。

俺が抱えてる問題は、Claudeが大量のコードを生成すると、少しずつコードをレビューするよりもずっと難しくなるってこと。コードをレビューする意味がないって言う人もいるけど、実装をテストしてうまくいけばそれでいいって。でも、重要なプロジェクトではちょっと不安なんだ。長期的にサポートするつもりのプロジェクトで、ただ「YOLO」コードを書いてる人いる?運用してから3〜6ヶ月のサポートでの学びは何だった?

これにはどうしても納得できないな。ソフトウェアには「動く」以上のものがたくさんある。知らなかった要件や、計画していなかった壊れるシナリオがあって、コードの動きがわからなければ修正できないよ。AIが十分なプロンプトがあればどんな問題でも解決できると仮定しても、そのプロンプトを書くためにはコードベースに関する十分な知識と経験が必要なんだ。無駄だとは言わないけど、マルチサービス、非同期、マルチDB、ゼロダウンタイムのアプリをただプロンプトしてテストして出荷するってのは無理だよ。

(正直なところ、利益相反だけど、グラファイト/カーソルで働いてる)私の意見では、CCに変更をスタックさせてもらって、自動レビューエージェントが大きな変更セットを消化して確信を持つのに役立つと思う。私の「初回レビュー」は、だいたいグラファイトでPRスタックを読むことから始まるんだ。レビューのために公開する前に、CCと何度かスタックを反復することもあるよ。多くのコードはエージェントに生成させてるけど、このワークフローのおかげで、出荷するシステムの所有権や理解を保ててる。

今年の後半にはその結果が見えてくると思うけど、まだちょっと早いかな。たくさんの人が頭から飛び込んでるけど、私にとっては砂の上にプロジェクトを構築しているように感じる。砂のお城じゃない限り、あまり良いアイデアじゃないよね。

プロの環境では、コーディング基準があって、コードレビューもされるし、実際に何十万人ものユーザーに届くコードを書くわけだから、一度に一つのエージェントを扱うのが僕にはちょうどいいかな。コードの出力は決して満足いくものじゃないし、ちょっと複雑なデバッグでも「お、今問題がはっきり見えた!」って言うけど、そんなの前にも十回は聞いたし、いつも間違ってるからね!でも、エージェントは使ってるよ。検索したり、理解したり、絞り込んだり、アイデアを出したりするのに役立つし、まだまだGoogleよりはマシだし、毎四半期ごとに体験が良くなってる。でも、何十人も何百人もエージェントを放置してるのは想像できないな。個人的な投げ捨てプロジェクトなら、結果を出したいからやるってのもアリだけど(学ぶとか気にするんじゃなくて)、それなら大体動くか確認して終わりでいいよね。

Claude Codeの著者変更があって、それから僕が書いた「codex-review」スキルを使って最後のコミットをレビューしてるんだ。Codex(または他の何か)に変更をレビューしてもらって、レビューの焦点を絞るためのヒントをもらうのもいいかも。それに、レビューの中でCodexが正しい方向に進んでたか、何か見逃してたかも確認できるし、それをcodexレビューのプロンプトにフィードバックするのもありだね。

そうだね、コードを生成するだけが仕事じゃないんだ。コードを理解するのも俺の仕事なんだよ。自信を持って保証できないコードを世に出すわけにはいかないからね。

HNでこのコミュニティの中でどのAIコーディングエージェントが人気かを追跡する定期的なアンケートが見たいな。プログラミング言語のTIOBEインデックスみたいに。変化についていくのが難しいし、みんなが何を使っているのか、時間とともにどう変わっていくのかを高い視点で見られるといいな。

このコミュニティのエージェントに関する意見ではないけど、たまにlmarenaのリーダーボードをチェックするのが役立つことがあるよ。あなたのコメントで久しぶりに見てみたくなった。MiniMax 2.1がほとんどのOpenAI GPTより上にいるのはちょっと驚きだね。https://lmarena.ai/leaderboard/code それと、正確かどうかわからないけど、openrouterでモデルのスループットを見て、どれくらい速いか高いかのアイデアを得られると思うよ。https://openrouter.ai/minimax/minimax-m2.1

問題は、HNの人たちがエージェントがあまり良くないから先延ばしにしてここでコメントしてるのか、それともエージェントがすごく良くて勝手にコードを書いてるから、ここにいる人たちが退屈でコメントしてるのかってことだね。

そんな感じのことを始めたばかりで、まだ広くシェアしてないけど、参加してくれると嬉しいな!: https://agentic-coding-survey.pages.dev/

業界全体が一つのコーディングエージェントの機能に追いつこうとしてる時、それはそのエージェントを使うサインかもしれないね。

個人的には、Twitterを漁って最新の技術を探すのは嫌だから、Zvi Mowshowitzのニュースレターを読んでるよ。https://thezvi.substack.com/ 彼のニュースレターのおかげで、12月1日にOpus 4.5を専用で使うようになったんだ。リリースからちょうど1週間ちょっと後だね。週に数分の読書でこれだけの情報が得られるのはかなりいいと思う。

現在、skills.shディレクトリのトップ10に入っているエージェントスキルがあるんだけど、そのオーディエンスに関しては約80%がClaudeのコードなんだ。それに75%がdarwin-arm64だよ。

うちの方ではそれをシャワルマって呼んでるよ。

もうAIのコーダーとは話してないよ。チームリーダーと話してるんだ。リーダーはコードを書かない - 計画して、役割を分担して、まとめるんだ。自分でツイートを書くことすら面倒くさがってるみたいだね…

AIがこの修辞的な構造をどれだけ頻繁に使いすぎるかって、面白いよね。

より良いコードを生成してほしいけど、量は少なくしてほしいし、軌道を外れる前に人間のフィードバックをもっと積極的に取り入れてほしい。これは逆方向に進む力強い押しのように感じる。基盤がもっとしっかりして、常識があって、要件が対立したり不明確なときに反発するタイミングを知るようになれば、このアプローチが役立つのは分かる。でも、今のモデルではこのアプローチが問題を悪化させるだけに思える。コーディングエージェントの解決策はほとんどいつも「もっとコード」であって、少なくはないからね。デモにはいいけど、運用上の問題が大きくて、必要以上に10倍から100倍のコードができるなんて想像できないよ。

この機能はまだリリースされてないから、もしかしたらモデルがまだ十分じゃないって分かってるのかもね。Anthropicがモデルの限界を試し続けるのを見るのも面白いし、それをハーネスに入れることで微調整できるようになると思う。今はうまくいかないかもしれないけど、2026年の終わりにはうまくいくかもしれないね。

おかしいと思われるかもしれないけど、実際には「プロジェクトチーム」をフルに使って、複数のサブエージェントを管理する単一のOpusインスタンスでオープンコードを使ったときに、最高の品質のコードが得られたんだ(コストが10倍以上になる可能性は完全に無視して)。レガシーのJavaサーバーをC# .NET 10に移植するタスクを与えたんだ。9人のエージェント、7段階のカンバン、孤立したGitワークツリー。マネージャー(Claude Opus 4.5):フォルダー(カンバン)の状態に基づいて特定のエージェントを起こすグローバルイベントループ。プロダクトオーナー(Claude Opus 4.5):戦略。スコープクリープを防ぐ。スクラムマスター(Opus 4.5):バックログの優先順位をつけて、技術エージェントにチケットを割り当てる。アーキテクト(Sonnet 4.5):デザインのみ。仕様やインターフェースを書くけど、実装はしない。考古学者(Grok-Free):レイジーロード。アーキテクトがドキュメントのギャップにぶつかったときだけ、レガシーJavaの逆コンパイルを読む。CAB(Opus 4.5):バウンサー。デザインフェーズ(ゲート1)とコードフェーズ(ゲート2)で機能を拒否する。デブペア(Sonnet 4.5 + Haiku 4.5):AD-TDDループ。ジュニア(Haiku)が失敗するNUnitテストを書く;シニア(Sonnet)がそれを修正する。ライブラリアン(Gemini 2.5):「As-Built」ドキュメントを維持し、スプリントの振り返りをトリガーする。自分自身に「これは極めて不必要じゃない?」って問いかけるかもしれないけど、その答えはほぼ_はい_だと思う。でも、AIエージェントが働いているのを見るのはこんなに楽しいことはなかったよ(特にCABが実装を拒否する時)。これはAIエージェントが従っているプロセスの初期バージョンだったんだ(私のためだけのものだから更新してないけど):https://imgur.com/a/rdEBU5I

これってサティアなの?