世界を動かす技術を、日本語で。

「Claude」への切り替えを再スタートせずに行う

概要

  • Claude は他のAIプロバイダーからの 設定や好み を簡単に引き継ぎ可能
  • コピー&ペースト だけで素早く メモリ更新
  • 有料プラン 全てで利用可能
  • 過去のコンテキスト を維持したまま新しいAI体験
  • プロジェクトごとの記憶管理 や編集も柔軟

Claudeへの他AIプロバイダーからのコンテキスト移行方法

  • 他AIプロバイダー で蓄積した 利用者設定や好み の引き継ぎ
    • 長期間かけて教えた情報 を無駄にしない設計
  • コピー&ペースト による 一括移行手順
    • 提供された 専用プロンプト を他AIチャットに入力
    • まとめて得られた コンテキスト情報 をClaudeの メモリ設定 に貼り付け
  • Claudeのメモリ機能 の特徴
    • 会話をまたいだ好みの学習 と反映
    • プロジェクトごと に記憶を分離管理
    • 記憶内容の確認・編集 がいつでも可能
  • 有料プラン (Proプランなど)で利用可能
    • 新しいAI体験 をスムーズに開始できる環境
  • 導入の流れ
    • Proプラン開始
    • 必要なタイミングで メモリインポート
    • すぐに 従来通りの会話体験

Claudeメモリ管理のメリット

  • 過去のやりとりプロジェクトごとの情報 を混在させない設計
  • 利用者ごとにカスタマイズ されたAI体験の実現
  • 記憶内容の透明性編集の柔軟性
  • 初回利用時から 「これまで通り」のスムーズなコミュニケーション

Hackerたちの意見

誰かアカウント全体のメモリーの魅力について説明してくれない?Anthropicのマーケティングでは、何も影響しないって言ってるけど、俺は自分のコンテキストをすごく大事にしてるから、他のチャットや好みの要素が出力に影響するなんて想像できないんだ。コードスタイルや応答の長さみたいな特定の好みは、カスタム指示にぴったりだし、詳しいことはスキルに入ってる。結局、LLMのウェブUXの多くのことと同じように、大衆がこれらのツールをどう使うかに合わせてるみたいだね。

もちろん、"コンテキストウィンドウ"が何か分からない客向けだね。

大衆がこれらのツールをどう使うかに合わせてるみたい。つまり、ほとんどのユーザーのニーズを無視すべきだって言ってるの?もちろん、そんなことはないよ。そうじゃなきゃもっとひどいことになる。

普通の人たちは、LLMに自分の興味や好きなことを覚えておいてほしいと思ってるから、アドバイスを求めるときに毎回説明し直す必要がないんだ。彼らは"コンテキスト"が何かも知らないし、LLMが一度に理解できるトークンの数が限られてることも知らない。ただ、全てを一度に知ってると思ってるんだよね。

オンラインのClaudeでは、以前の会話に影響されないようにインコグニートモードをよく使ってる。正直言って、ちょっとイライラしてきた。

やってみるよ!今はChatGPTを使って、いろんなトピックについてのランダムな洞察やディスカッションをしてる。メモリーは基本的に俺の好みや興味についての成長したコンテキストで、ChatGPTはそれを使って俺の知識に合わせた応答をしてくれるから、より共感できるんだ。これが俺にとっては、デフォルトのプロンプトプリセットを作ったり、毎回個別に会話を作ったりするよりもずっと自然で楽なんだ。リアルなことの合間にランダムなシャワーの思いつきを話すには、そんなのは手間がかかりすぎるからね。これが俺の使い方で、特定の質問やプロンプトには逆効果になることもあるって気づいたけど、毎回慎重に書いたプロンプトを用意する方が有益かもしれない。でも、俺の使い方は本当にその場限りの使い方で、時間がないんだ。少なくともChatGPTに関してはね。コーディングのときは、これがすぐに失敗する。そこでの通常のコンテキストリセットは、もっと実行可能な戦略みたいだね。

旅行中は夜遊びやアルコールには興味がないってLLMに言ったんだ。だから、2日間の新しい都市でのサンプル日程を頼むと、パーティーストリートやワインテイスティングに時間を無駄にしないんだよ。例えば、人気のナイトクラブを勧める代わりに、川沿いを散歩して夜景を楽しむとか、ナイトマーケットに行くことを勧めてくれる。もちろん、他の好みも覚えてるよ(ユニークな街を探検したり、地元のファストフードや市場を試したり)。

チャットGPTに切り替えた時、"...あなたはすでにSQLiteを使っているから..."みたいな昔のプロジェクトに言及されて驚いたことがある。 "メモリ"機能は無効にできるけど、実際に役立つとは思えないんだよね。

ねえAnthropic、AGENTS.mdを使ってみたらどう?

それならCodexユーザーが切り替えやすくなるね!今が彼らにとって最高のタイミングだと思うし、「CLAUDE.md」って名前のマーケティング価値の超微小な損失は全然気にする必要ないよ。ここにいるAnthropicの社員たち、これをブロックしてる人に提案してみて。せっかくのチャンスを最大限に活かさないとね。

CLAUDE.mdのシンボリックリンクをAGENTS.mdに作ればいいよ。結構多くのオープンソースプロジェクトがこれをやってる。うまくいくよ。もう一つの代替案は、内容をそのまま使ってCLAUDE.mdを作ることだね:「@AGENTS.md」って。

+1、https://github.com/anthropics/claude-code/issues/6235は、見た中で一番投票が多いGitHubの問題かも。

今週の前までは、AnthropicもOpenAIと同じくらい魂がないと思ってた。AGENTS.mdや/.agents/skillsみたいなオープンスタンダードをサポートしてないからね。もし彼らがこういうオープンスタンダードをサポートすれば、オープンソースの人たちの支持を簡単に得られるのに。Claude Codeの/.agents/skillsの問題はここにあるよ: https://github.com/anthropics/claude-code/issues/16345 彼らの自動クローズボットが、最後のコメントから3週間経ったらすぐに閉じるだろうね。

もうかなり前にClaudeに切り替えたよ。コンテキストは持っていかずに、ただサブスクリプションを切り替えただけ。ChatGPTから離れて、それ以降触ってない。結果的には何も起こらなかったし、本当に特別なことはなかった。Claudeが自分のやりたいことをするのが上手いと思ったから切り替えたわけじゃない。OpenAIが悪いことをする会社だと信じるようになったから、彼らを支持したくなかったんだ。彼らがAGIを本当に悪い目的に使うことを許すだろうって確信してるし、今週の出来事がそれをさらに確信させたよ。

本当に堀はない。ChatGPTやGeminiにはそうだけど、Claudeにはすごく深い堀があるよ。最初の詳細なプロンプトで生産準備が整った出力が得られる唯一のモデルだから。昨日はトークンを昼まで使ったから、Geminiや他のを試してみたんだ。実際に稼働中のコードを提示したんだけど、1. 「Touple.First.Date.Created」と「Touple.Second.Date.Created」を気づかずに変更して、コードが動かなくなった。2. 特定のコンテキストに対する12の定義があったのに、関数を書き換えるように言ったら、そのうちの6つをカットしちゃって、コードがコンパイルできなくなった。なんでカットしたのか聞いたら「ごめん、ただタイピングが面倒だった」って??(笑)3. 一部のアイテムを保持するリスト「_allGlobalItems」があって、関数内で単に「_items」に名前を変えたから、コードがコンパイルできなかった。言った通り、似たような関数の動作バージョンは最初に与えられてたのに、Claudeではそんな問題は一切ない。

これがあまり人気のない意見だってのは分かってるけど、特にHNの人たちはAnthropicに関してハロー効果や集団思考にすごく影響されやすいと思う。優しく見ても、彼らはOpenAIよりほんの少し「良い行動者」ってだけ。だけど、彼らの製品に夢中になってるから、倫理観にもその影響が出てしまう。アメリカの憲法に沿ったツールを使いたいって言ってるのは、実際には高い道徳基準とは言えないよね。それは自己防衛だもん。Anthropicが言ったのは、1. アメリカ人の大規模な国内監視はしない。2. 完全自律型の致死兵器はまだない。これが高い道徳基準として通用するの?本当に、あの慎重に言葉を選んだポイントに触れない限りは「悪」じゃないの?

HNはただのファンボーイの集まりで、NPC行動が満載だと思う。OpenAIは最初からオープンとは程遠い存在だったよ。昨日までここでOpenAIについて悪く言ったら、地獄のようにダウンボートされてたからね。サムはこのコミュニティの顔みたいな存在だから。だから、彼らがライセンスモデルを評価して、モデルを使うためにビジネスの%を取ろうとしてるって公表した後でも、全く反発がなかったし、それを指摘した人は「OpenAIは間違いを犯さない」ってコメントで返されるだけだった。彼がみんなが同意しない決定を一つしたら、今度はキャンセルカルチャーのターン?それで、Anthropicがこの状況のヒーローなの?間違いなく、すべてのモデルプロバイダーは詳細なユーザーモデルを構築してる。提供した情報はもちろん、詳細なユーザーターゲティングに使われてるよ。これは「Appleは良い、Googleは悪い!」っていうトロープと何も変わらない。営利企業にヒーローはいない。みんな営利ビジネスモデルで運営していて、同じ利益を最適化してる。NPC行動はやめようよ。私たちはもっと良いはずだ。

Claudeってまだ画像生成できないの?

「彼らは本当に悪い目的でAGIを使うことを許可するだろう」って言ってるけど、実際に「本当に悪い目的」が最初からの目標だった可能性もあるよね。スローガンや倫理部門は、世代を超えた富を得るためのただの障害物に過ぎない。

サム・アルトマンやあの目のスキャンのせいでChatGPT/OpenAIを見限ったんだよね。こういうことが流行る前から、なんとなく直感的に感じてた。時にはただの勘なんだけど、何かが「正しくない」と感じるときは、たぶん本当にそうなんだと思う。他の誰もが完全に良いわけじゃないけど、何度も「正しくない」と感じる存在や人がいて、そういうのが合わさって「直感」が生まれるんだよね。少なくとも、私にとってはそうだった。

昨日、初めて試してみたんだけど、ちょっと変だなと思ったのは、何かを聞いたら返事が一段落だけだったこと。悪くはないけど、なんか…変な感じ?いつもChatGPTやGeminiに質問する時は、「簡潔に、何は…」って前置きしないと、5ページの高校のエッセイを埋めるくらいの余計なことを言われるから。でも今回はそんなことしなくても、要点だけの答えが返ってきた。関係ないことがたくさん入ってるわけでもなくて。で、一番変だと思ったのは、返事をスキミングするんじゃなくて、普通に読んでたこと。ちょっと集中力が戻った気がした。正確さはまだ比較できないけど(非プロレベルの質問にはどのチャットボットも大体同じに感じる)、今のところは結構満足してるよ。

最近Claudeを試してみたんだけど(電話番号を要求する意味不明な条件がなくなった後ね)、そのお世辞が少なくなってるのに驚いたよ。ChatGPTは、ハードサイエンスの話をしていない限り、過剰に同意する傾向があるけど、Claudeは結構質問してくるんだ。「xについて興味があるのはなぜ?」とか、「前の会話に基づくと、xはあなたには合わないかも」とか、「あなたの意見はわかるけど、前の会話に基づくとyの方がxよりいいよ」とか。ChatGPTはそんなことほとんどしない。もちろん、OpenAIが疑わしい人たちに運営されているのに対して、Darioは今のところそんなに悪くないみたいだし、誰も天使じゃないけどね。

同じことをして、今日OpenAIのプランをキャンセルしたよ。最近のグリフティングに対するボイコットだけじゃなく、自分の使い方ではあまり価値を生まないこともわかったから。自分の頭を使って仕事をするという、古臭いことに戻ることにしたよ。衝撃的だね。

すごく気になるんだけど、OpenAIは「別のサービスに移行するからデータをエクスポートしたい。私について保存している記憶を全部リストアップして…」みたいなリクエストを基本的にブロックするのかな?もしそうなら、どうしてそうするの?これは経済競争の核心的な側面、つまり「堀」を挑戦するからすごく興味深い。もしAIサービスを簡単に入れ替えられるなら、評価(とそれに伴う力)はどこから来るの?追記:サービス自体には興味ないけど、大規模な営利活動の副作用があまりにも深刻だと思うから(AIの支配とかじゃなくて、権力の乱用、労働条件、スキルの低下、政治的影響、アメリカの防衛との契約、広告、環境問題など)無視できないよ。

チャットを持ち運べるのは魅力的だと思うけど、実際にはコンテキストの劣化は現実だし、コンテキスト管理がすべてなんだ。大抵の場合、白紙から始める方が良い結果が出ることが多いよ。ただ、もしサーバーにインデックスされた画像ライブラリや他のコレクションのアーティファクトがあれば、それはまた別の話だね。

この数週間、Codex、OpenCode、Claude Code、Cursorを全部試してみたんだけど、驚いたのはそれぞれスキルの配置やMCPサーバーのフォーマット(環境変数の指定方法とか)や、AGENTS/CLAUDEファイルの名前、プラグインやマーケットプレイスについて、微妙にルールが違うこと。ポータブルな設定をdotfilesに入れようとすると、どれも一筋縄ではいかない感じ。期待と現実のギャップも見えたし…億ドル企業なのに、ラグのないTUIや非Electronアプリ、XDG_CONFIGを尊重する方法すらまだ見つけてないんだよね。今はスピードと新しい発見や機能を詰め込むことに重点を置いてる感じ。モデルとハーネスの心理的な違いもあるし、ClaudeはVSCode/OpenCodeよりも本来のハーネスで動かした方がパフォーマンスが良いんじゃないかって気がする。特に最近追加された/batchみたいな隠れたスキルがバイナリに組み込まれてる気がするから。最後にわからないのはコンピュータの使い方。全てのベンダーが自社のモデルはマウスとキーボードを使えるって言ってるけど、エージェントブラウザスキル(おそらくplaywrightを使ってる)以外では、Cloud版のエージェントがVMでプログラムを実行するために使ってる特別な方法がわからない。これもベンダー間の切り替えコストの理由の一つだね。

このタイトルを見たとき、すごくワクワクしたよ。ずっとClaudeに移行したいと思ってたからね。2年以上もChatGPTを使ってQ&Aしてきて、長くて技術的な会話が何百もあって、常に検索したり参照したりしてるんだ。でも、問題なのは、たとえ数メガバイト分の質の高い「メモリーデータ」があっても、チャット履歴を自信を持ってクローンできないなら、移行できないってこと。これ、かなり大きな問題で、解決してもらえるならすぐに三桁ドル払うよ。プロバイダーに自分の設計計画やPCBデザインの会話を全部囲い込まれたくないんだ。多くは何百ものプロンプトがあるし。クリーンブレイクなんて、OAIが完全に悪に染まらない限り、全く受け入れられないよ。Claudeが最初の会話からずっと自分が何をやってきたかを把握してくれるのは便利だと思うけど、チャット履歴を複数のサービスに分けるなんて絶対に嫌だ。地獄のティアリストがあって、ChatGPTに縛られるのは、二つの異なるサイトで話したことを常に探さなきゃならないよりずっとマシだから。

理論的には、カスタムフロントエンドを使って、さまざまなバックエンドAPIをステートレスな推論プロバイダーとして利用することで解決できるはずなんだけど、テストした限りではいくつかの点でうまくいかなかった。チャット履歴のRAGやウェブ検索、あとはツールの使用についても。確かに、これらは理論上可能なんだけど(今のところAPIはウェブ検索をサポートしてるし、RAG APIもあるし、ツールの使用もずっとサポートされてる)、さまざまな「チャット」モデルは、サードパーティのハーネスよりもファーストパーティのツールを使うのがずっと得意なように見えるんだ。これは彼らがそのように訓練されているからだろうね。

会話履歴が必要なら、ヘッドレスブラウザの自動化で何とかなると思うよ。彼らのワイヤープロトコルを直接使うのはちょっと躊躇するけど。追記:もしかしたら、素直に頼んでみるのもいいかも? https://help.openai.com/en/articles/7260999-how-do-i-export-...

ChatGPTにはずっと登録してなかったけど、なんか怪しい感じがしてたからね。でも今はClaudeに更新しようかなって思ってる。Gemini/Googleの代わりに。

Anthropicのコンテキスト移行のアプローチが、競合の製品に自分のデータを渡させるってのが面白いね。これまで見た中で一番低いスイッチングコストかもしれないし、OpenAIの消費者収益にはあまり良くない兆しだね…。

結局、国防総省には毎年1兆ドルの使途不明金があるみたいだね。これで十分穴埋めできるだろう。

「メモリー」については結構意見が分かれるな。時にはほとんど魔法のように感じるけど、ほとんどの場合、ハンドルを握って戦ってる気分になる。会話中に無関係なこと(あるいは関連すること)を参照されると、「うわっ」と思っちゃう。コンテキストの汚染(意図的かどうかに関わらず)がどう機能するかはわかってるし、モデルに考慮してほしいことだけを見せるように努力してるんだ。過去のチャットの荷物(あるいは間違った方向)を持ち込まないために新しいチャットを始めることが多いけど、「これがうまくいくはずだ」と言われると、その瞬間にスパイダーマンの感覚が働いて、「やばい、これは新しいコンテキストに基づいて結論に達したのか、それとも別のチャットのコンテキストを使ってショートカットしたのか?」って考え始める。自分は「証人を導く」ようなことは避けてるから、「証人」が他の会話を覗けると、すべての注意が無駄になっちゃう。みんなにも自分の選んだLLMの保存されたメモリーを読んでみることを勧めるよ。何度も完全にゴミを掃除したことがあるから。実際に間違った情報や混乱する情報、未来の議論に影響を与えたくない一回限りのことがあったりするからね。カスタム(あるいは追加の)システムプロンプトだけが自分が安心できるものだ。自分が好むコーディング言語やよく使うOSについての基本情報を与えて、常に「実はこれがFreeBSDです」とか「PythonじゃなくてJS/TSでください」と言わなくて済むようにしてる。今のところ、メモリーをオフにするのをためらわせているのは、そんなに新しくて急速に進化しているものに対して、あまり道を外れたくないからなんだ。ほとんどの場所でテストやQAがどう機能するかを知っているから、できるだけ「標準」設定に近い状態を保ちたいと思ってる。道を外れるほど、バグに遭遇する可能性が高くなるからね。それに、みんなが体験していることを体験したいし(理にかなった範囲で)。最後に、特にLLMに関しては、過度にカスタマイズした人たちが脆弱なシステムを持つことになる気がする。多くの「N+1モデルはバカになる」とか「Xモデルは本当に落ちぶれた」というのは、複雑な設定(システムプロンプト、MCPなど)が影響している部分もあると思う。これらはある時点では役立ったかもしれないけど(バカなモデル、能力が低い)、新しいモデルには妨げになっているかもしれない。それか、最初からうまくいかなかったのに、誰かがどんどん積み重ねていった結果かもね。

最近の出来事をきっかけにClaudeに切り替えてみたんだけど、今のところこっちの方がずっと好きだな。