世界を動かす技術を、日本語で。

LMスタジオのMCP

概要

LM Studio 0.3.17でModel Context Protocol(MCP)対応を追加。 MCPサーバーをローカル・リモートで利用可能。 新たに11言語追加、合計33言語に対応。 UI改善や新テーマ「Solarized Dark」追加。 MCPサーバーの追加・管理方法や注意点を解説。

LM Studio 0.3.17 新機能とMCP対応

  • Model Context Protocol(MCP) 対応開始 ・ Anthropic が提唱し、 GitHub で開発中のプロトコル採用 ・ MCPサーバーMCPホスト の連携による拡張性向上
  • MCPサーバー 接続機能 ・ローカル/リモート両対応 ・ mcp.json ファイル編集または「Add to LM Studio」ボタンで追加
  • 新言語追加 ・コミュニティ協力により 11言語 追加 ・合計 33言語 対応
  • UI改善・新テーマ ・新テーマ「 Solarized Dark」追加 ・各種バグ修正とインターフェース改善
  • アップグレード方法 ・アプリ内アップデートまたは https://lmstudio.ai/download からダウンロード

MCPサーバーの追加・管理方法

  • mcp.json によるサーバー追加 ・右サイドバー「プログラム」タブ→「インストール」→「mcp.json編集」 ・アプリ内エディタで mcp.json 編集推奨
  • 記述例:Hugging Face MCP Server
    {
      "mcpServers": {
        "hf-mcp-server": {
          "url": "https://huggingface.co/mcp",
          "headers": {
            "Authorization": "Bearer <YOUR_HF_TOKEN>"
          }
        }
      }
    }
    
    <YOUR_HF_TOKEN> は自身のHugging Faceトークンに置き換え
  • 注意事項 ・不明なソースからのMCPはインストール非推奨 ・MCPサーバーは任意コード実行やローカルファイル・ネットワークアクセス可能 ・信頼できるもののみ利用
  • ツール呼び出し時の確認ダイアログ ・モデルがツール利用時に確認ダイアログ表示 ・引数の編集・一時許可・常時許可の選択可能 ・設定は「App Settings > Tools & Integrations」で管理

MCP技術詳細・運用上のポイント

  • mcp.json の保存場所 ・macOS/Linux: ~/.lmstudio/mcp.json ・Windows: %USERPROFILE%/.lmstudio/mcp.json
  • プロセス分離 ・各MCPサーバーごとに独立プロセスで動作
  • ローカルMCPサーバー 利用時 ・npxuvxなど必要なプログラムがPATHにあることを確認
  • バグ報告 ・https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues で受付

開発者向け:「Add to LM Studio」ボタン

  • ワンクリック追加 用deeplinkボタン提供 ・MCP JSONエントリを入力し、インストール用リンク生成 ・Markdown形式でコピー&貼り付け可能
  • 活用例
    {
      "hf-mcp-server": {
        "url": "https://huggingface.co/mcp",
        "headers": {
          "Authorization": "Bearer <YOUR_HF_TOKEN>"
        }
      }
    }
    
    ・トークンは自身のものに置換

セキュリティと注意喚起

  • MCPサーバーの危険性 ・任意コード実行・ローカルファイルアクセス・ネットワーク利用のリスク ・信頼できないMCPサーバーは絶対にインストールしないこと
  • 外部リンクの注意 ・LLMが生成したリンクは必ず確認 ・不審なURLはクリックしない

その他の主なアップデート内容(ビルド別抜粋)

  • チャット生成統計表示 設定追加
  • トークンカウント の改善
  • LLMメッセージのURL に「ブラウザで開く」ボタン追加
  • ショートカット (Mac: Cmd+Shift+E / PC: Ctrl+Shift+E)でプロンプトエディタ起動
  • 新言語追加 (Malayalam, Thai, Bosnian, Bulgarian, Hungarian, Bengali, Catalan, Finnish, Greek, Romanian, Swedish)
  • ツール呼び出し引数のストリーミング表示
  • 新規ユーザー向けUI簡素化
  • 各種バグ修正・安定性向上
  • 新テーマ「Solarized Dark」 追加
  • DeepSeek-R1ツール呼び出し信頼性向上
  • ハードウェア情報の表示改善
  • ダウンロードパネルのウィンドウ分離・ピン留め機能
  • MLXモデルのWindows表示バグ修正

今後の展望

  • カスタムツールやリソースの作成 ・今後のプライベートベータにて対応予定 ・参加希望者は専用リンクからサインアップ

Hackerたちの意見

12,000ドルのMac Studioを512GBの統合RAM付きで注文したばかり!届くのが待ちきれないし、LM Studioを立ち上げるのが楽しみ。初めてのインストールなんだ。Safariでダウンロードする予定だよ。LM Studioは新しいツールで、まだ完璧なインターフェースではないけど、ローカルのLLMを一般の人に届けるのが素晴らしい。あまり知識がなくても使えるからね。もう一つ知っておくべきプロジェクトがあるよ: https://github.com/exo-explore/exo Exoは、ネットワーク上のすべてのホストを自動でクラスタリングして、そのGPUを使ってスループットを増加させるすごくクールなツールなんだ。HPC環境みたいに超高速のインターコネクトが必要だけど、IPベースだから簡単だよ。

MacBook Air M1 / 8GB RAMでQwen3-4Bを使って、Bloomberg Terminal風のRSSリーダーのために要約やタグを生成してるよ :-) ちゃんと動いてる(ノートパソコンは熱くなって遅くなるけど、大丈夫)。多分、llama.cppサーバーやollamaを使って、Electronに1GBのメモリを無駄にしない方がいいかもだけど、GUIが好きなんだよね。

いいね。皮肉なことに、非Appleのインテリジェンスにぴったりだね。

Safariでダウンロードする予定だよ。おお、冗談じゃなかったんだね。

あなたが運用しているLLMで何をするつもりなの?

OpenWebUIを使ってて、結構満足してるんだけど。なんでLM Studioの方が好きなの?

LM Studio大好き!素晴らしいツールだよね。君がやったみたいに、次の世代のMacBook Proが出るのを待ってるんだ :)

自分のLLMをホストしたいけど、クラウドLLMの質とコストのせいでいつも足止めされてる。プライベートデータが関係ない限り、なんでローカルにする必要があるの?

LM Studioは好きだけど、12kも無駄にはできないよ。メモリ帯域幅が低すぎるから、信じて。8.5kで倍の帯域幅のRTX Pro 6000を買った方が絶対いいよ。

新しいMacでCPU/GPUを分けるって噂が本当なら、あなたのMacStudioがDeepSeek R1 671B Q4を動かせる最後のモデルになるね。Appleが偶然に当たりを引いたみたいだけど、統一RAMの終わりとともに消えてしまうみたい。

LM Studioは、Apple Silicon MacでローカルLLMを動かす最適な方法になったね。vllmやollama、他のターミナルベースのアプローチには悪いけど、LLMは出力を調整するための多くのレバーがあって、時にはUIが必要なんだ。LM StudioがMLXモデルをサポートするようになったから、今では最も効率的なツールの一つだよ。MCPにはあまり期待してないけど、少なくともこのアプローチは無料で試す良い方法を提供してくれるね。

LM StudioはWindowsでもNvidia RTXでかなり良いよ。

UIのリニューアルをしてほしいな。今のデザインはちょっとカラフルすぎて、似たような色のバリエーションが多すぎる。GoogleのAIスタジオやTrae、PyCharmから色のパレットをコピーしてくれたらいいのに。

MCPにはあまり期待してないんだ。助けてくれよ。何がそれを妨げてると思う?

Ollamaはモデルごとにコンテキストサイズをカスタマイズして保存する方法すらないけど、LM Studioにはあるよね :)

LM StudioはM3 Ultra 64GBと27Bモデルで驚くほどうまく動いてるよ。特にいくつかのプロンプトのためにローカルオプションがあるのはいいね。

LM Studioでどのモデルを使って、何のタスクをどれくらいのメモリでやってるの?48GBのMacBook Proを持ってて、Gemma3(壊れたやつの一つ)が非コードの用途にぴったりなんだ(読者が犯人を推測する犯罪小説を生成してる)。コードのためには、まだGoogleに頼んでGeminiを使ってるよ。

M1 MaxでLM Studioを使って、Google GemmaのQATモデル(4B、12B、27B)を使ってるよ。https://huggingface.co/lmstudio-community/gemma-3-12B-it-qat...

君にはQwen3 30B A3Bをおすすめするよ。MLX 4bit DWQの量子化は素晴らしいからね。

ClaudeがリモートでMCPを使うことで、推論ルーティングのプロトコルが普通になったよね。今はLM StudioがローカルMCPホストとして動いてるから、トンネルを通して(cloudflared/ngrok)、ちょっとしたゲートウェイスクリプトを落とせば、ほぼノートパソコンがハイブリッドメッシュのMCPノードみたいに動くんだ。短いプロンプトはQwenローカルに、重いのはClaudeに行く。同じペイロードとインターフェースで、実際にMCPでつながったマルチホストのローカル推論クラスターを作れるよ。

LMStudioとMCPの最初の体験はあんまり良くないみたい。初心者向けにハッピーパスデモがあったらいいなと思う。インストールすると最初に出てくるモデルはgoogle/gemma-3-12bなんだけど、他と比べると結構良い方だよね。ただ、彼らが言ってる右側のサイドバーを表示する方法が分かりにくい。フラスクのアイコンをクリックすると折りたたみアイコンに変わるんだ。MCPをplaywrightで設定して、HNのトップヘッドラインを読ませようとしたら、Hacker Newsに行く無限ループにハマっちゃって、出力には何もできなかった。いくつか他のモデルも試したかったけど、新しいモデルをダウンロードする方法も分かりにくくて、結局検索アイコンだった。まあ、他のモデルもあまり良くなかったし、ツールを使える能力があるのに無視するものもあったよ。

Gemma3モデルは指示に従えるけど、ツールを呼び出すようには訓練されてないから、MCPサポートの基盤が弱いんだ。Qwen3ファミリーのモデルの方が良い体験ができると思うよ。

その後者の問題はlmstudioの問題じゃないよ…モデルの問題だね。

MCPをサポートするローカルAIツールが増えてきて嬉しい!最近、recurse.chatにもMCPサポートを追加したんだ。ローカルで(LLaMA.cppとOllamaを使って)動かすと、ツール呼び出し機能(例えば、ツール呼び出しの精度や並列ツール呼び出し)では有名なプロバイダーにはまだ追いついてないけど、かなり使えるようになってきたよ。

こんにちは!Cactus(https://github.com/cactus-compute)を作ってるんだけど、実質的にはスマホ用のOllamaだよ。君のMCP実装についてもっと知りたいな。話さない?

LM Studioを試してみたいんだけど、ローカルネットワークでの使い方が分からないんだ。リビングのデスクトップには強力なGPUがあるけど、ベッドでノートパソコンからLM Studioを使いたいんだ。何かアドバイスある?

ノートパソコンにOpenAI互換のAPIクライアントを使って、サーバーにはLM Studioをインストールして、クライアントをサーバーに向けて設定するんだ。LM Serverは、希望するポートでOpenAIスタイルのチャット完了APIを使ってLLMを提供できるよ。サーバーにopenwebuiをインストールして、ウェブブラウザから接続することもできるし、LM Studioの接続を使うように設定することもできるよ。

[>_] -> [.* 設定] -> ローカルネットワークで提供する ( o) OpenAI互換のクライアントアプリなら何でも使えるよ - APIサーバーアドレスにはホストマシンのIPアドレスを使ってね。APIキーは適当でも空白でも大丈夫。

MCPの用語はすでにめっちゃ混乱するけど、これが「MCPホスト」をランダムに導入してるのは全く意味がわからない。 > 「MCPホスト」:MCPサーバーに接続して、モデルにリソースを提供できるアプリケーション(LM StudioやClaude Desktopなど)。みんなはこれを「MCPクライアント」って呼んでるから、なんで自分たちをホストって呼ぶのか分からないな。まるでMCPサーバーをホストしてるみたいに聞こえるけど(実際にはクライアントと同じマシンでサーバーを運営してることが多いのに)、実際にはただのクライアントなの?それとも俺が混乱してるのかな?

MCPホストは仕様からの用語だよ。LLM呼び出しを行ったり、プロンプトを作成したり、ツール呼び出しリクエストを解釈して実行したりするソフトウェアのことだね。

混乱するけど、公式ドキュメントを読むしかないよ。https://modelcontextprotocol.io/specification/2025-03-26/arc...

M1/M2/M3のMacでは、Apple Containersを使って生成されたコードの実行を自動化できるよ。[1] この設定でローカルで動かしてるのがある:{ "mcpServers": { "coderunner": { "url": "http://coderunner.local:8222/sse" } } } 1. CodeRunner: https://github.com/BandarLabs/coderunner (俺はその著者の一人だよ)