Ollama 0.23 のリリースにより、Claude Desktop 上で Ollama Cloud のモデルを利用できるようになりました。これにより、Claude Code や Claude Cowork を通じて、さまざまな AI モデルを Claude Desktop 内で活用できます。
Claude Desktop と Ollama Cloud の連携機能について
Ollama 0.23 では、Claude Desktop に組み込まれた外部推論機能(third-party inference)のサポートが開始されました。このアップデートにより、Ollama Cloud が提供するすべてのモデルが、Claude Desktop 内の Claude Code や Claude Cowork で利用可能になります。
利用を開始するための手順
まず、Ollama 0.23 をダウンロードしてインストールを行ってください。
ollama launch claude-desktop
コマンドを実行すると、Ollama API キーの作成が求められます。設定が完了すると、Claude Desktop は利用可能な Ollama Cloud のモデルを自動的に検出します。
推奨されるモデルについて
複雑なコーディング作業や、共同作業(co-working)には、以下のモデルの使用が推奨されています。
- kimi-k2.6
- qwen3.5
- minimax-m2.7
- glm-5.1
Ollama Cloud の有料サブサブスクリプションをまだ利用していない場合は、ツール呼び出し(tool calling)やエージェント機能(agentic behavior)が安定している以下のモデルを選択してください。
- nemotron-3-super
- gemma4:31b
設定を元に戻す方法
Claude のデフォルト設定(Claude モデル)に戻したい場合は、以下のコマンドを使用してください。
ollama launch claude-desktop --restore
この機能を利用するメリット
- Claude Desktop の操作感を変えずに、Ollama Cloud の多様なモデルを活用したい開発者
- Claude Code を使用して、タスクに応じて最適な AI モデルを使い分けたいエンジニア
- ツール呼び出しなどの高度な機能を、手軽に導入したいユーザー
まとめ
今回のアップデートにより、Claude Desktop と Ollama の強力な連携が可能になりました。新しいモデルの組み合わせを、ぜひ日々のワークフローに取り入れてみてください。
※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。









