Ollama 0.23 リリース:Claude Desktop で Ollama Cloud のモデルが利用可能に

広告

Ollama 0.23 のリリースにより、Claude Desktop 上で Ollama Cloud のモデルを利用できるようになりました。これにより、Claude Code や Claude Cowork を通じて、さまざまな AI モデルを Claude Desktop 内で活用できます。

Claude Desktop と Ollama Cloud の連携機能について

Ollama 0.23 では、Claude Desktop に組み込まれた外部推論機能(third-party inference)のサポートが開始されました。このアップデートにより、Ollama Cloud が提供するすべてのモデルが、Claude Desktop 内の Claude Code や Claude Cowork で利用可能になります。

利用を開始するための手順

まず、Ollama 0.23 をダウンロードしてインストールを行ってください。

ollama launch claude-desktop

コマンドを実行すると、Ollama API キーの作成が求められます。設定が完了すると、Claude Desktop は利用可能な Ollama Cloud のモデルを自動的に検出します。

推奨されるモデルについて

複雑なコーディング作業や、共同作業(co-working)には、以下のモデルの使用が推奨されています。

  • kimi-k2.6
  • qwen3.5
  • minimax-m2.7
  • glm-5.1

Ollama Cloud の有料サブサブスクリプションをまだ利用していない場合は、ツール呼び出し(tool calling)やエージェント機能(agentic behavior)が安定している以下のモデルを選択してください。

  • nemotron-3-super
  • gemma4:31b

設定を元に戻す方法

Claude のデフォルト設定(Claude モデル)に戻したい場合は、以下のコマンドを使用してください。

ollama launch claude-desktop --restore

この機能を利用するメリット

  • Claude Desktop の操作感を変えずに、Ollama Cloud の多様なモデルを活用したい開発者
  • Claude Code を使用して、タスクに応じて最適な AI モデルを使い分けたいエンジニア
  • ツール呼び出しなどの高度な機能を、手軽に導入したいユーザー

まとめ

今回のアップデートにより、Claude Desktop と Ollama の強力な連携が可能になりました。新しいモデルの組み合わせを、ぜひ日々のワークフローに取り入れてみてください。

※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。

タイトルとURLをコピーしました