Ollama のクラウドサービスにおいて、DeepSeek-V4-Pro が利用可能になりました。最新の NVIDIA Blackwell ハードウェアを活用した、高性能なモデルの提供が始まっています。これにより、Claude Code などの外部ツールからクラウド上のモデルを簡単に呼び出せるようになります。
DeepSeek-V4-Pro のクラウド利用開始について
DeepSeek-V4-Pro が、Ollama のクラウド上で動作するようになりました。この環境では、最新の NVIDIA Blackwell 世代のハードウェアが使用されています。
各ツールとの連携方法
特定のツールと連携して使用するためのコマンドは以下の通りです。
Claude Code との連携
Claude Code で使用する場合は、次のコマンドを実行してください。
ollama launch claude --model deepseek-v4-pro:cloud
OpenClaw との連携
OpenClaw で使用する場合は、次のコマンドを実行してください。
ollama launch openclaw --model deepseek-v4-pro:cloud
Hermes Agent との連携
Hermes Agent で使用する場合は、次のコマンドを実行してください。
ollama launch hermes --model deepseek-v4-pro:cloud
モデルとの直接的な対話
モデルと直接チャットを行う場合は、以下のコマンドを使用します。
ollama run deepseek-v4-pro:cloud
このアップデートによる利点
この機能の利用には、以下のようなメリットがあります。
- 最新の NVIDIA Blackwell ハードウェアによる、高度な計算能力を活用できます。
- Claude Code などの既存ツールから、クラウド上の強力なモデルを容易に呼び出せます。
- ローカル環境の GPU リソースに依存せず、大規模なモデルの利用が可能です。
今後の運用とフィードバック
Ollama のクラウドでは、現在 GPU の容量を順次拡大している最中です。フィードバックがある場合は、メールへの返信や Discord チャンネルを通じて行うことができます。
※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。










