Ollama のクラウドサービスにおいて、新しいモデルである DeepSeek-V4-Flash が利用可能になりました。最新の NVIDIA Blackwell ハードウェアを活用して動作します。本記事では、利用方法や今後の予定について解説します。
DeepSeek-V4-Flash の提供開始について
DeepSeek-V4-Flash が、最新の NVIDIA Blackwell ハードウェアを備えた Ollama のクラウド上で実行可能になりました。また、DeepSeek-V4-Pro も近日中に提供される予定です。
各ツールにおける実行コマンド
以下のコマンドを使用することで、特定のツールと連携して動作させることができます。
Claude Code との連携
ollama launch claude --model deepseek-v4-flash:cloud
OpenClaw との連携
ollama launch openclaw --model deepseek-v4-flash:cloud
Hermes Agent との連携
ollama launch hermes --model deepseek-v4-flash:cloud
モデルとの直接的な対話
ollama run deepseek-v4-flash:cloud
利用するメリット
今回のアップデートには、以下のようなメリットがあります。
- 最新の NVIDIA Blackwell ハードウェアを利用して、高性能なモデルを動作させられる点。
- Claude Code や OpenClaw といったツールへの統合が容易である点。
- クラウド経由で、手軽に最新の AI モデルを利用できる点。
今後の展開とサポート
Ollama は、現在クラウド上の GPU 容量を拡大し続けています。詳細については、モデルの公式ページをご確認ください。フィードバックがある場合は、メールへの返信や Discord チャンネルを通じて送ることができます。
※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。










