DeepSeek-V4-Flash が Ollama Cloud に登場!NVIDIA Blackwell 対応の最新モデルを利用可能に

広告

Ollama のクラウドサービスにおいて、新しいモデルである DeepSeek-V4-Flash が利用可能になりました。最新の NVIDIA Blackwell ハードウェアを活用して動作します。本記事では、利用方法や今後の予定について解説します。

DeepSeek-V4-Flash の提供開始について

DeepSeek-V4-Flash が、最新の NVIDIA Blackwell ハードウェアを備えた Ollama のクラウド上で実行可能になりました。また、DeepSeek-V4-Pro も近日中に提供される予定です。

各ツールにおける実行コマンド

以下のコマンドを使用することで、特定のツールと連携して動作させることができます。

Claude Code との連携

ollama launch claude --model deepseek-v4-flash:cloud

OpenClaw との連携

ollama launch openclaw --model deepseek-v4-flash:cloud

Hermes Agent との連携

ollama launch hermes --model deepseek-v4-flash:cloud

モデルとの直接的な対話

ollama run deepseek-v4-flash:cloud

利用するメリット

今回のアップデートには、以下のようなメリットがあります。

  • 最新の NVIDIA Blackwell ハードウェアを利用して、高性能なモデルを動作させられる点。
  • Claude Code や OpenClaw といったツールへの統合が容易である点。
  • クラウド経由で、手軽に最新の AI モデルを利用できる点。

今後の展開とサポート

Ollama は、現在クラウド上の GPU 容量を拡大し続けています。詳細については、モデルの公式ページをご確認ください。フィードバックがある場合は、メールへの返信や Discord チャンネルを通じて送ることができます。

※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。

タイトルとURLをコピーしました