DeepSeek-V4-Pro が Ollama Cloud で利用可能に:NVIDIA Blackwell ハードウェア対応

広告

Ollama のクラウドサービスにおいて、DeepSeek-V4-Pro が利用可能になりました。最新の NVIDIA Blackwell ハードウェアを活用した、高性能なモデルの提供が始まっています。これにより、Claude Code などの外部ツールからクラウド上のモデルを簡単に呼び出せるようになります。

DeepSeek-V4-Pro のクラウド利用開始について

DeepSeek-V4-Pro が、Ollama のクラウド上で動作するようになりました。この環境では、最新の NVIDIA Blackwell 世代のハードウェアが使用されています。

各ツールとの連携方法

特定のツールと連携して使用するためのコマンドは以下の通りです。

Claude Code との連携

Claude Code で使用する場合は、次のコマンドを実行してください。

ollama launch claude --model deepseek-v4-pro:cloud

OpenClaw との連携

OpenClaw で使用する場合は、次のコマンドを実行してください。

ollama launch openclaw --model deepseek-v4-pro:cloud

Hermes Agent との連携

Hermes Agent で使用する場合は、次のコマンドを実行してください。

ollama launch hermes --model deepseek-v4-pro:cloud

モデルとの直接的な対話

モデルと直接チャットを行う場合は、以下のコマンドを使用します。

ollama run deepseek-v4-pro:cloud

このアップデートによる利点

この機能の利用には、以下のようなメリットがあります。

  • 最新の NVIDIA Blackwell ハードウェアによる、高度な計算能力を活用できます。
  • Claude Code などの既存ツールから、クラウド上の強力なモデルを容易に呼び出せます。
  • ローカル環境の GPU リソースに依存せず、大規模なモデルの利用が可能です。

今後の運用とフィードバック

Ollama のクラウドでは、現在 GPU の容量を順次拡大している最中です。フィードバックがある場合は、メールへの返信や Discord チャンネルを通じて行うことができます。

※ この記事は、Mac mini M4(32GB)環境で ローカル LLM(Ollama / gemma4:26b)と n8n を組み合わせて生成した実験的な記事です。内容は確認していますが、誤りが含まれる可能性があります。正確な情報は公式情報をご確認ください。

タイトルとURLをコピーしました