Ollama にはローカル環境で動かす方法とは別に、クラウド上でモデルを利用する仕組みがあります。
この記事では、
- Ollama クラウドのサインアップ
- サインイン(CLI連携)
- APIキーの取得
- 認証方法の違い
までを、実際の操作ベースで整理します。
ローカル版との違いや使い分けについては、以下の記事でまとめています。
➡️ Ollama ローカル版とクラウド版の違い
Ollama クラウド版とは
Ollama クラウド版は、自分の PC ではなく外部の環境でモデルを実行する仕組みです。
ローカル版と比較すると、
- 環境構築なしで使える
- 大きいモデルでも動かせる
というメリットがあります。
一方で、
- 利用量に応じた制限がある
- 同時実行数に制限がある
といったクラウド特有の制約もあります。
「無料で使える=無制限」ではない点は注意が必要です。
サインアップ & サインイン
まずは Ollama の 公式サイト からサインアップを行います。
- アカウント作成
- サインイン(ログイン)
- ダッシュボードの表示
この時点で、クラウド版を利用する準備が整います。
Ollama クラウドの認証方法
Ollama クラウドには、利用方法が2つあります。
CLI から使う場合(サインイン方式)
ターミナルで以下を実行します。
ollama signin

ollama signin ( Device Key を発行 ) したところサングラスかけてる・・・可愛い・・・
この方法では、
- 自動的に Device Key が発行される
- APIキーの設定は不要
そのまま以下のようにクラウドモデルを実行できます。
ollama pull gpt-oss:120b-cloud
ローカル環境の延長として使えるのが特徴です。

API として使う場合(APIキー方式)
一方で、外部 AI ツールやアプリケーションなどから利用する場合は、APIキーを使用します。
基本的な流れは以下です。
- 設定画面に移動
- APIキーを発行
- 環境変数やアプリ内で APIキーを設定
export OLLAMA_API_KEY=your_api_key
この方法では、ollama.com をリモートAPI として利用します。
Device Keys の位置づけ
Device Keys は、CLI でサインインした際に自動的に作成されるキーです。
通常は手動で設定する必要はなく、ローカル環境とクラウドの紐付けに内部的に使用されます。
実際にリクエストしてみる
Ollama クラウドは、いくつかの方法でモデルを呼び出すことができます。
ここではまず、最もシンプルな CLI から試してみます。
CLI から実行する
ターミナルでサインインします。
ollama signin
サインイン後、そのままクラウドモデルを実行できます。
ollama run gpt-oss:120b-cloud


ローカルモデルと同じようにコマンドを実行するだけで、クラウド上のモデルが呼び出されます。
APIキーの設定は不要で、「サインインするだけ」で使えるのが特徴です。
まずはこの方法で、「クラウドモデルが動く」ことを確認しておくと理解しやすくなります。
API から実行する(外部ツール連携)
CLI 以外にも、APIキーを使うことで、
- n8n
- Claude Code
- Open WebUI
などの AI ツール(アプリケーション)からモデルを呼び出すことができます。


実際に使ってみた使用量の記録
Ollama クラウドの使用量は、一般的な API のような「トークン従量課金」ではなく、使用量ベースで管理されています。
そのため、「○○トークンで上限」という明確な基準はありません。
ここでは、実際にリクエストした結果をもとに使用量の感覚を確認します。
実行内容
- 使用モデル:gemini-3-flash-preview
- 使用トークン:約2251 tokens
管理画面の表示
- Session usage:2%
- Weekly usage:0.8%

使用量の見え方
今回の結果から見ると、
- 数千トークンで数%消費される
という感覚になります。
ただしこれはあくまで一例であり、
- モデルの種類
- 出力の長さ
- 処理時間
によって消費量は変わるだろうと思われます。
使用量の考え方
重要なのは、
- トークン単位で厳密に制御されているわけではない
- しかし「使った分だけ減っていく」感覚はある
という点です。
そのため、
- 管理画面の使用率
- 実際の使用ペース
を見ながら、あとどれくらい使えるかを判断していく形になります。
Freeプランの現実的な使い方
今回の使用感から考えると、
- 軽い検証や試し打ち → 十分可能
- 継続的な大量処理 → 制限に達しやすい
というバランスになります。
完全な使い放題ではありませんが、「試す」「動作確認する」といった用途には十分使える範囲です。
ローカルとクラウドはどう使い分けるか
Ollama クラウドは便利ですが、常用するには制限があります。
現実的な使い分けとしては、
- 日常的な作業 → ローカル
- 重い処理や検証 → クラウド
という形になります。
特にローカル環境が整っている場合は、クラウドは「補助的に使う」方がバランスが良いです。
まとめ
Ollama クラウド版は、
- サインインするだけで使える方法(CLI)
- APIキーで外部から使う方法(API)
の2つの使い方があります。
高性能なモデルを簡単に試せる一方で、
- 使用量の制限がある
という点は理解しておく必要があります。
ローカル版と組み合わせることで、用途に応じた柔軟な運用が可能になります。










