Ollama のインストール方法(Mac編)最短でローカルLLM を動かす手順

Ollama のインストール方法(Mac編)最短でローカルLLM を動かす手順 無料で AI を使う
広告

ローカルで AI を動かす環境として注目されている「Ollama」。

この記事では、Mac 環境で Ollama をインストールし、実際にモデルを動かすところまでを、最短ルートで解説します。

「とりあえず一度動かしてみたい」という方向けに、余計な設定は省いて進めていきます。

システム要件

Ollama は以下の環境で動作します。

  • macOS 14(Sonoma)以降
  • Apple Silicon(M1 / M2 / M3 / M4)推奨

Intel Mac でも動作は可能ですが、CPUのみでの実行となるため、パフォーマンス面では Apple Silicon の方が有利です。

メモリ容量は、使い勝手に直結します。

8GB / 16GB の環境でも動かすことはできますが、実際に触っていくと「できることがかなり制限される」という印象です。

一方で、メモリに余裕があると、

  • モデルの選択肢が増える
  • 動作が安定する
  • ストレスなく試行錯誤できる

といった違いが出てきます。

今後、軽量モデルの性能が上がる可能性はありますが、現時点では「メモリは多いほど良い」という前提で考えておくのが無難です。

この記事では、Mac mini M4(メモリ32GB)環境で検証しています。

インストール方法(2パターン)

Mac でのインストールは、主に 2つの方法があります。

  • アプリをダウンロードする方法
  • ターミナルからインストールする方法

ターミナルでインストール

以下のコマンドを実行します。

curl -fsSL https://ollama.com/install.sh | sh

数分でインストールが完了します。

アプリでインストール(GUI)

ターミナルに抵抗がある場合は、公式サイトからアプリをダウンロードしてインストールする方法もあります。

基本的な動作は同じなので、好みで選んでOKです。

インストール確認

インストールが完了したら、Ollama が動作するか確認します。

以下のコマンドを実行します。

ollama run llama3

初回はモデルのダウンロードが始まります。

ダウンロードが完了すると、そのままチャットができる状態になります。

ollama run llama3 コマンド実行例
モデル( llama3 )をダウンロードし Ollama を起動する

実際に動かしてみる

以下のように入力すると、応答が返ってきます。

こんにちは。簡単に自己紹介してください。

これで、ローカル環境でAIが動作している状態です。

ollama run llama3 コマンド実行例
Ollama が Mac mini 上で動いた!

よくあるつまずき

初回で詰まりやすいポイントをまとめておきます。

・コマンドが認識されない
→ ターミナルを再起動する

・ダウンロードが遅い
→ モデルサイズが大きいため時間がかかる場合あり

・動作が重い
→ メモリ容量の影響が大きい

補足(モデルの保存場所について)

Ollama でダウンロードしたモデルは、Mac では以下のような場所に保存されます。

~/.ollama

このフォルダには、モデルデータや設定ファイルが含まれています。

通常は意識する必要はありませんが、モデルサイズは 数GB 〜 数十GB になるため、ストレージの使い方は意外と重要です。

また、アップデートや環境の変化によってモデルの再ダウンロードが必要になるケースもあります。

実際に僕の環境でも、モデルファイルが消えたように見える事象が発生しました。

このあたりの検証や対策については、以下の記事にまとめています。

ローカルLLM を継続的に使っていく場合は、「どこに保存するか」も含めて考えておくと安心です。

参考情報

Download Ollama on macOS

次にやること

ここまでで「動かす」ことはできましたが、実際に使うにはもう少し知識が必要です。

次のステップとしては、

・モデルの選び方
・軽いモデルと重いモデルの違い
・コマンドの基本操作

あたりを押さえておくと、かなり使いやすくなります。

タイトルとURLをコピーしました