AI をローカル環境で動かすための中心機材として、Mac mini M4 を選定しました。今回の導入にあたっては、限られた予算の中で「どこにコストをかけ、どこを妥協するか」という選択の連続でした。
これは「正解の構成」の提示ではなく、あくまで一人の実験者としての判断基準をまとめた記録です。
導入のきっかけは API 課金への不安を解消したいから
OpenClaw などの AIエージェントを試行錯誤する際、どうしても気になってしまうのが API の従量課金です。
実際にはまだ多額の課金が発生していたわけではありませんが、「この操作で一体いくら請求されるのだろうか」という不透明なコストへの不安が、自由な実験を妨げる心理的な壁になっていました。プロンプトを一つ投げるごとにコストを心配していては、納得のいくまで試行錯誤を繰り返すことは難しいと感じました。
この「いくらかかるかわからない怖さ」を解消し、自分のマシンを文字通り使い倒せる環境を作るため、手元のハードウェアで完結する「ローカルLLM」の構築を目指しました。
処理速度より「メモリの余裕」
予算20万円という制約の中で最も悩んだのは、M4 Pro チップを積むか、無印 M4 のメモリを増設するかという点でした。
M4 Proモデル(24GBメモリ)
チップ性能や GPU の強さは非常に魅力的ですが、メモリ 24GB では将来的にさらに大型のモデルを動かしたり、長い文脈(コンテキスト)を保持したりする際に不足する懸念がありました。
無印M4モデル(32GBメモリ)
チップ性能は一歩譲るものの、ローカルLLM において重要なのは、思考するための広さである「メモリ容量」です。32GB を積むことで、gpt-oss:20b のような重いモデルも安定して動かせる土台が手に入ると考えました。
比較の結果、一瞬の速さよりも、32GB のメモリによる「安定性と拡張性」を優先する判断に至りました。
(余談)最小構成モデルという選択肢
検討中、最も安価な「16GBメモリ / 256GB SSD」モデルも候補に挙がりました。もし僕の目的が「API 課金前提でクラウドAI( ChatGPT や Claude 等)を快適に使うこと」だけであれば、この最小構成モデルが最もコストパフォーマンスに優れた正解になっていたはずです。
しかし、今回は「 API 課金を気にせずローカルで試行錯誤する」ことが目的だったため、16GB ではいずれ我慢が必要になると判断し、見送ることにしました。
[PR]
外付けSSDか、内蔵1TBか
当初は 512GB モデルを購入し、不足分は外付け SSD(Thunderbolt 4接続)で補う予定でした。しかし、検討を進める中で以下の事実に直面しました。
周辺機器のコスト
ローカルLLM のロード速度を損なわない 40Gbps 対応の外付けSSD とケースを揃えると、約3万円の費用がかかります。
内蔵アップグレードの価格
Apple Storeでの 512GB から 1TB への増設費用も、同じく3万円でした。
同じコストであれば、配線が不要で最も高速な内蔵ストレージを増やす方が合理的です。加えて、注文当時の 1TBモデルは在庫があり、納期が大幅に短縮されたことも決定打となり、最終的に32GBメモリ / 1TB SSDの構成へと変更しました。
構成のまとめ
最終的に手元に届いた構成は以下の通りです。
- チップ:Apple M4
- メモリ:32GB
- ストレージ:1TB SSD
- 投資額:税込 214,800円(カスタマイズ仕様)

いわゆるフルスペックではありませんが、API 課金を気にせず、gpt-oss:20b などの重量級モデルを安定して動かすための土台が整いました。
今後はこの環境をベースに、実際に購入した周辺機器や契約したプロバイダ(サービス)などについても記録していく予定です。



















