広告
無料で AI を使う

Ollama のインストール方法(Windows編)最短でローカルLLM を動かす手順

ローカルで AI を動かす環境として注目されている「Ollama」。この記事では、Windows 環境で Ollama をインストールし、実際にモデルを動かすところまでを、最短ルートで解説します。「とりあえず一度動かしてみたい」という方向け...
無料で AI を使う

Ollama のインストール方法(Mac編)最短でローカルLLM を動かす手順

ローカルで AI を動かす環境として注目されている「Ollama」。この記事では、Mac 環境で Ollama をインストールし、実際にモデルを動かすところまでを、最短ルートで解説します。「とりあえず一度動かしてみたい」という方向けに、余計...
無料で AI を使う

n8n のタイムゾーンを「Asia/Tokyo」に設定する ⚙️ ワークフロー単位とシステム全体の変更方法

Mac mini M4(メモリ 32GB / SSD 1TB) を活用し、n8n とローカル LLM(Ollama)を組み合わせた自動化の仕組みを日々構築しています。レシート明細の読み取りやニュース記事の作成など、特定の時間にノードを実行さ...
AI への投資

AI の設定に大きめの画面が欲しくなったので、ディスプレイを購入しました

AI 活用のために Mac mini を購入しました。当初は、OpenClaw に使ってもらうことを想定していたため、ディスプレイは簡易的なもので十分だと思っていました。しかし、実際にはすぐに AI エージェントが勝手に動くはずもありません...
無料で AI を使う

Ollama のモデルファイルが消える問題と保存場所の再検討ログ

Mac mini M4(32GB / 1TB)を導入し、ローカルLLM の実験を続けていますが、先日少し困った事象が発生しました。Ollama のアップデート後に、ダウンロードしていたはずのモデルファイルが消えてしまった可能性がある、という...
AI への投資

Mac mini M4 メモリ 32GB ストレージ 1TB 選定ログ 📝 20万円の予算でローカルLLM環境を整える

AI をローカル環境で動かすための中心機材として、Mac mini M4 を選定しました。今回の導入にあたっては、限られた予算の中で「どこにコストをかけ、どこを妥協するか」という選択の連続でした。これは「正解の構成」の提示ではなく、あくまで...
無料で AI を使う

Mac mini M4 32GB で ローカルLLM を動かすためのメモリ最適化設定

ローカルLLM を安定して動作させるためには、メモリ(ユニファイドメモリ)の空き容量を確保することが非常に重要です。僕が現在メインで使用している「gpt-oss:20b」というモデルは、単体で 約14GB のメモリを占有します。32GB の...
広告