ローカルで動く生成AI「Ollama(オラマ)」を実際にPCに入れて使ってみました。
ChatGPTやGeminiとは違い、ネットに依存しないAIという点が特徴です。
最初は少し戸惑いましたが、流れを理解するとかなり面白いツールでした。
Contents
Ollamaとは何か
Ollamaは、自分のPC上で大規模言語モデル(LLM)を動かせるツールです。
クラウド型のAIとは違い、ローカル環境で完結するのが最大の特徴です。
データが外に出ないため、セキュリティ面での安心感があります。
一方で、性能はPCスペックに依存するため、環境によって体験は変わります。
特徴の整理
- 完全ローカルで動作します。
- インターネット接続なしでも利用可能です。
- 無料で利用でき、有料プランはありません。
- モデルサイズは数GB単位と比較的大きいです。

ChatGPTやGeminiとの違い
一般的な生成AIとの違いはかなり明確です。
クラウドかローカルか、この一点に集約されます。
ChatGPTやGeminiは常にサーバーと通信します。
Ollamaは基本的にPC内だけで処理が完結します。
比較ポイント
- ChatGPT → 高性能・常時オンライン
- Gemini → Google連携・検索強い
- Ollama → ローカル・自由度高い
この違いだけでも使い分けの軸が見えてきます。
Ollamaのセットアップ
セットアップ自体はかなりシンプルでした。
ただし、モデルのダウンロードが少しクセがあります。
ダウンロード
公式サイトからインストーラを取得します。
Windows版は約1.8GBほどあり、やや大きめです。
ダウンロードURL:https://ollama.com/download/windows
インストール
インストールは一般的なアプリと同じで、数クリックで完了します。
無料で利用でき、フリーミアムではない点も特徴的です。
その代わり、サポートや運用は自己責任になります。
初回起動
インストール後はすぐに起動できます。
ただし、この時点ではまだAIは動きません。
Ollamaを使ってみる
ここが一番ハマりどころで、最初は「こんにちは」と入力してみたけど無反応でした。
これは不具合ではなく、仕様のようでした。
モデルの選択
最初にやるべきはモデルの準備、GUIで選ぶとクラウドモデルが出てくる場合があります。
ローカルで使う場合は選ばず、コマンドで実行します。
モデルのダウンロード
llama3をインストールしました。
数GBのデータがダウンロードされるため、数分かかります。
他にもdeepseekなど複数のモデルが選択可能です。
実際の動作
再度「こんにちは」と入力すると、約5秒後に返答がありました。
「こんにちは!お元気ですか?」と自然な応答でした。
この瞬間、ローカルでAIが動いている実感があります。
出典:ゆっくりテックウォッチ