Ollama|オラマというローカルで動く生成系AIのセットアップとちょっと躓いたこと

SNOW

2026-04-21

ローカルで動く生成AI「Ollama(オラマ)」を実際にPCに入れて使ってみました。

ChatGPTやGeminiとは違い、ネットに依存しないAIという点が特徴です。

最初は少し戸惑いましたが、流れを理解するとかなり面白いツールでした。

30秒でわかる記事要約(Chloeさん音声)

Ollamaとは何か

Ollamaは、自分のPC上で大規模言語モデル(LLM)を動かせるツールです。

クラウド型のAIとは違い、ローカル環境で完結するのが最大の特徴です。

データが外に出ないため、セキュリティ面での安心感があります。

一方で、性能はPCスペックに依存するため、環境によって体験は変わります。

特徴の整理

  • 完全ローカルで動作します。
  • インターネット接続なしでも利用可能です。
  • 無料で利用でき、有料プランはありません。
  • モデルサイズは数GB単位と比較的大きいです。

ChatGPTやGeminiとの違い

一般的な生成AIとの違いはかなり明確です。

クラウドかローカルか、この一点に集約されます。

ChatGPTやGeminiは常にサーバーと通信します。

Ollamaは基本的にPC内だけで処理が完結します。

比較ポイント

  • ChatGPT → 高性能・常時オンライン
  • Gemini → Google連携・検索強い
  • Ollama → ローカル・自由度高い

この違いだけでも使い分けの軸が見えてきます。


Ollamaのセットアップ

セットアップ自体はかなりシンプルでした。

ただし、モデルのダウンロードが少しクセがあります。

ダウンロード

公式サイトからインストーラを取得します。

Windows版は約1.8GBほどあり、やや大きめです。

ダウンロードURL:https://ollama.com/download/windows

インストール

インストールは一般的なアプリと同じで、数クリックで完了します。

無料で利用でき、フリーミアムではない点も特徴的です。

その代わり、サポートや運用は自己責任になります。

初回起動

インストール後はすぐに起動できます。

ただし、この時点ではまだAIは動きません。


Ollamaを使ってみる

ここが一番ハマりどころで、最初は「こんにちは」と入力してみたけど無反応でした。

これは不具合ではなく、仕様のようでした。

モデルの選択

最初にやるべきはモデルの準備、GUIで選ぶとクラウドモデルが出てくる場合があります。

ローカルで使う場合は選ばず、コマンドで実行します。

モデルのダウンロード

llama3をインストールしました。

数GBのデータがダウンロードされるため、数分かかります。

他にもdeepseekなど複数のモデルが選択可能です。

実際の動作

再度「こんにちは」と入力すると、約5秒後に返答がありました。

「こんにちは!お元気ですか?」と自然な応答でした。

この瞬間、ローカルでAIが動いている実感があります。


出典:ゆっくりテックウォッチ