AI

Ollama入門 — ローカルLLMを自分のマシンで動かす

Katz

最近、ChatGPTやClaudeといったAIサービスを使うのが当たり前になってきましたが「オフライン環境でも使いたい」「API費用をかけずにローカルで動かしたい」と思うことがあります。

そうした要望を手軽に叶えてくれるのがOllamaというソフトウェアです。Ollamaを使えばGemma、Llama、Qwenなどを代表とするローカルLLMを自分のマシンで動かすことができます。

この記事では、Ollamaの導入から基本的な使い方までを紹介します。

Ollamaとは?

Ollama は、ローカル環境でLLMを手軽に実行するためのオープンソースツールです。 アプリやコマンドでローカルLLMのダウンロードから実行までを簡単に行えます。

項目内容
対応OSmacOS / Linux / Windows
インターフェースGUI・CLIの両方から利用可能
対応ローカルLLMLlama 3、Gemma 3、Mistral、Phi、Qwen など多数
GPU対応NVIDIA / Apple Silicon に対応

動作環境

必要なRAMはローカルLLMのサイズによって異なります。筆者の環境で動作確認したところ、サイズに応じて快適に使用するには以下のRAM容量が必要そうでした。

サイズ必要RAM目安ローカルLLMの例
4B8GBgemma3 (4B)
12B16GBgemma3 (12B)
27B32GB以上gemma3 (27B)

筆者環境:MacBook Pro / Apple M1 Pro (10コア) / RAM 32GB / macOS 26.3.1


インストールする

Ollama公式サイト から macOS用の .dmg ファイルをダウンロードします。ダウンロードした .dmg ファイルを開き、Ollamaのアイコンを Applications フォルダへドラッグ&ドロップします。

その後、アプリケーションフォルダからOllamaを起動すると、以下の画面が表示されて利用開始できます。

ローカルLLMをダウンロードする

ローカルLLMをダウンロードするには、まずアプリのローカルLLM選択画面から、使用したいローカルLLMを選択します。

次に「Send a message」にテキストを入力して送信を実行すると、以下のようにダウンロードが開始されます。

アプリではなくコマンドでダウンロードする場合は、ollama run <モデル名> を実行します。ローカルLLMのダウンロードと起動を同時に行えます。

% ollama run gemma3:12b
pulling manifest
pulling e8ad13eff07a:  89% ████████████████████████████████████████████████████████████████████████         ▏ 7.2 GB/8.1 GB   23 MB/s     37s

起動中のローカルLLMを確認する

現在起動しているローカルLLMはコマンドから確認できます。以下のコマンドを実行すると、起動中のローカルLLM名・使用メモリ・処理に使用しているプロセッサが一覧表示されます。

% ollama ps
NAME         ID              SIZE      PROCESSOR    CONTEXT    UNTIL
gemma3:4b    a2af6cc3eb7f    4.9 GB    100% GPU     32768      4 minutes from now

PROCESSOR 欄に 100% GPU と表示されていればApple SiliconのGPUで動作しています。CPUのみの場合は 100% CPU と表示されます。

起動中のローカルLLMを停止する

起動したローカルLLMはバックグラウンドで動作し続けるため、使用後はメモリを占有し続けます。使用しないローカルLLMは以下のコマンドで停止してメモリを解放できます。

% ollama stop gemma3:12b

停止後に ollama ps で確認すると、対象のローカルLLMが一覧から消えていることを確認できます。

% ollama ps
NAME    ID    SIZE    PROCESSOR    UNTIL

ダウンロード済みのローカルLLMを確認する

ダウンロード済みのローカルLLMはコマンドから確認できます。以下のコマンドを実行するとローカルLLM名・サイズ・更新日時が一覧表示されます。

% ollama list
NAME          ID              SIZE      MODIFIED
gemma3:12b    f4031aab637d    8.1 GB    11 minutes ago
gemma3:4b     a2af6cc3eb7f    3.3 GB    23 minutes ago

特定のローカルLLMの詳細情報を確認したい場合は ollama show コマンドを使います。ローカルLLMのアーキテクチャやパラメータ数、コンテキストウィンドウのサイズなどを確認できます。

% ollama show gemma3:4b
  Model
    architecture        gemma3
    parameters          4.3B
    context length      131072
    embedding length    2560
    quantization        Q4_K_M

  Capabilities
    completion
    vision

  Parameters
    stop           "<end_of_turn>"
    temperature    1
    top_k          64
    top_p          0.95

  License
    Gemma Terms of Use
    Last modified: February 21, 2024
    ...

ダウンロード済みのローカルLLMを削除する

ローカルLLMはファイルサイズが大きいため、不要になったものは削除してディスク容量を確保しましょう。削除は以下のコマンドで行います。

% ollama rm gemma3:12b
deleted 'gemma3:12b'

削除後に ollama list で一覧を確認すると、対象のローカルLLMが消えていることを確認できます。

% ollama list
NAME          ID              SIZE      MODIFIED
gemma3:4b     a2af6cc3eb7f    3.3 GB    23 minutes ago

まとめ

この記事では、Ollamaを使ってローカルLLMを自分のマシンで動かす方法を紹介しました。OllamaをインストールするとアプリとCLIが使えるようになり、アプリや以下のコマンドでローカルLLMを管理できます。

  • ollama run でローカルLLMをダウンロードして起動できる
  • ollama ps で起動中のローカルLLMを確認、ollama stop でメモリを解放できる
  • ollama list でダウンロード済みのローカルLLMを一覧表示、ollama show で詳細情報を確認できる
  • ollama rm で不要なローカルLLMを削除してディスク容量を確保できる

Ollamaを使えばクラウドに依存せず、プライバシーを守りながら、APIコストをかけずにローカルLLMを活用できます。まずは ollama run gemma3 などで試してみてください。

参考リンク

Xからの読者コメントをお待ちしています。
ブログ更新の励みになります!

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

ABOUT ME
Katz
Katz
ITエンジニア
エンジニアをやっているKatzです。仕事のことや最近使ってみたものの紹介をしています。
記事URLをコピーしました