Ollamaは、Llama 3、DeepSeek、Phiなどのオープンソース大規模言語モデル(LLM)をローカル環境で簡単に実行できるようにするためのツールです。複雑な環境設定を自動化し、誰でも手軽に強力なAIアシスタントを自身のPCで動かせるようにします。
このガイドでは、Ollamaの基本的な使い方を日本語でステップバイステップで解説します。
🚀 Ollamaを使い始める3ステップ
💻 1. インストール
OllamaはWindows、macOS、Linuxをサポートしています。
- Windows: 公式サイト(https://ollama.com/)からインストーラをダウンロードして実行します。
- macOS/Linux: 公式サイトからダウンロードするか、ターミナルで以下のコマンドを実行します。
bash curl -fsSL https://ollama.com/install.sh | sh
(このコマンドは公式スクリプトをダウンロードして実行します。内容を確認してから実行することをお勧めします) - インストール確認: ターミナルやコマンドプロンプトで
ollama --versionを実行し、バージョンが表示されれば成功です。
【国内ユーザー向け補足】 モデルのダウンロード時に、公式サイト(GitHub経由)への接続が不安定な場合があります。その場合は、Alibaba CloudのModelScope(魔搭)というサービスを経由すると、高速かつ安定してダウンロードできます。
# 例:ModelScopeを使ってQwen2.5モデルをダウンロードする場合 ollama pull modelscope.cn/Qwen/Qwen2.5-7B-Instruct-GGUF
🤖 2. モデルのダウンロードと実行
インストールができたら、さっそくAIモデルと会話してみましょう。以下のコマンド一つで、モデルのダウンロードと対話セッションの開始が自動で行われます。
# DeepSeek R1の最小モデル(1.5B)を実行
ollama run deepseek-r1:1.5b
deepseek-r1:1.5bの部分は、モデル名とサイズ(パラメータ数)を指定しています。- プロンプトが表示されたら、実際にメッセージを入力してAIと会話できます。
- 会話を終了するには
/byeと入力するか、Ctrl+Dを押します。
🔌 3. APIで他のアプリから使う
Ollamaの真価は、APIサーバーとしての機能にあります。デフォルトで http://localhost:11434 でREST APIが起動するため、他のアプリケーションから簡単にローカルのAIを呼び出せます。
- Pythonからの呼び出し例
import requests import json response = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1:1.5b", # 使用するモデル名 "prompt": "こんにちは!元気ですか?", # AIへの指示 "stream": False # レスポンスを一括で受け取る } ) print(response.json()["response"])
💡 より快適に使うためのヒント
🖥️ グラフィカルなインターフェースを使う
コマンドラインでの対話に不便を感じたら、Chatbox や Cherry Studio、Open WebUI といったGUIフロントエンドを導入するのがおすすめです。これらはOllamaと連携し、使い慣れたチャットアプリのような感覚でAIとやり取りできます。
- Chatboxの設定例:
- Chatboxをインストールし、左下の設定を開きます。
- モデル提供元で「Ollama API」を選択します。
- APIドメインは
http://localhost:11434のまま(変更していなければ)、モデルをプルダウンから選択するだけです。
📚 自分のデータで質問する(RAG)
Ollamaでダウンロードしたモデルと、埋め込みモデル(例:bge-m3)を組み合わせることで、私的なドキュメント(PDFやWordファイルなど)の内容を踏まえた質問応答システム(RAG:検索拡張生成)を構築できます。Cherry Studioなどのツールを使えば、この知識ベースの機能も比較的簡単に試せます。
⚙️ ハードウェア要件とモデル選び
- メモリの目安: 7B(70億)パラメータクラスのモデルを快適に動かすには、16GB以上のメインメモリ(RAM) が推奨されます。グラフィックボード(GPU)がある場合はそのVRAMが優先的に使われますが、なくてもCPUとRAMで動作します。
- ストレージ: モデルファイルのサイズは様々です。小さなモデルで1〜2GB、標準的な7Bモデルで4〜5GB程度です。いくつか試すことを考え、20GB以上の空き容量 があると安心です。
- モデルのサイズ感(一例):
- 軽量(1B〜3B):GPUが非搭載のノートPCでも比較的速く動く。
- 標準(7B〜8B):バランスが良く、多くのユーザーにおすすめ。
- 大規模(70B〜):高性能だが、相応のハイスペックPCが必要。
Ollamaは、「AIを自分のPCで自由に動かしたい」という要望をとても簡単に実現してくれるツールです。プライバシーを守りながら、最新のAI技術を体験してみてください。
何か具体的に試したいモデルや、詰まっている点があれば、いつでも聞いてくださいね。
Ollamaで使えるAIモデルは、DeepSeek以外にも非常に多くの選択肢があります。Meta、Google、Microsoftなど、世界をリードする組織が公開している最新のモデルを、あなたのPCで手軽に試せます。
ここでは、代表的なモデルを開発元ごとに分類し、その特徴を詳しく解説します。これを読めば、あなたの目的にぴったりのモデルが見つかるはずです。
🏢 主要なモデルファミリーとその特徴
Ollamaで利用できる主なモデルとその特徴は以下の通りです。それぞれに異なる強みがあり、用途に応じて選べます。
| モデルファミリー | 開発元 | 代表的なモデルとサイズ | 主な特徴と強み |
|---|---|---|---|
| Llama (ラマ) シリーズ | Meta (メタ) | Llama 3.3 (70B) Llama 3.1 (8B, 405B) Llama 4 (Scout, Maverick) | 汎用性能のデファクトスタンダード。特にLlama 3.3 70Bは、科学文献レビューなどの深い分析に強み 。Llama 4は画像も理解できるマルチモーダルモデル 。 |
| Gemma (ジェンマ) シリーズ | Google (グーグル) | Gemma 3 (1B, 4B, 12B, 27B) Gemma 3n | 軽量でありながら高性能。Gemma 3 4B/12Bは会話タスクが得意で、Ollamaのデフォルト設定で高速化されている 。Gemma 3nはマルチモーダル特化型 。 |
| Phi (ファイ) シリーズ | Microsoft (マイクロソフト) | Phi-4 (14B) Phi-4 Mini (3.8B) Phi-3 (3.8B) | 小さな体格で驚異的な性能を発揮。Phi-4 Mini 3.8BはスマホやローエンドPCでも快適に動作し、オフライン環境での使用に最適 。 |
| Mistral (ミストラル) シリーズ | Mistral AI (ミストラルAI) | Mistral (7B) Devstral-Small-2 (24B) | 速度と精度のバランスに優れる。Mistral 7Bはメール作成やデータ要約など日常的なタスクのワークホース 。Devstralはコード生成・編集に特化 。 |
| Qwen (QWEN) シリーズ | Alibaba (アリババ) | QwQ (32B) CodeQwen | 強力な推論能力とコーディング性能。QwQ 32Bは高度な推論タスク向け。CodeQwenは92のプログラミング言語に対応するコード特化モデル 。 |
💡 あなたの目的に合わせたモデルの選び方
上記のモデルは、用途によってさらに細かく分類できます。ご自身の目的に合ったカテゴリから探すとよいでしょう。
- 📝 汎用チャット・文章作成 (何でもこなせる万能型)
- おすすめモデル: Llama 3.3 (70B) , Llama 3.1 (8B) , Mistral (7B)
- 特徴と活用シーン: 要約、翻訳、ブレインストーミングなど、幅広いタスクを高品質で処理します。まずはこのカテゴリのモデルから試すのがおすすめです。
- 💻 プログラミング・コード生成 (コーディングの強力なアシスタント)
- おすすめモデル: CodeLlama (7B, 13B, 34B) , DeepSeek Coder (1.3B, 6.7B) , Devstral (24B) , CodeQwen
- 特徴と活用シーン: コードの生成、デバッグ、解説、別の言語への書き換えなど、ソフトウェア開発に関わるあらゆる作業を支援します。DeepSeek Coderは複数ファイルにまたがるコード変更も得意です 。
- 🚀 軽量・高速 (低スペックPCやスマホでもサクサク動作)
- おすすめモデル: Phi-4 Mini (3.8B) , Gemma 3 (1B, 4B) , TinyLlama (1.1B) , Orca Mini (3B)
- 特徴と活用シーン: メモリやCPUへの負荷が少なく、古いPCやインターネットが不安定な環境でも快適に動作します。ちょっとしたアイデア出しや、常時起動させておくアシスタントに最適です 。
- 🗺️ 多言語 (日本語を含む様々な言語で真価を発揮)
- おすすめモデル: Aya, Command-R
- 特徴と活用シーン: 100以上の言語に対応しており、英語以外の言語、特に母国語での自然なコミュニケーションが必要な場合に力を発揮します 。
- 🖼️ 画像認識 (画像について質問したり、内容を読み取る)
- おすすめモデル: Llama 3.2 Vision (11B, 90B) , Llama 4 (Scout, Maverick) , Gemma 3n , Moondream 2 (1.4B) , LLaVA (7B)
- 特徴と活用シーン: アップロードした画像について「何が写っている?」「このグラフを説明して」などと質問できます。Moondream 2は1.4Bと軽量で、手軽に画像認識を試せます。
- 🎨 創造的な文章作成 (小説・脚本のアイデア出しなど)
- おすすめモデル: Dolphin (7B, 70B) , WizardLM
- 特徴と活用シーン: より自由度の高い、創造的なテキスト生成が可能です(通称:アンセンサードモデル)。小説のプロットや詩の作成など、既存の枠にとらわれない発想が求められるタスクに向いています 。
💾 モデルサイズと必要なPCスペックの目安
モデルを選ぶ際は、お使いのPCのスペック、特にメインメモリ(RAM)の容量が重要です。
- 7B~8Bモデル (例: Llama 3.1 8B, Mistral 7B, Phi-4 Mini 3.8B)
- 推奨RAM: 8GB以上
- 備考: 多くのユーザーにとって、性能と必要スペックのバランスが最も良いサイズです。
- 13Bモデル (例: CodeLlama 13B, Vicuna 13B)
- 推奨RAM: 16GB以上
- 備考: より複雑な推論や、より質の高い応答が期待できます。
- 30B~70B以上の大規模モデル (例: Llama 3.3 70B, QwQ 32B)
- 推奨RAM: 32GB以上 (さらにGPUがあると快適)
- 備考: 最高レベルの性能を発揮しますが、相応のハイスペックPCが必要です。メモリが足りない場合は、Ollamaのクラウドサービスを利用する選択肢もあります。
どのモデルもollama run <モデル名>で簡単に始められます。まずは、あなたのPCのスペックとやりたいことに合わせて、気になるモデルをダウンロードしてみてください。もし、どのモデルを選べばいいか迷ったら、その時のタスクや気になることを詳しく教えてくださいね。一緒に最適なモデルを探しましょう。
