ollama 安装和使用
Ollama 安装与使用指南
Ollama 是一个强大的工具,允许你在本地运行各种 大语言模型(LLM),如 LLaMA、Mistral、Gemma 等。以下是详细的安装和使用教程,涵盖 Windows、macOS、Linux 系统。
1. 安装 Ollama
📥 方法 1:直接下载安装(推荐)
Windows / macOS
- 访问 Ollama 官网,下载对应系统的安装包。
- 运行安装程序,按照提示完成安装。
- 安装完成后,打开终端(Windows 用 CMD/PowerShell,macOS 用 Terminal),输入:
如果显示版本号(如ollama --version
v0.1.30
),说明安装成功。
Linux(Ubuntu/Debian/Rocky Linux)
# 使用 curl 下载并安装
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,运行:
ollama serve & # 启动服务(后台运行)
🐳 方法 2:使用 Docker 安装(适合开发者)
# 拉取 Ollama 镜像
docker pull ollama/ollama
# 运行容器(数据持久化到本地)
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
-p 11434:11434
:Ollama 默认 API 端口。-v ollama:/root/.ollama
:存储模型数据,避免容器删除后丢失。
2. 下载模型
Ollama 支持多种模型,如:
llama2
(Meta 开源)mistral
(轻量高效)gemma
(Google 轻量级)phi
(微软小模型)qwen
(阿里通义千问)
📥 下载模型
ollama pull llama2 # 下载 LLaMA 2
ollama pull mistral # 下载 Mistral
ollama pull gemma # 下载 Google Gemma
⚠️ 如果下载慢,可以使用代理:
export HTTP_PROXY=http://127.0.0.1:7890 # 替换为你的代理
export HTTPS_PROXY=http://127.0.0.1:7890
ollama pull llama2
3. 运行模型
💬 方式 1:命令行交互
ollama run llama2 # 运行 LLaMA 2
输入问题,如:
>>> 用中文写一首关于春天的诗
模型会生成回答,按 Ctrl+D
退出。
🔄 方式 2:API 调用
Ollama 提供 REST API(默认端口 11434
),可以用 curl
或 Python 调用:
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "你好,你是谁?"
}'
Python 示例:
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "llama2", "prompt": "解释一下人工智能"}
)
print(response.text)
4. 自定义模型
你可以基于现有模型微调(Fine-tuning):
- 创建
Modelfile
:FROM llama2 SYSTEM """你是一个专业的中文助手,回答要简洁。"""
- 构建自定义模型:
ollama create my-llama -f Modelfile
- 运行:
ollama run my-llama
5. 常见问题
❌ 问题 1:ollama
命令找不到
- Windows:检查是否添加到了
PATH
(安装时勾选)。 - Linux/macOS:手动添加环境变量:
export PATH=$PATH:/usr/local/bin
🐢 问题 2:下载模型太慢
- 方法 1:使用代理(见上文)。
- 方法 2:手动下载模型文件,放入
~/.ollama/models
(Linux/macOS)或C:\Users\<用户名>\.ollama\models
(Windows)。
🚫 问题 3:端口冲突
如果 11434
端口被占用,可以修改端口:
OLLAMA_HOST=0.0.0.0:11435 ollama serve # 改用 11435
6. 进阶用法
📂 管理模型
ollama list # 查看已安装的模型
ollama rm llama2 # 删除模型
⚙️ 配置 GPU 加速
Ollama 支持 NVIDIA CUDA 和 Apple Metal 加速:
- Linux (NVIDIA):安装 NVIDIA Container Toolkit,然后:
docker run --gpus all -p 11434:11434 ollama/ollama
- macOS (Metal):自动启用,无需额外配置。
7. 总结
操作 | 命令示例 |
---|---|
安装 Ollama | curl -fsSL https://ollama.com/install.sh | sh |
下载模型 | ollama pull llama2 |
运行模型 | ollama run mistral |
调用 API | curl -X POST http://localhost:11434/api/generate |
自定义模型 | ollama create my-model -f Modelfile |
查看已安装模型 | ollama list |
现在你可以轻松在本地运行大模型了!🚀 如需更多模型,可查看 Ollama 官方库。
No Comments