windows 系统下mobaxterm 运行 ollama

在 Windows 系统下使用 MobaXterm 运行 Ollama 需要结合其类 Linux 终端环境进行操作。以下是详细步骤和注意事项:


1. 环境准备

(1) 安装 Ollama

(2) 配置 MobaXterm


2. 运行 Ollama

(1) 下载模型

ollama pull phi  # 示例:下载Phi-2模型(约5GB)
ollama pull llama2:7b  # 下载Llama 2 7B

(2) 启动交互对话

ollama run phi "如何用Python读取Excel文件?"

(3) 后台服务模式

ollama serve  # 启动本地API服务(默认端口11434)

3. 常见问题解决

问题1:GPU 未调用

问题2:端口冲突

问题3:中文支持差


4. 性能优化建议


5. 扩展功能


通过以上步骤,可在 MobaXterm 中高效运行 Ollama。如需针对特定场景(如长文本处理)进一步调优,可调整模型参数或结合 vLLM 等加速库。


Revision #1
Created 9 April 2025 02:42:53 by Admin
Updated 9 April 2025 02:43:09 by Admin