在 Windows 10 上运行 Ollama 时遇到 llama runner process has terminated: exit status 2 错误,可能是由多种原因引起的。以下是逐步解决方案:
1. 检查 Ollama 服务状态
-  
按
Win + R输入services.msc,找到Ollama服务,确保其状态为 正在运行。 -  
如果没有运行,右键手动启动;如果启动失败,尝试重新安装 Ollama。
 
2. 更新显卡驱动(尤其是 NVIDIA/AMD)
-  
此错误可能与 GPU 计算兼容性有关:
-  
打开 设备管理器 > 展开 显示适配器 > 右键显卡选择 更新驱动。
 -  
或前往显卡官网下载最新驱动:
-  
NVIDIA 驱动下载
 -  
AMD 驱动下载
 
 -  
 
 -  
 
3. 验证模型完整性
-  
删除并重新拉取模型(以
llama2为例):ollama rm llama2 ollama pull llama2 ollama run llama2
 -  
如果问题依旧,尝试其他模型(如
mistral),确认是否为模型特定问题。 
4. 检查系统环境变量
-  
确保 Ollama 的路径已添加到系统环境变量:
-  
默认安装路径:
C:\Program Files\Ollama。 -  
按
Win + S搜索 “环境变量” > 编辑 系统变量 中的Path,添加 Ollama 的安装路径。 
 -  
 
5. 关闭冲突软件
-  
临时禁用杀毒软件(如 360、火绒)或防火墙,某些安全软件可能拦截 Ollama 的子进程。
 -  
确保没有其他程序占用 GPU 资源(如游戏、深度学习任务)。
 
6. 以管理员身份运行
-  
右键点击命令提示符或 PowerShell,选择 以管理员身份运行,再执行 Ollama 命令。
 
7. 查看详细日志
-  
获取更详细的错误信息:
ollama serve > ollama.log 2>&1
然后在新窗口运行模型,检查
ollama.log文件中的具体报错(如 CUDA 版本不匹配、内存不足等)。 
8. 重装 Ollama
-  
完全卸载后重新安装:
-  
卸载 Ollama。
 -  
删除残留目录(如
C:\Users\<你的用户名>\.ollama)。 -  
从官网下载最新版本安装:Ollama 官网。
 
 -  
 
9. 检查硬件兼容性
-  
如果使用 GPU 加速,确认显卡是否支持 CUDA(NVIDIA)或 ROCm(AMD):
-  
运行
nvidia-smi(NVIDIA)或rocminfo(AMD)检查工具是否正常输出。 
 -  
 -  
若显卡不支持,尝试强制使用 CPU 模式(性能会下降):
setx OLLAMA_NO_CUDA "1"
重启终端后运行模型。
 
10. 系统依赖项
-  
安装 Visual C++ 运行库和 .NET Framework:
-  
下载 Visual C++ Redistributable。
 -  
确保 Windows 10 已更新至最新版本(设置 > 更新和安全)。
 
 -  
 
附:常见原因总结
| 原因 | 解决方向 | 
|---|---|
| 显卡驱动不兼容 | 更新驱动或禁用 GPU 加速 | 
| 模型文件损坏 | 重新拉取模型 | 
| 权限不足 | 以管理员身份运行 | 
| 内存/显存不足 | 换更小模型或关闭其他程序 | 
| 安全软件拦截 | 临时禁用杀毒软件 | 
如果以上步骤仍无法解决,请提供 ollama.log 中的关键错误信息进一步分析。