ollama官网:
https://ollama.com/
docker安装ollama
运行ollama
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
进入容器内部
docker exec -it ollama sh
下载qwen大模型
ollama pull qwen2.5:0.5b
通过ollama 安装模型
下载模型:
使用以下命令下载 DeepSeek-R1 模型:
// 下载 1.5B 模型,可结合机器资源选择对应的模型。
ollama pull deepseek-r1:1.5b
该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。
查看模型信息:
下载完成后,可以使用以下命令查看模型信息:
ollama list
该命令会显示已下载的模型列表,包括名称、大小和路径等。
运行 DeepSeek-R1:
使用以下命令启动 DeepSeek-R1 模型:
ollama run deepseek-r1:1.5b
该命令会启动 DeepSeek-R1 模型,并启动一个 REPL(交互式终端),你可以在这里输入问题,模型会根据问题生成回
注意
dify添加ollama 如果是dokcer部署的,用下面的路径添加
http://host.docker.internal:11434
ollama docker 安装之后 可以在本地网页访问
http://localhost:11434/
dify docker安装部署之后,可以本地访问
http://localhost
dify 默认是80 443端口 , 可以在安装目录 .env文件修改
参考文章:
Dify Windows Docker.desktop 部署
https://blog.51cto.com/u_12219/14278691
使用Ollama本地化部署DeepSeek
https://www.xuxueli.com/blog/?blog=./notebook/0-AI/使用Ollama本地化部署DeepSeek.md
使用DeepSeek与Dify搭建AI助手
https://www.xuxueli.com/blog/?blog=./notebook/0-AI/使用DeepSeek与Dify搭建AI助手.md
dify 官方部署文档
https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/readme