一、软件介绍
文末提供程序和源码下载
DeepClaude开源程序是增强的 AI,可以实现代码生成:DeepSeek r1 + Claude 3.7 十四行诗 - 无与伦比的性能!内容创作:DeepSeek r1 + Gemini 2.5 Pro - 卓越的质量!OpenAI 兼容。流媒体和非流媒体支持。立即体验 AI 的未来!
二、简介
最近 DeepSeek 推出了 DeepSeek R1 模型,在推理能力上已经达到了第一梯队。但是 DeepSeek R1 在一些日常任务的输出上可能仍然无法匹敌 Claude 3.5 Sonnet。Aider 团队最近有一篇研究,表示通过采用 DeepSeek R1 + Claude 3.5 Sonnet 可以实现最好的效果。
配置界面,部署更简单。 1.编程:推荐 DeepSeek r1 + Claude 3.7 Sonnet 组合,效果最好; 2.内容创作:推荐 DeepSeek r1 + Gemini 2.0 Flash 或 Gemini 2.5 Pro 组合,效果最好,并且可以完全免费使用。
R1 作为架构师,Sonnet 作为编辑,在 aider polyglot 基准上设定了 64.0% 的新 SOTA。与之前的 o1 SOTA 结果相比,他们以 14 倍的成本实现了这一目标。
本项目受到该项目的启发,通过 fastAPI 完全重写,经过 15 天大量社区用户的真实测试,我们创作了一些新的组合使用方案。
1.编程:推荐使用 deepclaude = deepseek r1 + claude 3.7 sonnet; 2.内容创作:推荐使用 deepgeminipro = deepseek r1 + gemini 2.0 pro (该方案可以完全免费使用); 3.日常实验:推荐 deepgeminiflash = deepseek r1 + gemini 2.0 flash (该方案可以完全免费使用)。
项目支持 OpenAI 兼容格式的输入输出,支持 DeepSeek 官方 API 以及第三方托管的 API、生成部分也支持 Claude 官方 API 以及中转 API,并对 OpenAI 兼容格式的其他 Model 做了特别支持。
🔥推荐使用方法: 1.用户可以自行运行在自己的服务器,并对外提供开放 API 接口,接入 OneAPI 等实现统一分发。
2.接入你的日常大语言模型对话聊天使用。
三、Implementation 实现
四、How to run 如何运行
项目支持本地运行和服务器运行,推荐使用服务器部署,实现随时随处可访问的最强大语言模型服务,甚至可以完全免费使用。
1. 获得运行所需的 API
- 获取 DeepSeek API,因为最近 DeepSeek 官方的供应能里不足,所以经常无法使用,不推荐。目前更推荐使用火山云引擎(我们已经做了预配置,你只需注册后获取 api key 即可),点击链接注册可以获得 15 元代金券,免费用流畅的 deepseek r1 :火山方舟大模型体验中心-火山引擎 邀请码:AK7Q5AEU
- 获取 Claude 的 API KEY:https://console.anthropic.com。(也可采用其他中转服务,如 DMXapi、Openrouter 以及其他服务商的 API KEY)
- 获取 Gemini 的 API KEY:https://aistudio.google.com/apikey (有免费的额度,日常够用)
2. 开始运行(本地运行)
Step 1. 克隆本项目到适合的文件夹并进入项目
git clone https://github.com/ErlichLiu/DeepClaude.git cd DeepClaude
Step 2. 通过 uv 安装依赖(如果你还没有安装 uv,请看下方注解)
# 通过 uv 在本地创建虚拟环境,并安装依赖 uv sync # macOS 激活虚拟环境 source .venv/bin/activate # Windows 激活虚拟环境 .venv\Scripts\activate
Step 3. 运行
## 本地运行 uvicorn app.main:app --port 8000 ## 服务器运行 uvicorn app.main:app --host 0.0.0.0 --port 8000
Step 4. 打开浏览器访问 http://127.0.0.1:8000/config 输入默认 api key:123456 (如果你运行在云端,请尽快登录后在系统设置内更改,避免被其他人盗用,本地登录则无需更改)
按照提示在“推理模型这一栏”配置一个火山云引擎的 api key,点击编辑,粘贴进去 api key 后点击保存即可
是否支持原生推理
选项控制了两套针对推理模型返回思考内容.
- 支持原生推理: 推理模型在返回体
reasoning_content
字段返回推理内容, 在content
字段返回回答内容. 例如:- DeepSeek官方
deepseek-reasoner
DeepSeek 官方deepseek-reasoner
- Siliconflow
deepseek-ai/deepseek-r1
Siliconflow深度搜索-ai/deepseek-r1
- DeepSeek官方
- 不支持原生推理: 推理模型在
content
字段中以<think></think>
标签包裹推理内容返回. 例如:- 派欧算力云
deepseek/deepseek-r1
,deepseek/deepseek-r1/community
,deepseek/deepseek-r1-turbo
- AiHubMix
aihubmix-DeepSeek-R1
- Cluade 3.7 Sonnet Thinking
Cluade 3.7 十四行诗思维
- 派欧算力云
大多数服务商提供的deepseek-r1均支持原生推理, 所以推荐默认开启. 如果不确定可以在外部使用聊天框架(Chatbox)测试模型响应内容. 如果出现<think></think>
标签则需要关闭支持原生推理
选项.
不支持原生推理的deepseek-r1可能需要prompt来触发思考, 若日志中收集到推理内容长度一直为0, 而且出现<think>
字样, 则考虑检查此因素:
按照提示在“目标模型”配置一个 Claude 3.7 Sonnet 的 api key 以及一个 Gmeini 的 api key,Gemini 的 api key 可以在:https://aistudio.google.com/apikey 获取
同理,也可以配置一个 Gemini 的 api key 分别到 deepgeminiflash 和 deepgeminipro
Step 5. 配置程序到你的 Chatbox(推荐 Cherry Studio NextChat、ChatBox、LobeChat)
如果你的客户端是 Cherry Studio、Chatbox(选择 OpenAI API 模式,注意不是 OpenAI 兼容模式) API 地址为 http://127.0.0.1:8000 API 密钥为默认的 123456,如果你在系统设置内进行修改,则改为你修改过的即可 需要手动配置三个模型,分别为 deepclaude、deepgeminiflash 和 deepgeminipro 模型
如果你的客户端是 LobeChat API 地址为:http://127.0.0.1:8000/v1 API 密钥为默认的 123456,如果你在系统设置内进行修改,则改为你修改过的即可 支持获取模型列表,可以同时获取到 deepclaude、deepgeminiflash 和 deepgeminipro 模型
注:本项目采用 uv 作为包管理器,这是一个更快速更现代的管理方式,用于替代 pip,你可以在此了解更多
五、软件下载
夸克网盘分享
本文信息来源于GitHub作者地址:https://github.com/ErlichLiu/DeepClaude