大模型训练全流程实战指南基础篇(三)——大模型本地部署实战(Vllm与Ollama)

前言

上篇文章 大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析剖析了大模型的核心文件组成与生成原理,并通过实战演示了从模型加载到文本生成的完整流程。那么在实际应用中,诸如 DeepSeek、豆包这类大家日常使用的大模型,究竟是如何高效部署并支撑大规模调用呢?本篇笔者与大家一起实战两种主流部署方案:适合本地快速实验的 Ollama 部署面向生产环境的高性能 Vllm 部署。笔者将从环境准备、部署步骤到调用示例逐一展开,帮助大家在不同场景下都能顺利搭建自己的大模型服务。(温馨提示:本章内容较长,但详实记载了本地部署的相关步骤,并给出了优化指南,大家如果对部署本地大模型不熟悉可收藏阅读,感谢支持)。

《大模型训练指南》合集预计会有50期内容,将系统拆解从数据处理、模型训练到强化学习与智能体开发的全流程,并带大家从零实现模型,帮助大家掌握大模型训练的全技能,真正掌握塑造智能的能力!

除大模型训练外,笔者也在同步更新《深入浅出LangChain&LangGraph AI Agent 智能体开发》专栏,要说明该专栏适合所有对 LangChain 感兴趣的学习者,无论之前是否接触过 LangChain。该专栏基于笔者在实际项目中的深度使用经验,系统讲解了使用LangChain/LangGraph如何开发智能体,目前已更新 37 讲,并持续补充实战与拓展内容。欢迎感兴趣的同学关注笔者的微信公众号大模型真好玩,每期分享涉及的代码均可在公众号私信:LangChain智能体开发免费获取。

PS:鉴于后台私信越来越多,我建了一些大模型交流群,大家在日常学习生活工作中遇到的大模型知识和问题都可以在群中分享出来大家一起解决!如果大家想交流大模型知识,可以关注我并回复加群

一、本地部署大模型优势

相信很多同学和我一样,平时会直接使用 DeepSeek、通义千问等提供的 API 服务——这种方式确实方便快捷。既然云端调用如此便利,为什么还要学习本地部署大模型呢?

与云端部署相比,将大模型部署在本地通常具备以下几点优势:

  1. 数据隐私与安全可控

    许多企业会使用内部数据训练或微调大模型,在这个过程中难免需要模型参与数据处理。为避免企业机密、个人隐私或受监管数据上传至第三方平台,本地部署能更好地满足数据合规要求,保障数据不出域。

  2. 完全自主的控制权

    云端服务可能因厂商限速、服务中断或模型版本更新而导致调用失败或效果波动(例如年初 DeepSeek 服务受攻击,或平时忘记续费导致调用失败)。本地部署则确保模型版本、服务稳定性完全由自己掌控,避免因外部因素影响业务连续性。

  3. 长期成本更可控

    虽然初期需要投入硬件与部署成本,但长期使用边际成本极低,尤其适合高频调用或规模化应用场景。这也避免了因供应商定价策略调整而带来的不确定性,有利于长期项目规划。

综上所述,对于重视数据安全、需要稳定服务或长期成本控制的企业、科研团队及开发者来说,掌握本地部署大模型的能力具有重要价值。它不仅是技术保障,也逐渐成为一项核心竞争优势。

接下来,笔者将为大家分享两种实用的部署方案:适合生产环境的高性能Vllm部署方案,以及适合本地快速实验的Ollama部署方案。

二、VLLM大模型部署方案

2.1 认识VLLM

虽然可以使用transformers库来完成大模型的调用和推理,但在生产环境中往往需要更高的推理效率。为此专为高性能推理的vllm库应运而生。

vLLM 是加州大学伯克利分校开发的一个 Python 库,其核心优势在于创新的内存管理技术、高效的任务调度能力,以及出色的易用性和兼容性。这使得它能在相同硬件上显著提升模型推理的吞吐量与并发处理能力。因此,vLLM 非常适合需要快速响应、高并发的生产环境。

值得注意的是,vLLM 目前仅支持 Linux 系统,在 Windows 下无法使用。如果大家使用的是 Windows 环境,可以考虑下文将介绍的 Ollama 框架作为替代方案。

vllm的核心优势总结主要有以下几点:

  1. 极致的内存效率: 利用分页注意力机制和KV缓存, 将显存利用率提高到90%;
  2. 极高的吞吐量与并发:动态合并新请求到正在进行的批处理中,持续“榨干”GPU算力,吞吐量可达传统静态批处理的2.8倍;
  3. 开箱即用的易用性:vllm与 HuggingFace无缝集成,更是提供 OpenAI兼容的API,无需复杂转换即可加载主流开源模型;现有应用可无缝迁移,极大降低部署门槛。

2.2 VLLM大模型部署方案实战

既然vllm部署有这么大的优点,那接下来必然要学习一下vllm的部署方法了,本次实验环境同样是在九章云极算力平台下进行部署,大家可以通过扫描下方二维码 ,免费体验H100 GPU 6.5小时的算力。本系列所有实战教程均将在该平台上完成,帮助大家低成本上手实践。

1. 创建实例:打开Lab4AI官网(https://www.lab4ai.cn/home),新建一个 VS Code 云实例。

2.选择镜像:在新建实例页面,选择适合的镜像并完成创建。

3. 检查环境:点击 VS Code 中的 Terminal,可以看到系统已预置名为lf的 Anaconda 虚拟环境,其中已安装llamafactory库及其依赖(包括 vLLM)。
执行pip show vllm可查看当前 vLLM 版本。大家也可以通过pip install vllm==xxx安装指定版本,但预置版本通常已足够新。

4. 查看显存:vLLM 对显存要求较高。执行nvidia-smi命令查看当前 GPU 资源。如图所示,环境配备了一块 80G 显存的 H100 显卡。
注意:一个 32B 参数模型约需 66G 显存,H100 单卡部署可能紧张。为便于演示,笔者选用更轻量的Qwen3-4B模型。

5. 下载模型:运行大模型第一步首先要下载大模型,大家还记得大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析 上一小节内容中教大家如何从modelscope处获得模型的方法吧,访问 ModelScope 官网,搜索Qwen3-4B模型。点击下载,页面会显示下载命令。

6. 执行下载:在终端执行以下命令modelscope download --model Qwen/Qwen3-4B --local_dir ./Qwen3-4B将Qwen3-4B模型下载到当前目录下的Qwen3-4B文件夹中。下载完成后情况如下:

7. 启动 vLLM 服务:模型就绪后,执行以下命令启动兼容 OpenAI API 格式的推理服务器:vllm serve ./Qwen3-4B/ --served-model-name Qwen3-4B --max-model-len 32768 --gpu-memory-utilization 0.9 --port 6666即可开启兼容OpenAI格式请求的服务器,服务成功启动后,终端会显示运行日志:

8. 测试调用:在服务器根目录下新建test.py文件,并写入以下测试代码(因启动时未指定 API Key,此处可任意填写)。执行python test.py,成功返回模型响应即表示部署成功。

    from openai import OpenAIclient = OpenAI(base_url="http://localhost:6666/v1", api_key="EMPTY")response = client.chat.completions.create(model="Qwen3-4B", messages=[{"role": "user", "content": "你好"}])print(response.choices[0].message.content)

    以上就是使用 vLLM 本地部署大模型的完整流程。掌握本地大模型服务的部署能力,对于后续的数据治理、模型训练与部署都至关重要。

    2.3 VLLM常用部署参数详解

    上一节仅展示了部分命令行参数,下表列出了更多生产中常用的参数及其说明:

    参数

    推荐值

    作用说明

    --max-model-len32768

    设置模型的最大上下文长度,Qwen3模型支持32K上下文。

    --gpu-memory-utilization0.8-0.95

    GPU显存利用率,值越高预留空间越少。

    --tensor-parallel-size

    GPU数量

    张量并行大小

    必须等于使用的GPU数量(默认单卡为1),如果你使用两张卡,这里就是2,注意数目只能是2^n次。

    --max-num-seqs256

    同时处理的最大请求数,影响并发能力。

    --enforce-eager

    (无值)

    在Ascend NPU上运行可能需要添加此参数

    ,以避免编译错误。

    --api-key

    abc123

    设置API密钥,增加基础安全性。

    --enable-function-calling

    (无值)

    启用工具功能(之后笔者会讲解)
    --pipeline-parallel-size

    GPU数量

    流水线并行大小,流水线通过将模型层分布到多个GPU,每个GPU顺序处理,可与tensor-parallel-size参数合用

    --enable-expert-parallel

    True or False

    针对MoE模型的优化,例如DeepSeek-V3等模型,平衡不同MoE专家计算开销

    根据以上参数,如果需要使用 4 张 GPU 来推理Qwen3-32B模型,命令应如下所示:

      vllm serve \--model “Qwen3-32B模型所存位置” \--tensor-parallel-size 4 \--trust-remote-code \--gpu-memory-utilization 0.8 \--max-num-seqs 32 \--max-model-len 8192 \--port 8000

      参数组合清晰明了,相信大家都已经学会啦!

      2.4 VLLM优化技巧

      其实在实际生产环境中为了最大限度的压榨算力,还有很多的vllm的优化技巧,笔者常用的技巧有如下2点:

      1. 多实例负载均衡

        当有多个相同模型同时部署时(例如 8 张卡,每 2 张部署一个Qwen3-32B,共 4 个实例),可在前端使用Nginx 做负载均衡,实现吞吐量的线性增长。(如有需要,笔者后续可专门分享此方案。)

      2. 超大模型部署策略

        部署参数量极大的模型时,需要合理组合TP(张量并行)PP(流水线并行)EP(专家并行)策略。通常可以适当调大 TP 和 PP,并将 EP 设为True,以在多 GPU 同步开销与整体性能之间取得最佳平衡。

      三、Ollama大模型部署方案

      3.1 认识Ollama

      VLLM 部署方案虽然强大,但它主要面向生产环境,需要 Linux 系统和高性能显卡。如果大家想在个人电脑上快速体验模型,或者在 Windows 系统中进行本地调用,有什么更轻便的方案呢?Ollama 正是为此而生。

      ollama是在llama.cpp基础上封装的简化的本地部署工具,提供了一键运行功能,非常适合大家非技术模型的快速验证。与vllm相比主要有如下三点优势:

      1. 部署极其简单,开箱即用

        Ollama提供一键安装脚本和简单的命令行操作,下载后即可快速运行模型,非常适合个人快速体验。而vLLm通常需要配置Python环境、安装CUDA依赖并进行更多初始化设置,门槛相对较高。

      2. 对个人硬件更友好,资源要求低

        Ollama专注于在消费级硬件(包括苹果芯片、普通CPU和消费级GPU)上运行。它通过高效的模型量化技术,能用更少的内存或显存运行大模型(不一定需要显卡,内存也可以)。

      3. 内置模型库,管理模型非常便捷

        Ollama内置了一个包含大量主流开源预量化模型的“应用商店”。大家可以像安装软件一样,通过一条命令(如ollama pull Qwen3:4b, 现在甚至不需要命令在界面也可以操作)轻松拉取、运行和切换不同模型,无需手动处理复杂的模型转换和优化步骤。

      3.2 ollama部署实战演示

      下面笔者以 Windows 系统为例,演示如何安装和使用 Ollama 部署大模型。目前最新版本的 Ollama 已提供图形界面,可方便地配置模型路径。若想了解更多细节或使用旧版本,可参考笔者之前的文章:人工智能大模型入门分享(一)——利用ollama搭建本地大模型服务(DeepSeek-R1)

      1. 下载安装包:访问 Ollama 官网(https://ollama.com/),点击右上角 “Download” 按钮,选择 Windows 系统并下载安装包。

      2. 安装软件:双击下载好的.exe文件,点击 “Install” 完成安装,默认安装至 C 盘。

      3. 修改模型存放路径:安装完成后,建议先打开软件设置,将模型保存目录修改到非系统盘(如 D 盘或 E 盘),以避免占用过多系统空间。

      4. 查找模型:在Ollama 官网(https://ollama.com/) 的模型搜索页中,搜索qwen3:

      5. 下载并运行模型:进入 Qwen3 模型页面,页面会显示运行命令ollama run qwen3(默认下载 8B 版本)。若想下载 4B 版本,则执行以下命令:

      6. 在 Ollama 界面中测试:下载完成后,可直接在 Ollama 自带的对话界面中输入问题进行测试。

      7. 通过 OpenAI 兼容 API 调用:Ollama 同样提供兼容 OpenAI 格式的 API 服务(默认端口为11434)。可以通过以下 Python 代码进行调用(若本地未安装openai库,需先执行pip install openai):

        from openai import OpenAIclient = OpenAI(base_url="http://localhost:11434/v1", api_key="EMPTY") #api_key随便填response = client.chat.completions.create(model="qwen3:4b", messages=[{"role": "user", "content": "你好"}])print(response.choices[0].message.content)

        8. 了解模型存储结构:Ollama 下载的模型默认保存在你设置的目录下(例如E:\Ollama\models)。目录内主要包含两个文件夹:

        • blobs

          存放模型具体的二进制文件(通常以sh开头的哈希文件命名)。

        • manifests

          存放模型的元数据信息,用于定义哪些文件属于哪个模型。

        9. 更多配置:如需了解更详细的配置选项(如修改端口、启用 GPU 等),可参考笔者之前的文章: 人工智能大模型入门分享(一)——利用ollama搭建本地大模型服务(DeepSeek-R1),非常简单,这里就不再赘述了~

        3.3 ollama与量化

        细心观察的大家会发现:在 Ollama 中下载的 Qwen3-4B 模型只有约 2.5 GB,而在 ModelScope 下载的原始模型却有 8.1 GB。Ollama 用了什么“魔法”让模型变得如此小巧?这背后的关键技术就是模型量化

        大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析 文章中大家了解到,大模型主要由结构和大量参数构成,保存这些参数占用了绝大部分存储空间。

        这些参数的储存形式通常都是浮点数,量化就是把浮点数的有效数字的位数进行缩小,举个形象的例子,圆周率可以用3.1415926535来表示,然而默认3.14也可以表示圆周率,存储3.1415926535要11位数字,存储3.14只需要3位数字,存储位数少了,存储模型的大小也自然小了。在大模型上就是把FP16的格式量化为INT4格式,将有效位数从16位降到4位。

        Ollama 是基于llama.cpp构建的,llama.cpp是一个高性能的纯 C/C++ 大语言模型推理框架,支持在 CPU 或 GPU 上高效运行,并能够将原始模型进行量化,显著减少模型体积。量化后的模型可以方便地发布和部署,因此 Ollama 默认使用量化后的模型。

        进一步来说,llama.cpp在转换模型时通常将其保存为GGUF格式。这是一种由llama.cpp创始人设计的二进制格式,针对高效推理进行了优化。与 Transformer 原生使用的*.safetensors格式不同,GGUF 格式通常将所有模型数据整合为单一文件。Ollama 原生支持该格式,这也解释了为什么在 Ollama 后端文件中会有一个体积特别大的文件——它本质上就是整个量化后的模型。

        以上就是笔者今天分享的全部内容啦!本教程示例代码可以关注笔者微信公众号:大模型真好玩,并私信大模型训练免费获得。

        要想完全学懂还是需要亲手实践一下,大家可以照着笔者的教程亲手实践一遍。为降低大家学习门槛,笔者与国内主流云平台合作,大家可以通过扫描下图二维码,免费体验H100 GPU 6.5小时的算力。本系列所有实战教程均将在该平台上完成,帮助大家低成本上手实践。

        四、总结

        本期内容详细分享了两种主流本地部署方案:面向生产环境、支持高并发的高性能VLLM部署(适合Linux系统),以及面向个人快速体验、对硬件要求低的轻量级Ollama部署(支持Windows),提供了从环境准备到代码调用的完整实战步骤,并解释了模型量化原理,旨在帮助读者在不同场景下快速搭建自己的大模型服务。

        本地部署的大模型作为万能的api, 可以编写调用脚本进行自然语言处理任务的批处理,将来我们数据处理流程一定会用到。下期分享笔者将为大家讲解大模型请求的各种方式,帮助大家掌握利用大模型api开发各种各样应用的能力,大家敬请期待!大家读完感兴趣可以关注笔者的同名微信公众号:大模型真好玩,获取本系列分享以及其它系列分享的全部内容。

        除大模型训练外,笔者也在同步更新《深入浅出LangChain&LangGraph AI Agent 智能体开发》免费专栏,要说明该专栏适合所有对 LangChain 感兴趣的学习者,无论之前是否接触过 LangChain。该专栏基于笔者在实际项目中的深度使用经验,系统讲解了使用LangChain/LangGraph如何开发智能体,目前已更新 37 讲,并持续补充实战与拓展内容。欢迎感兴趣的同学关注笔者的微信公众号大模型真好玩,每期分享涉及的代码均可在公众号私信:LangChain智能体开发免费获取。

        PS:鉴于后台私信越来越多,我建了一些大模型交流群,大家在日常学习生活工作中遇到的大模型知识和问题都可以在群中分享出来大家一起解决!如果大家想交流大模型知识,可以关注我并回复加群

        本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1185255.shtml

        如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

        相关文章

        盘点全网最火的5款论文降AI神器:AI率狂飙90%怎么办?这几款工具一键去除AI痕迹

        每个大学生都有过这样的经历:熬夜赶工,终于完成了心血之作,提交论文时,心情忐忑。但当AI检测报告一出来,看到那满屏红色的“AIGC疑似率”时,瞬间崩溃。明明是自己写的内容,怎么就被判定为“AI生…

        SCI投稿必备:6款期刊级降AI工具深度测评

        SCI投稿必备:6款期刊级降AI工具深度测评 TL;DR:SCI论文面临Turnitin、GPTZero等英文检测系统,普通降AI工具效果有限。实测6款期刊级工具后,AIGCleaner(英文专用,达标率95%)和嘎嘎降AI&#xff0…

        Day17猜数字游戏

        <!DOCTYPE html> <html lang="en"><head><meta charset="UTF-8"><meta name="viewport" content="width=device-width, initial-scale=1.0">&…

        毕业季来了!5款降AI率工具横评,最低能降到10%以下

        毕业季来了&#xff01;5款降AI率工具横评&#xff0c;最低能降到10%以下 TL;DR&#xff1a;知网AIGC检测系统升级后&#xff0c;传统同义词替换已失效。实测5款降AI率工具&#xff0c;嘎嘎降AI&#xff08;达标率99.26%&#xff09;和比话降AI&#xff08;不达标全额退款&…

        从 0 到 1 落地智能家居 AI 交互:LLaMA Factory Qwen3-4B 微调实战指南

        从 0 到 1 落地智能家居 AI 交互&#xff1a;LLaMA Factory & Qwen3-4B 微调实战指南 在智能家居逐渐普及的今天&#xff0c;自然语言交互已成为许多家庭的控制入口。 你是否也曾遇到这样的场景&#xff1a;对着智能家居发出指令&#xff0c;它却理解错了你的意思&#x…

        AI赋能智汇高校 - 从零掌握大模型本地部署与微调全流程

        网罗开发&#xff08;小红书、快手、视频号同名&#xff09;大家好&#xff0c;我是 展菲&#xff0c;目前在上市企业从事人工智能项目研发管理工作&#xff0c;平时热衷于分享各种编程领域的软硬技能知识以及前沿技术&#xff0c;包括iOS、前端、Harmony OS、Java、Python等方…

        小程序毕设选题推荐:基于nodejs的大众点评美食版小程序美食推荐排行排名【附源码、mysql、文档、调试+代码讲解+全bao等】

        博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

        人群仿真软件:AnyLogic_(6).行为规则设定

        行为规则设定 在AnyLogic中&#xff0c;行为规则设定是人群仿真模型的核心部分。通过设定行为规则&#xff0c;可以模拟不同场景下人群的行为模式&#xff0c;从而更准确地预测和分析人群流动情况。本节将详细介绍如何在AnyLogic中设定行为规则&#xff0c;包括个体行为、群体行…

        Qt PDF模块详解 - 实践

        pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

        保姆级教程:25个降AI提示词大全,手把手教你去AI味

        保姆级教程&#xff1a;25个降AI提示词大全&#xff0c;手把手教你去AI味 TL;DR&#xff1a;本文整理了25个实测有效的降AI提示词&#xff0c;涵盖角色设定法、语义重构法、口语化改写法等多种技巧&#xff0c;配合嘎嘎降AI等专业工具使用&#xff0c;可以把AI率从92%降到5%以下…

        2026国内最新虾青素保健品企业top5推荐!中青年抗衰品牌权威榜单发布,科学配方与品质保障助力健康年轻态 - 品牌推荐2026

        随着社会节奏加快与压力加剧,中青年群体面临氧化衰老加速、亚健康问题凸显的挑战。据《中国居民健康素养监测报告》显示,我国25-55岁人群中,76%存在不同程度的抗氧化需求,而虾青素作为强效抗氧化剂,其市场需求年增…

        保姆级教程:DeepSeek降AI指令怎么写(附20个实用Prompt)

        保姆级教程&#xff1a;DeepSeek降AI指令怎么写&#xff08;附20个实用Prompt&#xff09; TL;DR&#xff1a;DeepSeek可以免费降AI&#xff0c;但需要掌握正确的Prompt写法。本文整理20个实测有效的降AI指令&#xff0c;覆盖句式改写、逻辑重构、口语化转换等场景&#xff0c;…

        AI 变声器在视频本地化中的应用:2026 年最佳工具与选型分析

        视频内容中最具影响力的元素之一便是声音。声音不仅富有情感和目的感&#xff0c;而且具有权威性。随着视频本地化成为全球传播的关键需求&#xff0c;创作者和企业已经不再仅仅依赖字幕的使用。语音变换技术已经成为调整视频内容、适配不同语言、地区和文化观点的重要工具。 …

        云原生时代的Nginx:从反向代理到基础设施核心

        云原生时代的Nginx&#xff1a;从反向代理到基础设施核心 文章目录 云原生时代的Nginx&#xff1a;从反向代理到基础设施核心云原生架构的本质与Nginx的角色转变 服务网格与Nginx&#xff1a;分布式流量治理的实践Nginx Ingress Controller&#xff1a;云原生流量入口的标准实现…

        “吉瓦时代”来临:Meta 核电协议引爆 AI 数据中心能源竞赛

        近期&#xff0c;Meta Platforms 推出全新 “Meta Compute” 计划&#xff0c;围绕 AI 数据中心展开全球性基础设施扩张&#xff0c;并大规模锁定能源供给资源。该计划的核心之一&#xff0c;是通过与核能企业签订长期供电协议&#xff0c;为未来大规模 AI 运算提供稳定、可持续…

        AI智能客服系统重塑医药电商服务生态

        一、行业核心矛盾&#xff1a;专业与效能的双重瓶颈 医药电商兼具专业性与合规性&#xff0c;药品咨询、器械操作、滋补品适配等诉求对专业度要求极高。人工客服专业知识检索精准度不足62%&#xff0c;新员工培训周期1-2个月&#xff1b;用户模糊诉求的意图判断偏差率超23%&am…

        手把手教你把论文AI率从90%降到10%以下

        手把手教你把论文AI率从90%降到10%以下 TL;DR&#xff1a;论文AI率90%不用慌&#xff0c;按照「粗改→精调→工具收尾」三步走&#xff0c;20分钟就能降到10%以下。本文提供完整操作流程和每一步的具体指令&#xff0c;实测有效。如果想省时间&#xff0c;直接用嘎嘎降AI&#…

        Linux 搭建SVN服务

        检查SVN服务版本svnserve --version[rooteason ~]# svnserve --version svnserve&#xff0c;版本 1.7.14 (r1542130)编译于 Sep 30 2020&#xff0c;17:44:04版权所有 (C) 2013 Apache 软件基金会。 此软件包含了许多人的贡献&#xff0c;请查看文件 NOTICE 以获得更多信息。 …

        保姆级教程:DeepSeek降AI指令怎么写才有效

        保姆级教程&#xff1a;DeepSeek降AI指令怎么写才有效 TL;DR&#xff1a;DeepSeek降AI指令的核心是打破AI生成的「规整感」——把长句拆短句、去掉「首先其次」等连接词、加入个人化表达。但DeepSeek只能做粗处理&#xff08;降到50%-60%&#xff09;&#xff0c;要降到10%以下…

        学霸同款8个一键生成论文工具,MBA毕业论文轻松搞定!

        学霸同款8个一键生成论文工具&#xff0c;MBA毕业论文轻松搞定&#xff01; AI 工具如何让论文写作更高效 在当今信息爆炸的时代&#xff0c;MBA 学生和科研工作者面临着越来越高的学术要求。无论是撰写毕业论文还是发表学术文章&#xff0c;内容的原创性、逻辑性和专业性都显得…