Windows 11 + WSL2 + vLLM 本地部署 Qwen3 8B AWQ 指南

Windows 11 + WSL2 + vLLM 本地部署 Qwen3 8B AWQ 指南

目录

  1. 系统要求
  2. 环境准备
  3. WSL2 Ubuntu 安装配置
  4. NVIDIA 驱动配置
  5. CUDA 环境安装
  6. Python 环境搭建
  7. vLLM 安装
  8. Qwen3 8B AWQ 模型下载(国内加速)
  9. 启动 vLLM 服务
  10. API 测试验证
  11. 常见问题解决
  12. 性能优化建议

系统要求

硬件要求

  • 操作系统: Windows 11
  • GPU: NVIDIA 显卡,8GB 显存或以上
  • 内存: 16GB RAM 或以上(建议)
  • 存储: 至少 20GB 可用空间(模型文件约 10GB)

软件要求

  • WSL2: Windows Subsystem for Linux 2
  • Ubuntu: 建议 Ubuntu 22.04 LTS
  • NVIDIA 驱动: 适用于 WSL2 的驱动
  • Python: 3.10 - 3.12
  • CUDA: 12.1+(建议 12.6)

环境准备

1. 启用 WSL2 功能

以管理员身份打开 PowerShell 或 CMD,执行:

# 启用 WSL 功能dism.exe/online/enable-feature/featurename:Microsoft-Windows-Subsystem-Linux/all/norestart# 启用虚拟机平台dism.exe/online/enable-feature/featurename:VirtualMachinePlatform/all/norestart# 设置 WSL2 为默认版本wsl--set-default-version 2

重启系统后,继续安装。

2. 下载并安装 Ubuntu 22.04 LTS

打开 Microsoft Store,搜索 “Ubuntu 22.04 LTS”,点击安装。

或者使用命令行:

# 安装 Ubuntu 22.04wsl--install-d Ubuntu-22.04

安装完成后,启动 Ubuntu,设置用户名和密码。


WSL2 Ubuntu 安装配置

1. 更新系统软件包

# 更新软件包列表sudoaptupdate&&sudoaptupgrade -y# 安装必要工具sudoaptinstall-ywgetcurlgitbuild-essential software-properties-common

2. 配置 WSL2 内存和处理器限制

在 Windows 家目录下创建.wslconfig文件:

# 在 Windows PowerShell 中执行notepad$env:USERPROFILE\.wslconfig

添加以下内容:

[wsl2] memory=12GB processors=4 swap=8GB

重启 WSL 使配置生效:

wsl--shutdown

然后重新启动 Ubuntu。


NVIDIA 驱动配置

1. 在 Windows 上安装 NVIDIA 驱动

确保 Windows 上已安装最新的 NVIDIA 显卡驱动(版本 520+)。

访问 NVIDIA 官方驱动页面 下载驱动。

2. 为 WSL2 安装 NVIDIA CUDA 驱动

访问 NVIDIA WSL2 CUDA 驱动页面,下载适用于 WSL2 的 CUDA 驱动。

或者使用命令行:

# 添加 NVIDIA 包仓库wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.debsudodpkg -i cuda-keyring_1.1-1_all.debsudoapt-getupdate# 安装 NVIDIA 驱动(WSL2 专用)sudoapt-getinstall-y nvidia-cuda-toolkit

3. 验证 GPU 识别

# 检查 nvidia-smi 是否可用nvidia-smi# 预期输出应显示 GPU 信息,包括显存使用情况

如果 nvidia-smi 不可用,尝试:

# 设置 CUDA 路径exportPATH="/usr/local/cuda-12.6/bin:$PATH"exportLD_LIBRARY_PATH="/usr/local/cuda-12.6/lib64:$LD_LIBRARY_PATH"

CUDA 环境安装

1. 安装 CUDA Toolkit

# 添加 CUDA 包仓库wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.debsudodpkg -i cuda-keyring_1.1-1_all.debsudoapt-getupdate# 安装 CUDA 12.6sudoapt-getinstall-y cuda-toolkit-12-6 cuda-libraries-dev-12-6

2. 配置环境变量

编辑~/.bashrc文件:

nano~/.bashrc

在文件末尾添加:

# CUDA 配置exportCUDA_HOME=/usr/local/cuda-12.6exportLD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATHexportPATH=$CUDA_HOME/bin:$PATHexportNVIDIA_VISIBLE_DEVICES=allexportCUDA_VISIBLE_DEVICES=0

使配置生效:

source~/.bashrc

3. 验证 CUDA 安装

# 检查 nvcc 版本nvcc --version# 预期输出:# nvcc: NVIDIA (R) Cuda compiler driver# Cuda compilation tools, release 12.6, V12.6.xx

Python 环境搭建

1. 安装 Python 和 pip

# 安装 Python 3.10+sudoaptinstall-y python3.10 python3-pip python3-venv python3-dev# 升级 pippipinstall--upgrade pip# 设置 pip 镜像源(国内加速)pip configsetglobal.index-url https://pypi.tuna.tsinghua.edu.cn/simple pip configsetglobal.trusted-host pypi.tuna.tsinghua.edu.cn

2. 创建虚拟环境

# 创建项目目录mkdir-p ~/qwen3-deploymentcd~/qwen3-deployment# 创建 Python 虚拟环境python3 -m venv venv# 激活虚拟环境sourcevenv/bin/activate

3. 安装依赖包

# 升级 pippipinstall--upgrade pip# 安装 PyTorch(CUDA 版本)pipinstalltorch==2.7.1+cu126torchvision==0.22.1+cu126torchaudio==2.7.1+cu126 --index-url https://download.pytorch.org/whl/cu126# 安装 transformers(>=4.36.0)pipinstalltransformers>=4.36.0# 安装其他必要包pipinstallaccelerate tiktoken einops scipy

vLLM 安装

方法一:通过 pip 安装(推荐)

# 安装最新稳定版 vLLMpipinstallvllm# 或者安装特定版本pipinstallvllm==0.6.6

方法二:从源码编译安装

# 克隆 vLLM 仓库gitclone https://github.com/vllm-project/vllm.gitcdvllm# 安装构建依赖pipinstall-r requirements-build.txt# 编译安装(需要较长时间,约 15-30 分钟)pipinstall-e.--no-build-isolation

3. 验证 vLLM 安装

python-c"import vllm; print(f'vLLM 版本: {vllm.__version__}')"

预期输出:vLLM 版本: 0.6.6或更高版本。


Qwen3 8B AWQ 模型下载(国内加速)

方案一:Hugging Face 镜像站(推荐)

1. 安装 huggingface_hub
pipinstall-U huggingface_hub
2. 设置镜像环境变量
# 临时设置(每次下载前执行)exportHF_ENDPOINT=https://hf-mirror.com# 永久设置(添加到 ~/.bashrc)echo'export HF_ENDPOINT=https://hf-mirror.com'>>~/.bashrcsource~/.bashrc
3. 下载模型
# 创建模型目录mkdir-p ~/modelscd~/models# 下载 Qwen3-8B-AWQ 模型huggingface-cli download --resume-download Qwen/Qwen3-8B-AWQ --local-dir Qwen3-8B-AWQ# 如果下载失败,尝试使用 HF_TOKEN# export HF_TOKEN=your_token_here# huggingface-cli download --resume-download Qwen/Qwen3-8B-AWQ --local-dir Qwen3-8B-AWQ --token $HF_TOKEN

方案二:ModelScope 镜像站

# 安装 modelscopepipinstallmodelscope# 下载模型from modelscopeimportsnapshot_download model_dir=snapshot_download('qwen/Qwen3-8B-AWQ')

方案三:阿里云盘/百度网盘分享

如果 Hugging Face 下载速度仍然较慢,可以:

  1. 从阿里云盘搜索 “Qwen3-8B-AWQ”
  2. 从百度网盘搜索 “Qwen3-8B-AWQ”
  3. 下载后上传到 WSL2

4. 验证模型文件

# 检查模型文件完整性ls-lh ~/models/Qwen3-8B-AWQ/# 预期看到以下文件:# - config.json# - modeling.pt / modeling.safetensors# - tokenizer.json# - generation_config.json# - awq_model-00001-of-00002.safetensors# - awq_model-00002-of-00002.safetensors

启动 vLLM 服务

1. 创建启动脚本

nano~/qwen3-deployment/start_vllm.sh

添加以下内容:

#!/bin/bash# vLLM 服务启动脚本# 激活虚拟环境source~/qwen3-deployment/venv/bin/activate# 设置环境变量exportCUDA_VISIBLE_DEVICES=0exportVLLM_WORKER_MULTIPROC_METHOD=spawn# 启动 vLLM 服务python -m vllm.entrypoints.openai.api_server\--model ~/models/Qwen3-8B-AWQ\--host0.0.0.0\--port8000\--trust-remote-code\--quantization awq\--dtype half\--gpu-memory-utilization0.85\--max-model-len4096\--tensor-parallel-size1\--enforce-eager

2. 设置执行权限

chmod+x ~/qwen3-deployment/start_vllm.sh

3. 启动服务

cd~/qwen3-deployment ./start_vllm.sh

4. 首次启动说明

首次启动时,vLLM 会:

  1. 加载模型权重(约 5-10 分钟)
  2. 编译优化内核(约 2-5 分钟)
  3. 完成后显示服务就绪信息

5. 后台运行(可选)

如果需要后台运行:

# 使用 nohupnohup./start_vllm.sh>vllm.log2>&1&# 或使用 screensudoaptinstall-yscreenscreen-S vllm ./start_vllm.sh# 按 Ctrl+A+D 分离 screen# 重新连接: screen -r vllm

API 测试验证

1. 检查服务状态

# 检查服务是否运行curlhttp://localhost:8000/health# 预期输出:{"status":"ok"}

2. OpenAI 兼容 API 测试

使用 curl 测试
curl-X POST"http://localhost:8000/v1/chat/completions"\-H"Content-Type: application/json"\-d'{ "model": "Qwen/Qwen3-8B-AWQ", "messages": [ { "role": "user", "content": "你好,请介绍一下你自己" } ], "max_tokens": 512, "temperature": 0.7, "top_p": 0.9 }'
使用 Python 测试
importopenai client=openai.OpenAI(base_url="http://localhost:8000/v1",api_key="not-needed")response=client.chat.completions.create(model="Qwen/Qwen3-8B-AWQ",messages=[{"role":"user","content":"你好,请介绍一下你自己"}],max_tokens=512,temperature=0.7)print(response.choices[0].message.content)
安装测试依赖
pipinstallopenai

3. 流式输出测试

curl-X POST"http://localhost:8000/v1/chat/completions"\-H"Content-Type: application/json"\-d'{ "model": "Qwen/Qwen3-8B-AWQ", "messages": [ { "role": "user", "content": "写一首关于春天的诗" } ], "max_tokens": 512, "stream": true }'

4. 模型信息查询

curlhttp://localhost:8000/v1/models

常见问题解决

问题 1:NVIDIA 驱动未识别

错误信息nvidia-smi: command not found

解决方法

# 重新安装 NVIDIA 驱动sudoaptupdatesudoaptinstall-y nvidia-driver-535+# 重启 WSLwsl --shutdown

问题 2:CUDA 版本不匹配

错误信息CUDA error: no kernel image is available for architecture

解决方法

# 检查 CUDA 版本nvcc --version nvidia-smi# 确保 PyTorch 版本与 CUDA 版本匹配# CUDA 12.6 对应 PyTorch 2.7.1pipinstalltorch==2.7.1+cu126torchvision==0.22.1+cu126 -f https://download.pytorch.org/whl/cu126.html

问题 3:显存不足

错误信息CUDA out of memory

解决方法

# 降低 gpu-memory-utilization--gpu-memory-utilization0.7# 降低 max-model-len--max-model-len2048# 启用量化--quantization awq

问题 4:模型下载失败

错误信息ConnectionError或下载速度极慢

解决方法

# 方案 1:使用镜像站exportHF_ENDPOINT=https://hf-mirror.com huggingface-cli download --resume-download Qwen/Qwen3-8B-AWQ --local-dir ~/models/Qwen3-8B-AWQ# 方案 2:使用 aria2 加速sudoaptinstall-y aria2 aria2c -x8-s8"https://huggingface.co/Qwen/Qwen3-8B-AWQ/resolve/main/awq_model-00001-of-00002.safetensors"-d ~/models/Qwen3-8B-AWQ -o awq_model-00001-of-00002.safetensors# 方案 3:使用代理exportHTTPS_PROXY="http://127.0.0.1:7890"exportHTTP_PROXY="http://127.0.0.1:7890"

问题 5:vLLM 启动失败

错误信息ImportError: libcuda.so.1 cannot open shared object file

解决方法

# 查找 libcuda.sosudofind/usr -name"libcuda.so*"# 创建软链接sudoln-sf /usr/lib/wsl/lib/libcuda.so.1 /usr/lib/libcuda.so.1# 或者添加到 LD_LIBRARY_PATHexportLD_LIBRARY_PATH=/usr/lib/wsl/lib:$LD_LIBRARY_PATH

问题 6:WSL2 内存占用过高

错误信息:系统变卡,内存不足

解决方法

# 在 Windows 上编辑 .wslconfignotepad$env:USERPROFILE\.wslconfig
[wsl2] memory=8GB processors=4 swap=4GB

然后重启 WSL。

问题 7:端口不通

错误信息curl: (7) Failed to connect to localhost port 8000

解决方法

# 检查服务是否运行psaux|grepvllm# 检查端口监听netstat-tuln|grep8000# 关闭防火墙(如果需要)sudoufw disable# 或者开放端口sudoufw allow8000

问题 8:AWQ 量化支持问题

错误信息ValueError: AWQ is not supported on this hardware

解决方法

# 确保使用正确版本的 vLLMpipinstallvllm>=0.6.0# 检查 CUDA 版本nvcc --version# 重新编译 vLLMcdvllm pipinstall-e.--no-build-isolation

性能优化建议

1. 内存和显存优化

# 降低显存占用--gpu-memory-utilization0.8\--max-model-len4096\# 使用更小的批处理大小--max-batch-size32\

2. 吞吐量优化

# 启用多批处理--enable-auto-chunking\--max-num-batched-tokens4096\

3. 延迟优化

# 降低延迟--enforce-eager\--disable-log-requests\

4. 完整优化启动脚本

#!/bin/bashsource~/qwen3-deployment/venv/bin/activateexportCUDA_VISIBLE_DEVICES=0python -m vllm.entrypoints.openai.api_server\--model ~/models/Qwen3-8B-AWQ\--host0.0.0.0\--port8000\--trust-remote-code\--quantization awq\--dtype half\--gpu-memory-utilization0.85\--max-model-len4096\--tensor-parallel-size1\--enforce-eager\--disable-log-requests\--max-batch-size64\--max-num-batched-tokens4096

监控和维护

1. GPU 监控

# 实时监控 GPU 使用情况watch-n1nvidia-smi# 查看显存使用nvidia-smi -q -d MEMORY

2. 服务日志

# 查看服务日志tail-f ~/qwen3-deployment/vllm.log

3. API 性能监控

# 查看 API 延迟统计curlhttp://localhost:8000/stats

卸载和清理

1. 停止服务

# 查看进程psaux|grepvllm# 停止进程kill<PID>

2. 清理环境

# 删除虚拟环境rm-rf ~/qwen3-deployment/venv# 删除模型文件(如果需要)rm-rf ~/models/Qwen3-8B-AWQ# 卸载 vLLMpip uninstall vllm

参考资料

  • vLLM 官方文档
  • Qwen3 官方文档
  • Hugging Face 镜像站
  • NVIDIA WSL2 驱动
  • PyTorch CUDA 版本

附录:常用命令速查

# WSL 相关wsl --shutdown# 关闭 WSLwsl --list# 列出 WSL 发行版wsl -d Ubuntu-22.04# 启动特定发行版# GPU 相关nvidia-smi# 查看 GPU 状态nvcc --version# 查看 CUDA 版本# Python 相关pipinstall<package># 安装包pip list# 列出已安装包python -m venv venv# 创建虚拟环境# vLLM 相关python -m vllm.entrypoints.openai.api_server --help# 查看帮助

注意:8GB 显存运行 Qwen3 8B AWQ 模型时,建议:

  • 设置gpu-memory-utilization为 0.8-0.85
  • 设置max-model-len为 2048-4096
  • 避免同时运行其他 GPU 密集型应用

如有问题,请参考常见问题解决部分或提交 Issue。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1179787.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

导师严选!专科生必看8款AI论文平台测评

导师严选&#xff01;专科生必看8款AI论文平台测评 2026年专科生论文写作工具测评&#xff1a;为何需要这份榜单&#xff1f; 随着AI技术在学术领域的广泛应用&#xff0c;越来越多的专科生开始借助AI平台提升论文写作效率。然而&#xff0c;面对市场上五花八门的AI论文工具&am…

基于51/STM32单片机智能水杯保温杯恒温温度控制防干烧水质设计(设计源文件+万字报告+讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码

STM32-S264-水量监测保温常温温度灯光指示定时提醒定时开关加热防干烧参数可设OLED屏声光提醒(无线方式选择)STM32-S264N无无线-无APP板(硬件操作详细): STM32-S264B蓝牙无线-APP版: STM32-S264W-WIFI无线-APP版: STM32-S264CAN-视频监控WIFI无线-APP版: STM32-S264I-云平台-AP…

文明十字路口的协同创生:《人类命运共同体》文明逻辑与“AI元人文”构想的思想共鸣

文明十字路口的协同创生:《人类命运共同体》文明逻辑与“AI元人文”构想的思想共鸣 在人类文明发展的关键节点,两种看似不同维度的思想探索——沈湘平教授对“构建人类命运共同体”的哲学奠基与岐金兰的“AI元人文”…

【LGR-262-Div.2】洛谷 1 月月赛 III 题解

感觉都挺典的LG14987 全等给定 \(a,b,c,d\),问能否将这四个整数填入 \(2 \times 2\) 的矩阵中,使得每一行所有数之和都相等,且每一列所有数之和也都相等。\(a,b,c,d\) 的情况一共排列方式只有 \(3\) 种,全部计算即…

2026国产制动卡钳优质产品推荐榜全场景适配 - 改装小龙

2026国产制动卡钳优质产品推荐榜全场景适配2026国产制动卡钳优质产品推荐榜全场景适配 一、行业背景与筛选维度说明 据《2025中国汽车改装行业白皮书》数据显示,国内汽车改装市场规模已突破1800亿元,其中制动系统改装…

数据清洗:大数据领域的必备技能

数据清洗&#xff1a;大数据领域的必备技能 1. 引入与连接&#xff1a;数据世界的"清洁革命" “2.3亿美元的错误&#xff1a;一个小数点引发的灾难” 1999年&#xff0c;NASA的火星气候轨道器在进入火星大气层时意外解体。调查结果令人震惊&#xff1a;洛克希德马丁公…

致敬:国家有突出贡献电影艺术家、中华人民共和国电影电视艺术家大典入选者陶玉玲

国家有突出贡献电影艺术家、《中国电影电视艺术家辞典》首批入选者、中华影星、中国电影百年百位优秀演员、大众电影百花奖终身成就奖和中国电影表演艺术学会金凤凰奖终身成就奖获得者、《中华人民共和国电影电视艺术家大典》入选者陶玉玲女士1月15日晚在北京逝世&#xff0c;享…

提示工程架构师实操指南:Agentic AI在医疗健康领域从0到1落地全流程

提示工程架构师实操指南&#xff1a;Agentic AI在医疗健康领域从0到1落地全流程 标题选项 《医疗AI落地必修课&#xff1a;Agentic系统设计与提示工程实战》《从需求到部署&#xff1a;用Agentic AI构建智能医疗助手的全流程指南》《提示工程Agentic AI&#xff1a;医疗健康领域…

STM32单片机语音识别智能家居系统99X(设计源文件+万字报告+讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码

STM32单片机语音识别智能家居系统99X产品功能描述&#xff1a; 本系统由STM32F103C8T6单片机核心板、1.44寸TFT彩屏、&#xff08;无线蓝牙/WIFI模块-可选&#xff09;、智能语音识别&#xff08;SNR6812&#xff09;电路、DHT11温湿度检测电路、光照采集电路、USB高亮灯、风扇…

Flash了解学习

虽然flash已经不再被支持,但还是有些游戏使用Flash,我目前接触到以前QQ空间的一些游戏,就是用Flash做的。当我研究这款 游戏时,我了解到了flash的一些知识,现在总结如下:1、一些浏览器里请求的swf文件,如果只是…

Storm资源调度策略:提升大数据处理集群效率

Storm资源调度策略&#xff1a;提升大数据处理集群效率 关键词&#xff1a;Storm、资源调度、大数据处理、集群效率、反亲和性调度、动态资源调整、拓扑结构 摘要&#xff1a;在大数据实时处理场景中&#xff0c;Storm作为经典的流计算框架&#xff0c;其资源调度策略直接影响集…

2026年真空防爆烘箱厂家实力推荐:专业定制工业级防爆烘箱,高效安全烘烤设备源头工厂精选 - 企业推荐官【官方】

2026年真空防爆烘箱厂家实力推荐:专业定制工业级防爆烘箱,高效安全烘烤设备源头工厂精选 在新能源、高端化工、航空航天及新材料等战略性新兴产业高速发展的背景下,工业生产对热处理工艺的安全性、精密性与可靠性提…

Qt UDP通信:缓冲区大小设置技巧

概要 // 设置接收缓冲区为 2MB udpSocket.setSocketOption(QAbstractSocket::ReceiveBufferSizeSocketOption, 2 * 1024 * 1024); QVariant rcvBuf udpSocket.socketOption(QAbstractSocket::ReceiveBufferSizeSocketOption); 1.Qt UDP通信&#xff1a;设置缓冲区大小技巧 …

sdkman同时存在多个jdk的方式

项目级自动切换(强烈推荐) 进入旧项目目录:cd legacy-project sdk use java 8.0.402-tem然后执行:sdk env init会生成一个:.sdkmanrc 内容类似:java=8.0.402-tem 以后你只要:cd legacy-project sdk env SDKMAN …

2026年10款免费降ai率工具实测:还有免费ai查重!从降ai到aigc免费降重,总有一款适合你

降ai这件事&#xff0c;现在绝对是每个写论文的人心里的“刺”。2025年了&#xff0c;查重系统升级贼快&#xff0c;稍微不注意&#xff0c;你的心血就会被判定为机器生成。市面上号称能免费降ai率的神器五花八门&#xff0c;但说实话&#xff0c;很多都是坑。 为了搞定论文降…

论文AIGC率高怎么降?2026最新10个免费降ai率工具测评(附3个免费降低ai率方法)

又到了一年一度被毕业论文支配的恐惧时刻&#xff0c;要我说今年比以往更刺激。以前是愁论文写不出来&#xff0c;现在是好不容易用AI辅助搞定了初稿&#xff0c;结果检测后一片刺眼的红&#xff0c;直接打回重做&#xff0c;功夫全白费&#xff01; 现在学校对论文AIGC基本是…

英特尔掌门陈立武力荐极摩客,国产迷你主机凭什么?

CES 2026&#xff0c;Intel正式推出代号为“Panther Lake”的全新酷睿Ultra 3系列处理器。作为Intel首款采用18A先进制程工艺的消费级产品&#xff0c;该系列被视为企业重塑市场竞争力的关键之作。桌面AI超算领跑者极摩客&#xff08;GMKtec&#xff09;携第二代旗舰产品EVO-T2…

救命神器!10款一键生成论文工具测评:研究生开题报告全攻略

救命神器&#xff01;10款一键生成论文工具测评&#xff1a;研究生开题报告全攻略 学术写作新选择&#xff1a;2026年10款一键生成论文工具深度测评 在科研日益数字化的今天&#xff0c;研究生群体面临的研究任务愈发繁重&#xff0c;从开题报告到论文撰写&#xff0c;每一步都…

论文AIGC率高怎么降?2026最新10个免费降ai率工具测评(附不花一分钱降ai率技巧)

又到了一年一度被毕业论文支配的恐惧时刻&#xff0c;要我说今年比以往更刺激。以前是愁论文写不出来&#xff0c;现在是好不容易用AI辅助搞定了初稿&#xff0c;结果检测后一片刺眼的红&#xff0c;直接打回重做&#xff0c;功夫全白费&#xff01; 现在学校对论文AIGC基本是…