Qwen3-4B联邦学习实验:云端多节点协同,按小时计费

Qwen3-4B联邦学习实验:云端多节点协同,按小时计费

你是一位AI研究员,正准备开展一项基于Qwen3-4B大模型的联邦学习实验。你的目标是让多个Qwen3-4B实例在不同节点上协同训练,在保护数据隐私的前提下提升整体模型性能。但现实很骨感——学校本地计算集群排队严重,资源紧张,部署复杂,组网困难,动辄等待几天才能跑一次实验。

有没有一种方式,能让你快速启动多个GPU实例、一键部署Qwen3-4B模型、自动构建通信网络,并按实际使用时间精准计费?答案是肯定的。借助CSDN星图提供的预置Qwen3-4B联邦学习镜像 + 弹性云计算资源,你可以像搭积木一样,在几小时内完成原本需要一周准备的多节点联邦学习环境搭建。

本文将带你从零开始,完整走通“云端多节点Qwen3-4B联邦学习实验”的全流程。无论你是刚接触联邦学习的新手,还是被本地资源卡住进度的研究者,都能通过这篇文章:

  • 理解联邦学习的核心机制与Qwen3-4B为何适合做分布式训练
  • 掌握如何利用云平台快速创建多个带GPU的Qwen3-4B节点
  • 学会配置节点间通信、数据切片和参数聚合策略
  • 实现一个可运行、可扩展、可对外暴露服务的联邦学习系统
  • 了解关键参数调优技巧和常见问题解决方案

整个过程无需手动安装CUDA、PyTorch或任何依赖库,所有环境均已预装在镜像中。你只需要专注实验设计和结果分析,真正实现“开箱即用,按需付费,快速迭代”。


1. 为什么选择Qwen3-4B做联邦学习?

联邦学习(Federated Learning)是一种去中心化的机器学习范式,允许多个参与方在不共享原始数据的情况下联合训练一个全局模型。它特别适用于医疗、金融、物联网等对数据隐私要求极高的场景。

而Qwen3-4B作为阿里通义千问系列中的轻量级大模型,凭借其出色的推理能力和较小的参数规模,成为联邦学习的理想候选者。下面我们从三个维度来解析它的优势。

1.1 Qwen3-4B的技术亮点:小身材,大智慧

Qwen3-4B是一个仅有40亿参数的大语言模型,但它在多个权威评测中表现惊人。例如,在聚焦数学能力的AIME25测评中,Qwen3-4B-Thinking版本取得了81.3分的高分,接近某些30B级别中型模型的表现。这意味着它具备强大的逻辑推理和问题解决能力。

更重要的是,这个模型经过专门优化,支持长上下文理解指令遵循代码生成以及工具调用等多种高级功能。对于联邦学习任务来说,这些能力意味着每个客户端不仅能独立处理本地任务,还能理解复杂的训练协议并执行精确的梯度更新。

相比动辄上百GB显存需求的百亿级大模型,Qwen3-4B可以在单张消费级GPU(如RTX 3090/4090)上流畅运行,显存占用通常控制在20GB以内(FP16精度),非常适合部署在多个低成本节点上进行分布式协作。

1.2 联邦学习为何需要轻量大模型?

传统联邦学习多用于图像分类或简单文本任务,使用的往往是ResNet、LSTM这类小型模型。但随着大模型时代的到来,越来越多研究希望将LLM引入联邦框架,以实现更智能的边缘AI服务。

然而,直接使用百亿参数模型(如LLaMA-70B)做联邦学习几乎不可行:

  • 单次前向传播就需要超过80GB显存
  • 梯度传输带宽消耗巨大
  • 客户端设备难以承载

Qwen3-4B正好填补了这一空白。它足够强大,能完成复杂语义理解和生成任务;又足够轻便,可在普通GPU上高效运行。这使得研究人员可以专注于算法设计而非硬件适配。

此外,Qwen3-4B提供了两个主要变体:

  • Qwen3-4B-Instruct-2507:擅长指令执行,适合标准化任务
  • Qwen3-4B-Thinking-2507:具备链式思维(Chain-of-Thought)能力,适合需要逐步推理的任务

你可以根据实验需求灵活选择基础模型版本。

1.3 云端弹性资源如何破解科研瓶颈?

很多高校实验室面临这样的困境:高性能GPU集群供不应求,提交任务后要排队数天;即便拿到资源,还要花大量时间配置环境、调试网络、解决兼容性问题。

而在云端,这一切都可以改变。CSDN星图平台提供了一键部署的Qwen3-4B联邦学习专用镜像,内置以下组件:

  • CUDA 12.1 + PyTorch 2.3
  • Transformers 4.40 + Accelerate
  • FedLab、Flower 或 PySyft 等主流联邦学习框架(可选)
  • SSH/NAS/Redis/MQTT 支持多节点通信
  • Jupyter Lab + VS Code Server 远程开发环境

你只需点击几下,就能同时启动5个、10个甚至更多带有Qwen3-4B模型的GPU实例,并通过预设脚本自动建立P2P通信网络。实验结束后关闭实例,费用按小时结算,避免资源浪费。

⚠️ 注意:由于联邦学习涉及多节点协同,建议每个节点至少配备1张24GB显存以上的GPU(如A10、RTX 4090),确保模型加载和梯度计算稳定。


2. 快速部署:一键启动多节点Qwen3-4B集群

现在我们进入实操阶段。假设你要做一个包含5个客户端的联邦学习实验,每个客户端运行一个Qwen3-4B-Instruct-2507模型,中央服务器负责聚合梯度更新。我们将分步演示如何在CSDN星图平台上完成这一部署。

2.1 创建主控节点(Server)

登录CSDN星图平台后,进入“镜像广场”,搜索“Qwen3-4B 联邦学习”关键词,找到官方预置镜像qwen3-4b-federated-v2.0。该镜像已集成常见联邦学习库和自动化脚本。

点击“立即部署”,进入配置页面:

  • 实例名称fl-server
  • 实例类型:GPU实例(推荐 A10 × 1)
  • 系统盘:100GB SSD
  • 是否公开服务端口:勾选,开放8080端口用于监控
  • 启动命令:留空(使用镜像默认入口)

确认后点击“创建”。大约2分钟后,实例状态变为“运行中”。

通过SSH连接到该实例:

ssh root@<server_ip> -p 22

进入工作目录查看预置文件:

cd /workspace/fed_qwen3 ls

你应该能看到如下结构:

config/ scripts/ models/ data/ requirements.txt start_server.sh

其中start_server.sh是启动联邦服务器的脚本。

2.2 批量创建客户端节点(Clients)

联邦学习的核心在于多客户端协同。为了节省时间,平台支持“批量创建”功能。

再次点击“部署新实例”,这次设置:

  • 实例名称前缀fl-client-
  • 数量:5
  • 实例类型:GPU实例(RTX 4090 × 1)
  • 系统盘:80GB SSD
  • 是否公开端口:否
  • 自定义脚本:填入初始化脚本(见下文)

点击“批量创建”,约5分钟内5个客户端全部上线。

每个客户端都会自动执行以下初始化脚本:

#!/bin/bash export CLIENT_ID=$(hostname | awk -F'-' '{print $3}') echo "当前客户端ID: $CLIENT_ID" # 自动注册到主服务器 sed -i "s/SERVER_IP=.*/SERVER_IP=192.168.1.100/" /workspace/fed_qwen3/config/client.conf sed -i "s/CLIENT_ID=.*/CLIENT_ID=$CLIENT_ID/" /workspace/fed_qwen3/config/client.conf # 启动客户端守护进程 nohup bash /workspace/fed_qwen3/scripts/start_client.sh > client.log 2>&1 &

这里假设主服务器IP为192.168.1.100(实际应替换为真实公网IP或内网地址)。脚本会自动提取主机名中的编号作为客户端ID,并写入配置文件。

2.3 配置节点通信与身份认证

为了让各节点安全通信,我们需要设置基本的身份验证机制。

在主服务器上编辑/workspace/fed_qwen3/config/server.conf

[server] host = 0.0.0.0 port = 5000 allowed_clients = fl-client-0,fl-client-1,fl-client-2,fl-client-3,fl-client-4 [security] auth_token = your_secret_token_2025 enable_tls = false ; 测试环境可关闭TLS

同时在每个客户端的client.conf中填写对应token:

[client] server_host = 192.168.1.100 server_port = 5000 client_id = fl-client-0 auth_token = your_secret_token_2025

建议使用平台提供的“密钥管理”功能统一分发token,避免明文泄露。

2.4 启动联邦学习主服务

回到主服务器,启动联邦协调器:

cd /workspace/fed_qwen3 bash start_server.sh

该脚本会执行以下操作:

  1. 加载预训练的Qwen3-4B-Instruct-2507模型作为初始全局模型
  2. 初始化参数聚合器(默认采用FedAvg算法)
  3. 启动gRPC服务监听来自客户端的连接请求
  4. 开启Web仪表盘(http://<server_ip>:8080)

你可以在浏览器访问该地址,查看当前在线客户端、训练轮次、准确率变化等信息。

日志输出示例:

[INFO] Starting federated server on port 5000... [INFO] Loading base model: Qwen/Qwen3-4B-Instruct-2507 [INFO] Model loaded successfully with 4.0B parameters. [INFO] Waiting for 5 clients to connect...

当所有5个客户端成功注册后,系统即可开始第一轮训练。


3. 实验设计:构建可复现的联邦学习流程

有了多节点环境,接下来就是设计具体的联邦学习实验。我们将以“跨机构医学问答模型训练”为例,展示完整流程。

3.1 数据准备与本地切分

联邦学习的前提是数据分布在各个客户端且不能集中。我们模拟5家医院各自拥有部分医学对话数据。

在主服务器上准备原始数据集:

cd /workspace/fed_qwen3/data wget https://example.com/medical_qa_dataset.jsonl.gz gunzip medical_qa_dataset.jsonl.gz

然后运行切分脚本:

# split_data.py import json import random with open("medical_qa_dataset.jsonl", "r") as f: lines = [json.loads(l) for l in f] random.shuffle(lines) for i in range(5): subset = lines[i::5] # 每隔5条取一条 with open(f"client_{i}.jsonl", "w") as f: for item in subset: f.write(json.dumps(item, ensure_ascii=False) + "\n")

将生成的5个子集分别上传到对应客户端的/workspace/fed_qwen3/data/目录。

每个客户端的数据分布略有差异,模拟真实场景下的非独立同分布(Non-IID)情况。

3.2 定义本地训练逻辑

联邦学习的成功很大程度取决于本地训练的质量。我们在每个客户端上定义统一的微调流程。

编辑/workspace/fed_qwen3/scripts/local_train.py

from transformers import TrainingArguments, Trainer from peft import LoraConfig, get_peft_model from qwen3 import Qwen3ForCausalLM, Qwen3Tokenizer def train_local_model(model, tokenizer, train_data, client_id): # 使用LoRA进行高效微调 lora_config = LoraConfig( r=8, lora_alpha=16, target_modules=["q_proj", "k_proj", "v_proj"], lora_dropout=0.05, bias="none", task_type="CAUSAL_LM" ) model = get_peft_model(model, lora_config) training_args = TrainingArguments( output_dir=f"./checkpoints_{client_id}", num_train_epochs=2, per_device_train_batch_size=2, gradient_accumulation_steps=4, learning_rate=2e-5, save_steps=100, logging_steps=10, fp16=True, remove_unused_columns=False, ) trainer = Trainer( model=model, args=training_args, train_dataset=train_data, tokenizer=tokenizer, ) trainer.train() return model

这样既能保证训练一致性,又能防止全参数微调带来的显存压力。

3.3 设计联邦聚合策略

默认情况下,我们使用经典的FedAvg算法:服务器收集所有客户端上传的模型增量(ΔW),按样本数量加权平均后更新全局模型。

但在某些场景下,可能需要更智能的聚合方式。例如:

  • FedProx:加入近端项,缓解Non-IID导致的漂移
  • FedOpt:使用自适应优化器(如Adam)更新全局模型
  • Trimmed Mean:剔除异常梯度,增强鲁棒性

修改服务器端聚合逻辑:

# aggregator.py def fedavg_aggregate(local_weights, client_samples): total_samples = sum(client_samples) aggregated = {} for key in local_weights[0].keys(): aggregated[key] = sum(w[key] * n / total_samples for w, n in zip(local_weights, client_samples)) return aggregated

你也可以通过配置文件切换算法:

[training] aggregation_method = fedavg ; 可选: fedprox, fedopt, trimmed_mean communication_rounds = 20 clients_per_round = 5 ; 每轮参与客户端数

3.4 设置评估与监控机制

为了让实验结果可信,必须建立统一的评估标准。

在每个客户端保留10%数据作为本地测试集,并在每轮训练后上报指标:

# evaluation.py def evaluate_model(model, test_data, tokenizer): predictions = [] references = [] for item in test_data: inputs = tokenizer(item["question"], return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=200) pred = tokenizer.decode(outputs[0], skip_special_tokens=True) predictions.append(pred) references.append(item["answer"]) # 计算ROUGE-L和Exact Match rouge_score = compute_rouge(predictions, references) em_score = compute_exact_match(predictions, references) return {"rouge_l": rouge_score, "em": em_score}

服务器端汇总所有客户端的评估结果,绘制趋势图,帮助判断是否收敛。


4. 参数调优与性能优化实战

部署完成后,你会发现并非每次实验都能顺利收敛。以下是我在多次实践中总结的关键调参经验。

4.1 关键超参数影响分析

参数推荐值影响说明
本地训练epoch数1~3太少导致欠拟合,太多引发过拟合
批大小(batch size)2~4(配合梯度累积)显存受限时优先增加accumulation steps
学习率1e-5 ~ 5e-5LoRA微调建议较低学习率
通信轮数(rounds)10~50视数据分布和收敛速度调整
客户端采样比例100%(小规模)大规模系统可随机抽样

💡 提示:首次实验建议从小规模开始,先跑2轮验证流程通畅性,再逐步扩大。

4.2 常见问题与解决方案

问题1:客户端无法连接服务器

检查点:

  • 防火墙是否放行5000端口
  • auth_token是否一致
  • 客户端脚本中server_ip是否正确

可通过telnet <server_ip> 5000测试连通性。

问题2:显存溢出(OOM)

解决方案:

  • 改用Int8量化模型:Qwen3-4B-Instruct-2507-Int8
  • 启用accelerate的device_map="auto"自动分片
  • 减小max_seq_length至1024或512

问题3:训练不收敛

可能原因:

  • 数据分布差异过大(Non-IID)
  • 学习率过高
  • 聚合频率太低

尝试:

  • 增加本地训练epoch
  • 使用FedProx正则化
  • 添加差分隐私噪声(DP-SGD)

4.3 性能优化技巧

  1. 启用混合精度训练

    training_args = TrainingArguments(fp16=True, ...)

    可减少显存占用约40%,加速训练。

  2. 使用Flash AttentionQwen3支持Flash Attention-2,大幅提升长序列处理效率:

    pip install flash-attn --no-build-isolation

    在模型加载时启用:

    model = Qwen3ForCausalLM.from_pretrained(..., use_flash_attention_2=True)
  3. 缓存数据集到内存对于小规模数据,可将Dataset转换为MemoryDataset,避免I/O瓶颈。

  4. 异步通信模式允许部分客户端延迟上传,提高系统容错性。


5. 总结

联邦学习正在成为大模型时代保障数据隐私的重要技术路径。而Qwen3-4B凭借其“小而强”的特性,为科研人员提供了一个理想的实验平台。结合云端弹性计算资源,我们可以彻底摆脱本地集群的限制,实现快速、灵活、低成本的多节点协同训练。

  • 现在就可以试试:使用CSDN星图的一键部署功能,几分钟内搭建起属于你的Qwen3-4B联邦学习集群
  • 实测很稳定:预置镜像经过充分测试,涵盖常见联邦学习框架和优化组件
  • 按需付费更经济:实验期间开启,结束即停,避免长期占用昂贵GPU资源
  • 易于扩展:从5节点到50节点,只需调整部署数量,核心逻辑不变
  • 科研友好:支持Jupyter远程开发、日志导出、模型下载,方便论文写作与复现

无论你是想验证新的聚合算法、探索Non-IID场景下的优化策略,还是构建垂直领域的分布式智能系统,这套方案都能为你提供坚实的基础支撑。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1181336.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AutoGen Studio高级应用:Qwen3-4B-Instruct模型参数调优指南

AutoGen Studio高级应用&#xff1a;Qwen3-4B-Instruct模型参数调优指南 AutoGen Studio是一个低代码界面&#xff0c;旨在帮助开发者快速构建AI代理、通过工具增强其能力、将多个代理组合成协作团队&#xff0c;并与之交互以完成复杂任务。它基于AutoGen AgentChat——一个用…

Logoer 使用教程:打造专属 macOS 菜单栏的完整指南

Logoer 使用教程&#xff1a;打造专属 macOS 菜单栏的完整指南 【免费下载链接】Logoer Change the style of the Apple logo in macOS menu bar / 更换macOS菜单栏苹果Logo样式的小工具 项目地址: https://gitcode.com/gh_mirrors/lo/Logoer 想让你的 macOS 菜单栏与众…

Lance存储格式:解决大规模数据存储的性能瓶颈

Lance存储格式&#xff1a;解决大规模数据存储的性能瓶颈 【免费下载链接】lance lancedb/lance: 一个基于 Go 的分布式数据库管理系统&#xff0c;用于管理大量结构化数据。适合用于需要存储和管理大量结构化数据的项目&#xff0c;可以实现高性能、高可用性的数据库服务。 …

PCSX2模拟器终极使用指南:从零开始快速掌握PS2游戏体验

PCSX2模拟器终极使用指南&#xff1a;从零开始快速掌握PS2游戏体验 【免费下载链接】pcsx2 PCSX2 - The Playstation 2 Emulator 项目地址: https://gitcode.com/GitHub_Trending/pc/pcsx2 还在为如何玩转PS2经典游戏而烦恼吗&#xff1f;PCSX2模拟器为你打开通往怀旧游…

AI手势识别支持Docker部署吗?容器化迁移实战

AI手势识别支持Docker部署吗&#xff1f;容器化迁移实战 1. 引言&#xff1a;AI手势识别的工程落地挑战 随着人机交互技术的不断发展&#xff0c;AI手势识别正逐步从实验室走向实际应用场景。无论是智能驾驶中的非接触控制、AR/VR中的自然交互&#xff0c;还是工业自动化中的…

AI绘画低成本方案:没显卡别急,2块钱试效果

AI绘画低成本方案&#xff1a;没显卡别急&#xff0c;2块钱试效果 你是不是也遇到过这种情况&#xff1f;作为淘宝店主&#xff0c;想给自家商品拍点高级感十足的主图、详情页&#xff0c;结果一问代运营公司&#xff0c;单张AI生成图报价20元起步&#xff0c;做一套图下来几百…

FreeRTOS+FAT嵌入式文件系统完整实战指南

FreeRTOSFAT嵌入式文件系统完整实战指南 【免费下载链接】FreeRTOS Classic FreeRTOS distribution. Started as Git clone of FreeRTOS SourceForge SVN repo. Submodules the kernel. 项目地址: https://gitcode.com/GitHub_Trending/fr/FreeRTOS FreeRTOSFAT作为专为…

COLMAP三维重建实战指南:从图像到精准三维模型

COLMAP三维重建实战指南&#xff1a;从图像到精准三维模型 【免费下载链接】colmap COLMAP - Structure-from-Motion and Multi-View Stereo 项目地址: https://gitcode.com/GitHub_Trending/co/colmap 在数字视觉时代&#xff0c;如何将普通照片转化为精确的三维模型&a…

Quansheng UV-K5电路设计工程解析:从设计理念到实现路径

Quansheng UV-K5电路设计工程解析&#xff1a;从设计理念到实现路径 【免费下载链接】Quansheng_UV-K5_PCB_R51-V1.4_PCB_Reversing_Rev._0.9 Reverse engineering of the Quansheng UV-K5 V1.4 PCB in KiCad 7 项目地址: https://gitcode.com/GitHub_Trending/qu/Quansheng_…

3步掌握SCAN无监督图像分类:STL-10实战指南

3步掌握SCAN无监督图像分类&#xff1a;STL-10实战指南 【免费下载链接】Unsupervised-Classification SCAN: Learning to Classify Images without Labels, incl. SimCLR. [ECCV 2020] 项目地址: https://gitcode.com/gh_mirrors/un/Unsupervised-Classification 在计算…

p5.js音频可视化终极指南:从基础原理到创意实现

p5.js音频可视化终极指南&#xff1a;从基础原理到创意实现 【免费下载链接】p5.js p5.js is a client-side JS platform that empowers artists, designers, students, and anyone to learn to code and express themselves creatively on the web. It is based on the core p…

Handlebars.js重构实战:构建高可维护模板的完整阶段化方法论

Handlebars.js重构实战&#xff1a;构建高可维护模板的完整阶段化方法论 【免费下载链接】handlebars.js 项目地址: https://gitcode.com/gh_mirrors/han/handlebars.js 在当今快速迭代的前端开发环境中&#xff0c;Handlebars.js模板引擎的持续重构和改进已成为提升应…

iOS越狱终极指南:完整系统自定义与突破限制操作手册

iOS越狱终极指南&#xff1a;完整系统自定义与突破限制操作手册 【免费下载链接】palera1n Jailbreak for arm64 devices on iOS 15.0 项目地址: https://gitcode.com/GitHub_Trending/pa/palera1n 你是否厌倦了iOS系统的封闭性&#xff1f;想要突破苹果的限制&#xff…

YOLOv8工业应用:生产线瑕疵检测实战

YOLOv8工业应用&#xff1a;生产线瑕疵检测实战 1. 引言&#xff1a;从通用目标检测到工业质检的跨越 在智能制造快速发展的背景下&#xff0c;传统人工质检方式已难以满足高精度、高效率的生产需求。尽管YOLOv8最初被设计用于通用场景下的多目标检测&#xff08;如COCO数据集…

5分钟极速搭建Kavita跨平台阅读服务器:打造个人数字图书馆的最佳选择

5分钟极速搭建Kavita跨平台阅读服务器&#xff1a;打造个人数字图书馆的最佳选择 【免费下载链接】Kavita Kavita is a fast, feature rich, cross platform reading server. Built with a focus for manga and the goal of being a full solution for all your reading needs.…

voidImageViewer:Windows平台上的高效图像浏览解决方案

voidImageViewer&#xff1a;Windows平台上的高效图像浏览解决方案 【免费下载链接】voidImageViewer Image Viewer for Windows with GIF support 项目地址: https://gitcode.com/gh_mirrors/vo/voidImageViewer voidImageViewer是一款专为Windows系统打造的轻量级图像…

ESPAsyncWebServer终极指南:构建高性能ESP32/ESP8266物联网服务器

ESPAsyncWebServer终极指南&#xff1a;构建高性能ESP32/ESP8266物联网服务器 【免费下载链接】ESPAsyncWebServer Async Web Server for ESP8266 and ESP32 项目地址: https://gitcode.com/gh_mirrors/es/ESPAsyncWebServer 在物联网时代&#xff0c;ESP32和ESP8266已成…

Nextcloud插件开发快速入门:30分钟打造你的专属协作工具

Nextcloud插件开发快速入门&#xff1a;30分钟打造你的专属协作工具 【免费下载链接】server ☁️ Nextcloud server, a safe home for all your data 项目地址: https://gitcode.com/GitHub_Trending/se/server 你是否想要为团队定制专属的Nextcloud功能&#xff0c;却…

QuickRecorder深度评测:8MB轻量级录屏工具的七大创新突破

QuickRecorder深度评测&#xff1a;8MB轻量级录屏工具的七大创新突破 【免费下载链接】QuickRecorder A lightweight screen recorder based on ScreenCapture Kit for macOS / 基于 ScreenCapture Kit 的轻量化多功能 macOS 录屏工具 项目地址: https://gitcode.com/GitHub_…

opencode社区生态现状:5万Star背后的技术演进路径

opencode社区生态现状&#xff1a;5万Star背后的技术演进路径 1. OpenCode 框架概述与核心定位 1.1 终端优先的 AI 编程助手新范式 OpenCode 是一个于 2024 年开源的 AI 编程助手框架&#xff0c;采用 Go 语言开发&#xff0c;致力于打造“终端原生、多模型支持、隐私安全”…