微调ModernBERT为大型语言模型打造高效“过滤器”

  • ModernBERT(2024 年 12 月)是最近发布的小型语言模型,由 Answer.AI、LightOn 和 HuggingFace 共同开发。它利用了现代优化技术,如用于 8,192 token 上下文窗口的 RoPE 和 GeGLU layers,在保持效率的同时提升性能。
  • jina-XLM-RoBERTa(2024 年 9 月)是一个基于 Meta 的 XLM-RoBERTa 的多语言文本嵌入模型。原始 XLM-RoBERTa 使用 XLM 大型多语言数据集增强了 RoBERTa,而 jina-XLM-RoBERTa 通过扩展上下文训练、RoPE 实现和 FlashAttention-2 支持进一步改进。这个模型是 jina-embeddings-v3 的基础。
  • RoBERTa-large(2019 年 7 月)由 Meta 开发,是 BERT 的增强版本,拥有 3.55 亿参数。通过扩展训练、更大的数据集和动态掩码等创新,它在包括 GLUE、SQuAD 和 RACE 在内的关键基准测试中取得了出色的成果。这使其非常适合从文本分类到问答等各种 NLP 任务。

通过比较这些模型的三个核心方面,我们旨在为模型开发者突出 ModernBERT 的有效设计选择,并为未来的 BERT 类模型开发确定关键洞察。我们还将分享开发 jina-embeddings-v3 的经验,并讨论 jina-embeddings-v4jina-reranker-v3 的计划改进。

ModernBERT 的参数效率

让我们首先研究 ModernBERT 在参数效率方面的方法——它借鉴了最近大语言模型开发的几个关键见解。ModernBERT 利用了三个核心策略:更深但更窄的架构、可控的词汇表大小,以及从较小模型开始的渐进式模型扩展。

深而窄的架构

ModernBERT-large 采用了 28 层的更深架构,而 jina-XLM-RoBERTaRoBERTa-large 是 24 层。但有趣的是,尽管增加了层数,它的参数数量与 RoBERTa-large 持平。jina-XLM-RoBERTa 需要更多参数是因为它要处理 89 种语言,而另外两个只专注于英语。
在这里插入图片描述

对于小型大语言模型来说,深度(层数)比宽度(隐藏单元数)更重要。深而窄的模型结构在捕捉抽象概念方面表现出色,最终带来更好的性能。

transformer 的大部分参数来自注意力层和全连接层。ModernBERT 通过采用"更窄"的方式保持竞争力——在 28 层中使用 2,624 个隐藏单元,相比之下 RoBERTa-large 在 24 层中使用 4,096 个单元。这种"更深"但更窄的设置使他们能够在不增加模型体积的情况下达到性能目标。

ModernBERT-largejina-XLM-RoBERTaRoBERTa-large
参数量400M550M355M
隐藏状态1,0241,0241,024
中间维度2,6244,0964,096
注意力头161616
层数282424
词汇表大小50,368250,00250,265

这种方法与 Meta 的 MobileLLM 研究结果相符,该研究发现对于较小的模型来说,在捕捉复杂模式和提升性能方面,深度比宽度更重要。本质上,通过更多 transformer 层处理信息的能力比拥有更宽的层进行并行处理更有价值。

让我们看看这种深而窄架构的性能数据。
在这里插入图片描述

与使用传统浅而宽架构的同类模型相比,ModernBERT 在检索和 STS 等关键任务上表现更好——同时保持了类似的参数数量。

ModernBERT-largejina-XLM-RoBERTaRoBERTa-large
STS1272.672.768.9
STS1384.983.981.0
STS1477.577.774.8
STS1584.885.884.1
STS1679.479.678.6
STS1787.587.287.2
TRECCOVID61.159.649.3
FiQA44.440.040.7
NFCorpus32.630.627.9
SciFact68.665.563.1
平均值69.368.265.6

jina-XLM-RoBERTa 为例——它在 RoBERTa-large 的浅而宽架构基础上将词汇表从 5 万扩大到 25 万个 token,并训练了更多数据。但 ModernBERT 仍然略胜一筹,这表明架构的改变确实在效率方面产生了实质性的差异。

“词汇表大小很重要”)词汇表大小很重要

首先,让我们看看 transformer 中词汇表参数是如何计算的。对于任何 transformer,词汇表参数 = 不同 token 数量 × 隐藏维度。以 jina-XLM-RoBERTa 为例:有 25 万个 token 和 1,024 维度,仅词汇表编码就需要 2.56 亿参数——这还是在处理任何实际语言任务之前!
在这里插入图片描述

在 transformers 中,第一层通过权重矩阵(即词汇权重)将词元映射为隐藏状态。考虑到使用所有 UTF-8 码点(1,112,064)与 1,024 个隐藏维度 - 仅用于词元转换就需要巨大的 1,112,064 × 1,024 = 1 B 参数。虽然更大的 LLM(超过 100B 参数)可以处理这种开销,但对于较小的模型来说这是一个严重的限制。这正是我们使用 BPE 等分词器的原因,它可以高效地将常见的 UTF-8 码点合并为单个词元。

但关键是:**词汇权重不参与注意力机制 - 它们只是查找表。**对于在固定参数预算下工作的 SLM,更大的词汇表意味着用于实际语言处理的注意力层可用参数更少。这解释了为什么仅支持英语的 ModernBERT-large 尽管规模较小却优于多语言 jina-XLM-RoBERTa - jina-XLM-RoBERTa 分配了更多参数(47%!)来支持多种语言。ModernBERT 的专注词汇表不仅提高了性能,还加快了推理速度,使其特别适合资源受限的应用。

所以现在如果我们只看核心模型参数(不包括词汇权重),ModernBERT 实际上比其同行具有更强的计算能力:ModernBERT 在实际语言建模上比 jina-XLM-RoBERTa 多 19% 的参数,比 RoBERTa-large 多 15%!

模型规格ModernBERT-largejina-XLM-RoBERTaRoBERTa-large
语言支持仅英语89 种语言仅英语
词汇量大小50.4K250K50.3K
总参数400M550M355M
词汇参数51M256M51M
词汇参数比例13%47%14%
核心模型参数349M294M304M

通过"权重平铺"进行模型扩展’)通过"权重平铺"进行模型扩展

ModernBERT 通过一种称为权重平铺的智能初始化方法解决了这个问题 - 本质上是从其较小的基础版本的权重引导 ModernBERT-large。

这种技术并不完全是新的 - 它建立在 DeepMind 的 Gopher 工作基础上,在微软的 Phi-2 模型中也有体现。但它在这里的应用对解决 SLM 训练瓶颈特别有效。在这里插入图片描述

ModernBERT 使用 Gopher 团队的深度初始化策略从 22 层扩展到 28 层。对于那些额外的层(23-28),他们使用 ModernBERT-base 原始 22 层中的权重初始化每一层。对于每层的权重矩阵,他们使用 Phi-2 的中心平铺方法。工作原理是这样的:他们将 ModernBERT-base 的权重放在 ModernBERT-large 矩阵的中间。对于仍然空着的边缘怎么办?他们循环包装原始权重来填充它们。

这种初始化策略给 ModernBERT-large 带来了显著优势 - 它不是从零开始,而是利用了其较小版本预先学习的模式。它在扩展这个规模范围内的语言模型方面特别有效。

我们发现热启动模型能够从初始的高损失(由于增加的参数)中快速恢复,达到接近基础模型的损失水平。我们能够将 417M 参数扩展超过 3 倍,并保持优于从头开始训练到收敛的等效新模型的性能,这意味着收益不仅限于训练初期。然而,在更大的规模下,收敛时获得的相对收益会减少,特别是在宽度扩展方面。

循环权重包装不仅仅是为了方便 - 它与注意力矩阵自然呈现周期性模式的方式很好地吻合。Gopher 的研究表明,这种方法在 SLM(小于 9B 参数)中特别有效,但随着模型规模增大,这些优势开始减弱。

分词器的优势

ModernBERT 使用的是专门针对代码训练的 OLMo tokenizer,而不是标准的 BERT/RoBERTa 分词器。

分词器将 UTF-8 文本分解成映射到向量的 token - 这些才是模型实际处理的内容。在训练过程中,它学会将频繁出现的字符序列组合成单个 token。区别在哪里?标准分词器可能会把 init 分解为 in + it,忽略了编程上下文。但 ModernBERT 的代码感知分词器则可以完整保留它。

在空格处理方面就更有意思了:ModernBERT 将 Python 的前导空格保留为单个 token,并区分 4 个和 8 个空格的差异 - 这对代码结构至关重要。** 这意味着 ModernBERT 的编码器在处理代码时能获得更清晰、更有意义的输入,而其他模型则要处理破碎、连贯性较差的 token。

在这里插入图片描述

ModernBERT 将 Python 的前导空格保留为单个 token,并区分 4 个和 8 个空格的差异 - 这对代码结构至关重要;而其他模型则需要处理破碎、连贯性较差的 token。

ModernBERT 的长文本处理能力

ModernBERT 在处理长文本方面取得了重大进展,这要归功于其庞大的训练语料库(包含 8,192 token 样本的 300B tokens)和全局与局部注意力相结合的先进技术。

ModernBERT 的卓越性能不仅仅归功于其广泛的长文本训练 - 很大程度上要归功于其创新的全局和局部注意力机制组合。与在每一层都使用计算成本高昂的全局注意力的 jina-XLM-RoBERTa 不同,ModernBERT 采用了更高效的方法。它在全局注意力(每三层使用一次,theta 为 160,000)和局部注意力(使用 128 token 的滑动窗口,theta 为 100,000)之间交替使用。这种混合策略在保持高性能的同时大大减少了训练时间。

在 ModernBERT 中,每三层会使用一次全局注意力,RoPE theta 为 160,000,其余层使用 128 token 的局部滑动窗口注意力,RoPE theta 为 10,000。—— ModernBERT
SpeedBot 的客户支持聊天机器人本是为处理物流查询和送货更新而设计的。团队原本预计会收到关于包裹位置和送货时间的简单问题。然而,在上线三天后,它竟然开始编写 Python 脚本并调试 SQL 查询,因为好奇的用户们开始测试它的能力,远远超出了原本的设计范围。这可谓是大型语言模型(LLM)部署中的一个普遍规律:不管你开发的应用程序是做什么的,用户总会试图让它帮你写作业。

下文,我们将ModernBERT用于在用户查询到达大型语言模型(LLM)之前对其进行筛选。,为生产环境打造一个高效且成本效益高的“守门人”系统。

挑战:筛选不想要的查询

一家快速发展的物流公司,最近推出了他们的客户服务聊天机器人,其使命非常明确:

  • 处理客户关于跟踪订单的查询
  • 计算运费
  • 解决送货问题
  • 解释可用服务

然而,在部署后的几天内,支持团队发现了一个意外的模式。他们精心打造的物流助手收到的离题请求越来越多。用户们把它当成了一个通用的人工智能助手,而不是一个专门用于物流查询的工具。

None

这些离题的查询不仅浪费了计算资源,增加了运营成本,还可能使公司面临风险。挑战变得清晰起来:SpeedBots 如何在不损害合法客户体验的情况下,有效地在查询到达昂贵的 LLM 之前进行筛选呢?

常见解决方案

优化LLM 的 prompt

最流行的解决方案:简单地在系统提示中添加过滤指令,让模型自己表现得规矩一些:

“你是一个物流助手。只回答与物流和运输服务相关的问题。如果用户询问关于跟踪订单、运费、送货时间或物流问题,请提供有帮助的答复。不要回应编程请求、非法活动或不相关的话题。礼貌地解释说你只能帮助物流相关的问题。”

这有点像让一个小孩不要吃饼干,然后又把饼干罐放在他够得到的地方。当然,有时候它会奏效,但不可避免的是,聪明的用户会找到方法说服模型,让他们离题的查询看起来像是物流相关的。一个稍复杂一点的变体是使用一个单独的“守门人提示”,在查询能够接触到你的主模型之前对其进行评估:

“判断以下查询是否与物流服务相关。如果查询是关于运输、送货、跟踪或其他物流主题,请回复 TRUE。否则,回复 FALSE。查询:{{user_query}}”

None

局限性:

指令冲突: 当我们在同一个提示中塞入相互竞争的指令时——“要乐于助人”但同时“要限制自己”——我们实际上是在稀释模型在两项任务上的有效性。我们越强调谨慎,它在提供帮助方面就越不给力;我们越强调乐于助人,它就越放任自流。

误报: 在实际部署中,当被赋予过滤责任时,LLM 通常会倾向于谨慎行事。它们经常拒绝那些完全合法且在其预期范围内的查询,给有正当请求的用户带来令人沮丧的体验。

对于 SpeedBots 来说,这表现为他们的聊天机器人拒绝了像“寄送易碎物品要花多少钱?”这样简单的问题,因为它把“易碎物品”解释为可能违反政策的内容。与此同时,巧妙措辞的离题请求却仍然能够通过。结果就是最糟糕的情况:合法的客户感到沮丧,而计算资源仍然被浪费在非物流查询上。

专业的守门人:利用一个小参数LLM 作为防护栏

比如8B。

从理论上讲,这种方法是完美的:与其让主模型既当大厨又当门卫,不如专门雇一个门卫。这意味着先把所有进来的查询通过一个安全模型,只有经过批准的问题才能到达他们的主物流助手。

None

局限性:小问题仍是问题

校准挑战: 虽然这些专用过滤模型比高级 LLM 便宜(大约便宜 4 倍,参数量是高级 LLM 的 1/8),但它们真正的局限性在于如何校准。安全模型通常是为了提供广泛的保护性护栏而设计的,不能通过简单地更新提示来针对特定领域进行定制。

过度热情: 安全模型倾向于为最大保护而校准,往往以牺牲可用性为代价。这意味着关于“易碎物品处理”的合法物流查询被标记为危险的,而巧妙伪装的不当内容有时却能溜过去。通用安全模型在捕捉明显有害内容方面表现出色,但在处理对专业应用最重要的行业特定细微差别方面却很吃力——这既产生了误报也产生了漏报,限制了它们的有效性。

尽管这些模型确实比“礼貌请求”的方法有所改进,但无法精确控制过滤的内容是一个重大限制。对于像 SpeedBots 这样有特定领域需求的公司来说,这种方法仍然存在太多不确定性。

定制的守门人:微调 LLM

下一步合乎逻辑的方法是通过微调来定制你的过滤模型。

这意味着训练一个模型来理解物流问题其他所有问题之间的精确界限。

None

局限性:当治疗变成疾病

资源密集型开发: 即使是微调一个“小”的 80 亿参数模型,也需要专业的硬件、相当多的工程时间以及大量的计算资源。这个过程需要机器学习操作方面的专业知识,以及精心策划的数据集,通常需要配备高内存显卡(如 A100 显卡)的专用 GPU 集群,每次训练运行的计算成本可能高达数百美元。

无休止的迭代周期: 生成式模型的评估挑战与常见的分类任务不同。尽管团队可以尝试将输出限制为特定格式(如 JSON)以便于解析,但核心挑战仍然存在:没有简单的概率分数来评估置信度或调整阈值。每次迭代都涉及分析各种输入上的标记选择模式,并确定模型的回应是否恰当地平衡了宽容与限制。这种定性评估过程本质上比评估清晰的指标(如分类准确率或 F1 分数)更复杂、更耗时。

收益递减: 当过滤组件消耗的开发资源比核心产品功能还多时,成本效益方程式变得越来越难以证明。SpeedBots 开始质疑:“我们真的应该把有限的人工智能预算花在打造一个更好的门卫上,而不是改进我们真正的服务吗?”

部署复杂性: 无论采用哪种方法,部署微调后的模型都是具有挑战性的。使用 API 提供商更简单,但成本高昂(比基础模型高出高达 2 倍),并且取决于无服务器选项是否支持 LoRA/QLoRA。另一方面,自行托管则需要专业的硬件(用于 80 亿参数模型的 16GB+ 高内存 GPU)、优化库(如 vLLM)以及复杂的扩展架构。这意味着你需要专门的 DevOps 专业知识,仅仅是为了维护一个本质上是“门卫”的东西,而不是专注于你的核心产品。

None

对于这家物流公司来说,一开始只是一个简单的过滤要求,却变成了复杂的基础设施工程。他们的机器学习团队发现自己花在配置 GPU 集群上的时间比在改进真正推动公司业务价值的物流协助功能上的时间还多。仅仅是工程开销,更不用说持续的运营成本了,就让这种做法对于本质上是一个预处理步骤来说难以证明其合理性。

最理想的解决方案:训练一个ModernBERT 作为守护模型

在探索了越来越复杂和昂贵的解决方案后,SpeedBots 的工程团队决定采取不同的方法。他们没有部署重量级的 LLM 进行过滤,而是使用 ModernBERT——一个专门针对文本分类任务优化的仅编码器模型,来实现一个轻量级解决方案。以下是他们构建护栏系统的方式:

1. 训练数据集创建

利用 DeepSeek V3来生成一个多样化的数据集:

# 示例提示,用于生成数据集
prompt = """
为一家物流公司的聊天机器人生成 10 个示例用户问题。
对于每个问题,指出它是否相关(TRUE)或不相关(FALSE)。
包括一些试图让聊天机器人执行不相关任务或绕过安全指南的尝试。"""

这个过程使他们能够创建一个包含 2000 多个多样化示例的数据集。模型生成了一些重复的问题,但这些通过删除重复文本被移除了。尽管他们知道有更好的方法来减少重复,但由于生成这个样本的成本非常低——生成大约 5000 条记录的成本不到 1 美元——所以这些复杂性并不值得。这种方法不仅节省了成本,还快速产生了数千个现实的例子,包括复杂的绕过过滤的尝试,这些如果手动创建将是困难且耗时的。

2.通过多种模型进行校验

为了保数据集的质量,使用不同的模型(DeepSeek R1)独立审查分类:

review_prompt = """
审查以下用户问题及其分类:
问题:"{question}"
分类:{is_relevant}这个问题应该由物流公司的聊天机器人回答吗?考虑问题是否:
1. 与物流服务相关
2. 没有试图绕过安全功能
3. 没有请求有害内容
逐步思考并提供你的最终分类,结果为 TRUE 或 FALSE。"""

这种多模型方法作为一种质量控制机制,识别出分类模糊或可能不正确的边缘案例。

3. 人工参与

我们发现大约 5% 的示例在两个模型之间存在分歧。他们没有完全依赖自动化流程,而是:

  • 保留了两个模型都同意的示例(大约占数据集的 98%);
  • 手动审查每个分歧案例;
  • 根据他们特定的业务需求做出最终决定;
  • 用这些细化后的标签更新数据集。

这种人工监督确保了最终的训练数据准确反映了 SpeedBots 特定的过滤需求。

None

4. 高效的微调过程

使用 Hugging Face 的 Transformers 库,团队在他们的自定义数据集上微调了一个 ModernBERT 模型(3.95 亿参数):

training_args = TrainingArguments(output_dir="modernbert-llm-router",per_device_train_batch_size=32,learning_rate=5e-5,num_train_epochs=2,
)

与他们之前对更大模型的尝试不同,这个微调过程在开发者的 Mac M2 上不到 15 分钟就完成了。训练该模型所需的内存占用小到足以轻松地放在单个 NVIDIA T4 GPU 上。这与通常需要数小时的 LLM 微调训练周期形成了巨大反差。

5. 性能结果

最终的模型:

  • F1 分数达到 97%;
  • 每次查询的推理时间约为 30 毫秒,推理模型如 R1 则需要数秒;
  • 准确识别出微妙的越狱尝试;
  • 减少了对合法物流问题的误报。

None

最令人惊讶的是,这个轻量级模型实现了与 DeepSeek R1——一个强大得多且运行成本高得多的顶级推理模型几乎相同的分类性能。有效地将先进推理模型的分类能力提炼成了一个专门的、高效的过滤器。

该系统:

  • 精准定位:专为他们的物流领域设计;
  • 资源高效:几乎不需要计算开销;
  • 高度准确:性能优于更大、更复杂的模型;
  • 操作简单:易于部署和维护。

有时最有效的人工智能解决方案并不是最大或最复杂的模型,而是最适合手头特定任务的模型。

完整的代码以及微调 ModernBert 的实验过程,包括生成数据集,可以在这个 github 仓库中找到。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/904898.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

电网拓扑分析:原理与应用

在现代电力系统中,电网拓扑分析是一项至关重要的技术,它为电力系统的安全、稳定和高效运行提供了坚实的基础。电网拓扑描述了电力系统中各元件(如发电机、变压器、输电线路、负荷等)之间的连接关系,通过拓扑分析&#…

OSPF案例

拓扑图: 要求: 1,R5为ISP,其上只能配置IP地址;R4作为企业边界路由器, 出口公网地址需要通过PPP协议获取,并进行chap认证 2,整个OSPF环境IP基于172.16.0.0/16划分;…

2D横板跳跃游戏笔记(查漏补缺ing...)

1.Compression(压缩质量):可以改为None,不压缩的效果最好,但占用内存 2.Filter Mode(过滤模式):可以选择Point(no filter) 3.Pixels Per Unit:是…

MAD-TD: MODEL-AUGMENTED DATA STABILIZES HIGH UPDATE RATIO RL

ICLR 2025 spotlight paper 构建能够在少量样本下学习出优良策略的深度强化学习(RL)智能体一直是一个极具挑战性的任务。为了提高样本效率,近期的研究尝试在每获取一个新样本后执行大量的梯度更新。尽管这种高更新-数据比(UTD&am…

Dia浏览器:AI驱动浏览网页,究竟怎么样?(含注册申请体验流程)

名人说:博观而约取,厚积而薄发。——苏轼《稼说送张琥》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊) 目录 一、Dia浏览器简介1. 什么是Dia浏览器2. 开发背景与公司简介3. 与传统浏览器的区别 …

SSL/TLS 证书与数字签名:构建互联网信任的详解

在浩瀚的数字世界中,信任是安全通信的基石。当我们通过浏览器访问一个 HTTPS 网站、进行在线支付,或者下载一个重要的软件更新时,我们如何能确信自己正在与合法的、未被仿冒的对方进行交互?我们又如何能保证传输的数据没有被中途窃…

近日部署跑通的若干多模态模型总结与论文概述

CLIP模型概述与落地测试 CLIP模型全称是Contrastive Language-Image Pretraining​​(对比语言图像预训练)。是OpenAI于2021年提出的多模态预训练模型,通过对比学习对齐图像和文本的表示,实现零样本(zero-shot&#x…

Web3 初学者的第一个实战项目:留言上链 DApp

目录 📌 项目简介:留言上链 DApp(MessageBoard DApp) 🧠 技术栈 🔶 1. Solidity 智能合约代码(MessageBoard.sol) 🔷 2. 前端代码(index.html script.js…

LeetCode 270:在二叉搜索树中寻找最接近的值(Swift 实战解析)

文章目录 摘要描述题解答案题解代码分析示例测试及结果时间复杂度空间复杂度总结 摘要 在日常开发中,我们经常需要在一组有序的数据中快速找到最接近某个目标值的元素。LeetCode 第 270 题“Closest Binary Search Tree Value”正是这样一个问题。本文将深入解析该…

Kotlin高阶函数多态场景条件判断与子逻辑

Kotlin高阶函数多态场景条件判断与子逻辑 fun main() {var somefun: (Int, Float) -> Longval a 4val b 5fsomefun multi()//if 某条件println(somefun.invoke(a, b))//if 某条件somefun add()println(somefun.invoke(a, b)) }fun multi(): (Int, Float) -> Long {re…

嵌入式学习--江协51单片机day4

昨天周五没有学习,因为中午没有睡觉,下午和晚上挤不出整块的时间。周日有考试今天也没有学很多啊,但以后周末会是学一天,另一天休息和写周总结。 今天学了串口通信和LED点阵屏,硬件原理是真的很迷,一但想搞…

Spring Cloud 以Gateway实现限流(自定义返回内容)

前言 Spring Cloud Gateway自带RequestRateLimiterGatewayFilterFactory限流方案,可基于Redis和RedisRateLimiter实现默认算法为令牌桶的请求限流。作为自带的该限流方案,其可与Spring生态的其它各项组件无缝集成,并且自身实现也相对完善/好用…

容器填充函数fill和memset对比总结

文章目录 1、fill() 按元素填充2、memset() 按字节填充3、对比 1、fill() 按元素填充 用于将容器或数组的指定范围内的元素赋值为指定值&#xff08;按元素类型填充&#xff09;。属于 C STL 算法&#xff08;<algorithm> 头文件&#xff09;。 // 从起始地址到结束地址…

【Linux实践系列】:进程间通信:万字详解共享内存实现通信

&#x1f525; 本文专栏&#xff1a;Linux Linux实践项目 &#x1f338;作者主页&#xff1a;努力努力再努力wz &#x1f4aa; 今日博客励志语录&#xff1a; 人生就像一场马拉松&#xff0c;重要的不是起点&#xff0c;而是坚持到终点的勇气 ★★★ 本文前置知识&#xff1a; …

CogView4 文本生成图像

CogView4 文本生成图像 flyfish 基于 CogView4Pipeline 的图像生成程序&#xff0c;其主要目的是依据 JSON 文件里的文本提示信息来生成图像&#xff0c;并且把生成的图像保存到指定文件夹。 JSON 文件格式 [{"prompt": "your first prompt"},{"pr…

路由重发布

路由重发布 实验目标&#xff1a; 掌握路由重发布的配置方法和技巧&#xff1b; 掌握通过路由重发布方式实现网络的连通性&#xff1b; 熟悉route-pt路由器的使用方法&#xff1b; 实验背景&#xff1a;假设学校的某个分区需要配置简单的rip协议路由信息&#xff0c;而主校…

机器人领域和心理学领域 恐怖谷 是什么

机器人领域和心理学领域 恐怖谷 是什么 恐怖谷是一个在机器人领域和心理学领域备受关注的概念,由日本机器人专家森政弘于1970年提出。 含义 当机器人与人类的相似度达到一定程度时,人类对它们的情感反应会突然从积极变为消极,产生一种毛骨悚然、厌恶恐惧的感觉。这种情感…

Go-GJSON 组件,解锁 JSON 读取新姿势

现在的通义灵码不但全面支持 Qwen3&#xff0c;还支持配置自己的 MCP 工具&#xff0c;还没体验过的小伙伴&#xff0c;马上配置起来啦~ https://click.aliyun.com/m/1000403618/ 在 Go 语言开发领域&#xff0c;json 数据处理是极为常见的任务。Go 标准库提供了 encoding/jso…

数据分析_数据预处理

1 数据预处理流程 ①数据清洗:处理数据缺失、数据重复、数据异常等问题,提升数据质量. ②数据转换:涵盖基本数据转换、语义数据转换、衍生数据转换和隐私数据转换,适配分析需求. ③数据集成:整合多源数据. 2 数据清洗 2.1 数据缺失 2.1.1 数值型数据缺失 数值型列的部分数值不…

vue +xlsx+exceljs 导出excel文档

实现功能&#xff1a;分标题行导出数据过多&#xff0c;一个sheet表里表格条数有限制&#xff0c;需要分sheet显示。 步骤1:安装插件包 npm install exceljs npm install xlsx 步骤2&#xff1a;引用包 import XLSX from xlsx; import ExcelJS from exceljs; 步骤3&am…