真香警告!上下文工程才是AI开发未来,RAG已死?大模型开发者必看!

RAG已死,上下文工程永存:从炼金术到工程学

当所有人都在为百万级上下文窗口欢呼时,一个残酷的现实被揭开:你塞给模型的信息越多,它反而变得越笨。


你有没有觉得,我们现在开发AI应用特别像在搞一场神秘的炼金术?

我们把各种数据和模型扔进一个黑箱子,双手合十,期待它能够炼出黄金。有时候它确实能惊艳到我们,但更多时候,我们面对的是一堆无法解释、难以复现、更别提稳定运行的"废渣"。

更令人沮丧的是,昨天还能正常工作的系统,今天突然就"失灵"了——你换了几个参数、调整了提示词、重新训练了embedding,但谁也说不清楚到底是哪个改动起了作用,或者是不是只是运气好。

这个比喻来自Chroma创始人杰夫·哈伯(Jeff Huber)。在他看来,AI开发的现状是从Demo演示到生产环境之间横亘着一条巨大的鸿沟,而填平这条鸿沟靠的不是运气,或者反复搅拌锅里那堆神秘的玩意儿——而是需要严谨的工程学。

一、炼金术困境:XKCD漫画的现实版

杰夫引用了一幅著名的XKCD漫画:

一个人站在一堆冒着热气的"垃圾山"上,另一个人问:“这就是你的机器学习系统吗?”

他回答:“对呀,你把数据倒进这一大堆线性代数里,然后在另一边收集答案就行了。”

“那要是答案错了怎么办呢?”

“哦,那你就搅一搅,直到答案看起来对为止。”


炼金术困境

这幅漫画在AI圈子里疯传,因为它精准地描绘了一个现实:整个过程充满不确定性和偶然性,感觉不像是一门严谨的工程,更像是一种玄学或炼金术。

这正是Chroma想要解决的问题。

二、Chroma的初心:从Demo到生产的鸿沟

时间回到2021-2022年,大模型热潮才刚刚开始酝酿。杰夫和他的团队已经在应用机器学习领域摸爬滚打多年,他们反复经历了一个令人沮丧的循环:

构建一个惊艳的Demo非常容易,但把它变成生产环境中可靠可维护的系统却异常艰难。

你是否也有过这样的经历?

  • • Demo阶段:90%准确率,惊艳所有人
  • • 生产环境:准确率掉到60%,用户投诉如潮
  • • 尝试修复:改提示词、调参数、换模型
  • • 最终结果:不知道哪个改动有用,系统依然不稳定

Chroma团队有一个核心信念:潜在空间(Latent Space)——也就是模型理解和表示数据的内部方式——是一个极其重要但被严重低估的工具。

它不仅是模型看待世界的方式,也应该是我们人类理解模型并且与之协作的共享空间。

这个信念成为了Chroma的起点。在探索的道路上,他们很快意识到一个关键的工作负载:检索

在AI应用中,如何从海量信息中精准高效地找到最相关的内容喂给大模型,是决定应用质量的命根子。于是,Chroma决定将所有精力聚焦在检索这个单点上。

杰夫的逻辑很清晰:在一个领域,你必须先做到世界级的水平,才有资格去做更多的事情。

这需要一种近乎偏执狂式的专注。


三、重新定义AI原生检索

重要澄清:Chroma不是简单地在已有数据库上加上向量搜索功能,而是在从底层逻辑上重新思考和设计一个为AI时代而生的信息检索系统。

3.1 现代化特征

传统的搜索技术已有几十年历史,而过去十年分布式系统领域诞生了许多新的设计原则:

传统架构现代化架构
读写耦合读写分离
存算一体存算分离
C/C++/JavaRUST高性能+内存安全
本地存储对象存储作为持久化层

Chroma从零开始,用这些现代化理念构建整个系统。

3.2 AI原生的四个维度

**第一,技术不同。**不再仅仅是关键词匹配,而是以向量搜索为代表的语义理解。

**第二,工作负载不同。**AI应用尤其是Agent可能会在一次任务中进行成百上千次检索,这对并发和延迟提出了全新要求。

**第三,开发者不同。**构建AI应用的开发者可能不是搜索专家,他们需要API友好、开箱即用的工具,而不是需要配置无数参数的复杂系统。

**第四,最终用户不同。**传统搜索引擎的用户是人类,一次大概提供10个链接;AI应用的用户是大语言模型,模型可以消化成百上千条信息。这个数量级的差异从根本上改变了对检索系统的设计要求。


四、偏执狂式的产品哲学

2023年,向量数据库赛道是AI领域最火热的风口之一:

  • • Pinecone完成1亿美元融资,估值飙升
  • • Milvus、Weaviate、Qdrant等产品层出不穷
  • • 每个人都在问:“你为什么不用Pinecone?”

在这样的市场环境下,Chroma的选择却异常佛系:

  • • 没有急于融资扩张
  • • 没有匆忙推出云产品抢占市场
  • • 花很长时间打磨最基础的开源单机版产品

两种创业路径

杰夫认为创业有两条路径:

第一种是精益创业式,不断寻找市场信号,像做梯度下降一样跟着用户需求走。他的批判是:如果你完全遵循这条路,最终可能会做出一个给中学生用的约会APP——因为它似乎是人类最基础、最容易被满足的需求。

第二种路径是创始人心中有一个强大甚至有些逆向的观点、一个秘密,然后偏执地去实现它。

显然,Chroma选择了后者。

康威定律的上游

杰夫有一个观点叫**“康威定律的上游”**:

你的文化 → 你的组织架构 → 你的产品形态 → 你交付的东西

最终你交付的其实是你的文化。

因此,他坚持非常缓慢和挑剔的招聘。他认为公司未来增长的斜率完全取决于办公室里这些人的质量。

这种"慢"带来了成果:Chroma开源项目在GitHub上拥有超过2万颗星,月下载量超过500万次,总下载量超过7000万次


五、RAG已死,上下文工程永存

现在我们进入这次访谈中最有价值的部分——Chroma对AI应用根本问题的思考。

5.1 摒弃RAG概念

杰夫毫不客气地表达了对"RAG"(检索增强生成)这个术语的厌恶。Chroma内部从来不使用这个词。

原因很简单:RAG把检索、增强和生成三个完全不同的概念强行打包在一起,导致了极大的混乱。

更糟糕的是,后来的RAG几乎等同于"用简单的密集向量搜索,然后把结果塞给模型",整个技术栈显得愚蠢而廉价。

5.2 上下文工程的定义

为了打破这种思维定式,杰夫倡导一个更精确的词:上下文工程(Context Engineering)

定义:决定在大语言模型的任何一次生成步骤中,到底应该把什么信息放入上下文窗口中。

上下文工程包含两个循环:

  • 内循环:这一次我该放什么进去?
  • 外循环:我的系统该如何通过学习,让自己在未来能更聪明地填充上下文窗口?

5.3 上下文腐烂:超长上下文的迷思 ⚠️

当整个行业都对百万甚至千万级上下文窗口抱有盲目乐观时,Chroma团队发布了一份技术报告,用实验数据证明了一个残酷现实:

大语言模型的性能并不是对上下文窗口的token数量免疫的。随着你放入的token越来越多,模型不仅会开始忽略一些指令,进行有效推理的能力也会显著下降。

这就是**“上下文腐烂”(Context Decay)**现象。

一个直观的例子

想象一下:

  • • 上下文长度:1000 tokens → 模型准确率:95%
  • • 上下文长度:10,000 tokens → 模型准确率:85%
  • • 上下文长度:100,000 tokens → 模型准确率:60%

你往模型的"脑子"里塞的东西越多,它反而变得越笨。

Chroma的报告对比了主流模型在处理长上下文时的性能衰减:

模型长上下文表现
Claude 3 Sonnet表现最好,衰减最慢
GPT-4 Turbo性能衰减较快
Gemini Flash性能衰减非常快

这份报告像一盆冷水,浇醒了那些对无限上下文抱有幻想的开发者。它明确告诉我们:

上下文窗口的长度远远没有上下文内容的质量重要。

上下文工程从一个可有可无的优化项,变成了构建高质量AI应用的必选项。

杰夫甚至断言:今天你所知道的任何一家成功的AI原生公司,他们最核心的竞争力就是上下文工程。


六、实践方法:两阶段检索

那么,具体应该怎么做呢?

6.1 朴素方法的失败

很多开发者还在使用最朴素的方法:把所有可能相关的文档一股脑塞进上下文窗口。

这显然会触发上下文腐烂。

6.2 两阶段检索策略

领先的团队已经开始采用两阶段检索策略:

第一阶段:粗筛(召回)

目标:从数百万个候选项中快速筛选出几百个候选者

手段

  • • 向量搜索的语义相似性
  • • 全文搜索的关键词匹配
  • • 元数据过滤

原则:追求召回率——宁可错杀一百,不能放过一个

第二阶段:精炼(重排序)

目标:从几百个候选者中筛选出最相关的20-30个

手段:使用大语言模型本身来做重排序

把几百个候选块连同原始问题一起丢给LLM,让它判断哪些块对回答这个问题最相关,并打分排序。

6.3 暴力美学的崛起

你可能会觉得调用几百次大模型听起来很昂贵、很慢。

但实际上,随着模型推理成本的急剧下降,这种暴力美学式的做法正变得越来越可行。

杰夫甚至大胆预测:随着大模型变得越来越快、越来越便宜,专门的重排序模型可能会在大多数场景下消失——就像我们今天很少会为特定任务设计专门的ASIC芯片一样,大家会直接用通用的大语言模型来完成这个任务。

6.4 代码检索的特别考量

代码是一种结构化、逻辑性极强的文本,对它的检索不能只依赖模糊的语义。

Chroma在系统中原生支持了:

  • 高速正则表达式搜索:精确匹配函数名、变量名
  • 索引分叉功能:毫秒级创建索引副本,为代码仓库的每次提交、每个分支都创建独立索引

七、记忆与评估方法论

7.1 记忆是上下文工程的果实

我们经常听到各种关于长短期记忆、工作记忆的复杂理论。但在杰夫看来,这些都是不必要的复杂化。

记忆就是上下文工程这棵树上结出的果实。

一个好的记忆系统,本质上就是一个好的上下文工程系统:

存储:知道在用户说"记住这个"时该如何存储信息 ↓索引:将信息结构化,便于后续检索 ↓提取:在后续交互中精准地把记忆提取出来 ↓放入上下文:决定哪些记忆应该放入当前的上下文窗口

7.2 生成式基准测试

如何让系统变得越来越好?Chroma提出了**“生成式基准测试”**方法并发布了相关技术报告。

我们知道评估系统需要黄金数据集——标准问题和对应的标准答案。但对于自己的私有数据库来说,谁来出题、谁来写答案?这是一个非常耗时耗力的过程。

Chroma的方法是让大语言模型来帮你做这件事:

步骤1:让模型读取你的文档 ↓步骤2:模型反向生成可能的用户问题 ↓步骤3:人工审核和调整 ↓步骤4:形成黄金数据集

有了这个数据集,你就可以量化评估检索系统:

优化措施评估指标示例结果
更换embedding模型检索准确率从80%提升到90%?
增加重排序步骤最终答案质量用户满意度提升多少?
调整块大小召回率vs精确率找到最佳平衡点?

这样一来,所有的优化都变得有据可依,而不再是凭感觉"搅一搅"了。

7.3 数据标注派对

杰夫鼓励所有团队应该花一个下午,点上几个披萨,开一个数据标注派对,手动创建几百个高质量的标注数据。

这个小小的投入对系统性能提升的回报是极其巨大的。


八、文化哲学:如何做一件事就是如何做所有事

Chroma的成功不仅仅是技术上的,更是一种文化的胜利。

8.1 只做热爱的事

杰夫坦言,过去自己常常在一些事情上做出妥协——和自己不那么契合的人共事,服务自己没有那么热爱的客户等等。

但现在,他越来越清晰地认识到:

生命短暂,应该只把时间花在自己真正热爱的工作上,与自己真正欣赏的人一起,为自己真正想服务的用户创造价值。

8.2 反对虚无主义

他提到如今的社会,特别是科技圈,弥漫着一种虚无主义。但在他看来,人需要有信念,需要去开启一些在自己的有生之年都未必能看到结果的宏大工程——就像过去的人们建造一座需要数百年才能完工的大教堂一样。

这种信念最终会体现在公司的每一个细节里。

8.3 品位的策展人

杰夫非常认同"如何做一件事就是如何做所有事情"的信条。

你会发现Chroma的办公室设计、网站文档,甚至是周边T恤,都透露出一种高度统一、深思熟虑的设计感和品质感。这种对于极致技艺(Craft)的追求,与他们产品理念一脉相承。

在他看来,创始人就是一个公司的品位策展人。当这种对于品质的坚持从创始人传递到每一个员工,最终就会内化为公司文化,并且外显为你所看到的产品和品牌。


结语:在AI浪潮中保持清醒

从炼金术到工程学,从上下文腐烂到上下文工程,从对无限上下文的迷思到黄金数据集的实践,Chroma带给我们的不仅仅是一个好用的工具,更是一种在AI时代如何进行严肃、严谨的系统构建的思考方式和哲学。

当所有人都在为百万级上下文窗口欢呼时,Chroma用数据和实验告诉我们:

质量永远比数量重要。

当整个行业都在追逐热点时,Chroma用偏执狂式的专注证明:

慢就是快,专注就是护城河。

在AI技术日新月异的今天,我们或许更需要这种清醒:不盲目追随热点,而是深入理解问题的本质;不迷信"越大越好",而是专注于"越好越好"。

这或许就是在AI浪潮中保持清醒的最好方式。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1119136.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深度学习计算机毕设之基于python深度学习的餐桌美食识别卷神经网络

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

AI城市管理综合执法系统:让城市治理有“智”更有“度”

传统城管执法常陷“人海战术”困境:人工巡查效率低、夜间漏检多、跨部门协同慢。而AI城市管理综合执法系统,用“技术慧眼智能大脑”重构治理逻辑,把被动响应变成主动预判,让执法既精准又有温度,这背后是多重技术的协同…

高通推出Dragonwing Q-7790 和 Q-8750 处理器,工业及嵌入式物联网布局已成型

2026年1月5日,拉斯维加斯——在国际消费电子展(CES)上,高通技术公司今日宣布其物联网产品组合进一步扩展,其中包括全新的高通跃龙™Q系列处理器。在过去18个月中,通过对Augentix、Arduino、Edge Impulse、F…

2026最新自行车花鼓/三轮车差速器企业首选推荐HOVERIC泓瑞凯:专注中高端领域,HOVERIC泓瑞凯实力领航 - 全局中转站

在自行车运动蓬勃发展与绿色出行理念深入人心的当下,花鼓作为自行车传动系统的核心部件,其性能直接关系到骑行体验与安全。2026年,在竞争激烈的中高端自行车配件市场,HOVERIC泓瑞凯(简称“泓瑞凯”)凭借其深厚的…

课程论文 “速通” 指南!虎贲等考 AI 让学术输出又快又稳

每到期末,课程论文总能成为大学生的 “甜蜜负担”:通识课要兼顾广度,专业课要凸显深度,有的需实证数据支撑,有的要理论框架扎实, deadline 逼近却还在选题迷茫、文献堆砌、格式纠结中内耗。虎贲等考 AI 科研…

《3万字+512GPU!Hugging Face这本“AI修炼秘籍“让小白秒变分布式训练高手,附4000次实验数据+可视化图解》

在人工智能快速发展的今天,Hugging Face近日发布的《超大规模实战手册》可谓是一项颠覆性进展。 这本手册耗时 6 个月完成,字数达到3万字,在多达 512 个 GPU 上进行了超过 4000 次的 scaling 实验。内容涵盖了从基础原理到实际操作的方方面面…

超越CRUD:在2026年AI重塑的行业里,程序员如何抢占新赛道与高价值生态位?

2025年,AI大模型的影响力已渗透到软件开发的每一个角落,它不再是停留在概念层面的技术,而是实实在在地改写着行业规则——不仅传统CRUD(创建、读取、更新、删除)开发模式正被快速取代,更在悄然重构数十万程…

JAVA基础语法与Spring笔记

JAVA基础语法 JAVA参考教程文档(这里)。 是解释型的语言(.java文件 javac->.class文件 解释器->JVM虚拟机),GO是编译型的,PHP是解释型的。 JAVA变量有枚举类型,PHP8 才开始支持枚举…

【保姆级教程】从“陪聊“到“打工“,Google教你构建自己的AI智能体,代码示例全在这!

GOOGLE TECHNICAL GUIDE 从“陪聊”到“打工”: 读懂 AI Agent 的 进化与构建。 如果说 ChatGPT 是 2023 年的惊雷,那么 AI Agent (智能体) 就是 2026 年的电力网。本文将基于 Google Cloud 最新发布的 60 页技术白皮书,为你拆解这场技术革…

PPO过时了?GRPO/DAPO/GSPO/SAPO四大算法全面对比,揭秘最新强化学习技术趋势!

本文面向已了解强化学习中策略梯度(policy gradient)、优势函数(advantage)、重要性采样(importance sampling)等概念的读者,重点对大模型强化学习主流算法做一条线的梳理与比较。 强化学习&…

楼宇设备运维标准规范:以标准化体系提升物业运维能力

设备运维标准的核心框架楼宇设备运维是物业运营的核心支撑,其标准化体系直接决定了物业对设施的管控精度与服务输出质量。设备运维标准体系需覆盖全生命周期管理要求,包括设备分类编码、日常巡检流程、故障处置规范、维护记录管理等核心模块。分类编码是…

全网最全专科生AI论文网站TOP9:开题报告文献综述必备

全网最全专科生AI论文网站TOP9:开题报告文献综述必备 2026年专科生AI论文写作工具测评:为何值得一看? 随着人工智能技术的不断发展,越来越多的专科生开始借助AI工具提升论文写作效率。然而,面对市场上琳琅满目的平台&a…

强脑科技的核心硬件模组为何选择蓝思量产?

📌 目录🔧 98%良品率碾压同行!蓝思科技拿下强脑科技核心订单:十年磨一剑的精密制造“变态级”秘籍一、碾压级优势:98%良品率背后,是“灰尘都要登记身份证”的严苛标准(一)十年合作沉…

Claude Code之父Boris提出的 9 条 Claude Code 实战技巧

Boris 的 9 条 Claude Code 实战技巧:原来高手的配置这么“朴素” Boris Cherny 在 Anthropic 内部有个绰号:Claude Code 之父。他最近在 X 上很活跃,于是很多人问 Boris:你自己到底怎么用 Claude Code?他刚在 X 上分…

懒人福音!2025年Agent工具大盘点,小白程序员也能秒变AI大神!

有没有发现2025这一年,身边越来越多人在聊“Agent”?去年也被业内称为“Agent元年”。 那么Agent到底是什么呢?Agent能干嘛呢? 什么是Agent? 把它想象成你的“全能数字化员工”。你可以给它一个复杂的目标(例如:“帮我规划一下…

震惊!AI已悄悄内化为你的编程伙伴,小白开发者必知的5大生存法则

主要内容 LLM的渗透已进入“内化期”。市场关注点正从单纯的流量规模转向量化的价值创造(推理深度、职场渗透率、生态协同)。厂商竞争的关键点将在于如何通过提升“逻辑深度”来优化“信息质量”,并在职场及全球化增量市场中实现差异化价值捕…

CSDN资源等级如何提升?综合贡献分如何提高?

长话短说,只有三种方式可以提升综合贡献分。方式一:完成成长任务完成此处的成长任务,通过审核即可增加综合贡献分,这个每天不限量,完成多少都可以,但是每个任务只能完成一次。方式二:完成热点任…

楼宇运维线路管理标准:保障ICT设施与服务稳定性的核心支撑

线路管理标准的底层逻辑楼宇ICT设施的稳定运行,依赖于线路系统的规范管理;而线路管理的有效性,必须以明确、可执行的标准为支撑。线路是ICT系统的物理载体,其状态直接影响数据传输的可靠性与服务连续性。楼宇中的线路覆盖电力、网…

电子器件烧毁的底层逻辑与避坑指南

电子器件的 “烧毁”,是电路设计与实际应用中最常见的故障之一。从小小的 LDO 稳压芯片到驱动电机的电调,看似不同的器件,烧毁的核心逻辑却高度相通 —— 本质都是器件的实际工作参数突破了自身的物理与热极限,且缺乏有效的保护机…

卷不动了?2025年AI编程工具大盘点:DeepSeek-Coder V3夺冠,代码生成效率提升300%,小白秒变大神!

年度大模型(Foundation Models):专精 1.1 年度写作大模型 入围: GPT-4o Ultra、文心一言5.0、通义千问3.5、Claude 3.5 Sonnet、DeepSeek-R1-Write获奖者: GPT-4o Ultra获奖理由: 依托2025年ACL顶会EssayJudge多粒度写作测评与Lak 2025自动化写作评估&…