震惊!Cursor这波操作让AI编程助手token消耗减少46.9%,小白也能秒懂的上下文工程架构大揭秘

一、背景:为什么需要动态上下文发现

编码 Agent 正在快速改变软件构建方式。其能力提升来自两方面:更强的 Agent 模型+更好的上下文工程(Context Engineering)

Cursor 的 Agent 框架(agent harness)会针对每个前沿模型单独优化,但有一类上下文工程改进是模型无关的——如何收集上下文、如何在长轨迹中优化 token 使用。

Cursor 团队发现:随着模型变强,预先提供更少细节、让 Agent 自主拉取相关上下文,效果反而更好

这就是动态上下文发现(Dynamic Context Discovery)的核心思想,与传统的静态上下文(Static Context)(始终包含在 prompt 中)形成对比。

类型定义问题
静态上下文始终包含在 prompt 中的固定信息占用 token、可能造成混淆或矛盾
动态上下文Agent 按需拉取的相关信息token 效率高、回复质量更好

动态上下文发现的优势

  • 只将必要数据拉入上下文窗口
  • 减少可能造成混淆或矛盾的信息量
  • 提升 Agent 回复质量

二、核心架构:文件作为统一抽象

Cursor 实现动态上下文发现的核心载体是文件(Files)

为什么选择文件?

官方博客原文:

It’s not clear if files will be the final interface for LLM-based tools. But as coding agents quickly improve,files have been a simple and powerful primitiveto use, and a safer choice than yet another abstraction that can’t fully account for the future.

文件的优势:

  1. 统一接口:所有信息源都可以用文件表示
  2. 工具生态tailgreprgjq等标准工具开箱即用
  3. 惰性加载:Agent 按需读取,无需一次性加载
  4. 面向未来:相比复杂抽象,文件是更安全的选择

三、5 大动态上下文策略详解

策略 1:长工具响应 → 文件化

问题:工具调用(Shell 命令、MCP 调用)可能返回巨大的 JSON 响应,显著膨胀上下文窗口。

常见做法:截断长输出 → 可能丢失重要信息。

Cursor 做法

关键细节

  • Cursor 的一方工具(如文件编辑、代码搜索)通过智能工具定义和最小响应格式防止膨胀
  • 第三方工具(Shell、MCP)没有这种原生优化,所以写入文件
  • Agent 用tail检查末尾(多数结论在末尾),按需读取更多

收益:减少接近上下文上限时触发的不必要摘要。

策略 2:摘要时保留历史引用

问题:上下文窗口填满后触发摘要(summarization),但摘要是有损压缩,Agent 可能遗忘关键细节。

Cursor 做法

  1. 将对话历史持久化为文件(如transcript.txt
  2. 摘要后给 Agent 一个指向历史文件的引用
  3. Agent 如果发现摘要中缺失细节,可以搜索历史文件恢复

图示:Agent 完成实验后上传结果到 S3,触发上下文摘要。后续用户请求更新元数据时,Agent 发现摘要中缺失 S3 路径,通过搜索agent transcript恢复了完整信息。

触发时机

  • 自动:达到上下文窗口上限
  • 手动:用户输入/summarize

策略 3:支持 Agent Skills 开放标准

Agent Skills是由Anthropic 提出的开放标准,用于为编码 Agent 扩展专用能力。Cursor支持(Supporting)该标准。

注:Agent Skills 标准已被 Cursor、Claude Code、GitHub Copilot、VS Code 等主流工具采用,具备跨平台可移植性。

Skills 的构成(遵循 Anthropic 规范):

<!-- SKILL.md -->---name: deploy-k8sdescription: 将应用部署到 Kubernetes 集群---# Deploy to Kubernetes## 使用说明...## 可执行脚本- ./scripts/deploy.sh

动态发现机制

  • Skills 的名称和描述作为静态上下文包含在系统提示中
  • Agent 需要时通过grep或 Cursor 的语义搜索拉取完整 Skill 定义
  • Skills 可以打包可执行文件或脚本,Agent 可以轻松找到相关内容

策略 4:MCP 工具惰性加载

问题

  • MCP 服务器通常包含大量工具,描述往往很长
  • 大部分工具实际不会被使用,但始终包含在 prompt 中
  • 多个 MCP 服务器会进一步放大问题

Cursor 的设计哲学

We believe it’s the responsibility of thecoding agentsto reduce context usage.(减少上下文使用是编码 Agent 的责任,而非期望每个 MCP 服务器自己优化)

Cursor 做法

关键设计决策(来自官方脚注):

We considered a tool search approach, but that would scatter tools across a flat index. Instead, we createone folder per server, keeping each server’s tools logically grouped. When the model lists a folder, it sees all tools from that server together and can understand them as a cohesive unit. Files also enable more powerful searching. The agent can use fullrgparameters or evenjqto filter tool descriptions.

  • 每个 MCP Server 一个文件夹,而非扁平索引
  • Agent 列出文件夹时能看到该 Server 的所有工具,理解为一个整体
  • 支持强大的搜索能力:rg参数、jq过滤

实测效果

在调用 MCP 工具的运行中,该策略将 Agent **总 token 消耗减少 46.9%**(统计显著,但会随已安装 MCP 数量产生较大波动)

额外收益:可向 Agent 传达工具状态。例如,如果 MCP 服务器需要重新认证,以前 Agent 会完全忘记这些工具,用户会困惑;现在 Agent 可以主动提示用户重新认证。

策略 5:终端会话 → 文件同步

传统做法:用户需要手动复制终端输出粘贴给 Agent。

Cursor 做法

  • 集成终端的输出自动同步到本地文件系统
  • 用户可以轻松问「为什么我的命令失败了?」,Agent 能理解引用
  • 终端历史可能很长,Agent 可以grep只获取相关输出

官方原文

This mirrors what CLI-based coding agents see, with prior shell output in context, butdiscovered dynamically rather than injected statically.

这与 CLI 编码 Agent(如 Claude Code)看到的内容一致——之前的 Shell 输出在上下文中,但是动态发现而非静态注入

四、长历史上下文的压缩策略

除了 5 大动态策略,Cursor 还针对文件/文件夹设计了智能压缩机制(来自 Cursor 官方文档):

状态触发条件保留内容后续交互
Condensed文件较大但结构可提取函数签名、类定义、方法名需要时自动扩展加载
Significantly Condensed文件极大,结构也放不下仅文件名 + 标签用户需手动重新上传
Not Included超出剩余容量或格式不支持警告图标需筛选核心文件后重试

常规压缩示例

// 原始文件(500 行)export class UserService { private db: Database; constructor(db: Database) { /* ... 50行 ... */ } async createUser(data: CreateUserDTO): Promise<User> { /* ... 100行 ... */ } async updateUser(id: string, data: UpdateUserDTO): Promise<User> { /* ... 80行 ... */ }}// 压缩后(~20 行)export class UserService { private db: Database; constructor(db: Database): void; async createUser(data: CreateUserDTO): Promise<User>; async updateUser(id: string, data: UpdateUserDTO): Promise<User>;}

五、为什么这套架构有效

1. Token 效率最大化

静态注入:「宁滥勿缺」,大量无关信息占用上下文 动态发现:「按需精准」,只拉取当前任务需要的信息

2. 复杂度线性可控

方案上下文占用
静态注入MCP 工具数 × 描述长度(指数膨胀)
动态发现固定名称列表 + 按需查找(线性可控)

3. 工具生态零成本复用

Agent 不需要学习新 API,直接复用tailgreprgjq等标准工具。

4. 面向未来的扩展性

新增信息源?写入文件即可。新增 MCP Server?同步到对应文件夹。架构天然支持水平扩展。

六、可落地实践清单

场景传统做法动态上下文做法
长工具响应截断写入文件 +tail按需读取
对话历史直接压缩丢弃保留文件引用 + 搜索回查
Agent 能力扩展全部注入 promptSkills 文件 + 语义搜索
MCP 工具全部描述注入仅名称 + 按需查找(每 Server 一个文件夹)
终端输出手动复制粘贴自动同步文件 +grep
大文件处理强制截断或拒绝三级压缩(结构/文件名/警告)

七、总结

Cursor 的动态上下文发现架构可以用一句话概括:

用文件作为统一抽象,将「静态注入」转变为「动态发现」,实现 token 效率与响应质量的双重提升。

核心数据点

  • 46.9%:MCP 动态加载策略减少的 Agent 总 token 消耗
  • 5 大策略:长响应文件化、摘要时保留历史引用、支持 Agent Skills、MCP 惰性加载、终端会话文件同步
  • 3 级压缩:Condensed → Significantly Condensed → Not Included

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1149386.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Java毕设全套源码+文档】基于springboot的智能垃圾分类系统设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

分类模型效果提升50%:万能分类器调参+云端GPU实测

分类模型效果提升50%&#xff1a;万能分类器调参云端GPU实测 引言 作为一名算法工程师&#xff0c;你是否经历过这样的痛苦&#xff1a;为了优化分类模型参数&#xff0c;每次实验都要在本地机器上跑2小时&#xff0c;一天最多只能尝试5-6组参数组合&#xff1f;而当你终于找…

AI分类器调参技巧:云端GPU按需付费,试错成本直降80%

AI分类器调参技巧&#xff1a;云端GPU按需付费&#xff0c;试错成本直降80% 1. 为什么你需要云端GPU调参&#xff1f; 作为一名算法工程师&#xff0c;你是否经常遇到这些问题&#xff1a; - 本地GPU资源紧张&#xff0c;排队等待严重影响项目进度 - 调参实验需要反复尝试&am…

【Java毕设全套源码+文档】基于springboot的中药材进存销管理系统设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

支持REST API与Web交互|RaNER中文实体识别镜像详解

支持REST API与Web交互&#xff5c;RaNER中文实体识别镜像详解 1. 背景与技术价值 在信息爆炸的时代&#xff0c;非结构化文本数据&#xff08;如新闻、社交媒体、文档&#xff09;占据了数据总量的80%以上。如何从中高效提取关键信息&#xff0c;成为自然语言处理&#xff0…

基于VUE的学生线上选课系统[VUE]-计算机毕业设计源码+LW文档

摘要&#xff1a;随着互联网技术的飞速发展和教育信息化的深入推进&#xff0c;学生线上选课系统在高校教学管理中扮演着愈发重要的角色。本文旨在设计并实现一个基于Vue的学生线上选课系统&#xff0c;利用现代化的前端技术提升选课系统的用户体验和交互性。该系统涵盖了系统用…

MiDaS模型部署案例:室内场景深度估计实战

MiDaS模型部署案例&#xff1a;室内场景深度估计实战 1. 引言&#xff1a;AI 单目深度估计的现实意义 在计算机视觉领域&#xff0c;从单张2D图像中恢复3D空间结构一直是极具挑战性的任务。传统方法依赖多视角几何或激光雷达等硬件设备&#xff0c;成本高且部署复杂。近年来&…

【Java毕设全套源码+文档】基于springboot的中小学数字化教学资源管理平台设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

电脑风扇声音太大?一招解决

一、理解“最大处理器状态”的作用与原理 “最大处理器状态”是Windows电源管理中的一个关键设置项,位于“电源选项” -> “更改高级电源设置”中。它控制着系统在当前电源计划下允许处理器使用的最大性能百分比。 设置为100%:允许CPU全速运行,适用于高性能需求场景。 设…

AI单目测距全攻略:MiDaS模型部署步骤

AI单目测距全攻略&#xff1a;MiDaS模型部署步骤 1. 技术背景与应用场景 在计算机视觉领域&#xff0c;深度估计是实现3D空间感知的关键技术之一。传统方法依赖双目摄像头或多传感器融合&#xff08;如LiDAR&#xff09;&#xff0c;但这类方案成本高、部署复杂。近年来&…

AI万能分类器5分钟上手:云端GPU开箱即用,新手友好

AI万能分类器5分钟上手&#xff1a;云端GPU开箱即用&#xff0c;新手友好 引言&#xff1a;为什么你需要万能分类器&#xff1f; 想象一下&#xff0c;你手机相册里有上千张照片&#xff0c;想快速找出所有包含"猫"的照片&#xff1b;或者你有一堆文档&#xff0c;…

企业AI智能体落地全攻略:5大层级、4大场景、10大案例,小白也能快速上手

最近后台总有企业朋友问&#xff1a;“AI 智能体很火&#xff0c;但我们到底该从哪切入&#xff1f;落地会不会踩坑&#xff1f;” 刚好腾讯云联合腾讯研究院、Gartner 发布了《企业级智能体产业落地研究报告》『文末有下载地址』&#xff0c;从 “是什么、5个能力层级、怎么选…

从图片到深度图:MiDaS模型实战教程

从图片到深度图&#xff1a;MiDaS模型实战教程 1. 引言&#xff1a;AI 单目深度估计的现实意义 在计算机视觉领域&#xff0c;从二维图像中恢复三维空间结构一直是极具挑战性的任务。传统方法依赖双目立体视觉或多传感器融合&#xff08;如激光雷达&#xff09;&#xff0c;但…

没N卡怎么训练分类模型?云端T4显卡1小时1.2元解忧

没N卡怎么训练分类模型&#xff1f;云端T4显卡1小时1.2元解忧 1. 为什么需要云端GPU训练&#xff1f; 很多算法爱好者想尝试训练自己的分类模型&#xff0c;但常遇到两个难题&#xff1a;一是家用电脑的AMD显卡不支持CUDA加速&#xff0c;二是专业显卡价格昂贵。其实解决方案…

【Java毕设全套源码+文档】基于springboot的大学兼职系统设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

混合语言翻译怎么破?HY-MT1.5-7B镜像高级功能详解

混合语言翻译怎么破&#xff1f;HY-MT1.5-7B镜像高级功能详解 1. 多语言融合场景下的翻译挑战与HY-MT1.5-7B的破局之道 在全球化加速的背景下&#xff0c;跨语言交流已从“单语→标准译文”演变为复杂多样的真实语境交互。用户在日常沟通中频繁使用中英夹杂、方言混用、专业术…

分类任务数据预处理:万能分类器配套工具+GPU加速

分类任务数据预处理&#xff1a;万能分类器配套工具GPU加速 引言 当你手头有百万张图片需要分类时&#xff0c;最头疼的问题是什么&#xff1f;是本地电脑跑一晚上只处理了十分之一&#xff0c;还是反复调整参数却看不到进度条前进&#xff1f;作为一名处理过数十个分类项目的…

AGI-Next前沿峰会「沉思报告」——中国AGI背后的产业逻辑与战略分野

本文借助「AMiner沉思」GLM-4.6能力对AGI-Next峰会相关资讯进行多轮检索完成。 本报告旨在对2026年1月10日于北京举行的“AGI-Next前沿峰会”闭门会议进行一次系统性、深度的研究与分析。 该峰会汇聚了中国人工智能&#xff08;AI&#xff09;领域最具影响力的四位产业领袖——…

MiDaS实战应用:室内设计场景深度估计案例

MiDaS实战应用&#xff1a;室内设计场景深度估计案例 1. 引言&#xff1a;AI 单目深度估计在室内设计中的价值 随着人工智能与计算机视觉技术的深度融合&#xff0c;单目深度估计&#xff08;Monocular Depth Estimation&#xff09;正逐步从学术研究走向实际工程落地。尤其在…