如果你最近在深度用 Claude Code,大概率会遇到一个很现实的问题:越用越强,但上下文也越用越贵。
指令写得越专业、工具接得越多、流程越复杂,token 消耗就越夸张,最后不是模型不行,而是上下文先爆了。
年初我就关注过 Shaw Talebi,这哥们一直在拆解 DeepSeek、Claude、Agent 架构,讲得非常“工程师”。最近他系统讲了一次 Anthropic 新推出的Skills,我看完只有一个感觉:这玩意儿是上下文管理的答案之一,而且比我想象中重要得多。
很多人还没意识到,Skills 可能会成为继 MCP 之后,另一个会被“抄走、扩散、标准化”的 Agent 能力模块。
先说结论:Skills 解决的不是“Claude 会不会干活”,而是“怎么在不撑爆上下文的情况下,让它会越来越多的活”。
我们以前干过什么?
要么每次手写一大段 prompt;
要么在 Notion、Docs 里存一堆模板,用的时候复制粘贴;
要么干脆把所有指令一股脑塞进 system prompt 里,指望模型“记住”。
问题只有一个:贵,而且蠢。
Skills 的思路非常简单,也非常反直觉:不是把所有指令都给模型,而是只在“它真的需要的时候”再给。
Anthropic 给 Skills 定义的是procedural knowledge—— 程序性知识,说人话就是:“教 Claude 怎么一步步把事干对”。
它不是工具(那是 MCP 干的事),它也不是单纯的提示词,而是一整套“如何做事”的方法说明书。
Skills 最核心的设计理念叫一个词:渐进式披露(Progressive Disclosure)。
我第一次看到实现方式的时候,说实话有点愣住了——一个技能,本质上就是一个文件夹。
里面最关键的文件叫skill.md,而这个文件,被拆成了三层上下文。
第一层是元数据层。
你只需要写清楚两件事:skill 的名字和描述。这部分在 Claude 启动时就加载,但只占大约100 个 token。也就是说,你可以挂几十个 skill,成本几乎可以忽略。
第二层是指令主体层。
真正教 Claude “该怎么做事”的详细指令,最多 5000 token,但只有当 Claude 判断“这个 skill 和当前对话有关”时,才会去读。写作 skill、SaaS 验证 skill、前端审计 skill,互不干扰,互不浪费。
第三层是扩展资源层,这一步直接把上限掀了。
你可以在 skill 文件夹里继续放 markdown、子目录,甚至 Python、Node 脚本。Claude 会像翻资料一样,一层一层往下读,只读它需要的部分。
这一下,token 压力几乎被打穿。
Shaw 在视频里演示了一个让我印象特别深的例子:AI Tutor 技能。
这个 skill 的目标很明确:用“人话”解释技术概念。
skill.md里有一条非常关键的指令:
在回复前,先深度思考,尝试多种解释路径,评估目标受众,选择最佳结构,再规划例子。
就这一句,直接把 Claude 从“抢答型选手”拉回了“认真备课的老师”。
同时,他还放了一个research_methodology.md,200 多行,全是研究方法和资料验证流程。但注意——不是每个问题都会加载它。
你问“什么是梯度下降”,Claude 根本不会去翻这份文件;你问“解释 GRPO 并做调研”,它才会主动加载研究指南,启动搜索,甚至调用脚本。
这就是渐进披露的价值:不是每个问题,都配得上同一套重量级上下文。
更狠的是,Skills 还能自带工具。
Claude 的运行环境里有 bash、有 Python、有 Node.js。Shaw 的 AI Tutor skill 里就放了一个 Python 脚本,用来抓 YouTube 视频字幕。
在skill.md里只要告诉 Claude:
需要时运行
python scripts/get_transcript.py [url]
它就真的会跑。
这意味着什么?Skills 已经不是“静态指令集合”,而是可执行的完整工作流封装。
那 Skills 和 MCP 到底怎么分工?Shaw 给了一个我觉得特别清晰的判断标准:教 Claude 怎么做事,用 Skills;给 Claude 接新能力,用 MCP。
MCP 是外接系统能力,比如 Notion、Slack、数据库;Skills 是内化操作方法,比如“怎么高效用 Notion”。
还有一个经常被忽略的角色:Subagent。
在 Claude Code 里,主 Agent 是中枢,Subagent 是专项兵种。
你可以给 Subagent 单独配 MCP,让它查文档、跑研究,干完活再把结果丢回主 Agent,上下文完全隔离,不互相污染。
Skills、MCP、Subagent 三者拼在一起,才是 Claude Code 的完整形态。
如果让我一句话总结 Skills 的价值,那就是:它解决了“能力越强,上下文越贵”的根本矛盾。
传统做法是:能力叠加 = prompt 膨胀 = token 爆炸。
Skills 的做法是:能力模块化 + 按需加载 = 100 token 起步。
再往后看,我几乎可以确定一件事:Skills 这个理念,不会只停留在 Claude。
12 月 Anthropic 已经把 Agent Skills 规范作为开放标准发布在 agentskills.io,这意味着:你写的 skill,不一定永远只属于 Claude。
当“教 AI 怎么干活”这件事被标准化,真正拉开差距的,就不再是模型参数,而是你有没有把自己的方法论,沉淀成可复用的技能。
这,才是 Agent 时代真正值钱的东西。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。