主要内容
LLM的渗透已进入“内化期”。市场关注点正从单纯的流量规模转向量化的价值创造(推理深度、职场渗透率、生态协同)。厂商竞争的关键点将在于如何通过提升“逻辑深度”来优化“信息质量”,并在职场及全球化增量市场中实现差异化价值捕获。
1.渗透斜率:从“单极爆发”转向“多极竞合”与“全球下沉”
- 增长换挡:ChatGPT虽增速放缓,但基数效应依然庞大;以Gemini为代表的竞品正通过差异化增速(MAU增长30%)打破先发优势带来的市场垄断。
- 地理位移:增量重心已由高收入国家向印度等新兴市场显著迁移。印度市场的日活(DAU)已达美国两倍以上,全球化已成为增长的必然路径。
- 集成革命:渗透路径正从“独立App/网页”向“原生生态集成”转化。通过搜索(Google Search)和社交生态(Meta AI)的无缝植入,AI正实现对超十亿量级用户的低门槛触达。
2.用户行为:交互重心向移动端与深度推理迁移
- 媒介转换:流量正加速从网页端向移动端(APP)归集,用户粘性显著增强,日均使用时长及处理消息量的增速远超用户规模增速。
- 质变信号:随着“思考/推理”模式的引入,单次交互的复杂度、Token消耗量及对话轮次大幅增加。这标志着LLM已从浅层的“百科查询”转化为深层的“生产力协同”。
3.商业闭环:C端订阅驱动的强劲价值捕获
- 盈利逻辑:OpenAI快速攀升的年化收入(触及190亿美元)验证了极强的变现效率。
- 模式验证:约70%的营收源于消费者订阅,证明了LLM在C端已形成稳固的商业闭环,而非仅依赖B端的资源投入。
4.社会画像:职场“影子AI”与跨代际的全面渗透
- 自下而上的职场革命:呈现明显的“影子AI”(Shadow AI)特征——员工自发应用AI提升效率的比例远高于企业官方授权,技术渗透动力源于个体的效率焦虑而非行政指令。
- 人口统计学演进:
跨越鸿沟:老年群体(65+)的渗透曲线正复刻早期互联网与智能手机的爆发轨迹,标志着AI正从极客玩具转变为普适性的数字基础设施。
性别抹平:早期应用中的性别差异在通用场景下趋于消退,AI工具属性的广谱性进一步凸显。
LLM渗透趋势及其驱动因素分析
消费者端LLM渗透的演进斜率
当前,LLM的市场渗透正进入新阶段。用户群体不仅规模持续扩张,且在产品选择与应用场景上呈现出明显的多元化趋势。
2025年上半年,ChatGPT展现了极强的增长动能,周活跃用户数(WAU)从1月的不足4亿跃升至8月的近8亿,月均复合增长约5000万用户。尽管近期增速略有放缓,但目前尚不足以判定这是增长瓶颈的信号,还是市场进入平稳期的周期性波动。
LLM的渗透进程是否已触及天花板?数据给出了否定回答。即便ChatGPT增速放缓,其他头部LLM正处于加速追赶态势。8月至11月间,Gemini的月活跃用户数(MAU)增长约30%,远超ChatGPT同期5%的增速。考虑到两款产品均拥有数亿量级的用户基数,这一增长偏差具有显著的战略意义。目前,ChatGPT仍保持绝对的市场份额优势:调研显示,约35%的受访者在上周使用过ChatGPT,而Gemini的渗透率为24%。
从地域分布看,增量引擎已明显转向海外市场。OpenAI数据显示,截至2025年中期,高收入国家互联网用户的每周LLM使用率已达30%。随着美国本土市场趋于饱和,全球化增长将成为主流。以印度市场为例,ChatGPT日活跃用户数在过去一年内增长了7倍,规模已达美国的两倍以上;11月单月,Gemini在印度的DAU亦实现了15%的跳跃式增长。
此外,LLM的渗透路径正在发生范式转移:从独立入口向生态集成演进。Google Search已于12月全面上线基于Gemini 3的“AI模式”,而Meta则凭借其社交生态(WhatsApp、Messenger、Instagram)覆盖了超10亿月活跃用户。若Meta能成功将社交粘性转化为AI应用习惯,其潜在的用户触达能力将直接挑战现有市场格局。
应用端强度升级与交互媒介的转移
用户规模的横向扩张之外,单个用户的使用强度正在纵向深化。2024年6月至2025年间,ChatGPT消息处理量的增速持续领先于用户规模增速,反映出用户对工具的依赖度正在加深。
交互媒介的结构性变化值得关注。SimilarWeb监测显示,ChatGPT的网页端流量近期趋于平稳,而Gemini则保持上升势头。这种表象下的深层动向是用户向移动端的加速迁移。2024年10月至2025年9月,ChatGPT应用下载量高达19亿次,位居全球榜首。用户在APP内的停留时间亦在增加,截至11月,ChatGPT日均时长增至17分钟;Gemini日均时长较3月实现了120%的爆发式增长。
值得注意的是,单纯的流量维度已不足以全面衡量LLM的价值创造。随着推理模型(如ChatGPT“思考”模式)的引入,单次交互消耗的Token量与对话轮次正在增加。虽然“重度用户”对总消耗量的贡献占比尚待进一步穿透,但可以确认的是,LLM的应用深度已发生质的飞跃。
厂商价值捕获:营收增长折射渗透逻辑
用户规模与使用强度的双重增长,最终体现为厂商极强的财务变现能力。OpenAI在8月的年化收入已达130亿美元,年同比增长4.3倍。截至12月中旬,其年化收入已触及190亿美元,虽略低于极值推算,但整体增长逻辑未发生偏移。
从营收结构看,消费者订阅仍是绝对支柱。7月数据显示,其3500万订阅用户贡献了约84亿美元的年化收入,占比超70%。这证明LLM在C端的商业模式已完成闭环,并非单纯依赖B端扩张。
LLM在社会生产力中的渗透画像
技术渗透的真实权重,取决于其对工作流与社会结构的改变程度。
职场应用:员工驱动的“自下而上”渗透
LLM已深度切入职场生态。Ramp AI Index显示,订阅AI工具的美国企业比例持续攀升。但真正的渗透动力来自员工侧:36%的受访者在上周使用AI辅助办公,但其中仅约18%获得了公司的官方授权。这种“影子AI”(Shadow AI)现象表明,AI已成为员工提升个人产出的自发选择,而非单纯的行政指令。
核心诉求:信息获取与实用指导的双重驱动
尽管模型能力不断边界扩张,但“信息检索”仍是核心用例(58%)。有趣的是,OpenAI的数据显示“实用指导”在消息量中占比极高,这反映出相比简单的信息查询,用户更倾向于在复杂任务中与AI进行多轮交互。
这引发了战略思考:AI实验室追求的极值性能(如复杂的数学推理或编程)是否与大众需求脱节?事实上,能力曲线通常是耦合的。尖端逻辑能力的提升往往能同步强化信息检索的精准度。除非未来两者出现显著的路径分歧,否则追求前沿性能仍是提升大众用户体验的最短路径。
社会分层与人口统计特征
LLM的使用分布呈现出明显的收入与年龄阶梯。高收入群体对前沿模型展现出更高的接纳度与支付意愿。
在年龄维度上,18-34岁群体仍是主力,但65岁以上群体的渗透轨迹极具参考价值。目前,该年龄段34%的使用率,其演进曲线几乎完美复刻了2007年的互联网渗透进程(35%)和2015年的智能手机渗透进程(30-40%)。这标志着AI在老年群体中已跨越早期采纳阶段,进入爆发前夜。
性别鸿沟则在迅速消退。目前男女使用比例分别为59.8%和54.4%,早期明显的性别偏差在通用应用场景下已基本磨平。
结论
LLM的渗透进程正经历从“规模扩张”向“深度渗透”的动能转换。尽管网页端流量显现饱和迹象,但移动端迁移、使用强度增加以及生态集成正构建起更稳固的增长底层。用户正将LLM内化为一种新型的基础设施工具,其核心价值聚焦于信息处理效率与任务引导。对于厂商而言,如何在保持尖端能力竞赛的同时,更有效地捕获职场及全球增量市场的机会,将是下一阶段竞争的关键。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。