Meta刚掏出20亿美元把Manus收入囊中的同时,一份名单也随即在VC圈疯传——
“1亿美元ARR俱乐部”。
上榜公司不多,但个个鼎鼎大名:
- Perplexity:200亿美元
- ElevenLabs:66亿美元
- Lovable:66亿美元
- Replit:30亿美元+
- Suno:25亿美元
- Gamma:21亿美元
- Character:10亿美元+
- Manus:5亿美元
- HeyGen:5亿美元+
(以上数据代表公司估值)
随便单拎一个出来,都是如今炙手可热的存在。
△图片由AI生成
1亿美元ARR,不过是它们交给硅谷的入场券。
但要知道这个数字,对绝大多数初创公司来说,都是从0到1的绝对天堑。
要厘清这一问题,不妨先回到ARR的定义上。它指的是产品一年之内稳定的收入,即可重复、可持续的真实收入。
它反映了一家AI公司最关键的问题:到底有没有人愿意为你的AI长期付费?
显然,上榜的这几家公司已经收获了自己的粘性用户群体。
而且无一例外,它们都不是Big Labs。
事情变得有趣起来,正如网友所说:
从基础模型转向消费者产品是今年最显著的趋势,ToC端是新的黄金。
“1亿美元ARR俱乐部”成员可划分为5大类
事实上,上榜者并非离散的孤例。
全局盘点之下,可以清晰地发现它们已然衍生出主要5类商业路径:
第一类,是AI搜索/信息服务。
以Perplexity为代表,通过AI搜索引擎,直接重构用户获取信息的方式。
Perplexity成立于2022年8月。今年3月,其CEO Aravind Srinivas正式官宣,产品ARR突破1亿美元大关。
第二类,是音频/语音基础能力产品。
典型例子是ElevenLabs,不直接面向普通消费者,而是成为众多应用背后的AI语音引擎,典型的AI Infra路线。
成立于2022年,虽然并未对外披露1亿美元ARR的具体时间点,但在今年9月宣布启动1亿美元的员工股权回购计划时,正式宣布ARR已超过2亿美元,并预计年底前达到3亿美元。
第三类,是Vibe Coding/开发工具。
Replit和Lovable代表的则是新的Vibe Coding趋势,让更多非技术用户进入开发领域。
其中Replit成立于2016年,并在今年6月宣布ARR破1亿美元,较2024年底的1000万美元实现了10倍增长。
Lovable则是在2023年正式成立,并在今年7月正式宣布ARR破1亿,随后又在11月更新了这一数据,来到了2亿美元ARR,成为增长最快的AI编程工具之一。
第四类,是内容/办公效率工具。
Gamma是这一类的代表,瞄准的是用户最刚需的办公场景——做PPT、写文档等。
它成立于2020年,同样也是在今年11月宣布ARR突破1亿美元,同期还完成了由A16Z领投的B轮6800万美元融资。
第五类,是生成式娱乐内容。
Suno和HeyGen则走向另一条路线,不直接提高效率,而是通过音乐、视频拓宽用户的娱乐边界。
其中Suno成立于2022年,援引知情人士透露,10月份公司ARR已达成1亿美元。
HeyGen成立于2020年,也是最早一批进入视频生成领域的初创公司,在今年10月,其创始人Joshua Xu在𝕏官宣首次达到1亿美元ARR。
补充一个小tips:像Replit这种明确写年化收入的,严格讲不等于ARR。
无一例外,全部ToC
看到这儿,最值得划重点的一点出现了:
这批跨过门槛的“俱乐部成员”,清一色都是ToC的。
这个结论本身就带着强烈的信号*(在很多人的直觉里,企业服务更愿意付费、更讲效率、更有预算,似乎更容易做出大收入)*。
背后原因和AI产品所处的阶段有关,也和ToC的运行机制有关。
AI 2.0方兴未艾,用户对产品的容忍度还很高。
每一次迭代都可能给用户带来新的惊喜,用户愿意持续付费。
当然,另一个隐藏的致命打击伴随而来:用户粘性其实并不高,谁好用我就赶紧撇下原本的心头宝,高高兴兴拥抱新产品去了。
但整体而言,其实用户今天试用,明天续费,后天流失,也不是什么坏事。
在AI早期我们不妨把它看作一种优势,它让产品用最短的时间获得最真实的反馈。
所以走ToC这条路,能让团队迅速收到反馈,高速试错,快速调整。
当行业处在高速不确定期,快本身就是优势。
与此同时,ToC的规模效应对AI应用的单位经济学有一种倒逼机制。
这就不得不回到ARR这个话题来。
AI 2.0时代,1亿美元ARR这条线天然自带一条更朴素的约束:
AI-Native应用的生意逻辑,天然带着推理成本这根计价绳。
传统互联网产品一旦完成研发,边际成本往往趋近于零。
用户多一倍,成本未必跟着多一倍,很多产品因此可以用规模来摊薄成本,再用摊薄后的利润去换更大的规模。
AI-Native应用走的是另一条路。
每一次响应、每一次生成、每一次多轮对话,都在消耗推理成本。
用户增长得越快,调用就越频繁,算力账单上的数字就开始光速膨胀。
这就迫使团队不得不更早地去思考,从长期视角来看,用户带来的价值增量能不能跑赢token和算力的消耗速度。
否则规模会把产品推向一种很尴尬的状态——
好消息,收入在涨!
坏消息,成本同样在涨,甚至涨得更快*(摊手.jpg)*。
巨头们可以用别的现金奶牛来给AI产品不停输血,但创业公司就只有自己想方设法长期造血了。
要么客单价足够高,高到可以覆盖每一次推理的成本,并且为持续迭代留出空间;要么推理链路持续迭代到更短,把“多轮、重推理”压缩成“少轮、轻推理”,让同样的付费收入对应更低的算力消耗。
总之就是必须找到成本与收入同向的营收方式。
从某种角度来说,于这些应用背后的AI创企而言,商业模式或许比技术、功能更像条护城河。
当然,其中不乏一层更外部的因素。
不管是资本市场,还是媒体侧、用户侧,都很喜闻乐见ToC产品和创业公司出爆款的故事。
这一点咱们今天在这儿就不做赘述了。
几个月复刻个Manus呗?AI世界里,这笔账并不划算
之所以Perplexity、Replit、Manus都愿意站出来宣告自己达到“1亿美元ARR”,一定程度上是这个数字的确拿得出手。
往深了说,它证明这些AI产品阶段性站稳了脚跟。
对ToC产品来说,这意味着它不再完全依赖短期热度驱动增长,而是开始拥有某种持续运转的内生动力。
这也是Meta愿意买Manus的原因之一。
很多人说,Manus出来第二天开源社区就有了OpenManus,Meta有钱有人有资源,看上了Manus,咋就不自己在内部迅速copy一个类似的应用呢?
归根结底,主要是这么做真的不划算。
产品层面,AI迭代速度太快,技术、成本、需求、能力边界都在变化,今天看起来可以复刻的形态,几个月后可能已经被用户标准刷新。
你自己做的这段时间,Manus都又跑出几里地去了。
而且AI产品的竞争,还要争夺快速固化用户心智的窗口期。
从Meta的视角出发,我自己在消费级AI产品上没有一个拿得出手的爆款,现在有一个经历过市场验证的Manus摆在我面前,价钱还不贵*(与Perplexity等相比)*。
那不如掏钱买了吧!
于是可以顺理成章把双方各自擅长的东西拼在一起——
Meta有平台,有更强的触达能力还有更高效的流量组织;Manus有清晰的付费逻辑,现成的粘性用户,已经做过几个月更贴近用户的体验打磨。
双方都能各自把长板用到极致。
一夜之间,Meta就拥有了成熟的AI付费业务。
何况,买回来的不只是Manus这个产品 。
Meta想收购不仅是Manus这个产品,还有这个能做好AI应用的人才团队。
你看,Manus创始人兼CEO肖弘,不就被扎克伯格任命为副总裁,把Manus的通用Agent能力整合进Meta AI、WhatsApp、Instagram等产品,稍带手推动商业化去了嘛……
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。