重新审视AI泡沫 | Daniel Miessler
为什么重大崩盘、AGI和数百万工作岗位被取代并不互斥
AI #商业 #经济 #投资 #技术 #未来
我曾发表过一篇短文(和一个视频),讨论为什么AI不应该被视为泡沫,因为泡沫是一种虚假信念,一旦破灭就没人会相信。
但正如我在那篇文章的注释中所说,这是个语义争论,如果这个名称已经被用作"对某事物的过度投资,导致许多投资者遭受损失"之类的意思,那么这场争论就已经输了。
好吧,争论确实输了。
这个词已经在金融行业广泛使用,所以某个有着"更好"定义的技术宅男无法改变什么。虽然我更喜欢我的定义,但这他妈的无关紧要。定义是社群共有的,是活的。
无论如何。
人们开始指出过度投资已经变得疯狂,据《市场观察》文章称,这个泡沫是互联网泡沫的17倍,次贷危机的4倍。这很庞大。
我不知道这是否真实,因为我不是那个领域的专家,但我想强调并区分几个我认为重要的观点。
Dwarkesh现在也采纳了我的定义。
首先,AI不会消失,我100%认为我们正朝着在2028年前可行地取代人类知识工作者的目标前进——这就是我对AGI的定义。甚至可能在2026或2027年实现。
正如Sholto在最近一期播客中谈到的,目前主要实验室的AI系统实在是...糟糕透顶。超级低效。基本上是一系列串联在一起的临时解决方案。换句话说,在AI创建/优化过程的每个环节都存在"松弛的绳索",等待被发现。另一种说法是,我们没有理由相信我们在AI的多个维度上已经接近最优。
但这并不能否定泡沫的存在。它只会让情况更加糟糕,因为被追逐的白鲸实际上是真实存在的。
只有一小部分的投资、初创企业和公司能在3-10年(或无论多长时间)的变革中存活下来,其余的都将在缺乏理解、远见、运气或无数其他原因中消亡。
最终我们会得到——姑且称之为20%——那些人会说:"我早就说过AI很了不起!",然后他们一飞冲天;还有80%的人会说:"结果证明那完全是垃圾,我失去了一切。"
我想让你们理解的是,这些情况并不互斥。所有这些都可以同时发生。
- 我们在2028年前实现AGI(人类知识工作者被取代)
- 到2030年,数百万工作岗位消失/减少
- 谷歌、OpenAI、Anthropic、英伟达等公司变得更加富有
- 大多数AI初创公司崩溃并消亡
- 许多AI初创公司蓬勃发展,用1-5%的劳动力取代传统公司
- 许多传统公司未能足够快地实施AI而被淘汰
- 许多传统公司最终实施AI并存活下来
- 大多数知识工作者将面临学习AI并用更少资源做更多事的巨大压力
- 许多人将永远无法再就业
- 一些人将比以往任何时候都更受雇主流并更加繁荣
这不是非此即彼的情况。这是一个混合体。
那么,为什么要指出这一点?
我强调这一点的原因是,上述10个叙述中的每一个都可能——而且经常是——被人们采纳,同时排斥其他叙述。
人们喜欢挑选一个并把它当作自己的信仰。
-
"将会发生大规模崩盘"
是的,没错。 -
"AGI可能很快实现,对知识工作来说将是噩梦"
是的,也没错。
问题是,选择其中一个的人往往会本能地反对其他可能性。好像一次只能发生一件事。
这导致了巨大的叙事两极分化:"社会将在两年内完全不同"和"你可以安全地忽略它"——如果数百万人相信这些观点,两者都会带来各自的问题。
不要只选一个。在复杂性中找到平衡。所有这些都很可能发生。
问题是我们会得到多少每种情况。
以及何时发生。
注释
甚至没有提到ASI,因为那样就变成2+2=5了。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
公众号二维码

公众号二维码
