大语言模型(LLMs)的新范式

我想谈谈大语言模型(LLMs),这种新范式及其生态系统 —— 这是一种什么样的新计算机?它的生态系统是什么样的?

我想起了 Andrew Ng 多年前的一句话(我想他之后会演讲):"人工智能是新的电力"。这句话很有道理,因为 LLMs 现在确实有 "公用设施" 的属性。

LLMs作为公用设施

像 OpenAI、Gemini、Anthropic 等 LLM 实验室,他们投入资本支出(capex)来训练 LLMs,这相当于建设电网;然后通过 API 提供智能服务,这需要运营支出(opex)。我们通过计量访问(比如按百万 token 付费)来使用这些服务,并且对 API 有很多类似公用设施的需求:低延迟、高可用性、稳定的质量等。

在电力系统中,有转换开关,可以在电网、太阳能、电池或发电机之间切换电源。在 LLM 领域,我们有 Open Router,可以轻松切换不同的 LLM。由于 LLM 是软件,它们不会争夺物理空间,所以可以有六个 "电力供应商",你可以在它们之间切换,因为它们不会直接竞争。

最近几天,很多 LLM 出现了故障,人们因此无法工作。这很有趣:当最先进的 LLM 出故障时,这就像是世界范围内的 "智能停电" —— 就像电网电压不稳定时,随着我们对这些模型的依赖度增加,世界会变得 "更笨"。这种依赖已经很显著,而且会继续加深。

LLMs与晶圆厂的类比

但 LLM 不仅有公用设施的属性,也有晶圆厂(fabs)的属性。因为构建 LLM 所需的资本支出非常庞大,不仅仅是建一座发电站那么简单。你需要投入巨额资金,而且技术树在快速发展。现在,我们处于一个技术树深厚的世界,研发秘密集中在 LLM 实验室中。

但这个类比也有不贴切之处,因为如前所述,LLM 是软件,软件的可塑性很强,所以防御性较弱。你可以把 4 纳米工艺节点想象成具有特定最大算力的集群;如果你只使用英伟达 GPU 做软件,不做硬件,这有点像无晶圆厂模式;而如果像谷歌那样,既做硬件(TPU)又做训练,就有点像英特尔模式,拥有自己的晶圆厂。这些类比有一定道理。

LLMs作为操作系统的类比

但我认为最贴切的类比是:LLM 很像操作系统。它们不仅仅是电力或水那样的商品,而是日益复杂的软件生态系统。现在的情况和操作系统的发展很相似:有几家闭源提供商(比如 Windows 或 Mac OS),也有开源替代方案(比如 Linux)。对于 LLM 来说,我们也有几家闭源提供商,而 Llama 生态系统目前可能接近 Linux 的地位。

当然,现在还很早,因为这些还只是简单的 LLM,但它们会变得越来越复杂。这不仅仅关乎 LLM 本身,还包括工具使用、多模态能力以及它们的协作方式。

我之前意识到这一点时,曾试图勾勒出它的轮廓:

  • LLM 就像一种新的操作系统

  • LLM 本身相当于 CPU

  • 上下文窗口相当于内存

  • LLM 通过这些能力来协调内存和计算以解决问题

从这个角度看,它非常像操作系统。

再举个类比:如果你想下载一个应用,比如 VS Code,你可以在 Windows、Linux 或 Mac 上运行它;同样,像 Cursor 这样的 LLM 应用,你可以在 GPT、Claude 或 Gemini 上运行 —— 只需一个下拉菜单切换即可。这一点也很相似。

LLMs与分时计算系统的类比

另一个让我印象深刻的类比是:我们现在有点像处于 20 世纪 60 年代 —— 这种新计算机(LLM)的算力仍然非常昂贵,