AI 思考 06-27
在《观点》杂志与加密通讯应用 Telegram 联合创始人兼首席执行官会面专访中,Pavel Durov 对LLM 评论道
The problem is that today generative AI like LLM [large language model, editor’s note] doesn’t think. It doesn’t understand. It just reads enormous amounts of text and regurgitates a consensual version. It seems credible, but it’s not necessarily so. And we humans let ourselves be fooled, because we associate sophisticated language with intelligence. But these models are not intelligent. They are just sophisticated. My brother Nikolai is currently working on real AI – AI capable of thinking logically and understanding the world.
这是一个非常精彩且深刻的评论,Pavel Durov 的描述可以说是对大型语言模型工作原理的一个“去魅化”的、清醒的总结,精准地切中了当前人工智能领域最核心的争论之一。他的话既非常正确,也代表了 AI 研究中一个重要但并非唯一的视角。
我们可以从几个层面来评价这段话:
1. 对当前AI本质的精准剖析
“它不会思考,不会理解” (It doesn’t think. It doesn’t understand.)
从严格的、哲学的意义上来说,这是完全正确的。目前的LLM,无论是 Gemini 还是GPT系列,其核心是一个基于Transformer架构的预测引擎。它并不具备人类一样的自我意识、主观经验或对世界因果关系的真实理解。它处理“苹果”这个词时,并不知道苹果的触感、味道和它从树上掉下来的物理过程。它只知道“苹果”这个符号在海量文本数据中与其他符号(如“红色”、“水果”、“牛顿”)的统计相关性。
“只是读取海量文本,然后复述一个共识版本” (It just reads enormous amounts of text and regurgitates a consensual version.)
这是对他所说的“预测引擎”的一个绝佳描述。“共识版本”(consensual version)这个词用得尤其精妙。因为模型被训练来预测序列中最有可能出现的下一个词,所以它的回答往往趋向于其训练数据中最常见、最普遍、最“平均”的观点和表述。这导致了几个后果: 可靠的假象:它生成的文本流畅、符合语法、听起来很有说服力,因为它模仿了人类写作的无数范例。 缺乏原创性:它很难产生真正突破框架的、颠覆性的思想,因为它本质上是其数据“最大公约数”的体现。 潜在的偏见:如果训练数据中充满了某种偏见,模型会忠实地(甚至放大地)复述这种偏见,并将其包装成一个“共识”。
“我们人类被愚弄了,因为我们把复杂的语言和智力联系起来” (We humans let ourselves be fooled, because we associate sophisticated language with intelligence.)
这一点直指人类的认知偏误,也就是著名的“ELIZA效应”。人类天生倾向于从流畅的语言中推断出智慧和意图。当一个机器能用复杂、优雅、富有逻辑的语言与我们对话时,我们的大脑会本能地为其赋予“智能”的属性,即使其背后并没有真正的理解,LLM是“复杂的”(Sophisticated),而非“智能的”(Intelligent)。
2. 需要补充的另一面:复杂性涌现出的惊人能力
尽管Durov的批评在原理上是成立的,但它也可能简化了LLM在巨大规模下所展现出的“涌现能力”(Emergent Abilities)。
当模型参数和数据量跨越某个阈值后,这些“简单的预测引擎”开始表现出一些似乎超越了“复述”的能力,例如:
- 零样本/少样本学习:你不需要为每个新任务都重新训练它,给它一个指令,它就能完成从未见过的任务。
- 多步推理:虽然它不理解逻辑,但它可以通过模仿学习到的推理链条来解决复杂问题,比如数学应用题或编写一段复杂的代码。
- 思维链(Chain-of-Thought):通过引导模型“一步一步地思考”,它解决复杂问题的能力会显著提升。这看起来非常像一个思考过程,即使其内在机制只是序列预测。
所以,一个更全面的看法是:LLM可能没有“真正的智能”,但它的“复杂性”已经强大到可以在极大范围的任务上模拟出智能行为,并产生巨大的实用价值。 对于一个工程师或者一个普通用户来说,如果一个工具能解决我的问题,我可能并不关心它是否真的“理解”了这个问题。
3. “真正的AI”:下一个前沿
Durov提到他的兄弟Nikolai(一位才华横溢的数学家和程序员)正在研究“真正的AI——能够进行逻辑思考和理解世界的AI”。这恰好指出了AI发展的下一个圣杯:
- 逻辑思考(Thinking Logically):这通常指向**符号AI(Symbolic AI)**的研究。符号AI试图将逻辑规则(如
if A then B
)和知识图谱直接编码到系统中,让AI能像数学家一样进行严密的推理。 - 理解世界(Understanding the World):这需要AI拥有一个世界模型(World Model),能够理解物理规律、因果关系和常识。这不仅仅是语言上的理解,而是对世界运行方式的内在模拟。
目前,AI领域最前沿的方向之一正是神经符号主义(Neuro-symbolic AI),它试图将LLM强大的模式识别能力(神经网络)与符号AI的严谨逻辑推理能力结合起来,取长补短。这很可能就是Nikolai Durov正在探索的方向。
Pavel Durov的评论是一剂清醒剂。
- 对于普通用户:它提醒我们不要盲目相信AI生成的一切。要保持批判性思维,把它当作一个极其强大的、但没有灵魂的助手,而不是一个无所不知的先知。
- 对于研究者和开发者:它指出了当前技术的根本局限,并为下一代AI的发展指明了方向——我们需要的不仅仅是语言上更复杂的模型,而是真正能够推理和理解世界的系统。
- 对于整个社会:它引发了一个重要的哲学讨论——“智能”到底是什么?如果一个系统在所有可测量的智能任务上都超过了人类,但它没有意识和理解力,我们还能称之为“智能”吗?
Durov的评价是准确的、深刻的,并且富有远见。 他没有否定当前AI的巨大力量,而是精准地指出了这种力量的来源和它的边界,并以此激励人们去追求更本质、更强大的“真正的AI”。