这是一个很自然的疑问 —— 我看到了 Mythos 的强大,我看到了 Gemini 能直接刷满高考数学甚至 IMO,我看到了 GPT Pro 模型在几个小时内就给出了 “博士论文级别的框架”。与此同时,又有人在告诉我,transformer 是概率模型,缺乏真正理解,泛化能力弱…… 矛盾呐。
LLM 无法成就 AGI
AI无需恐慌,棋局尚未结束… 观本文有感
但是,有个问题 ——AGI,通用人工智能,到底是什么?

谷歌告诉我是这些——哦,Gemini告诉我是这些。有些幽默,不是么
好吧,学习能力、人类级别的智慧…… 但这些标准本身也很泛化、不精准。我的智慧和爱因斯坦的智慧是同一个智慧吗?
图灵当年用 “模仿游戏” 来绕开这个问题,只问像不像。图灵老祖给出了个很聪明的做法,把这个 “哲学” 问题换成了可量化的工程问题。但我还是想问 ——
- 意识与智能,能分离吗?
- 如果可以,那我们不需要 “意识”,只需要功能。这似乎与 AGI 的目标背道而驰
- 如果不能 —— 那么,意识怎么检测?谁也不知道。
- 处理和理解如何区分?
- 有一个很有名的实验,塞尔的 “中文房间”,佬们可以搜搜,大概意思就是 “会用语言” 和 “理解语言” 完全是两码事。这和 LLM 的现状很相似,也很可怕
- 智能需要目的性吗?
- 人的智能,至少在一定程度上源于进化压力。人工智能没有这种压力,它的 “智能” 的目标是外加的。这是根因(我靠我怎么也学着 GPT 用这个词儿了)的缺失。
所以我想,当某一天一个智能系统真的出现了,我们能认出它吗?还是会因为立场不同,永远争论它 “算不算”?
我还想继续思考下去,所以我暂时给出我的简单的定义:智能需要正反馈与负反馈调节,自迭代,自优化,自存续的趋势。
这已经是最低纲领了,用控制论的视角来定义,把苍蝇细菌甚至 “资本” 这一抽象物也包括进了智能里。我想再精确到 “人类的智能”,于是我加上了对世界的认知与建模能力。一个二维的标准,个人觉得有一定参考性。

生物几十亿年的进化都专注于 “自我存续”,“认知能力” 是近数万年来的、全新的、昂贵的副产物,它是生存的高级工具,但又有脱离生存、自我驱动的一面(尼采把自己写疯了就是个很典型的例子)
那么 AGI 至少需要能自主构建一个世界模型,也能通过这种知识反哺于自我存续自我迭代,二者耦合,方为人工智能。
这像什么?这像是在造人了。我们试图赋予某一人造物在 “服务人类” 以外的内在目的性,尽管我们的本初目的是让 AI 为人类服务。但显然,我们不可能造出一个 “只有一点点自我存续欲望” 的人工智能,它会在自迭代和正负反馈调节中不断强化。甚至于,邯郸学步的 LLM 都有这种自我存续的意图。
那我们人类是不是被创造出来的?
跑题有点远了,有了以上铺垫,回到问题:人类能实现 AGI 吗?
由此,我从形式逻辑上认为:能。有两种情况,一,人类有更高一级的造物主;二,没有。
一,人类是某个超级系统创造的子级自迭代系统
- 我们本身就是被造物主创造的证明
- 自迭代系统能产生下一级自迭代系统,已被证明
- 我们有能力造出下一级
二,人类不是任何系统的产物,是自发涌现的
- 我们是已知宇宙中自迭代复杂性的最高峰
- 没有任何理由我们造不出比自己更低级的东西
- 我们有能力造出下一级
两种情况下结论相同。有趣吧?
这里面是有逻辑谬误的,我承认。但至少看起来还是有几分道理的。要对我们的同类有信心啊!
同时,LLM 和真正的 AGI 必然相去甚远,所以大家也不必焦虑
。要是真快要实现 AGI 了,那就不是 Dario 开个小灶这种小打小闹咯~
14 个帖子 - 9 位参与者