人类,能实现AGI吗?

这是一个很自然的疑问 —— 我看到了 Mythos 的强大,我看到了 Gemini 能直接刷满高考数学甚至 IMO,我看到了 GPT Pro 模型在几个小时内就给出了 “博士论文级别的框架”。与此同时,又有人在告诉我,transformer 是概率模型,缺乏真正理解,泛化能力弱…… 矛盾呐。 AI无...
人类,能实现AGI吗?
人类,能实现AGI吗?

这是一个很自然的疑问 —— 我看到了 Mythos 的强大,我看到了 Gemini 能直接刷满高考数学甚至 IMO,我看到了 GPT Pro 模型在几个小时内就给出了 “博士论文级别的框架”。与此同时,又有人在告诉我,transformer 是概率模型,缺乏真正理解,泛化能力弱…… 矛盾呐。

AI无需恐慌,棋局尚未结束…

LLM 无法成就 AGI

AI无需恐慌,棋局尚未结束… 观本文有感

但是,有个问题 ——AGI,通用人工智能,到底是什么?

1000159061.png
谷歌告诉我是这些——哦,Gemini告诉我是这些。有些幽默,不是么

好吧,学习能力、人类级别的智慧…… 但这些标准本身也很泛化、不精准。我的智慧和爱因斯坦的智慧是同一个智慧吗?
图灵当年用 “模仿游戏” 来绕开这个问题,只问像不像。图灵老祖给出了个很聪明的做法,把这个 “哲学” 问题换成了可量化的工程问题。但我还是想问 ——

  • 意识与智能,能分离吗?
    • 如果可以,那我们不需要 “意识”,只需要功能。这似乎与 AGI 的目标背道而驰
    • 如果不能 —— 那么,意识怎么检测?谁也不知道。
  • 处理和理解如何区分?
    • 有一个很有名的实验,塞尔的 “中文房间”,佬们可以搜搜,大概意思就是 “会用语言” 和 “理解语言” 完全是两码事。这和 LLM 的现状很相似,也很可怕
  • 智能需要目的性吗?
    • 人的智能,至少在一定程度上源于进化压力。人工智能没有这种压力,它的 “智能” 的目标是外加的。这是根因(我靠我怎么也学着 GPT 用这个词儿了)的缺失。

所以我想,当某一天一个智能系统真的出现了,我们能认出它吗?还是会因为立场不同,永远争论它 “算不算”?

我还想继续思考下去,所以我暂时给出我的简单的定义:智能需要正反馈与负反馈调节,自迭代,自优化,自存续的趋势

这已经是最低纲领了,用控制论的视角来定义,把苍蝇细菌甚至 “资本” 这一抽象物也包括进了智能里。我想再精确到 “人类的智能”,于是我加上了对世界的认知与建模能力。一个二维的标准,个人觉得有一定参考性。

1000159062.png
生物几十亿年的进化都专注于 “自我存续”,“认知能力” 是近数万年来的、全新的、昂贵的副产物,它是生存的高级工具,但又有脱离生存、自我驱动的一面(尼采把自己写疯了就是个很典型的例子)

那么 AGI 至少需要能自主构建一个世界模型,也能通过这种知识反哺于自我存续自我迭代,二者耦合,方为人工智能。

这像什么?这像是在造人了。我们试图赋予某一人造物在 “服务人类” 以外的内在目的性,尽管我们的本初目的是让 AI 为人类服务。但显然,我们不可能造出一个 “只有一点点自我存续欲望” 的人工智能,它会在自迭代和正负反馈调节中不断强化。甚至于,邯郸学步的 LLM 都有这种自我存续的意图。

那我们人类是不是被创造出来的?

跑题有点远了,有了以上铺垫,回到问题:人类能实现 AGI 吗?
由此,我从形式逻辑上认为:能。有两种情况,一,人类有更高一级的造物主;二,没有。

一,人类是某个超级系统创造的子级自迭代系统
- 我们本身就是被造物主创造的证明
- 自迭代系统能产生下一级自迭代系统,已被证明
- 我们有能力造出下一级

二,人类不是任何系统的产物,是自发涌现的
- 我们是已知宇宙中自迭代复杂性的最高峰
- 没有任何理由我们造不出比自己更低级的东西
- 我们有能力造出下一级

两种情况下结论相同。有趣吧?
这里面是有逻辑谬误的,我承认。但至少看起来还是有几分道理的。要对我们的同类有信心啊!
同时,LLM 和真正的 AGI 必然相去甚远,所以大家也不必焦虑:confounded_face:。要是真快要实现 AGI 了,那就不是 Dario 开个小灶这种小打小闹咯~

14 个帖子 - 9 位参与者

阅读完整话题

来源: linux.do查看原文