标题本打算取 "llm真的能像人类一样理解我们所处的世界吗 “但想了下不妥,llm为何一定要用人类理解世界的方式去理解世界,如果这真的是"智能”,就像猫猫狗狗一样,他们与我们理解的世界的方式是不一样的,但经过训练,依然可以帮助人类。
我是没有llm训练原理上的研究的,我粗鄙的认为,以gpt解码器为例: llm是通过词嵌入把词转为向量,然后通过transformer中的公式进行概率计算,理解世界的方式就是概率,且人类无法理解这些词向量每个纬度的含义。llm是否真的理解这个词的含义,还是单纯的做概率计算计算概率最高的下一个词?
这里我是不太赞成这样的观点的: 按照公式,就是概率计算,本质上就是猜词。 我不认可的原因是:人类认识世界的本质是什么? 为什么指着苹果,就知道这是苹果,这个记忆在人脑里到底是啥,也许是某种生物结构?我们认为生物可以理解世界,但这些生物是怎么理解世界的?我们似乎也不清楚其他生物是怎么理解世界的
但是,我对我前面的这个观点也感到不靠谱,因为AI确实经常发癫,而且看cot思维链里,llm又是以类似我们思考问题的方式思考的,这和前面说的llm以不同于人类理解世界的方式去理解有点冲突,理解方式不一样但是思维模式类似?
13 个帖子 - 11 位参与者