《大模型通识课:技术演进、商业革命与业落地》--前言+第一张

用 > 格式的都是原书的摘录,然后普通文本都是自己的理解, --> 当时随想 前言 AI不是替代工具,而是我们自身思维方式的延展。 所谓“思维链”,是一种让机器不再仅仅给出结果,而是能够展示、构建、优化推理路径的能力。 智能的本质不是数据堆砌,而是路径构建;不是知道答案,而是解释过程。 人类文明的每...
《大模型通识课:技术演进、商业革命与业落地》--前言+第一张
《大模型通识课:技术演进、商业革命与业落地》--前言+第一张

> 格式的都是原书的摘录,然后普通文本都是自己的理解,-->当时随想

前言

  1. AI不是替代工具,而是我们自身思维方式的延展。
  2. 所谓“思维链”,是一种让机器不再仅仅给出结果,而是能够展示、构建、优化推理路径的能力。
  3. 智能的本质不是数据堆砌,而是路径构建;不是知道答案,而是解释过程。
  4. 人类文明的每一次重大跨越,都始于思维方式的革命。
  5. 传统AI系统如同精密的复读机,能够复刻知识图谱,却难以在陌生场景中构建逻辑链条。基于思维链的大模型技术打破了这种僵局,让AI系统开始展示出分步推

传统 AI 系统如同精密的复读机,能够复刻知识,却难以真正组织推理。随着大模型与思维链技术的发展,AI 不再只是替代人类完成任务的工具,而逐渐成为人类思维方式的延展。所谓思维链,正是让模型从单纯给出答案,转向构建、展示并优化推理路径的能力。它打破了传统 AI 依赖知识复现的局限,使智能的重点从“知道什么”转向“如何理解、如何推导、如何解释”。

第1章 AI的进化与大语言模型时代

  1. 机器不仅开始回答问题,更开始展示它们的思考过程。
  2. 当机器的思考轨迹首次以透明化的链条呈现,人类认知史的坐标系被重塑。
  3. 20世纪60年代,AI研究主要集中在符号主义(Symbo-lism)和专家系统(Expert System)上。符号主义试图通过逻辑和规则来模拟人类的思维过程。–> 将人类的思考抽象成代码的规律,但是在处理复杂和模糊的问题上有很大的局限性,也就是只会用人类预先写号的规则进行推理。局限在于问题变得复杂、模糊、不确定,或者没有预制好就不大可能进行灵活性处理。==没有真实的自适应能力和自主学习能力,然后可以结合下面遇到的挑战,更多的是过程中的结论,得出来的结果上的表现
  4. 符号主义的核心思想是通过逻辑和规则来表示知识和推理过程。
  5. 符号主义面临的挑战:1. 知识标识的复杂性,因为人类的知识是复杂和多样的,很难通过一组固定的规律来完全表示;2. 推理过程的复杂性,在处理简单、明细的问题时候表现良好,但是面对复杂和模糊的问题时候,显得力不从心
  6. 在符号主义遇到困境的时候,专家系统开始崭露头角,专家系统是通过编码专家知识来解决特定领域的问题,例子为MTCIN,通过一些列“如果-那么”(if-then)规律来模拟医生的诊断过程
  7. 同时专家系统也遇到了一定的局限性:1. 知识获取;2. 知识更新
  8. 进入20世纪80年代,AI研究迎来了一个新的高潮。神经网络和机器学习开始崭露头角。神经网络的灵感来自人脑的结构,通过模拟神经元之间的连接来处理信息。
  9. 20世纪80年代,随着反向传播算法(Backpropagation)的提出,机器学习才真正兴起。反向传播算法由Geoffrey Hinton、David Rumelhart和Ronald Williams在1986年提出,它解决了训练多层神经网络的难题,使得神经网络在处理复杂任务时变得更加高效。反向传播算法通过计算误差的梯度,并将梯度信息反向传播到每一层神经元,从而调整权重,逐步减少误差。–> 也就是说,神经网络作为机器学习的一个子项,然后多层神经网络遇到了一个问题,能力很强,但是有一个问题,不知道怎么让它有效的学会,单层的比较简单,输入进去输出错了,能够比较直观的知道有哪些权重要改,但是多层,中间因为层数多了,不太清楚是中间那一层错了,==得到了当时关键的难题,误差分配问题,这个时候反向传播算法出来,通过将错误一层层回传,计算每个层级对错误的责任,然后模型才知道哪些参数要调大调小,综合上所说,反向传播算法其实就是一本错题本,辅助神经网络进行复盘
  10. 机器学习的核心思想是通过数据驱动的方法让计算机从经验中学习,而不是依赖于预定义的规则。这个阶段的研究主要集中在监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)上。监督学习通过标注数据进行训练,而无监督学习则试图从未标注的数据中发现模式和结构。–> 无监督学习不是“有一个校验算法,所以模型就没必要学”,因为"需要一个目标或指标来引导学习,但真正被训练出来的模型,才负责提取结构、压缩信息、生成表示,并用于后续任务。"
  11. 强化学习(Reinforcement Learning)作为机器学习的一个重要分支,也在这一时期得到了发展。强化学习通过与环境的交互,学习如何采取行动以最大化累积奖励。
  12. 深度学习的成功可归因于3个关键因素:计算能力的指数级增长、大规模标注数据集的可获取性和算法的创新。–> 算力更强、数据更多、算法更好
  13. 大语言模型(Large Language Model,LLM)是自然语言处理领域的一个重要突破。大语言模型通过训练海量的文本数据来学习,能够生成和理解自然语言。
  14. 缩放定律:模型性能与参数规模呈对数线性关系,即性能提升与参数量的对数成正比。–> 当模型参数、训练数据和计算量不断扩大时,模型能力通常会按照某种可预测规律提升。≈ 参数越大,能力越大
  15. 能力涌现:某些能力在模型规模未达到特定阈值之前几乎不存在或表现极差,而超过阈值后,这些能力会突然出现或显著提升 → 应该和前面的差不多,当模型参数提升以后,原本小参数缺失/较为落后的能力突然提升
  16. 涌现能力和技术突破的关联:1. MoE(Mixture of Expert,混合专家);2. 稀疏注意力机制;3. 训练数据优化
  17. 预训练范式:模型在海量数据的“考试”中,通过人类的对齐和反馈,大致理解了世界应当怎样运转,能够根据统计规律和经验回答大多数问题。模型更像一位“见多识广但未必深究”的学生,通过不断做题、背题、记题来迅速扩充知识储备。它可以在多数场合给出漂亮的答案,却没有真正了解为何如此回答。这使得模型的“思考”带有统计意义上的正确性,却常常欠缺真正的推理内核。
  18. 推理模型:更强调“知其所以然“,正逐步展现出自反思能力:当一条推理链出现漏洞或者低效时,模型可以主动检讨自己的思路,并尝试修正或优化。当模型知道了“为什么”之后,就能根据具体的环境上下文去制定最佳执行策略,进而带来真正的行动层变革。

AI 的发展路线,是从人工规则走向数据学习,再走向大规模模型与推理能力的形成。

最早的时候AI研究主要是集中在符号主义和专家系统,但是二者均有各自的缺陷,后面AI研究迎来了一个新的高潮机器学习和神经网络,神经网络的灵感来自人脑的结构,通过模拟神经元之间的连接来处理信息。神经网络作为机器学习的一个子项,然后多层神经网络遇到了一个问题,能力很强,但是有一个问题,不知道怎么让它有效的学会,单层的比较简单,输入进去输出错了,能够比较直观的知道有哪些权重要改,但是多层,中间因为层数多了,不太清楚是中间那一层错了,==得到了当时关键的难题,误差分配问题,这个时候反向传播算法出来,通过将错误一层层回传,计算每个层级对错误的责任,然后模型才知道哪些参数要调大调小,综合上所说,反向传播算法其实就是一本错题本,辅助神经网络进行复盘。

机器学习的核心就是基于数据驱动,让计算机从经验钟学习,而不是和符号主义/专家系统一样基于预定义的规则,而是主要集中在监督学习 (通过标注数据进行训练)和无监督学习(试图从未标注的数据中发现模式和结构)

强化学习是机器学习的重要分支。不同于监督学习依赖标注答案,强化学习更强调智能体与环境之间的交互。智能体通过不断尝试行动,并根据环境给予的奖励或惩罚来调整自身策略,最终学习如何在长期过程中获得最大累积奖励。它更适合描述决策、控制、游戏、机器人等需要连续行动和反馈的问题。

深度学习的成功其实就是:算力更强大、数据量多了、算法优化的更好了,类似踩着前面的经验的出来强大成品?

大语言模型通过海量的文本数据学习,有两个特性:1. 缩放定律:随着参数规模、数据规模和计算资源扩大,模型性能通常会按照一定规律提升。;2. 能力涌现:当模型参数提升以后,原本小参数缺失/较为落后的能力突然提升,当然能力的涌现也是和技术的突破有关联的。

预训练出来的模型更像是一味见多识广但是不太会深究的学生,善用题海战术拓宽知识能力,能给出大部分“令人满意”的答案,却不会真正了解为什么是这样,知其然不知其所以然。随机后续出现了推理模型,主要是解决预训练出来的传统模型缺乏稳定的推理过程和可解释的推理路径的问题,也就是逐步展现反思能力,能够在推理过程中检查、修正和优化自己的推理路径,并优化

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文