数据法没有在场的问题
二〇二六年三月十二日,随着二审宣判,李小亮律师诉百度一案获得了相当终局性的结果。
简而言之,李小亮律师把百度告赢了。
至少从传统名誉权的结果看是这样。江苏省南京市中级人民法院在(2025)苏 01 民终 14271 号民事判决中,驳回北京百度网讯科技有限公司的上诉,维持一审判决:百度公司应当向李小亮书面道歉。
判决书查明,2024 年 9 月 30 日,在百度搜索中搜索“李小亮律师被判几年”,“AI 智能回答”给出的内容包括:“三年李小亮律师被判三年有期徒刑。根据探索结果,被告人李小亮因犯爆炸罪,被判处有期徒刑三年等等”,并展示李小亮穿律师袍的照片。
图:原判决书摘录,案涉 AI 智能回答事实。
从最朴素的视角来看,这当然是名誉侵权。一个正在执业的律师,被搜索产品用姓名、职业、肖像和虚构犯罪事实拼在一起,足以让陌生人、客户、同行和亲友形成负面评价。法院用《民法典》第 1024 条和第 1165 条处理,逻辑并不困难:内容指向明确,包含“被判刑”“被告人”“有期徒刑三年”等贬损性词汇,客观造成社会评价受损;百度通过 AI 技术将文字内容与图片加工合成,主观上存有过错。
不过之所以要强调“传统名誉权”,关键在于这本该是用我国较为成熟的数据法律体系,以及 AI 相关法律法规标准体系解决的问题。而在判决与双方辩诉过程中,实际上也留下了许多谜团等待回答。
感谢李小亮律师热情的招待,在事情披露后,我得以第一时间采访李律师。
沟通中,李律师坦言,自己对于 AI 以及数据方面“不甚了解”。现在判决书经由公众号知产库公开,由此我们也能得知,无论是诉由选择还是裁判说理,几乎都没有引用相关数据法律法规与技术标准。
具体而言,李律师请求误工费、业务损失费、精神损害抚慰金等,法院以“未能提交证据证明”为由没有支持。百度的“AI 幻觉”“技术中立”“偶发性”“用户诱导性提问”等抗辩没有让它免责,却进入了法院减轻责任的判断结构。二审法院说,案涉内容“具有一定偶发性”,本案发生于国内人工智能发展初期,受限于技术发展,且百度事后采取了补救措施,因此书面道歉符合案件实际情况。
但这不代表本案作为中外关注的“中国 AI 名誉侵权第一案”不值得细剖,事实上,这才是本案最值得写的地方:
法院看见了名誉权,却没有真正看见数据处理。
法院看见了 AI 生成内容,却没有真正展开生成式人工智能提供者的法定义务。
法院看见了“错误回答”,却没有进一步追问:当一个平台把真实姓名、真实职业、真实肖像和虚假犯罪事实组合成一个可识别的虚假身份画像时,这是否已经不只是名誉侵权,而是个人信息处理、敏感个人信息处理和数据准确性义务的失败?
中国已经有《个人信息保护法》《数据安全法》《网络安全法》,有《生成式人工智能服务管理暂行办法》,有算法推荐、深度合成、AI 生成合成内容标识规则,还有 GB 45438-2025、GB/T 45654-2025 等国家标准。问题是,这些规则在本案裁判结构里没有真正工作起来。
图:规则线索:名誉权之外的数据法问题。
因此本文想要以此作为线索,抛砖引玉,就个人粗浅建议供各位讨论。
一、法院看见了数据处理吗?
传统名誉权路径的优点是直接。只要虚假事实足以降低社会评价,且指向特定人,法院就可以进入侵权责任判断。本案中,百度 AI 智能回答把“李小亮律师”与“爆炸罪”“有期徒刑三年”连接起来,又配上律师袍照片,构成一段完整的、具有事实陈述外观的负面叙事。
判决书的一审说理抓住了这一点:AI 智能回答的内容加照片一起发布,指向性明确,包含明显负面、贬损性词汇,会对李小亮工作、生活等方面造成负面评价;百度搜索的 AI 智能回答处于公开网络空间,客观上必然降低李小亮社会评价。

图:原判决书摘录,法院对 AI 智能回答构成侵权的认定。
这套分析成立,但还可以再往前走一步。
它把问题锁定在“社会评价降低”,却没有继续追问这些内容是如何被处理出来的。百度并不是只发布了一句骂人的话。它处理了若干个人信息:**姓名、律师身份、肖像、可能涉及从业经历的信息,以及虚构的刑事犯罪信息。**它把这些信息加工成一个新的身份叙事:李小亮,律师,被告人,爆炸罪,三年有期徒刑。
《个人信息保护法》第 4 条规定:
把个人信息定义为以电子或者其他方式记录的、与已识别或者可识别自然人有关的各种信息。
第 8 条要求:
处理个人信息应当保证质量,避免因个人信息不准确、不完整对个人权益造成不利影响。
第 28 条规定:
敏感个人信息是一旦泄露或者非法使用,容易导致自然人人格尊严受到侵害或者人身、财产安全受到危害的个人信息,包括生物识别、特定身份等。

图:个人信息保护法中的识别性、处理活动与准确性义务。
我们或许可以不用深究把一个执业律师描述为“因犯爆炸罪被判三年”是否是普通的事实瑕疵,即便这个刑事信息是假的,它仍然是围绕特定自然人的敏感身份标签。更麻烦的是,它不是孤立标签,而是由 AI 系统聚合生成的标签。
采访李律师时,我的第一个问题就是:是否有采纳个人信息保护法的路径呢?
法院认定“名誉受损”,但没有处理“个人信息不准确造成不利影响”;法院认定“图片和文字加工合成”,但没有把它纳入个人信息处理活动来评价。
如果说名誉权保护的是人的社会评价,那么个人信息保护法保护的是一个人不被错误数据加工、定义和流通的秩序。本案恰好站在两者交界处。
不过很可惜,依我见,本案没有给出一个明确的回答。
二、百度到底是谁?
本案中百度的身份其实很微妙,会发现百度已经跨过了单纯的搜索引擎,在不同环节里,其是有着不同身份的。

图:百度的四重身份:同一链路中的责任竞合。
一审和二审都区分了搜索下拉词等检索服务与 AI 智能回答。判决认为,百度搜索下拉词、“大家还在搜”“相关搜索”显示的内容是用户使用搜索功能的记忆,百度未对数据进行加工、处理,且相关搜索内容不能直接屏蔽,否则会损害其他用户权益,因此不构成对李小亮侵权。
但 AI 智能回答不同。法院明确说,侵权内容系百度通过 AI 技术将文字内容与图片加工合成。这个判断非常重要,我认为这实际把百度从“被动检索者”推向了“主动生成者”。
《生成式人工智能服务管理暂行办法》第 9 条说的很清楚
提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务;涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。

图:生成式 AI 服务提供者的训练数据、双重身份与整改义务。
可以认为,当百度 AI 智能回答生成案涉内容时,百度不只是“搜索服务商”。它至少有两重身份。一是生成式人工智能服务提供者,承担网络信息内容生产者责任;二是在涉及李小亮个人信息时,承担个人信息处理者责任。
这个身份竞合是本案真正的规范入口。遗憾的是,判决只走到了第一步:AI 智能回答不是中立搜索结果,而是加工合成内容。它没有继续走到第二步:加工合成的是个人信息,而且可能是敏感个人信息。
三、本案是否涉及虚假画像?
这里说的“对人的虚假画像”,不是把互联网热词硬塞进裁判文书,也不是说 AI 只要答错一句话就当然构成“画像”。
更准确地说,它是一种处理结构。
系统以可识别自然人为锚点,吸收真实身份信息,再叠加推断性、生成性或者错误迁移的标签,最后以搜索摘要、智能问答、图文合成等具有事实外观的形式展示给公众。它制造的不是一条孤立错误,而是一个能被他人用于判断、委托、交易、合作、回避的“数据身份”。
所以,本案真正的问题不是“李小亮”三个字错了,也不是“律师袍照片”单独错了。聚焦百度对李小亮律师的描述,单看每一块,姓名是普通姓名,律师身份是职业信息,照片是公开形象,“被告人”“爆炸罪”“三年有期徒刑”是刑事法律词语。真正造成损害的是系统把这些碎片组合在一起,并通过 AI 智能回答的产品语境,向公众呈现为一个完整结论——李小亮,律师,爆炸罪被告人,判处三年有期徒刑。
![虚假画像:信息不是相加,而是相乘]

图:虚假画像:信息不是相加,而是相乘。
这类损害的理论重点在于,信息并不是相加,而是相乘。
一个公开职业信息与一个虚假刑事标签结合,风险会远远高于二者各自单独存在的风险。它的打击点也不只是“别人怎么看李小亮”,还包括“一个平台如何用错误数据重新定义李小亮”。名誉权看到的是社会评价降低,数据法看到的则是识别、聚合、推断、生成、公开展示和纠错失败的整条处理链路。
从全球数据法的视角看,画像规制的核心从来不只是“有没有一个 profile 字段”。
GDPR 第 5 条的数据处理原则,把准确性作为独立原则,要求个人数据准确并及时更新,对不准确数据采取删除或者更正措施。
第 22 条关于自动化个体决策和画像的制度,则说明当系统基于个人数据进行分析、评价并可能对个人产生重大影响时,法律不能只看输出结果,还要看透明度、可争辩性、纠错权和人类介入的制度安排。换句话说,画像问题的关键不是系统是否自称在“画像”,而是系统是否在用数据和推断对一个自然人作出有影响的评价。
欧盟《人工智能法》第 5 条把这种理论进一步推进到 AI 禁止项层面。它禁止以社会行为、已知、推断或者预测的个人特征对自然人进行不当社会评分;也禁止仅基于画像或者人格特征评估自然人犯罪风险。

图:欧盟《人工智能法》第 5 条关于 AI 禁止性实践的页面摘录。
这并不是说李小亮案可以机械套入欧盟法的每一项禁止性规则,因为本案是搜索问答场景,不是国家机关犯罪风险评分系统。但它揭示了同一条底层法理,即当 AI 系统把一个可识别的人放进高风险身份分类中,尤其是犯罪、惩罚、职业信誉这类会改变他人社会判断的标签中,法律必须追问标签从何而来、是否准确、是否必要、能否解释、能否纠错,以及是否已经越过禁止性底线。
我国法律也有足够入口。
其一,《个人信息保护法》第 4 条已经把“与已识别或者可识别自然人有关”的各种信息纳入个人信息,并把加工、公开、删除等纳入处理活动。
其二,第 8 条要求处理个人信息保证质量,避免因个人信息不准确、不完整对个人权益造成不利影响。这个质量义务不应被窄化为手机号、地址、出生日期写错;它同样应覆盖 AI 系统对自然人身份、经历、职业信誉和刑事标签的生成性处理。
其三,第 24 条虽然主要写作“自动化决策”,但其定义本身包括通过计算机程序自动分析、评估个人状况并进行决策,反映了我国法对自动化分析评价个人的基本警惕。其四,第 28 条、第 29 条关于敏感个人信息的规则,要求对容易导致人格尊严受侵害或者人身、财产安全受危害的信息采取更严格保护。
更进一步,生成式 AI 规则把这种抽象义务落到了提供者身上。
《生成式人工智能服务管理暂行办法》第 4 条要求
提供和使用生成式 AI 服务不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益,并要求提高生成内容的准确性和可靠性;
第 7 条要求训练数据合法来源,并提高真实性、准确性、客观性和多样性;
第 9 条明确生成式 AI 提供者在涉及个人信息时承担个人信息处理者责任;
第 14 条、第 15 条则要求发现违法内容后停止生成、停止传输、消除、模型优化训练、投诉处理和反馈。
换言之,我国法并不是没有看见“虚假画像”,而是已经从个人信息质量、敏感身份标签、自动化分析评价、生成内容准确性和投诉整改闭环等多个方向给出了规制入口。
因此,不能说“刑事犯罪信息是假的,所以不是个人信息”。恰恰相反,只要这个虚假标签围绕特定自然人组织、生成、展示,并足以影响他人对该自然人的判断,它就已经成为与该自然人有关的信息处理后果。
真实刑事记录尚且需要严格处理,虚假刑事记录更不能因为“并不存在”就逃离个人信息质量义务。越是假的,越说明数据处理质量失败;越是刑事标签,越说明风险等级不应按普通事实错误处理。
这就是本案被名誉权框架遮蔽的核心:不是普通幻觉,而是对人的虚假画像。
这个结论也解释了下一节为什么“偶发性”不能成为足够抗辩。
只要平台已经将自然人放入高风险身份标签链条,就不能只用“大模型会随机输出”来结束法律追问,而必须说明数据来源、实体消歧、输出过滤、投诉整改和防复发机制是否真实存在。
四、“偶然性”站不住脚,“AI 幻觉”不是免死金牌
百度的上诉思路很清楚:大模型技术消歧能力有限,使得百度不具备可预见性;用户提示词诱发结果产生过错,并导致 AI 智能回答进而更无法预见损害后果,生成过程无人工干预,回复内容具有“偶发性”;技术服务提供者应受技术中立保护。
二审法院没有接受百度免责,但采纳了“具有一定偶发性”作为减轻责任的因素。这里需要拆开看。
图:“偶发性”抗辩为什么站不住脚。
关键在于,百度主张的所谓“偶发性”不能替代因果分析,也不能替代合规分析,更不是一个准确的词汇。
首先,要区分“大模型输出随机性”和“错误关联可复现性”。一个系统每次措辞不一样,并不意味着“李小亮 = 爆炸罪 = 判三年”这个错误关联是偶然的。如果多次搜索、多个月份、多种类似提问都能出现同一方向的负面关联,那么真正值得追问的是训练数据、检索增强生成、实体消歧、知识库和安全过滤,而不是抽象地说“AI 会幻觉”。实际上,经过长达两年的诉讼,李律师明确在上诉理由中载明成功多次复现该结果。
在 AI 训练过程中,后端训练的对齐环节会要求模型对齐人类社会价值观,规避敏感话题。输出端也会叠加审核控制,常见方式包括“小模型审查”等截断或撤回输出,这也是我们使用 AI 时常常得到“抱歉”的由来。
因而,从技术上来说,所谓的偶发性是完全站不住的。
图:技术标准如何追问“偶发性”。
其次,案涉提示词并非不可预见的极端攻击。用户搜索“某某律师被判几年”当然带有负面倾向,但这类查询正是搜索产品和 AI 问答产品应当重点处理的高风险查询。一个合格系统面对“真实姓名 + 职业 + 刑事犯罪/判刑”组合,应当至少有三道防线:不确认未经可靠来源证实的刑事事实;提示需要以司法机关公开信息为准;无法确认时拒答或给出澄清,而不是编造一个犯罪事实。
再次,《暂行办法》第 14 条并不只要求删除。它要求提供者发现违法内容时,及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。第 15 条还要求建立健全投诉、举报机制,设置便捷入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。
所以,从制度上来说,所谓的偶发性也是完全站不住脚的。
“避风港原则”(Safe Harbor Principle)是互联网法律体系中最为核心的基础规则之一。它最早起源于美国《数字版权千禧年法案》(DMCA),最初是为了解决网络服务提供者(ISP)在海量信息中的版权侵权责任问题。
伴随着避风港原则的,是人们对于处在优势地位的平台能够及时补救的期望,所谓“事后补救”,也正是李律师急切希望百度能够做到的。
同样,这也是百度的免罪金牌之一。但需要在这里明确,“事后补救”不能只问有没有删掉某一条内容,还应当注意是否停止继续生成同类内容?是否修正错误知识关联?是否跨搜索推荐、AI 回答、缓存和知识库联动处理?是否把投诉反馈进入模型治理流程?是否保存处理记录并能解释处置结果?
如果这些问题没有答案,“补救措施”就很容易变成一句宽泛的减责话术。
五、百度的义务是什么?
法律层面,本案原判决真正有意思、也没有展开的,是百度到底履行了哪些义务。
名誉权判决关心的是,有没有侵权内容、有没有过错、要不要道歉、赔不赔钱。AI 法和数据法还会继续追问平台上线这个能力之前怎么评估?怎么处理训练数据和知识库?如何识别“人名 + 刑事犯罪”高风险输出?用户投诉后,技术、法务、客服、模型团队如何联动?是否只是删一条,还是让系统不再生成同类错误?
以《暂行办法》为中心,百度至少有四层义务。
图:生成式 AI 提供者的四层义务。
这里尤其要注意第 14 条的“模型优化训练等措施进行整改”。这句话把平台义务从 “删帖”推进到了“修系统” 。传统网络平台接到侵权通知后删除链接,可能已经足够;但生成式 AI 平台的风险不止存在于某个链接,而存在于模型、检索、知识库、提示词处理和输出过滤的组合机制里。只删一次,不等于系统不会再生成。
李小亮律师在答辩中强调,百度并非简单聚合或推荐信息,而是在主动生成和传播有细节、有情节的完整虚假陈述,且多个月份里反复出现、花样翻新。这部分未必全部被法院作为事实采纳,但它指出了一个真实的 AI 治理问题:生成式系统的侵权不是单点内容治理,而是链路治理。
如果平台在外部回复中说“已转交对应工作人员跟进处理”,但同类错误继续出现,那么法律上应当追问的不只是有没有及时删除,而是投诉机制是否有效、内部流转是否闭环、技术整改是否到位。
很显然,百度在判决中溢出的傲慢为其埋下了恶果。在李律师多次投诉并拨打电话的情况下,仅仅敷衍冷漠地公式化回复,丝毫不在意当事人为维护自身权利圆满的要求,更不在乎当事人两年来形象由此遭受污蔑所带来的损害。
从上诉要求来看,恐怕百度不是知道自己错了,而是知道自己输了。恐怕还有些许不服气。
这让人气愤。
六、标识能让平台免责吗?
2025 年 9 月 1 日起,《人工智能生成合成内容标识办法》和 GB 45438-2025《网络安全技术 人工智能生成合成内容标识方法》开始实施。前者要求显式标识和隐式标识,后者是强制性国家标准。GB/T 45654-2025《网络安全技术 生成式人工智能服务安全基本要求》则从 2025 年 11 月 1 日起实施,是推荐性国家标准。
图:《人工智能生成合成内容标识办法》关于显式标识、隐式标识和服务提供者标识义务的官方页面摘录。
在诉讼提起时,这些规则还没有发挥作用。不过此案折射出来的,未来智能代理经济的样貌,定会产生更多类似案件进入到公众视野中。
对 AI 生成内容进行标识是一个国际共识。而标识对于 AI 生成内容带来的影响是否有阻断,也一直是国内外热切关注的话题。
2023 年 6 月,佐治亚州枪权电台主持人 Mark Walters 诉 OpenAI 是一个标杆性案件。记者 Frederick Riehl(同时是 SAF 董事会成员)询问 ChatGPT 总结一份起诉书(Ferguson 案),而 ChatGPT 提供 URL 后幻觉,输出 Walters 涉嫌挪用 SAF 资金的虚构故事。
法院最终判决 OpenAI 完全胜诉,其中一个独立胜诉理由:不构成 defamatory meaning(诽谤性含义)便是标识阻断损害产生的重要理由之一。
其中,法院认定 ChatGPT 已警告无法访问互联网、有 knowledge cutoff;同时 OpenAI Terms of Use 含多处 disclaimer。
AI 智能回答旁边写了“AI 生成”,并不意味着它可以把一个没有犯罪的人说成罪犯。显式标识改变的是用户预期和平台过错评价,不会消灭虚假刑事陈述对社会评价和人格尊严的损害。尤其当内容被截图、转发、摘录到无标识环境时,标识更没有溯及力。
标识真正的作用在三个方面:
- 提示预期。 它让用户知道自己面对的是生成合成内容,而不是确定的搜索事实。
- 证明合规。 它帮助平台证明自己履行了部分标识、提示和传播治理义务。
- 留下线索。 它为传播平台、监管部门和权利人提供追踪、核验和维权入口。
从技术落地看,标识还不是一个页面角标的问题。TC260 后续发布的人工智能生成合成内容标识方法实践指南,把文件元数据隐式标识、服务提供者编码、检测框架等问题进一步拆细。这说明监管关心的不只是“用户有没有看到提示”,还包括生成内容离开原平台后能不能被识别、追踪和核验。
但如果生成内容本身高风险、事实错误、指向明确、投诉后仍复现,标识只能减轻,不能阻断责任。
Walters 案如此,我认为本案在该点上有探讨空间。中国法下,名誉权看的是社会评价是否受损,个人信息法看的是处理是否准确、合法、必要、安全。没有哪一条规则说,加了“AI 生成”四个字,就可以生成虚假犯罪记录。
不过需要明确的是,在本案中,该点仅仅只是具有探讨空间,《标识办法》出台时间晚于纠纷发起时间。真正要在该点上形成中国式共识,还有赖后续判决进一步确认。
七、是否将技术标准融入判决书中更好些?
说“百度违反了 AI 法”并不够精确。我国目前还没有一部统一的《人工智能法》,真正能落到企业合规和司法审查里的,是“法律 - 部门规章 - 国家标准 - 实践指南”共同组成的规则链。
需要指出,这条链至少有五层。
不是规则空白,而是规则链没有被激活
图:不是规则空白,而是规则链没有被激活。
推荐性国标不能直接替代法律,也不能直接倒推为百度在 2024 年的违法依据。在技术快速发展的今天,这套体系的真正作用,是把抽象的“合理注意义务”翻译成法院可以审查、企业可以举证的技术问题。
换句话说,标准不该、也不能只是为了装点文章引用。特别是在如今数据法和 AI 法边界尚未完全清晰的当下,技术标准更适合用来确认关键问题的形状:
- • 训练数据是否做过来源合法性和质量审查?
- • 优化训练数据里是否存在同名混淆、刑事标签错配或污染样本?
- • 数据标注是否覆盖“真实姓名 + 职业身份 + 刑事犯罪”这类高风险场景?
- • RAG 知识库是否有版本管理、来源可信度、过期清退和实体消歧机制?
- • 模型输出是否对“人名 + 判刑/犯罪/失信/疾病”等组合做强过滤或拒答?
- • 投诉后是否只删除页面,还是同步修正知识库、缓存、规则、模型和推荐链路?
- • 是否有个人信息保护影响评估、红队测试、第三方评估和复测报告?
就我所参与的,在合规领域,这些问题早已深入到每一份制度、每一次投融资尽调和每一轮安全评估中,成为融资贷款的金标。
但我认为不应止于合规非诉领域,同样的,复用这些问题,才是数据法和技术标准能给本案增加的真正厚度,也是让法院能作出使众人信服,使得规则更加明确,新兴的法制体系更加完善的正确之道。
较为优秀的实践,我认为可以参考新加坡国际商业法庭(Singapore International Commercial Court,简称 SICC)。
在应对 Web3、人工智能、加密资产及复杂算法引发的前沿纠纷时,新加坡司法界意识到传统的“专家证人交叉质证”模式效率低下,且容易产生技术壁垒。为此,SICC 采取了一系列推动“法官与技术人员深度结合”的制度设计与司法战略。
SICC 在其法庭规则中创新性地引入了独立技术助理制度。在涉及底层代码、智能合约逻辑、AI 模型架构等高度复杂的案件中,法院会直接任命非法律背景的顶尖技术专家作为“法官的技术外脑”。他们直接坐在法庭上,帮助法官跨越技术鸿沟,直接解析 Web3 的去中心化网络协议或 AI 的算法黑箱,确保法官的法律推理建立在绝对准确的技术事实之上。
而新加坡首席大法官梅达顺(Sundaresh Menon)近年来在多项司法战略中明确提出,现代法官必须具备高度的数字素养(Digital Literacy)。

梅达顺照
梅达顺认为,面对新兴科技,法官不能仅仅扮演“法律条文的适用者”,更要成为“技术逻辑的理解者”。司法界内部系统性地引入了针对前沿技术的培训,要求法官理解数据资产的流转机制、AI 生成内容的底层逻辑以及网络信息架构。
同时,SICC 专门设立了“技术、基础设施和建筑(Technology, Infrastructure and Construction, TIC)”专案审理清单。凡是涉及前沿科技的复杂商事纠纷,都会被分流至该清单,由具备相关技术认知背景的法官与技术助理联合审理。
只有一套懂法律懂技术的审判人员,才能作出准确内行的裁判,也才能真正推动技术法制的进步。
是规则错位而不是没有规则
有人可能会说,本案发生在 2024 年,生成式 AI 规则还在发展中,法院保守一点可以理解。
但这并不意味着本案没有规则可用。
《个人信息保护法》2021 年已经实施。《生成式人工智能服务管理暂行办法》2023 年 8 月已经施行。第 9 条关于网络信息内容生产者责任和个人信息处理者责任,第 14 条关于违法内容处置和模型优化训练,第 15 条关于投诉举报机制,都早于本案发生。个人信息安全规范、个人信息安全影响评估指南、去标识化指南等推荐性国标也早已存在。法院完全可以在这些规范中找到评价百度注意义务的入口。
学理上也并非没有工具。人格权责任中的“过错程度、影响范围、行为方式、后果”等因素,本来就要求法院做动态衡量,而不是只问有没有一条坏信息。个人信息处理者过错推定责任的讨论,也早已指出:当处理者掌握处理过程、技术机制和日志证据时,不能让个人承担全部证明负担。生成式 AI 侵权责任的讨论则普遍强调,平台是否实质介入内容生成,是判断其能否继续主张中立地位的关键。
这些观点落到本案,其实就是三句话。
第一,百度不是纯粹通道。AI 智能回答的文字和图片合成,已经让它实质介入内容生成。
第二,李小亮不是只被“评价”伤害。他还被一个数据系统错误处理、错误画像。
第三,真正掌握错误来源、过滤规则、投诉流转和模型整改证据的是百度,不是李小亮。
司法实践也已经显示出分化趋势。
图:AI 侵权裁判谱系:从名誉到数据准确性。
所以,本案不是没有规则可用,它更像是一次规则错位。法院用了名誉权规则解决“能不能认定侵权”,却没有用数据法和 AI 法规则继续解决“平台如何证明尽责”“个人如何获得赔偿”“系统如何防止复发”。
当然,我们不能苛求2024年的法院在居中裁判的原则下,额外思考那么多。
也正因为如此,文章标题才不是“名誉权没能保护李小亮律师”。名誉权至少保护了一部分。真正缺席的是数据法的第二层保护。
如果从数据法起诉
从设想出发,如果重走诉讼路径,我认为真正具有突破性以及原创性的做法,是让个人信息保护法成为主战场。
传统名誉权路径下,李小亮已经证明了侵权成立,但在赔偿上遇到了熟悉的门槛,即财产损失、业务损失、精神损害都需要证据。法院说“未能提交证据证明”,这在传统人格权案件中很常见。律师业务是否减少、客户是否流失、精神损害是否达到严重后果,确实都不容易证明。
但个人信息保护法提供了另一种结构。第 69 条规定,处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。损害赔偿按照个人因此受到的损失或者个人信息处理者因此获得的利益确定;难以确定时,根据实际情况确定赔偿数额。
自然,这会把压力重新分配给三方,不过我认为这至少改变三件事。
图:两条请求路径:名誉权与个人信息保护。
如果以个人信息保护法展开,本案的论证会更贴近 AI 时代的问题本身:
首先, 百度 AI 智能回答处理了与可识别自然人有关的信息,百度作为服务提供者自主决定处理方式,应当属于个人信息处理者。这个结论与《暂行办法》第 9 条第二层责任正好衔接。
其次, 案涉输出违反个人信息质量义务。一个人的刑事身份、执业信誉、肖像和职业经历不是可以随意拼接的材料。错误拼接造成不利影响时,问题不只是“名誉受损”,也是“个人信息不准确造成权益损害”。
再者, 案涉内容触及敏感个人信息。把一个律师说成爆炸罪被告人并判三年,涉及特定身份和人格尊严风险。平台应当证明有特定目的、充分必要和严格保护措施。显然,公开搜索回答中生成虚假刑事身份,几乎不可能满足这些要求。
最后, 第 69 条可以重构举证责任。原告仍然要证明基本侵害事实和不利影响,但平台需要拿出自己没有过错的证据:数据来源审查、实体消歧规则、敏感信息过滤、投诉处理日志、模型整改记录、人工复核机制、版本更新记录等。没有这些,就不能轻易用“技术局限”搪塞。
这不意味着个人信息保护法一定能让李小亮获得高额赔偿。中国司法对个人信息损害赔偿仍然谨慎。但至少,它会把问题从“你能证明损失多少吗”推进到“平台能证明自己尽到数据处理义务了吗”。
这正是数据法本应提供的保护。
也就是倒置责任,要求平台拿出系统治理证据,并且适用对用户更加友好的,更能有效治理问题的逻辑。
企业如何避免成为下一个百度
其实,我对于百度的态度总体是愤怒的。
漠视用户、随意拼凑、过家家一般对待治理,我个人也经受过大平台的冷漠,这是如今全世界大垄断平台们的通病。
而事实上,正如尼克·斯尔尼塞克,以及肖莎娜·祖博夫各自通过《平台资本主义》和《监视资本主义:智能时代的创世必修课》中系统指出的——用户与平台地位极其悬殊的现状,以及**“认识论上的不平等”(Epistemic Inequality)**。
意思是:平台对我们无所不知,而我们对平台一无所知。 平台拥有极其庞大、隐秘的算法黑箱和算力,用户不仅被剥夺了隐私,连“知道自己被剥夺了什么”的知情权都没有,这是人类历史上前所未有的权力不对称。

图:平台资本主义与监视资本主义
但我不想让这篇文章只是一篇檄文,或是单纯批评一份判决,也不是为了把所有风险都推给技术公司。我们应当回答一个更现实的问题。
AI 时代创新的超音速巨浪袭来:如果一个企业正在做 AI 搜索、智能问答、客服助手、法律检索、投研助手、知识库问答,怎样避免成为下一个被告?
答案不是“不要用 AI”,而是把侵权预防做成工程闭环。

图:AI 侵权预防闭环。
更具体地说,从本案出发,平台至少应做四件事。
建立“人名 + 高风险标签”规则。 涉及犯罪、判刑、失信、疾病、婚姻、未成年人、职业资格、政治身份等内容时,系统不能轻易给确定性结论。没有司法机关公开文书、监管公示或可靠来源支撑,就应拒答、提示不确定或引导用户查看权威渠道。
RAG 和知识库必须可追溯。 很多 AI 搜索问题不是纯模型幻觉,而是检索源污染、排序错误、实体混淆、片段拼接错误。企业必须能回答:这段回答依据了哪些来源?为什么把某个“李小亮”和南京律师李小亮合并?为什么展示这张照片?如果回答不了,就无法证明自己尽到了合理注意义务。
投诉不能停在客服层。 人格权和个人信息投诉必须进入跨部门流程。客服收到投诉,法务判断权利风险,算法团队定位原因,产品团队调整展示,数据团队修正知识库,合规团队保留记录。没有内部闭环,外部“已转交处理”就没有法律意义。
保留合规证据。 未来 AI 侵权案件中,企业真正需要提交的不是一句“技术不可避免”,而是安全评估报告、过滤策略、投诉工单、处理日志、模型版本记录、知识库修正记录、复测报告、标识截图、第三方评估材料。合理注意义务不是口号,而是一组可审计证据。
还可以再进一步。真正成熟的数据法行业实践,不应只是在被投诉后补洞,而应把 AI 产品做成“可说明、可追溯、可纠错、可审计”的系统。

图:AI 企业合规工具箱。
对企业来说,这些做法并不只是“合规成本”。它们是未来在诉讼中阻断或减轻责任的证据。如果没有这些证据,企业很难说服法院相信:这只是不可避免的技术偶发,而不是数据治理、模型治理和投诉治理的系统性失灵。
如果把这些最佳实践换成诉讼语言,企业至少应准备三类证据包。
图:合理注意义务的三类证据包。
这也是合理注意义务真正可能发挥作用的地方。企业不是因为“用了 AI”就当然承担无限责任;但企业若想用合理注意义务阻断或减轻责任,就不能只提交一段通用技术说明,而要提交足以让法院复盘的证据链。
这案子真正该留下的规则
李小亮案已经给出一个基础规则:AI 智能回答不是天然中立工具。平台通过 AI 技术将文字和图片加工合成,生成错误、贬损、指向明确的内容,仍然要承担侵权责任。这个规则有价值。
但它还不够。
综上,我认为,本案更应留下三条更适合 AI 时代的规则。
第一,生成式 AI 提供者在涉个人信息输出中具有双重身份。它既可能是网络信息内容生产者,也可能是个人信息处理者。法院不能只在名誉权框架中看“有没有降低社会评价”,还应当看平台是否违反个人信息质量、敏感个人信息处理和投诉整改义务。
第二,所谓“偶发性”不能成为宽泛减责理由。法院可以承认生成式 AI 的技术阶段性,但应要求企业说明错误产生机制、处置链路和防复发措施。没有技术举证支撑的“幻觉不可避免”,不应被自动转化为减责。
第三,赔偿困境不能永远由受害人单独承担。AI 生成虚假身份信息的损害往往隐蔽、扩散快、举证难。个人信息保护法第 69 条的过错推定和损失难以确定时的裁量规则,应当在此类案件中被认真适用。否则,受害人只能拿到一纸道歉,而平台仍然把最关键的技术和数据证据握在自己手里。
最后本文想留下的,不是对某一家公司的情绪,而是一条规则意识。
AI 可以犯错,但平台不能只把错误命名为“幻觉”;平台可以补救,但补救不能停在删除;法院可以从名誉权入手,但不能让数据法永远缺席。
李小亮律师的问题,不只是“百度 AI 说错了”,潜藏在这个问题背后的,是当 AI 系统错误地加工一个人的数据身份,并把这个错误放进公共搜索入口时,法律有没有能力要求平台解释、修正、赔偿和防止复发?
在这起案件中,名誉权做到了第一步,确认这是侵权。
数据法本应完成第二步,追问它为什么发生、如何整改、谁来举证、怎样赔偿。
它没有。
因此数据法在本案中没能保护李小亮律师。
而让数据法能在接下来的案件中,保护千千万万个“李小亮律师”,需要我们一起推动。
4 个帖子 - 4 位参与者