[长文手敲] 因信称义如何塑造了Anthropic和OpenAI

AI 圈也有自己的神学现场 如果把硅谷 AI 公司当成普通科技公司看,很多事情会显得很魔幻。 一家公司说自己是为了全人类安全,然后开始融资、抢客户、签政府合同、打企业市场、卖代码工具、卷订阅收入。 另一家公司说自己要让 AGI 造福全人类,然后从非营利组织一路演化到商业巨兽,被老朋友告上法庭,被公众...
[长文手敲] 因信称义如何塑造了Anthropic和OpenAI
[长文手敲] 因信称义如何塑造了Anthropic和OpenAI

AI 圈也有自己的神学现场

如果把硅谷 AI 公司当成普通科技公司看,很多事情会显得很魔幻。

一家公司说自己是为了全人类安全,然后开始融资、抢客户、签政府合同、打企业市场、卖代码工具、卷订阅收入。

另一家公司说自己要让 AGI 造福全人类,然后从非营利组织一路演化到商业巨兽,被老朋友告上法庭,被公众质疑初心变质,最后还得出来解释自己依然没有忘记使命。

这场戏真正有意思的地方,不在于谁更高尚,也不在于谁更肮脏。真正值得看的,是它们各自选择了一套“因信称义”的叙事。

所谓因信称义,放到 AI 公司身上,大概就是这样。

只要我相信自己代表安全,我的限制就是负责任。

只要我相信自己代表民主,我的封锁就是价值防线。

只要我相信自己代表全人类,我的商业化就是必要牺牲。

只要我相信自己最终能带来光,我现在吃一点资本的饭,也算为人类添砖加瓦。

这就很硅谷。

嘴上是神学,账上是现金流,PPT 上是人类命运共同体,合同里是云计算、企业订阅、政府采购和算力账单。

经典程度堪比“我不是为了钱,我只是刚好需要几千亿美元算力”。(我不爱钱,我从来没有碰过钱)

当然,这句话不能直接笑,因为人家确实需要钱。只是笑点在于,大家都需要钱,有人说得像去西天取经,有人说得像在商言商。

OpenAI 和 Anthropic 的区别,恰好就在这里。

OpenAI 的问题是,它前期理想主义浓度很高,后来商业化速度太快,难免有一种“少年屠龙,成年开龙厂”的既视感。

可它至少越来越像一个现实主义玩家。它承认要产品、要用户、要资本、要算力、要市场。它的尴尬是理想被商业裹挟,它的可理解之处也在这里。

Anthropic 更复杂。它把自己放在道德高地上,反复强调安全、民主、可控、负责任,然后对中国相关实体采取了极其强硬的整体性限制。

Anthropic 在 2025 年 9 月明确宣布,限制来自包括中国在内的所谓不支持地区的公司通过海外子公司访问其服务,并把超过 50% 由这些地区总部实体直接或间接持有的组织纳入限制范围。

它给出的理由,是这些实体可能受到相关法律和情报合作要求影响,进而带来国家安全风险。

这套逻辑听起来很完整。问题在于,它沉醉于自己的逻辑闭环,纯粹的空中楼阁。

因为它不再只是限制某个行为,不再只是封禁某个滥用账号,也不再只是处理某个明确风险案例。

它把所有权结构、地区身份、政治判断和未来可能性打包成一张大网。你可以是美国公司,可以在新加坡运营,可以做正经业务,可以只是小团队想用 Claude Code 写代码。

只要股权结构、控制关系或者地区标签踩线,你就被纳入“潜在风险”的笼子。

这就不是普通风控了。这是身份式风控。(脱胎于身份政治的内容)

OpenAI 的原罪是变现实,Anthropic 的问题是装圣人

OpenAI 很容易被骂,而且骂点很多。

它从非营利出发,后来搞出 capped profit,再后来推进 Public Benefit Corporation 结构。它的商业化转向,引发了长期争议。

2025 年 OpenAI 董事会公开说明结构演化方案,称非营利组织仍会监督和控制 OpenAI,营利 LLC 会转为 PBC,使命仍是确保 AGI 造福全人类。

它同时承认,向全球提供 AI 服务需要数千亿美元,未来甚至可能需要数万亿美元级别资源。

这段话看着很熟悉。

翻译成人话大概是,理想还在,钱也必须要,组织结构得改,资本也得进,大家别急,我们还在为全人类服务。

这当然可以吐槽。毕竟一个曾经高举开放与公益旗帜的组织,最后走到微软、云计算、订阅制、企业 API、商业闭环,这里面的张力很大。

Musk 和 OpenAI 的诉讼也围绕这种“是否背离初心”的争议继续发酵。

2026 年 4 月,路透社报道 Musk 在庭审中继续指控 OpenAI 偏离非营利使命,OpenAI 则主张重组是为了获取投资并扩大 AI 开发。

但问题在于,OpenAI 的这种变化虽然难看,却很符合商业逻辑。

它像一个曾经喊着“我要改变世界”的创业者,后来发现改变世界之前要先交电费、买显卡、招工程师、搞推理集群、应付监管、接企业客户。于是它开始商业化,开始收费,开始限制滥用,开始做各种现实妥协。

这当然会让早期理想主义者破防。可它至少没有把每一次商业选择都包装成一场道德审判。

OpenAI 也限制过中国等不支持地区访问。2024 年,路透社报道 OpenAI 通知中国开发者,将从 7 月 9 日开始采取额外措施,阻止来自中国等不支持地区的 API 流量。这个动作同样伤害中国开发者,也同样反映美国 AI 公司在地缘政治压力下的收缩。

但 OpenAI 的表达更多是服务可用区、政策合规、区域限制。难听归难听,至少更像一个公司在说“我这业务不做了”。

Anthropic 的表达则更像“你们这类人天然有问题”。

这两者的体感差别很大。

一个是冷冰冰关门。

另一个是先给你贴道德风险标签,再关门。

这就是 Anthropic 最招人烦的地方。就算当狗,也要被打不给饭吃。

Anthropic 的安全叙事越高尚,现实操作越刺眼

Anthropic 的自我定位很明确。它是一家 AI 安全和研究公司,强调可靠、可解释、可控,强调要在前沿能力中控制风险。

这个定位本身没有问题。

AI 确实有安全风险,模型确实可能被滥用,国家安全确实不是幻想。

问题从来不在于 Anthropic 要不要做安全。

问题在于它把安全叙事和地缘政治站队绑得太紧,把风险治理做成了文明优越感展示。

它在 2025 年 9 月的政策说明中,不只是说自己要限制不支持地区访问,还明确提到中国,提到“对抗性国家”,提到这些实体可能服务军事、情报和更广泛的威权目标,还说 AI 能力应服务美国及其盟友的战略利益和民主价值。

这段话真正扎眼的地方,不是它有安全担忧。安全担忧可以讨论。

扎眼的是它把企业服务条款写出了外交部发言稿的味道。

一家商业公司当然可以选择客户,也可以遵守出口管制,也可以出于风险原因拒绝服务。可当它把一大类中国背景实体集体放进“可能服务威权目标”的叙事里时,它就不再只是公司合规了。

它在事实上参与塑造一种身份判断。

这对中国开发者、中国创业者、中国背景企业,尤其是那些在海外合法注册、合法经营、做正常产品的小公司,非常不友好。

他们甚至未必做大模型,未必碰军事,未必搞情报,可能只是想用 Claude Code 改一个后端 bug,想让模型帮忙写测试,想接入一个客服系统。结果规则落下来,一句话就把他们从“客户”变成了“风险”。

这时候你再听 Anthropic 讲“AI safety”,就会很微妙。

安全当然重要。

可如果安全永远只对某些人抽象化,永远只对某些国家具体化,永远只把某些群体当成潜在威胁,那么安全就容易变成一种漂亮的歧视语法。

这才是“因信称义”的核心。

我相信我站在安全一边,所以我对你的排除自动正当。

我相信我站在民主一边,所以我对你的怀疑天然合理。

我相信我在保护未来,所以你现在的不便、不公平、不被信任,都只是未来光明大道上的小石子。

经典“为了你好”。只是这个“你”,经常不包括被限制的人。

伪君子的味道来自说一套做一套

Anthropic 最容易被反感的地方,还不只是它限制中国相关实体。

更深一层的问题是,它一边用道德语言建立人格,一边又完全没有离开资本和权力游戏。

2026 年 2 月,Anthropic 宣布完成 300 亿美元 G 轮融资,投后估值 3800 亿美元,并称这笔钱将用于前沿研究、产品开发和基础设施扩张。

它还披露,Claude 年化收入达到 140 亿美元,Claude Code 年化收入超过 25 亿美元,超过 500 家客户年化支出超过 100 万美元,财富 10 强中有 8 家是 Claude 客户。

这不是小白花。这可是超级商业巨兽。

它当然可以成长,可以赚钱,可以冲企业市场。没有人规定安全公司就不能挣钱。真正的问题是,当一家公司已经是数千亿美元估值、数百亿美元融资、巨头客户环绕的资本机器时,它还总爱把自己说成道德世界里的苦修士,就会产生一种强烈违和感。

就像一个人穿着高定西装坐在头等舱,开口第一句是“我平时很朴素”。

不是不能朴素。

但你最好先把黄金腕表藏一下。

Anthropic 还和美国国防体系发生过复杂关系。2025 年 7 月,Anthropic 宣布美国国防部通过 CDAO 授予其一项为期两年、最高 2 亿美元的原型协议,用于推进美国国家安全相关的前沿 AI 能力。

2026 年,它又与美国国防部门因军事用途限制发生冲突,并称自己被指定为美国国家安全供应链风险,Anthropic 表示该行动法律依据不足,将在法庭挑战。

这件事很有意思。

站在支持 Anthropic 的角度看,它拒绝完全放开军事用途,说明它确实有底线。

EFF 也指出,Anthropic 早在签订国防合同时就明确不希望其技术用于美国国内大规模监控或完全自主武器系统,后来美国国防部要求不受限制使用技术,Anthropic 拒绝后遭到报复。

所以公平地说,Anthropic 并非毫无原则。它在某些议题上确实愿意和美国政府硬碰硬。

但这并不能洗掉它对中国相关实体的整体化敌意。

因为这里的矛盾恰恰在于,它对美国政府可以讲细分限制、用途边界、法律争议、武器伦理。

可面对中国相关实体时,它更倾向于把身份、控制、地区、政体一锅端。

面对自己人,讲程序正义。

面对外部人,讲风险想象。

这就是很多国内用户看 Anthropic 不舒服的根源。

你可以说它不是伪君子,它只是战略上高度一致。可从外部体验看,这种一致性非常扎人。

它不是单纯做安全,它是在用安全语言完成政治筛选,然后再用道德语言给筛选镀金。

为什么 Anthropic 比 OpenAI 更刺眼

有人可能会说,OpenAI 也限制中国,凭什么 Anthropic 挨骂更多。

原因很简单。OpenAI 更像商人,Anthropic 更像传教士。

商人关门,你骂它赚钱不带你玩。

传教士关门,还要告诉你你身上有原罪。

OpenAI 的商业化让人失望,但它的商业逻辑清晰。ChatGPT 做用户入口,API 做开发者生态,企业版做组织市场,模型能力做护城河,微软合作提供算力和分发。

这是一条典型科技公司路线。它前期理想主义,后期资本化,里面有背叛感,也有现实压力。

Anthropic 的路线则更像“安全神权公司”。它用 Constitutional AI、Responsible Scaling、AI safety、democratic values 建立道德身份,然后把部分商业限制解释为价值战争的一环。

这样做有传播优势,也有政治收益。你不只是买 Claude,你是在加入“负责任 AI”的阵营。你不只是不用某些客户,你是在守护民主世界。

听上去很燃。

可问题是,AI 公司一旦开始用文明叙事做客户筛选,普通开发者就会被迫卷入宏大叙事。

一个中国程序员打开 Claude,被风控。

一个中国背景创业团队接企业 API,被拒。

一个海外注册公司因为股权结构踩线,被归类。

一个香港办公室因为地区支持问题被移除工具访问。

2026 年 4 月,路透社报道 Goldman Sachs 近期限制香港投行员工访问 Claude,其他 AI 工具如 Gemini 和 ChatGPT 仍可用。报道提到,Claude 在 Anthropic 网站上并未正式支持香港,相关变动是在数据安全和网络威胁警惕升温背景下发生。

这类案例会不断强化一种观感。

Anthropic 的安全不是普通安全。它是带方向盘的安全。

它会告诉你,它在防滥用、防军用、防情报、防蒸馏、防威权。

可落到用户体感上,就是某些人天然被排除,某些公司天然被怀疑,某些地区天然更难获得工具。

然后 Anthropic 又会继续写文章说自己关心人类未来。

这时候弹幕就该刷起来了。

“家人们谁懂啊,被全人类排除在全人类之外了。”

“民主 AI 赢了,用户没了。”

“安全确实安全,安全到客户都进不来了。”

“Claude 很聪明,聪明到先判断你配不配用它。”

这些吐槽虽然不是严谨政策分析,但它抓住了情绪事实。

当一个公司反复强调“全人类”“民主”“安全”,同时又对某些群体形成系统性排斥,被排斥者当然不会感谢它的高尚。

OpenAI 的初心还剩多少,Anthropic 的清高又值几斤

OpenAI 当然不干净。

它不是童话里的公益实验室。它有商业利益,有封闭模型,有平台控制,有生态垄断倾向,也有对不支持地区的访问限制。

它从“开放 AI”走到今天,很多地方都能被写进硅谷理想主义塌房案例大全。

但 OpenAI 至少在一个关键点上更现实。

它现在越来越像一家明牌商业公司。你可以骂它贵,骂它封闭,骂它转向,骂它被微软深度绑定,骂它天天讲 all humanity 但服务列表并不 all。

可它的主线是产品和市场。它要用户规模,要模型领先,要开发者生态,要企业收入,要算力融资。

它的“因信称义”是相信规模化部署能让 AGI 造福更多人,所以商业化可以被视作使命手段。

这套叙事有漏洞,但至少它有一种粗糙的诚实。

Anthropic 的“因信称义”更危险。它相信自己站在安全与民主这边,所以它的排除、封锁、标签化和地缘政治倾斜,都可以被解释为必要防线。

它不像单纯商人,更像拿着账本的道德审判官。

最讽刺的是,Anthropic 越清高,越离不开巨额资本、云厂商、企业客户和政府关系。

它越强调安全,越必须把前沿模型卖给越来越多高价值客户。

它越讲负责任,越要在商业扩张和风险控制之间反复横跳。

这就像一个人天天说自己不食人间烟火,结果厨房里全是预制菜加盟合同。

当然,Anthropic 也可以反驳。它可以说,前沿 AI 的风险真的很大,中国相关实体确实受法律和政治结构影响,美国公司也确实要遵守国家安全框架。

它还可以说,自己在美国军方问题上也坚持原则,说明它并非单向服务权力。

这些反驳都成立一部分。

可成立一部分,不代表整体观感就没问题。

真正的问题是,Anthropic 没有把中国开发者、中国背景企业、中国用户当成可以细分、可以验证、可以通过合规流程处理的对象。它更愿意把他们放进宏大风险模型里。对具体人缺乏耐心,对抽象敌人充满想象,这就是最让人反感的地方。

因信称义之后,AI 公司都在制造自己的教会

OpenAI 和 Anthropic 最终都在做同一件事。

它们不仅在卖模型,也在卖一套世界观。

OpenAI 卖的是“能力普及”。它说强大的 AI 应该进入每个人手里,帮助科学家、程序员、学生、普通人提升生产力。

OpenAI 在 2025 年的结构说明中明确说,AGI 应当直接赋能每个人,并希望把强大工具交到所有人手中,同时在宽泛边界内给予用户更多自由。

Anthropic 卖的是“安全秩序”。它说前沿 AI 太危险,必须审慎,必须对齐,必须服从民主阵营战略利益,必须防止威权对手获取能力。

这两套叙事都不纯粹。

OpenAI 的普及叙事背后,是商业扩张。

Anthropic 的安全叙事背后,是政治边界。

区别在于,OpenAI 的商业扩张更容易被看穿。

Anthropic 的政治边界却常常被包装成道德洁癖。

所以我更愿意把 OpenAI 看成一个理想主义塌过房、但还在拼命做产品的现实玩家。

它有问题,但它的问题像科技资本主义的标准病。钱、规模、垄断、速度、封闭、治理难题,全都有,没少一个。

Anthropic 则像一个把自己神圣化的玩家。

它的模型很好,Claude Code 很强,很多工程体验确实优秀。但它身上有一种“我更懂什么对世界好”的傲慢。

尤其当这种傲慢对中国人、中国背景实体、小公司、海外团队产生直接排斥时,它就不再只是抽象价值分歧。

它会变成最真实的不公平体验。

写在最后

因信称义塑造了这两家公司。

OpenAI 信的是规模、产品和部署。它曾经理想,后来商业化,今天仍试图证明商业化没有吃掉初心。它的故事像一个创业者从诗和远方走进财务会议,狼狈,但真实。

Anthropic 信的是安全、民主和道德边界。它把自己放在更高的位置上,认为自己有资格决定谁能接触前沿 AI,谁应该被排除在门外。它的问题不是没有原则,而是原则太容易滑向选择性审判。尤其在中国议题上,它展现出的不是普通审慎,而是一种结构化不信任。

OpenAI 像生意人,嘴上还有理想。

Anthropic 像圣徒,手里也有报价单。

前者让人失望,因为它变得现实。

后者让人反感,因为它现实得很彻底,却还要求别人承认它清高。

AI 时代最可怕的公司,也许不是单纯逐利的公司。逐利至少能谈价格、谈合同、谈替代品。更麻烦的是那种相信自己已经站在历史正确一边的公司。它们做商业决策时像资本家,写政策声明时像神学家,面对被排除者时像审判官。

这时候,因信称义就不再是宗教概念。

它变成了硅谷 AI 巨头最熟练的一种产品能力。

先相信自己代表光。

再把别人留在阴影里。

10 个帖子 - 3 位参与者

阅读完整话题

来源: linux.do查看原文