AI安全的红线在后退?Anthropic与OpenAI的安全承诺变味了
2026-02-27 16:27 Anthropic

AI安全的红线在后退?Anthropic与OpenAI的安全承诺变味了23

曾被视作AI安全标杆的Anthropic,最近悄悄改写了自己的核心承诺。

当地时间2月24日,Anthropic发布《负责任扩展政策》第三版(RSP 3.0),那条“模型触及危险阈值就暂停训练”的硬性红线,从文件中彻底消失,取而代之的是“透明披露”的柔性框架。无独有偶,OpenAI也在2024年度IRS表格中,删掉了使命陈述里的“safely(安全地)”一词。

两家全球顶尖AI公司的默契动作,让“AI安全”这个严肃话题,蒙上了一层商业博弈的阴影。

曾经高举“安全优先”大旗的领航者,为何在此时集体松绑?这背后,是资本压力、行业竞争与监管真空共同作用的结果,更折射出AI行业发展的深层困境。

Anthropic的转变最具戏剧性。这家由前OpenAI核心成员创立的公司,成立初衷就是担心AI失控,“安全”是它区别于其他玩家的核心招牌。2023年版RSP政策中,明确写入“if-then”约束机制:若无法部署对应安全措施,就必须暂停训练更强模型,相当于给自己上了一道不可逾越的安全锁。

但在RSP 3.0中,这道锁被换成了旋转门。新框架以安全路线图、风险报告和外部评审为核心,从“做不到就不许动”变成了“边做边说”。Anthropic给出的解释是,AI安全级别越高,预设具体防护措施就越困难,模型能力是连续增长的,不存在清晰的红线。

这个说法看似合理,却无法解答外界的疑问:如果边界本就模糊,为何当初要将其作为核心承诺?又为何偏偏在完成300亿美元融资、估值升至3800亿美元的节点修改?

答案,或许藏在商业竞争的现实里。

Anthropic首席科学家Jared Kaplan的一句话道破天机:“如果竞争对手飞速前进,我们单方面承诺暂停训练没有意义。”

如今的AI竞赛早已不是几家公司的博弈,开源社区、各国企业都在加速推进,没有哪家愿意为了安全主动放慢脚步。Anthropic曾设想由自己设立安全标准、带动行业跟进,但现实是,多数公司的安全框架只是形式对标,而非实质约束。

OpenAI的动作同样耐人寻味。其旧使命“构建安全的、造福全人类的通用人工智能”中,“safely”一词是说服外界的最后防线——即便从非营利转型为“封顶利润公司”,仍坚守安全底线。但如今这个词的消失,让不少人担忧:当估值冲向8300亿美元,商业利益是否已凌驾于安全之上?

有人认为删改一个副词是小题大做,但在AI行业,这种表述变化绝非偶然。两家公司的默契调整,本质上是在资本压力下的理性选择:暂停训练意味着暂停产品迭代、商业落地和估值增长,这对于背负巨大市值预期的商业实体而言,代价过于沉重。

更现实的是,当前政治气候对AI监管不友好,政府行动迟缓,企业不愿单方面承担安全成本,这种监管真空进一步放大了行业的焦虑。

Anthropic反复强调,RSP 3.0不是放弃安全,而是换了更成熟的方式。确实,新版本保留了不少实质性安全机制,比如针对生化武器风险的ASL-3级别防护标准,通过输入输出分类器拦截滥用内容,这些都不是空洞的口号。但问题的核心在于,透明披露能否替代硬性约束?

答案显然是否定的。

硬性约束是“锁死选项”,无论压力多大都无路可退;而透明披露依赖外部舆论和内部自律,当资本焦虑足够强烈,这种约束很可能形同虚设。

2026年的AI行业,“安全”正逐渐变成一种公关语言——几乎所有主流公司都有安全框架和负责任政策,但这些文件究竟是用来约束自己,还是用来安抚监管和公众?

更令人担忧的是,企业有权自行修改安全框架,安全承诺的边界正在不断移动。Anthropic最初的设想是,企业率先设立标准,推动行业自律,最终形成政府多边协调机制。但这条路并未走通:监管跟不上技术和商业的变化,安全共识逐渐散开,竞争却在持续加速,形成了“没人愿意踩刹车”的行业现状。

在这个监管真空期,一个关键问题浮出水面:如果企业不再为自己设红线,谁来设?AI技术的发展速度远超想象,其潜在风险也在不断升级,从协助生物武器研发到引发就业危机,都可能成为现实。仅靠企业自律和透明披露,显然无法应对这些系统性风险。

我们不能简单否定Anthropic和OpenAI的努力,它们内部仍有大量工程师在推进安全研究,RSP 3.0也保留了诸多实质性机制。但必须清醒地认识到,AI安全不能依赖企业的道德自觉,更需要制度性保障。

当行业竞争进入白热化,资本回报的诱惑越来越大,只有建立统一的行业标准、完善的监管体系和有效的多边协调机制,才能为AI发展划定真正的红线。

Anthropic和OpenAI的安全承诺调整,给整个行业敲响了警钟。AI的终极目标是造福人类,而安全是实现这一目标的前提。如果为了追求速度和商业利益不断后退安全底线,最终可能让整个行业陷入信任危机。

当下最需要的,是政府、企业、科研机构的协同行动:尽快建立清晰的AI安全标准,完善监管政策,让安全成本由全行业共同承担,而非单个企业独自扛下。

只有这样,才能避免AI行业在“比谁更快”的竞赛中失控,让技术发展真正走上可持续的轨道。否则,当所有玩家都在加速,没有刹车的赛道终将通向未知的危险。

88.jpg