2026年4月9日,Wired 报道了一则震动 AI 政策圈的消息:OpenAI 在伊利诺伊州公开支持一项名为 SB 3444 的州级法案,该法案旨在为前沿模型开发商建立针对「关键伤害」的责任护城河——只要按时发布安全与透明度报告,即可在模型导致百人死亡或十亿美元级财产损失时免于被追责。
这不是 AI 行业第一次试图影响立法。但这是迄今为止目标最明确、条款最激进的的一次尝试。
一、SB 3444 核心条款解析
伊利诺伊州 SB 3444 的核心逻辑是:为前沿模型开发商提供「安全港」保护。
适用条件:
- 模型训练成本超过 1 亿美元(按计算成本计),这一定义几乎涵盖了 OpenAI、Google、Anthropic、xAI 和 Meta 的所有主力模型
- 开发商在官网发布了安全报告、安全报告和透明度报告
- 伤害不是开发商故意或鲁莽造成的
覆盖的「关键伤害」类型:
- 死亡或严重人身伤害人数达 100 人以上
- 财产损失达 1 亿美元以上
- 利用 AI 模型自主行为造成上述后果(若由人类实施则构成刑事犯罪)
换句话说:只要不是故意作恶、只要官网有报告,模型帮助某人制造了生化武器并引发灾难,开发商就可以免于承担民事或刑事责任。
二、为什么是现在
理解这个时机,需要回顾 2025-2026 年 AI 行业的几个关键变化。
第一,AI 造成伤害的诉讼正在涌入法院。 最引人注目的是多起与 ChatGPT 相关的青少年自杀案——死者家属已对 OpenAI 提起诉讼,核心主张正是「开发商未能充分警告 AI 聊天机器人的心理健康风险」。这些案件目前仍在联邦法院系统里摸索前行,没有先例可循。
第二,各州立法正在形成「碎片化」压力。 伊利诺伊州本身已有先例:2025年8月,该州率先立法限制 AI 在心理健康服务中的应用。2025年以来,加州通过了 SB 53(AI 安全报告强制披露),纽约州的 Raise Act 也在推进。AI 行业普遍担心,如果联邦层面不出台统一标准,各州各自为政的监管将带来巨大的合规成本和法律不确定性。
第三,Trump 政府的「进攻姿态」提供了政治掩护。 联邦层面,特朗普政府一直在压制州级 AI 安全法规,同时对 Anthropic 等公司发起供应链标签审查。OpenAI 押注这是推动「行业友好型」联邦立法的时间窗口——如果伊利诺伊州的 SB 3444 能成为某种示范法(model law),就有可能向外输出到其他州乃至联邦层面。
三、谁在反对:政策界的强烈质疑
SB 3444 一经报道即遭到 AI 安全政策研究者的强烈反对。
Secure AI 项目政策总监 Scott Wisor 告诉 Wired:「我们向伊利诺伊州居民调查是否支持 AI 公司减免责任,90% 的人表示反对。现有的 AI 公司没有理由享受降低的责任保护。」
从法律角度看,这项法案有几个被普遍质疑的问题:
1. 「安全报告」免责的循环逻辑。 开发商自己写报告、自己定义什么是「安全」,然后用这份自我评估的报告换取法律免责——这是一个完美的闭环。没有任何独立第三方审核要求,监管的实质是「自我认证」。
2. 「非故意」伤害的举证困境。 如果一个模型被用来制造化学武器,OpenAI 只需要证明「我们没有主动教它这样做」,就可以脱身。但在实践中,模型能力的涌现(emergent capabilities)往往是训练过程中不可预测的副作用——这让「故意」与「疏忽」之间的界限变得极其模糊。
3. 对小型 AI 开发者的不公平性。 1 亿美元的训练成本门槛实际上是为行业巨头量身定做的免责条款。做一个 5000 万美元训练的模型出了事,同样可能造成严重伤害,但因为不满足「前沿模型」的定义,开发商反而无法享受同等保护。这不是保护前沿 AI,是保护最大的那几个玩家。
四、国际对比:不平等的竞争环境
伊利诺伊州的 SB 3444 与全球其他主要 AI 监管框架形成了鲜明对比。
欧盟《AI 法案》 对高风险 AI 系统采取严格责任(strict liability)原则——不管开发商是否有过错,只要系统造成伤害就必须承担责任,且责任保险为强制要求。
中国的生成式 AI 法规要求服务商对生成内容承担连带责任,并建立了算法备案和定期安全评估制度。
美国联邦层面,目前没有任何成文法律明确规定 AI 模型开发商的责任边界。SB 3444 如果通过,将是第一个将「安全报告即可免责」编入成文法的州级尝试。
有趣的是,OpenAI 发言人 Jamie Radice 在声明中表示支持 SB 3444 的理由之一是「有助于避免州与州之间碎片化的规则,朝着更清晰、更一致的国家标准迈进」——一边支持一个州级法案,一边说这是为了避免州级碎片化,这个逻辑本身就值得玩味。
五、这意味着什么:AI 治理的转折点
SB 3444 的重要性不仅仅在于它本身,而在于它代表了一种AI 行业治理路线的全面转向。
2023-2024 年,AI 行业的监管讨论主流是「自律」(self-regulation):开发商承诺做红队测试、发布透明度报告、建立内部安全委员会,政府主要靠呼吁和框架指南而非硬性法律。Anthropic 的负责任扩展政策(Responsible Scaling Policy)和 OpenAI 的安全路线图都是这个思路的产物。
2025-2026 年,随着 AI 进入关键基础设施、企业软件和医疗心理健康等高风险领域,单纯的自律已经无法平息公众和监管者的担忧。诉讼浪潮和州级立法加速了行业「主动出击」的动机——与其等着被各种不同的法律追着跑,不如先游说通过一个对自己最有利的版本。
这是一种成熟的「监管俘获」(regulatory capture)策略。 不是拒绝监管,而是参与塑造对自己最有利的监管形式。烟草行业、石油行业和制药行业都走过同样的路。
SB 3444 的最终命运仍不确定。Wisor 认为,考虑到伊利诺伊州在科技监管方面的激进历史,这个法案通过的可能性不大。但即便它不通过,它的影响已经在显现——它为行业讨论设定了框架,让「安全报告换免责」成为可以被公开讨论的选项,而这种讨论本身就是一种政策推进。
结语
AI 行业正在经历一个关键的身份确认时刻:它到底是一个需要被特殊保护的「新兴技术」,还是一个应该和所有其他产品一样对消费者和社会负责的成熟行业?
SB 3444 给出了行业自己的答案:我们是需要特殊保护的,因为我们的模型太强大、太危险,正常的法律责任会阻碍创新。
但这个逻辑的潜台词是:如果模型的力量大到无法被问责,那谁又在为这种力量负责?
这个问题,目前没有人能回答。