美国纽约州参议院于 6 月 12 日(周四) 正式通过了《负责任人工智能安全与教育法案》(RAISE Act,全称 Responsible AI Safety and Education Act),旨在加强对前沿 AI 模型的安全监管,并要求开发者公开风险控制措施。
该法案现已送交纽约州长 Kathy Hochul 签署,若最终生效,将成为美国首个强制 AI 实验室对模型安全性与事故信息进行披露的法律。
什么是《RAISE Act》?
《RAISE Act》由纽约州参议员 Andrew Gounardes 与其他议员共同提出,其核心目标是:
在推动 AI 技术发展的同时,确保公众免受潜在高风险 AI 模型的危害。
法案主要针对“前沿模型”(Frontier Model),即在训练过程中使用超过 10^26 运算操作,或训练成本超过 1 亿美元 的 AI 模型。此外,如果一个模型是通过知识蒸馏等技术从上述前沿模型衍生而来,且训练成本超过 500 万美元,也将被纳入监管范围。
重大伤害如何定义?
法案中对“重大伤害”(Significant Harm)给出了明确界定,包括但不限于:
- 直接或间接导致 100 人以上死亡或严重受伤;
- 造成 超过 10 亿美元的财产或经济损失;
- 被用于制造或部署 大规模毁灭性武器;
- 自主执行 刑事犯罪行为 或引发系统性社会危害。
这一定义为未来可能发生的 AI 风险设定了具体阈值,也为监管提供了依据。
开发者需承担哪些责任?
根据《RAISE Act》,前沿 AI 模型的开发者必须履行以下义务:
- 制定并公开合理的安全保护措施和程序;
- 明确说明对模型的访问控制机制;
- 对安全事故进行及时披露;
- 提供可验证的证据,证明模型不会带来不可控的重大风险。
违反规定者将面临最高 1,000 万美元 的罚款,具有较强的约束力。
为何聚焦大型模型?
参议员 Gounardes 表示:“我们支持 AI 技术的发展,但前提是它必须建立在安全的基础上。”他强调,AI 行业不应为了追求商业利益而忽视潜在的社会风险。
Gounardes 用了一个形象的比喻来说明立法初衷:
“没有人会让自己的孩子坐进一辆没有安全带和气囊的汽车。同样地,人们也不应使用一个缺乏基本安全机制的强大 AI 系统。”
这一观点也解释了为何《RAISE Act》主要针对大型 AI 开发者——这类模型具备更强的能力,一旦失控,可能带来的后果也更严重。
加州 SB 1047 的前车之鉴
去年,加州也曾尝试推进类似的 AI 安全立法——SB 1047 法案,同样聚焦于大型模型的安全管理,要求开发者必须设计“关闭开关”,以便在模型失控时能立即终止运行。
然而,该法案最终遭到加州州长 Gavin Newsom 否决,理由是:
“小型模型也可能造成巨大危害,仅监管大模型是不够的。”
相比之下,《RAISE Act》并未设定“一刀切”的标准,而是以实际训练规模与成本作为门槛,更具操作性和针对性。
若签署生效,意义重大
一旦纽约州长 Kathy Hochul 签署《RAISE Act》,纽约将成为全美首个对 AI 实验室实施强制透明化监管的州。
这不仅意味着 AI 模型的开发将受到更严格的审查,也释放出一个明确信号:
科技创新不能以牺牲公共安全为代价。
对于 OpenAI、Google、Anthropic 等大型 AI 开发机构而言,这意味着他们需要在产品发布前投入更多资源进行风险评估与安全防护设计。















