加利福尼亚州州长加文·纽森(Gavin Newsom)已于周一签署 参议院法案 53(SB 53),标志着该州在AI监管领域迈出关键一步。这项被称为“前沿AI透明法案”的立法现已生效,成为美国首批针对大型AI开发者的系统性安全报告要求之一。

与去年被否决的更严格版本 SB 1047 不同,SB 53 在广泛协商后达成妥协,旨在平衡技术创新与公共安全之间的张力。
法案背景:从否决到重建
2023年,纽瑟姆否决了原版法案 SB 1047,理由是其对模型训练成本超过1亿美元的企业施加的强制性测试和责任条款“可能抑制创新”。随后,他委托一组独立AI研究人员提出替代方案。
这份由专家撰写的 52页报告 成为 SB 53 的基础,强调以“透明度”和“可问责性”为核心手段,而非直接设定性能标准或法律责任。
SB 53 的核心要求
该法案主要适用于训练成本超过 1亿美元 的大型AI模型开发者,包括OpenAI、Anthropic、Google DeepMind等企业。主要内容包括:
1. 公开安全框架披露
- 大型AI公司必须在其官网发布一份公开文件,说明:
- 如何将国家标准、国际规范(如ISO)和行业共识纳入其AI开发流程;
- 所采用的安全评估方法与缓解措施。
- 若对安全协议做出重大变更,须在 30天内更新并说明理由。
⚠️ 注意:这些要求属于“披露义务”,不规定具体技术标准,也不禁止特定行为。
2. 建立举报机制与保护吹哨人
- 设立向 加州紧急服务办公室(Cal OES) 报告潜在重大AI安全事件的渠道;
- 明确保护内部员工举报健康与安全风险的权利,防止报复;
- 对故意隐瞒或虚假陈述的行为,授权总检察长办公室提起民事诉讼。
3. 动态法律更新机制
- 加州技术部将每年组织多利益相关方会议(含产业界、学术界、民权组织等);
- 基于技术演进与国际趋势,提出法律修订建议,确保法规与时俱进。
行业反应:分歧显著,立场分化
尽管最终文本已大幅软化,AI行业对该法案的态度仍高度分裂:
| 公司 | 立场 |
|---|---|
| Anthropic | 经过数周谈判后公开支持,称其“推动负责任的创新” |
| Meta | 反对,并于8月资助成立州级超级政治行动委员会(Super PAC),试图影响未来AI立法方向 |
| OpenAI | 私下游说反对,全球事务主管Chris Lehane致信纽瑟姆,主张应优先遵循联邦或国际协议 |
Lehane在信中提出一种规避路径:
“若企业在联邦机构或类似欧盟《AI法案》的框架下签署安全协议,加州应视其为满足本州合规要求。”
这一观点反映出部分科技公司希望以“全球统一标准”替代地方性监管的努力。
实际效力如何?自愿 vs 强制之争
SB 53 的一个关键争议点在于:它依赖的是“最佳实践”和“自愿遵循”,而非硬性技术指标。
这意味着:
- 企业可以提交符合格式但实质空洞的披露文件;
- 缺乏第三方审计或独立验证机制(原研究报告曾建议引入);
- 民事处罚仅适用于“明知故犯”的违规行为,举证难度较高。
因此,批评者认为该法案更像是“阳光法案”而非“安全法”——它提升了可见度,但未必能有效阻止高风险行为。
为什么加州如此重要?
虽然SB 53是一项州级法律,但其影响力远超地域限制:
- 加州拥有近 4000万人口,构成全球最大经济体之一;
- 是硅谷所在地,集中了绝大多数头部AI企业和研究机构;
- 过去多年中,加州的隐私、环境和技术政策常被其他州乃至国家效仿。
因此,任何在此地确立的AI监管模式,都可能成为事实上的全国标准。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...















