智通财经APP获悉,去年加州州长加文·纽瑟姆否决一项要求科技企业为技术损害担责的法案后,州立法机构再度启动人工智能监管立法进程。旧金山民主党州参议员斯科特·维纳本周二发布SB 53法案修正案,提出建立全国首例AI透明度监管框架:要求开发超过特定算力阈值的人工智能模型企业,必须向社会公开安全评估协议,重点排查技术可能引发的灾难性风险。
根据该提案,相关企业还需在发生敏感技术泄露等重大安全事故时,向州检察长提交专项报告,涉及企业包括OpenAI、谷歌母公司Alphabet(GOOGL.US)及Anthropic等行业头部。
这份修正案在维纳今年初提交的原始法案基础上作出关键调整,既保留内部举报人保护条款和公共云服务平台建设方案,该平台旨在为初创企业和学术机构提供低成本算力支持,又删除了此前引发争议的责任追溯条款。维纳在声明中强调,立法需在鼓励创新与防范风险间取得平衡:"AI技术变革日新月异,政策制定必须与顶尖科研力量协同,既释放技术潜能又筑牢安全防线,最终构建信任、公平与问责并重的治理体系。"
此次立法尝试的背景是联邦层面监管松动:美国参议院近日否决了限制各州出台AI法规的提案,为地方立法腾出空间。值得注意的是,维纳去年推动的SB 1047法案虽获州议会通过,但因要求企业为技术灾难承担法律责任,遭到硅谷风险投资机构及科技巨头强烈反对,最终被纽瑟姆以"过度施压创新"为由否决。
此次SB 53修正案的条款设计,与纽瑟姆否决后成立的人工智能前沿模型工作组建议框架形成呼应,该工作组由知名学者李飞飞等专家组成,虽未提出具体立法方案,但其技术评估报告为当前法案提供了专业支撑。
当前meta(meta.US)、谷歌等企业已形成定期发布模型安全指南的行业惯例,SB 53法案旨在将此类实践上升为法定标准。修正案预计本月下旬进入议会委员会审议阶段,维纳表示将继续与科技企业、学术机构等利益相关方磋商完善提案。这场持续多年的立法博弈,折射出人工智能技术快速发展与公共安全保障之间的深层张力,也预示着全球科技治理正在进入地方立法与联邦政策协同演进的新阶段。