当前位置: 首页 » 资讯 » 新科技 » 正文

新质观察|白宫《国家人工智能政策框架》释放了什么信号?

IP属地 中国·北京 澎湃新闻 时间:2026-03-31 10:04:22

3月20日,美国白宫发布了《国家人工智能政策框架:立法建议》。文件只有4页,分量却不轻。它把美国下一阶段AI治理的基本方向摆到了台面上:尽快形成全国统一规则,把儿童保护、版权争议、数据中心、电价、劳动力培训和言论自由等议题,统一纳入了“维护美国AI领先地位”的政策叙事之中。

这份框架也不是凭空出现的。2025年7月,白宫发布《美国人工智能行动计划》,提出加速创新、建设美国AI基础设施、在国际安全与外交上保持领先三大支柱。到了2026年3月,这份“国家AI政策框架”,进一步把此前分散的政策信号收束为面向国会的立法建议。它传递出的信息相当明确:美国AI治理正在从技术议题管理,转向以国家竞争力为核心的总体布局。

“发展优先”的治理纲领

从内容看,这份框架主要有七个核心维度:

第一,保护儿童、赋权家长,要求平台和AI服务降低未成年人暴露于不良内容、自伤诱导和性剥削风险的可能性。

第二,推动AI基础设施建设,同时尽量防止居民电价因数据中心扩张而上涨,并简化数据中心和相关能源设施审批。

第三,明确表态“模型训练不违反版权法”,但在立法建议上不急于一锤定音,而是倾向继续让法院处理模型训练是否构成合理使用的问题。

第四,强调宪法第一修正案,反对压制合法表达。

第五,主张通过监管沙盒、开放联邦数据集、行业标准和既有部门监管来推动创新,并明确反对新设一个专门的联邦AI监管机构。

第六,把AI培训纳入教育、学徒和劳动力项目。

第七,也是最受关注的一条,推动国会优先排除那些“负担过重”的州级AI法律,尽快形成全国统一标准。

这七点放在一起,政策取向非常鲜明。它不打算建立一套类似欧盟那样的高风险AI分类制度,也没有提出一整套前置合规义务;在版权问题上,它同样避免给出过于刚性的立法判断。文件更在意的,是如何降低制度不确定性,避免规则过早、过密地拖慢美国AI产业扩张。换句话说,这是一份“发展优先”的治理纲领,而不是一份“安全优先”的监管法案。

轻监管、强竞争、联邦优先

如果用一句话概括这份政策框架的取向,那就是:先把美国AI产业跑起来,再逐步补上更细的制度围栏。在文件的配套说明中,白宫直接强调“美国AI主导地位”和“赢得AI竞赛”。这不是中性的技术治理语言,而是一种鲜明的国家竞争语言。它背后的逻辑有三条:竞争优先于细密监管,联邦统一优先于州级多样性,沿用既有制度优先于新建专门机构。

这也解释了为什么白宫如此强调“联邦优先”。在它看来,AI研发和部署天然具有跨州、跨行业甚至跨国属性。如果各州各搞一套规则,企业面对的将是更高的合规成本和更强的不确定性,最终伤害的会是美国的整体竞争力。因此,这份框架把“预先排除部分州法”放到了非常关键的位置。它希望通过联邦层面的统一安排,为产业扩张提供更稳定的制度环境。

这份政策框架体现的治理思路,与欧盟AI法案之间存在明显的差别。欧盟AI法案是一部已经生效并分阶段实施的综合性法律,采取风险分级和前置合规路线。相比之下,美国目前仍处于“框架—立法—博弈”的阶段,更依赖现有部门监管、法院判例和行业标准。欧盟的做法就像先把围栏搭起来,再允许市场在围栏之内奔跑;而美国更希望先把跑道铺宽,让产业率先冲出去,再逐步处理争议。这种差别背后,是两种不同的治理哲学:欧盟更强调可信AI、基本权利和风险控制,美国则更强调创新速度、统一市场和全球竞争力。

联邦主导下的制度重组与基础设施竞争

对美国国内而言,这份框架最直接的影响,可能会进一步加剧联邦政府与州政府之间围绕AI立法主导权的拉扯。框架写得很明确:联邦政府要建立全国性的AI政策框架,防止州一级出现“碎片化拼布式监管”损害美国整体竞争力;但它同时又保留了几类州权空间,比如各州执行一般适用的消费者保护和反欺诈法律、保护儿童、决定AI基础设施选址,以及规范本州政府自身采购和使用AI的方式。边界由此变得清晰:州可以管后果、管公共服务、管基础设施落地,却不应去直接管AI开发本身。

问题在于,美国不少州已经走在了前面。过去一两年里,加州、科罗拉多、得州、犹他州等地都陆续推动过各自的AI立法与监管安排,州一级已经不再只是联邦政策的被动接受者,而是在事实上参与塑造AI风险的定义方式。也正因为如此,白宫如今提出“联邦优先”,触动的就不只是企业合规便利,而是美国联邦制内部一场更深层的制度再分配:到底谁有权界定AI时代的公共风险,谁又有权决定创新与安全之间的平衡点。若这一框架未来被国会部分吸收,美国AI治理很可能会出现一种更鲜明的格局:联邦负责统一市场、维护国家竞争力和外交—安全层面的总体战略,州政府则被压缩到处理消费者保护、地方执法和公共服务治理等更靠近“后果管理”的位置。

对产业来说,这份文件还把 AI治理进一步推向了“基础设施政治”。它专门提到电价、数据中心审批、表后电源、小企业获得AI资源等问题。这个变化很关键,因为它意味着AI治理的重心正在移动:真正决定一国AI能力上限的,越来越不只是实验室里的模型表现,也不只是芯片禁运或算力堆叠,而是电力系统能否承受数据中心负荷,土地与网络资源能否快速配置,冷却系统、输电能力、审批效率和公共数据供给能否形成协同。谁能更快、更低成本地组织这些要素,谁就更有可能把技术优势转化为长期产业优势。

对我国AI治理的启示

对我国来说,这份政策框架最重要的启发,并不是简单选择“轻监管”还是“强监管”,而是看清AI治理已经进入一个发展、安全、产业、权利和基础设施相互缠绕的新阶段。近几年,我国已经逐步形成自己的制度框架。2023年发布的《生成式人工智能服务管理暂行办法》明确提出,坚持发展和安全并重、促进创新和依法治理相结合,并要求完善分类分级监管规则。2025年发布的《人工智能生成合成内容标识办法》,则进一步把显式标识和隐式标识制度化,推动生成合成内容可识别、可追溯、可治理。

下一步真正值得推进的,至少有三点。

第一,治理视野要从输出端延伸到全链条,既要关注生成内容,也要关注训练数据、模型能力、文档责任、事件报告和基础设施条件。

第二,要继续把分类分级和场景化治理做深做实。教育、医疗、金融、招聘、政务服务、工业控制,这些场景的风险结构差异很大,不适合用同一把尺子衡量。

第三,治理能力建设要和发展能力建设同步推进。规则之外,还需要监管沙盒、第三方评测、红队测试、事故通报、标准认证、公共语料和高质量数据集供给,以及面向地方和企业的合规服务体系。

白宫这份只有4页的文件,真正值得重视的地方,不在于它是否已经提供了一套完美答案,而在于它公开表明了美国的选择:在AI时代,美国更愿意押注竞争力、统一市场和制度松绑;而欧盟则继续押注风险分级、前置合规和基本权利保护。我国已经在算法治理、生成内容标识和平台责任上形成了自己的制度积累,下一步更关键的,是把这些积累进一步扩展到模型能力、应用场景和基础设施条件的协同治理。未来真正拉开差距的,未必是谁管得最严,或者谁放得最开,而是谁能更早找到发展、安全与社会信任之间那条可持续的平衡线。

(作者王翔为复旦大学数字与移动治理实验室研究员)

王翔

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。