近日,OpenAI 发布了一份面向超级智能时代的政策提案,试图回答一个越来越难以回避的问题:当人工智能能力远远超过人类之后,社会、政府与普通人应如何准备?
这份提案出台的时点也颇为微妙。一边,美国国会正准备就 AI 立法展开讨论,特朗普政府也在中期选举前持续争取外界对其更偏向产业友好的科技政策的支持;另一边,AI 行业本身正面临越来越大的压力:一方面,公众期待科技红利能够更广泛地被分享,而不只是流向少数公司与资本;另一方面,围绕就业替代、财富集中、监管缺位等问题的担忧,也在不断升温。
在这样的背景下,OpenAI 抛出了一系列颇具冲击力的构想,包括公共财富基金、税制调整、四天工作制、可转移型福利、适应性社会安全网,以及更广泛的 AI 普及与治理框架。这份提案并不只与华盛顿、硅谷或 AI 公司有关。某种程度上,超级智能离普通人或许还没有那么近,但围绕它的制度准备、利益分配与风险应对,已经提前开始了。
以下是提案全文,经 BAI 编译,仅供学习交流使用。
理解世界的冲动,始终是推动人类进步的核心动力。它构成了一个不断加速的飞轮:从科学到技术,从技术到发现,再由发现推动新的科学。正是这种持续向前的力量,让我们学会熔化沙子、掺入杂质、以原子级精度构造出计算机芯片,再让能量流经这些芯片,最终发展出能力不断增强的人工智能系统。
短短几年间,AI 已从只能执行特定场景下单点任务的系统,发展到能够完成过去需要人类数小时才能完成的通用任务的模型。如今,我们正开始迈向超级智能:也就是即便最聪明的人在 AI 辅助下,AI 系统仍能胜过他们的阶段。没有人确切知道这一转变将如何展开。在 OpenAI 看来,我们应当通过民主的过程来引导这一转变,让人们真正拥有塑造自己所期望 AI 未来的权力,并在提升适应能力的同时,为各种可能出现的结果做好准备。这正是这份文件存在的意义:启动一场关于如何以人为本地治理先进 AI 的讨论。
超级智能所描绘的前景极具想象力。正如电力革新家庭生活、内燃机改变出行、大规模生产降低生活成本那样,超级智能也将加速科学与医学突破,显著提高生产率,通过降低必需品价格来减轻家庭负担,并开启全新的工作、创造和创业形态。
今天,人们衡量 AI 对工作的影响,往往是看系统能够稳定完成的任务需要花多长时间。先进的 AI 系统已经从协助完成原本需要几分钟的任务,进展到可以完成原本需要几小时的任务。如果这种进展持续下去,我们有理由预期,未来的系统将能够执行那些当前需要数月才能完成的项目。这一变化将重塑组织的运行方式、知识的生产方式,以及人们寻找意义和机会的方式。它也将暴露出当下政策工具箱的局限性,我们需要更具雄心的构想,才能在迈向超级智能的过程中真正把人放在中心位置。
我们坚信,AI 带来的收益将远大于挑战;但我们也清醒地看到其中的风险:工作岗位乃至整个行业可能被颠覆,不法分子可能滥用这一技术,政府或机构可能以损害民主价值的方式部署 AI,权力与财富也可能进一步集中,而不是被更广泛地分享。
正因为如此,我们在此明确提出这些风险,是为了提高外界对政策解决方案必要性的认识。如果政策的演进跟不上技术变化,那么帮助社会穿越这一转型所需的制度与安全网就可能掉队。随着我们走向超级智能,让 AI 真正提升人们获取资源、作出选择和改变处境的能力,将成为核心挑战。我们应当追求一个超级智能惠及所有人的未来,在这个未来中:
繁荣不只属于少数人。先进 AI 的承诺,不只是技术进步本身,更是所有人生活质量的提升。每个人都应有机会参与 AI 所创造的新机会。生活水平应当上升,人们应当在更低成本、更好的健康与教育、更高的安全感和更多机会中看到实实在在的改善。如果 AI 最终只被少数人掌控、只让少数人受益,而大多数人既没有行动能力,也无法获得 AI 驱动的机会,那我们就辜负了这项技术的承诺。
风险得到 缓释。 迈向超级智能的过程将伴随严峻风险,从经济扰动,到在网络安全、生物等领域的滥用,再到越来越强大的系统失去对齐或失控。若不能有效缓释这些风险,人们将受到伤害。要避免这种结果,就需要建立新的机构、技术护栏和治理框架,确保先进系统始终安全、可控、保持对齐,从而降低大规模伤害风险,保护关键系统,并让人们能够在日常生活中信赖 AI。能力越提升,安全也必须同步提升。
AI 的获取和使用更加民主化。随着能力进步,出于安全考虑,某些系统可能需要受到控制。但广泛参与 AI 经济,不应取决于是否能够接触最强大的模型,而应取决于是否能够获得有用、可负担、保护隐私并增强个体行动能力的 AI。要避免财富与控制权过度集中,就必须确保世界各地的人们都能使用 AI,并借此在工作中、市场中以及民主过程中获得真正的影响力。
为什么我们需要新的产业政策
社会并非第一次经历重大技术转型,但这类转型从来都伴随着真实的动荡与阵痛。尽管这些转型最终创造了更多繁荣,但前提是社会曾主动通过制度选择来回应这些变化,确保增长能够转化为更广泛的机会和更高的安全感。比如,在工业时代来临之后,进步主义时代与新政帮助社会契约实现现代化,以适应一个被电力、内燃机和大规模生产重塑的世界。它们通过建立新的公共机构、保护机制以及关于公平经济应当提供什么的新的社会期待,完成了这种更新,其中包括劳动保护、安全标准、社会安全网以及更广泛的教育机会。
历史表明,民主社会可以用更大胆的方式回应技术冲击:重新想象社会契约,在资本与劳动之间进行调节,并在维护多元主义、宪法制衡和创新自由的同时,让技术进步的收益得到更广泛的分配。迈向超级智能,将需要一种更有雄心的产业政策,一种能够体现民主社会以集体方式、大规模地塑造自身经济未来的能力的产业政策,从而确保超级智能惠及每一个人。
人们已经在担心 AI 将如何影响他们的生活:他们的工作和家庭是否安全,数据中心是否会扰乱社区、推高能源价格。AI 数据中心应当自行承担能源成本,而不是让家庭用户为其埋单;它们也应当为当地创造就业和税收。政府应推行常识性的 AI 监管,不是为了通过监管俘获来巩固既得利益者,而是为了保护儿童、缓释国家安全风险,并鼓励创新。
但考虑到我们预期中的变化规模和我们所看到的潜在风险,这些仍然不够。我们正在进入一个经济与社会组织的新阶段,它将从根本上重塑工作、知识与生产。这要求的不是渐进式政策修补,而是我们今天就应开始讨论、面向明天的政策构想。现在正是开启这场讨论的时刻:大胆思考、探索新想法,并共同发展出一套新的产业政策议程,确保超级智能惠及所有人。
在常态时期,让市场自行运转通常有很强的合理性。历史上,竞争、创业与开放的经济参与提升了生活水平,也扩展了机会,有助于将人类创造力转化为共享繁荣。
但当单靠市场力量已不足以应对新技术带来的机会与风险、现有制度又无力管理这些变化时,产业政策就能发挥重要作用。它可以帮助把科学突破转化为成规模的产业和广泛的经济增长。
一套新的产业政策议程,应当动用政府现有的工具箱来协调公共部门与私人部门的活动,包括科研资助、劳动力发展、塑造市场的工具以及有针对性的监管。
我们目前只有一小部分的答案。不同路径需要不同的政策回应,在任何一种情形下,都不可能靠单一工具解决问题。但我们的目标应当是,通过那些扩大参与、拓宽机会获取并确保社会拥有管理风险所需护栏与制度的政策,建设一个既开放又有韧性的 AI 经济。
这份文件提出的是一组初步构想,旨在为超级智能转型过程中坚持以人为本的产业政策议程提供起点。全文分为两个部分:第一部分,建设一个具有广泛可及性、参与性和共享繁荣的开放经济;第二部分,通过问责、对齐和前沿风险管理来建设一个更具韧性的社会。OpenAI 提出这些想法,是希望为一场更广泛的讨论提供起点,这场讨论需要在政府、企业、公民社会、社区和家庭之间展开。
这些想法刻意保持前期性和探索性,并非完整或最终建议,而是一个供各方通过民主过程继续发展、修正、质疑和选择的起点。它们目前以美国为出发点,但这场讨论以及最终的解决方案,终究必须是全球性的。迈向超级智能并非遥远的可能性,它已经在发生,而我们在未来几年内作出的选择,将决定未来几十年它的收益与风险如何分配。
建设开放经济
先进 AI 的承诺在于,它能把丰富的智能转化为非凡的进步,并让所有人受益。它可以降低生活必需品的成本,扩展机会,让人们有更多时间投入那些有意义、以关系为核心、能够建设社区的事情中。它还可能帮助我们解决那些至今仍难以靠人类自身力量攻克的科学挑战:治愈或预防疾病、缓解粮食短缺、在气候压力下增强农业韧性、加快清洁可靠能源领域的突破。对科学的大规模投资,其收益可能在一代人之内显现,并触达远离传统科研中心的社区。
但与此同时,正是这些使进步成为可能的能力,也会以前所未有的速度和规模冲击就业并重塑整个行业。有些工作会消失,有些工作会演变,而随着组织逐步学会部署先进 AI,全新的工作形式也将出现。
这些变化不会平均地到来。如果没有审慎的政策,AI 可能会扩大不平等,因为那些原本就处于更有利位置的人,会进一步叠加优势、攫取更多上行收益,而资源较少的社区则可能被进一步甩开,被排除在新工具、新产业和新机会之外。还有一种风险是,即便技术本身变得更强大、使用更广泛,经济收益仍可能集中在少数几家公司手中,包括像 OpenAI 这样的公司。使用 AI 的劳动者很可能会承认自己的生产率提高了,但却并不认为自己真正分享到了其中的好处。
要维持一个易于进入、可广泛参与的开放经济,就需要着眼未来的大胆政策设想。以下构想中,有的旨在确保劳动者在 AI 转型中拥有发言权,因为劳动者最了解工作实际上是如何完成的,也最清楚 AI 在哪里能够让工作更好、更安全。还有一些构想则提出新的机制,用于分享 AI 驱动增长带来的回报,包括扩大资本获取、让经济收益更广泛地分配,并把 AI 赋能增长的成果与更高的生活水平对齐。它们也可以让经济安全体系更现代化,帮助人们在工作变化中应对转型、获得新机会并维持稳定。这些构想形成了一组仍属初步的政策组合,用来应对迈向超级智能可能带来的各种经济情景,同时努力保持经济开放,并让其收益能够被广泛分享。
劳动者视角
应当让劳动者在 AI 转型中拥有发言权,从而使工作变得更好、更安全,包括建立一种正式机制,让劳动者能够与管理层合作,确保 AI 提升工作质量、增强安全性并尊重劳动权利。劳动者最懂一线工作,也最清楚 AI 在哪里可以改善结果。他们将成为关键声音,帮助我们理解 AI 如何在工作场所中被使用,从而确保技术变革不仅带来更高生产率,也带来更好的工作和更强、更安全的职场环境。应当允许劳动者优先推动那些能够消除危险、重复、行政性或令人筋疲力尽的任务的 AI 部署,让员工能够专注于更高价值的工作。同时,也应为那些可能损害工作质量的 AI 用法划定明确边界,例如加重工作负荷、压缩自主性、破坏公平排班和薪酬机制的做法。
AI 优先型创业者
应帮助劳动者把自身的领域经验转化为新公司,让 AI 去承担那些通常会阻碍创业的后台负担,例如会计、营销和采购。可以将小额资助或按收入偿还的融资,与“开箱即用式创业支持”结合起来,例如提供标准合同模板和共享后台基础设施,让新成立的小企业能够更快地参与竞争。劳动者组织也可以在其中发挥推动作用,通过提供培训、共享服务,并帮助劳动者协商公平的商业条款、保护知识产权。
享用 AI 的权利
应将获取 AI 视为参与现代经济的基础条件,正如过去大规模推动识字,或努力让电力和互联网覆盖偏远地区一样。互联网至今在全球范围内、甚至在美国国内的部署都远未公平;我们应从中吸取经验,在 AI 领域尽量纠正这些问题。应扩大对基础模型的使用成本可负担、接入稳定可靠。基础模型是现代 AI 系统的构件,应让最低水平的能力被广泛获得,包括通过免费或低成本的接入点。同时,还应支持教育、基础设施、连通性和培训,以便人们真正有效地使用这些系统,并确保劳动者、小企业、学校、图书馆和服务不足的社区,不会被排除在推动生产率和机会的这些能力之外。
税基现代化
随着 AI 重塑工作与生产,经济活动的构成可能发生变化:企业利润和资本收益扩张,而对劳动收入和工资税的依赖则可能下降。这将侵蚀支撑社会保障、医疗补助、营养补助和住房援助等核心项目的税基,并使这些项目面临风险。税收政策应当随之调整,以确保这些系统具有可持续性。政策制定者可以通过更多依赖资本型税收来重新平衡税基,比如提高高收入人群的资本利得税、企业所得税,或针对持续性的 AI 驱动回报设计有针对性的措施;也可以探索与自动化劳动相关的新型税收路径。这些改革应与与工资挂钩的激励措施配套,鼓励企业留住工人、再培训工人并继续在人身上投资,类似于现有的研发税收抵免。综合起来,这些变化将有助于稳定关键公共项目的资金来源,同时支持 AI 经济中的劳动力转型。
公共财富基金
应建立一个公共财富基金,让每一位公民,包括那些未参与金融市场投资的人,也能在 AI 驱动的经济增长中拥有一份权益。税制改革有助于确保政府能够继续为关键项目提供资金,而公共财富基金的设计目的,则是确保人们能够直接分享这一增长带来的上行收益。政策制定者和 AI 公司应共同决定如何为这一基金注入初始资本。基金可以投资于多元化、长期性的资产,既覆盖 AI 公司,也覆盖更广泛地采用和部署 AI 的企业。基金回报可以直接分配给公民,让更多人不论起点财富水平如何、是否拥有资本渠道,都能直接参与到 AI 驱动增长的上行收益中来。
加快电网扩容
应建立新的公私合作模式,为支持 AI 所需的能源基础设施扩张提供融资并加快推进。利用这些模式,去解决长期限制跨州、跨区域高压输电建设的融资约束、许可延误和选址风险,同时实现基础设施以更快速度和更大规模交付,降低纳税人风险,并让公众分享上行收益。具体路径可以包括:通过有针对性的投资税收抵免、灵活的直接和间接补贴,或股权参与,来降低资本成本;移除先进导体和高压直流输电等先进技术的市场障碍;并在符合国家利益时,赋予联邦政府有限但明确的权限,以加快跨区域输电建设。此类合作应被设计为尽量减少纳税人承担商业损失的风险,并确保新增能源基础设施最终转化为家庭和企业更低的用能成本。
效率红利
应将 AI 带来的效率提升转化为劳动者福利的长期改善。当例行工作负担下降、运营成本降低时,可以激励企业提高养老金匹配或缴费比例,承担更大比例的医疗成本,并补贴儿童照护和老年照护。还可以鼓励雇主和工会开展有时间边界的 32 小时、四天工作制试点,在不降薪的前提下保持产出和服务水平不变,再将节省出来的时间转化为永久性的更短工时、可累积的带薪休假,或二者结合。在适当情况下,企业也可以提供与可测量生产率提升挂钩、可预测的“福利奖金”,让效率红利既体现为长期财务安全,也体现为劳动者真正被归还的时间。
面向所有人的适应性安全网
必须确保现有安全网能够可靠、迅速并以可扩展的方式运转。因为如果迈向超级智能的转型要让所有人受益,那么那些旨在提供经济与健康安全的系统,就不能出现延迟或空档。首先,要确保失业保险、营养补助、社会保障、医疗补助和医疗保险不仅存在,而且真正功能完备、易于获得,并能回应人们在转型中将面对的现实。其次,要投资建立清晰、实时的测量体系,追踪 AI 正如何影响工作、工资、工作质量以及各行业动态,使用包括失业率和地区性、行业性岗位替代指标在内的公共指标。这些系统应当让政策制定者及时看见哪里发生了扰动、扰动有多严重。然后,应预先定义一套临时性、扩展性的安全网组合,例如更宽松或更高水平的失业救济、快速现金援助、工资保险和培训代金券,并在这些指标超过预设阈值时自动启动。当扰动上升到相应水平时,支持力度就应随之增强;当情况稳定后,又应逐步退出。这样既能确保援助有针对性、有时限、与扰动规模相匹配,也能避免项目被永久性扩张。
可转移型福利
从长期看,应建设不再绑定单一雇主的福利体系,通过可随个人在不同岗位、行业、教育项目和创业经历之间流动的账户,扩大医疗、退休储蓄和技能培训的获取。公共项目可以通过扩大退休支持和培训支持的覆盖面,使关键福利不再依赖就业身份,不论一个人在哪里工作、以何种方式工作,都能获得支持。具体实施可以依托可转移福利平台,将来自多个来源的缴费汇集并导入与个人绑定而非与岗位绑定的标准化账户。退休制度也可以通过池化结构实现现代化,让劳动者跨雇主持续累积权益,减少中断并保持长期连续性。
通往人本型工作的路径
应扩大照护与连接型经济中的机会,包括托育、养老照护、教育、医疗和社区服务,把这些领域作为被 AI 替代劳动者的重要去向。虽然 AI 可以通过减少行政负担和提升个性化水平来增强这些岗位,但人与人之间的连接仍将是这些职业不可替代的核心。随着 AI 重塑劳动力市场,如果能在培训、工资和工作质量上给予支持,这些领域就能吸纳转型中的劳动者。政府可以建立培训管道,支持人们转向照护类岗位,并激励雇主提高那些长期短缺行业的薪资和工作条件。
这些措施还可以与一种家庭福利相结合,把照护劳动视为具有经济价值的工作,并支持不断变化的工作模式。这项福利可以帮助覆盖儿童照护、教育和医疗成本,同时与兼职工作、再培训或创业相兼容。综合起来,这些努力将扩大照护服务的可及性,增强社区韧性,并创造更多有意义、以人为中心的工作。
加速科学发现并扩大其收益
应建立一个分布式的 AI 赋能实验室网络,大幅增强对 AI 生成假设的大规模测试与验证能力。这些实验室将 AI 系统直接整合进实验流程,通过自动化常规流程、采集高质量数据,并使假设生成与验证之间能够快速迭代。随后,还应建设将这些经过验证的发现大规模转化为现实应用所需的物理系统和基础设施。这包括:扩展各类组织部署新技术的能力,升级实施所需的设施和系统,并校准融资与激励机制以支持采用;也包括持续投资于人才,培训科学家、技术员和操作人员,使其能够参与 AI 赋能的科学研究。
这些投资将确保突破不只停留在实验室,而是进入广泛应用,同时增强建设、维护和运行支撑 AI 发现所需基础设施的人才队伍和运营体系。实验室基础设施和生产基础设施都应被广泛部署到大学、社区学院、医院和区域科研中心,而不是只集中在少数精英机构。
建设更具韧性的社会
随着 AI 系统能力越来越强,并越来越深地嵌入整个经济,它们可能在带来新丰裕的同时,也引入新的脆弱性。有些系统可能被用于网络或生物领域的破坏性用途;有些系统若缺乏足够护栏,可能对社会与情感福祉,特别是年轻人的福祉,造成新的压力;AI 系统也可能以偏离人类意图的方式行动,或在缺乏有意义人类监督的情况下运行;而随着先进 AI 重塑个人、组织与政府的运行方式,它也可能给维系社会稳定、安全与自由所依赖的制度与规范带来新的压力。
我们必须清醒认识到,这里所需要的韧性是真实而严峻的。这些新风险不会是彼此孤立、可以逐一处理的问题。AI 将同时重塑工作的完成方式、决策的作出方式、组织的运行方式以及国家之间的互动方式。因此,建设韧性,意味着要确保个人和机构能够快速适应,在这些系统的使用方式上保持有意义的行动能力,并在经济和社会结构演变的过程中,仍能维持广泛共享的繁荣。
但随着 AI 系统越来越强大、部署越来越广泛,社会韧性也将越来越取决于部署之后发生的事情:系统必须被实时监测,在不确定性条件下运行,并嵌入那些原本并不是为 agentic 工作流而设计的机构之中。
这并不是全新的挑战。过去,当具有变革性的技术重塑社会时,它们总是伴随着新的风险,而社会也会随着其规模扩张而建立新的系统来管理这些风险。电力普及之后,社会建立了安全标准和监管机构;汽车改变出行之后,安全系统减少了风险,同时保留了行动自由;在航空领域,持续监测和协调响应体系使飞行成为最安全的交通方式之一;在食品和药品领域,测试与上市后监测帮助确保日常使用中的安全。在每一个案例中,韧性都不是自动出现的,而是借助时间被建设出来的。
面向新兴风险的安全系统
AI 信任栈
应研究并开发帮助人们信任和验证 AI 系统、其生成内容以及其采取行动的系统,尤其是在这些系统承担越来越多现实世界责任的情况下。应推进来源追踪和验证标准与工具的发展,在保护隐私的同时建立对 AI 系统的信任。这可能包括:让诸如内容生成、发出指令等行为能够带有安全、可验证的签名;开发在保护隐私前提下的日志与审计系统以支持调查与问责,而不是演变为无处不在的监控。
这类解决方案应在尽量少收集敏感数据的前提下,捕捉与系统行为和使用相关的关键信息,并被设计成只在明确界定的法律或安全条件下支持调查或干预。这项工作还可以包括开发和测试治理框架,明确组织内部责任归属,例如如何将问责落实到具体角色,以及随着系统能力增强,授权、监测和升级处理机制应如何运转。长期来看,这些努力可以为问责建立基础,既提升人们对 AI 交互的信任,也确保一旦发生伤害,责任能够被适当地分配。
审计机制
应加强诸如人工智能标准与创新中心(Center for AI Standards and Innovation, CAISI)这样的机构,使其与国家安全机构协同,制定针对前沿 AI 风险的审计标准。应利用政府采购、预先采购承诺、保险框架和标准制定等工具,创造并扩大一个竞争性的审计员和评估者市场,使其具备评估 AI 系统和产品在安全与安保方面风险的能力,让审计能力随着技术同步成长。标准应以便于国际采纳的方式设计,以减少碎片化,避免给小公司以及跨司法辖区经营的企业施加不必要的合规负担。
随着我们继续迈向超级智能,未来可能会出现这样一个时点:极少数高能力模型,尤其是那些可能实质性提升化学、生物、放射、核或网络风险的模型,需要更强的控制,包括基于预先建立的标准,在部署前和部署后进行审计。这类要求应只针对极少数公司和最先进的模型,同时保留一个充满活力的、由能力较弱系统及围绕其建设的创业公司组成的生态。这种做法既能维持对通用 AI 的广泛获取,也能在失败可能带来最大伤害的地方施加有针对性的护栏,避免设置不必要的障碍,从而不压制竞争,也不为监管俘获创造空间。
模型遏制预案
应制定并测试一套协调一致的预案,以便在危险的 AI 系统被释放到现实世界之后进行遏制。随着 AI 能力提升,社会可能面临这样一些情境:危险系统无法被轻易召回,因为模型权重已经被公开,开发者不愿或无力限制对危险能力的访问,或系统本身具备自主性并能复制自身。在这些情况下,关键问题将变成遏制:在现实约束下限制危险能力的扩散、减少伤害,并协调响应。来自网络安全和公共卫生等高风险领域的经验表明,即便完全遏制并不可行,协调行动仍然可以显著降低冲击。
与使命一致的公司治理
前沿 AI 公司应采用把公共利益问责嵌入决策过程的治理结构,例如采用以使命为导向治理的公益公司。这类结构应包含明确承诺,确保 AI 的收益被广泛分享,包括通过大规模、长期性的慈善或公益投入来实现。同时,还应增强前沿系统对企业内部或内部人俘获的防御能力,例如保护模型权重和训练基础设施安全,审计模型是否存在操纵性行为或隐藏忠诚对象,并监测高风险部署,确保没有个人或内部派系能够悄悄借助 AI 系统来集中权力。
政府使用 AI 的护栏
此外,还应更新透明度框架,包括《信息自由法》在内,使公民和监督组织能够利用 AI 对政府行为中的特定问题进行审查,同时保护敏感信息。这还可能包括明确 AI 交互日志和 agentic 行动日志在何种情况下构成联邦记录,并必须被保存一定期限。
公众参与机制
应建立结构化的公众参与机制,避免对齐只由工程师或公司高管在封闭环境中界定。随着先进 AI 对人们生活产生越来越多影响,社会需要对这些系统应当做什么、应由什么价值观来引导以及它们表现如何,形成共同且清晰的认识。应通过透明的系统规范、评估框架和具有代表性的公众参与流程,使对齐更具民主性、可理解性和可问责性。开发者应公开模型规范,说明系统被设计成应如何运作,并分享系统是如何被评估的信息。政府和公共机构应帮助塑造这些标准,使其锚定在民主法律和价值观之上,同时建立机制,让具有代表性的公众意见能够与传统商业利益相关方的意见一道被纳入考量。综合起来,这些方法有助于确保 AI 的发展能够反映那些必须与其后果共处的社会的观点。
事件报告
应建立一种机制,让企业能够向指定公共机构共享关于事件、滥用和险些发生事故的信息。该系统应更强调学习和预防,而不是追责;在保证透明度和民主监督的同时,也应对技术细节、国家安全信息和竞争性信息作出适当范围内的保护。对于“险些发生事故”的报告,也应包括那些虽然最终未造成伤害,但模型曾展现出令人担忧的内部推理、意外能力或其他预警信号的情况,以便整个生态系统能够在真正事故发生前,从这些近失事件中吸取经验。
围绕 AI 能力、风险与缓释措施的国际信息共享
应加强国家层面的评估机构,把它们作为国际协调的基础。起点可以是扩大 CAISI 的角色,使其成为一个可信赖的技术机构,用于评估前沿系统、衡量护栏效果并帮助政府理解先进 AI 的能力。在此基础上,应发展一个由 AI 研究机构组成的全球网络,通过共享信息交换协议、联合评估和协调缓释措施来开展合作。
长期来看,这一网络可以演化成一种类似于其他关注安全和标准的多边机构的国际框架:让可信赖的公共机构能够看见前沿 AI 的发展状况;建立跨实验室、跨国家的安全沟通渠道,用于共享评估结果、对齐发现和新兴风险;并在危机时期支持沟通。为实现有效协作,政策制定者应确保企业能够通过这些渠道共享与安全和风险相关的信息,而不会因此触犯反垄断或竞争限制;这需要明确的安全港规则以及范围受限的信息共享规则。这个系统也不应只聚焦国家安全,而应扩展到更广泛的社会风险,包括对青少年安全与福祉的影响。



京公网安备 11011402013531号