当前位置: 首页 » 资讯 » 新科技 » 正文

王江平:用上善AI的东方智慧,平衡技术发展的激进与焦虑

IP属地 中国·北京 南方都市报 时间:2025-12-20 14:08:50


12月18日,南都在京举办第九届啄木鸟数据治理论坛。

AI是否存在泡沫?对AI技术的监管该严还是松?如何确保这项技术发展始终服务于人的福祉?这些有关AI的核心争论,或许能从“上善AI”的理念找到解答方向。

12月18日下午,南方都市报、南都数字经济治理研究中心在北京举办“第九届啄木鸟数据治理论坛”,主题聚焦“AI安全边界:技术、信任与治理新秩序”。十四届全国政协委员、工业和信息化部原副部长王江平以《上善AI:以对齐求善治》为题发表主旨演讲,他引用老子“上善若水”的理念,尝试勾勒中国AI治理愿景。

王江平认为,当前国际AI治理理念分歧较大,阵营化趋势明显,迫切需要一种东方古老智慧统一治理愿景。国内AI监管同样需要一套科学、敏捷的框架体系,来平衡AI发展其间的激进与焦虑。

AI系统向“智能实体”转变,但治理领域进展有限

随着AI技术的演进和产业应用,AI治理问题日益显现。从AI生成“流浪汉入家”到AI仿冒名人带货,从AI换脸拟声诈骗到未成年人过度沉迷聊天机器人……这些案例显示,当AI技术能力不断提升,安全边界却在模糊。

王江平在演讲中提到,大模型加速落地的同时,由模型幻觉所引发的内容风险愈发成为热点问题自动驾驶、具身智能的发展,则让人们注意到物理世界的安全风险。随着AI智能体的崛起,内容生态风险、人机交互安全、行为安全风险日益凸显,甚至可能带来就业冲击风险。

在王江平看来,AI安全风险正向内容生态、物理安全等各领域传导,逐渐形成对经济社会稳定等宏观层面影响。AI安全风险呈现层级穿透态势,并通过生态加速传导。预计未来三到五年,AI领域性风险将呈现更多样化的形态。


王江平发表主题演讲。

需要关注的是,当AI系统从“技术工具”向“智能实体”转变,正负面影响均将呈指数级扩大,但治理领域进展有限——“也就是,AI治理滞后于AI技术的发展。”王江平说。

为应对这种技术突破与治理的失衡,人机对齐成为智能时代的核心议题。所谓人机对齐,是指通过技术手段与伦理框架,确保人工智能系统的目标、行为和输出与人类的价值观、意图及社会规范保持一致。

目前人机对齐技术已日益广泛应用于模型训练中。据王江平介绍,当前,大多数主流模型采用“基于人工反馈的强化学习(RLHF)、检索增强生成(RAG)技术。前者的主要原理在于,将人类偏好转化为奖励信号,指导模型生成更符合人类需求和期望的内容。后者则强调,根据用户需求,先从预训练的文档索引中检索出有用信息,再利用这些信息强化模型的生成过程,以提高输出的准确性、可靠性和可解释性,减少模型“幻觉”。

尽管人机对齐是AI发展的核心目标之一,但在实践中仍面临诸多挑战。王江平表示,价值观的复杂性与动态性,使得为AI系统设定一套普适且可操作的价值目标函数变得极其困难。从技术实现的角度看,数据偏差可能导致AI输出歧视性内容。出于节省因对齐产生的算力成本开销等考虑,一些模型公司也可能因此降低对齐水平。

“如果对齐的速度跟不上AI发展,甚至有可能出现由技术领先者单方面定义人类价值观,这个风险是很大的。为此,治理和监管就显得非常重要。”王江平说。

用东方智慧平衡AI发展的激进与焦虑

2023年,英伟达首席执行官黄仁勋提出,每个国家都需要拥有自己的AI基础设施,以便保护自己的文化和经济安全。此后,主权AI成为科技乃至国际关系领域的一个热门词汇。

AI模型训练数据,不可避免地包含了特定国家、特定文化的元素。在不同国家和地区推广应用时,大模型也自然会体现出各自的特色。在王江平看来,AI要服务于本国利益,就离不开对本国文化对齐的问题。文化对齐的基本范畴往往包括价值观、制度、哲学,也包括艺术、语言、习俗等等。

具体而言,在价值对齐层面,王江平认为,应理解并适配人类价值观的多元结构,以“共通底线+多元分支+动态演变”为根本原则。在制度对齐层面,通过法律、法规、标准与伦理准则等工具,将AI的发展与应用约束在符合社会共识的框架内。哲学对齐是界定人机共生的底层逻辑,其核心是在智能时代重新定义“人类的位置”,划定“不可逾越的底线”与“合理探索的边界”,确保AI始终服务于人类的根本利益。

如何直面人与AI共生的根本命题?又该怎么应对当前AI对齐挑战?王江平从老子“上善若水”智慧中受到启发,呼吁“上善AI:以对齐求善治”,尝试勾勒中国AI治理的愿景。


王江平发表题为《上善AI,以对齐求善治》的演讲。

“上善AI,意为最高级别的AI。我在翻译英文的时候,没有叫‘The best AI’,而是‘The Tao of AI’。”王江平说,之所以这样翻译,是因为道家学说具有深刻的国际影响力,要推动中国AI治理理念全球化,这更能体现中国文化的生命力。

在王江平看来, “上善若水”精神内核为中国AI伦理治理指明了方向。把老子智慧融入AI治理中,他认为有三点非常重要:一是“敏捷治理”,这需要与时俱进,既管住要害又留足创新空间;二是AI治理法规,包括综合性法规和重点领域的法规;三是“四位一体的框架体系”,即自律、社会监督(行业伦理委员会、第三方检测评估)、行政部门监管和司法,缺一不可。

“上善AI的理念能提供一个更平和、更有生命力的思考框架,正如水能穿石、能汇江海、能以柔克刚,AI的发展正需要这样一种东方智慧来平衡其间的激进与焦虑。”王江平说。

坚守人的主体性,确保AI服务于人的全面发展

从“道”的哲学走向应用层面,如何运用上善AI的理念看待实际问题?王江平在分享中梳理了当前AI领域的几大争论,并逐一解析。

由于技术、资源、能力或治理水平的差异,不同国家和地区、企业和群体之间对AI技术的掌握和应用能力也表现出差异。AI时代的“智能鸿沟”问题引发高度关注。

王江平提到,技术垄断企业掌握先进AI技术和大量数据资源,在AI治理中可能追求自身利益最大化,而弱势群体在AI发展中面临技术鸿沟、就业冲击等问题,两者在AI治理规则制定和利益分配上存在显著分歧。

如何避免AI鸿沟,让更多人共享技术红利?王江平主张遵循“天之道,损有余而补不足”:通过开源共享、技术转移和能力建设,填平AI鸿沟,让技术像水一样滋养各地,不偏袒、不遗漏。

谈及对AI技术应该松监管还是严监管,王江平认为,治大国若烹小鲜。对于技术发展不应过度干预,而是通过建立稳固的伦理底线和原则性指导,为创新留出生长空间。“当前中美人工智能之间的博弈,是一场双方都输不起的竞争。”

“速度”与“泡沫”一直是前沿产业发展过程中需要把握和平衡的问题。当全球投资涌向AI赛道时,“AI泡沫论”也随之升温。“泡沫”论者认为,当前AI领域存在资本高度集中、“循环融资”风险、商业模式不清等问题,反方则强调,AI尚处于AI投资繁荣与泡沫的过渡阶段。

如何看待AI投资泡沫?王江平认为,真正的泡沫是“五色令人目盲”的狂热,其应对之道在于“见素抱朴”,回归事物的本质,关注技术是否解决真实问题,以“真需求”挤压泡沫。如果没有回应社会真实需求,那确实就是泡沫。”

更进一步,如何将上善AI理念付诸实践?王江平表示,这需要多方共同努力。对于开发者与企业,他建议在算法设计和产品理念中嵌入“利而不争”的思维。这意味着,需优先考虑技术的普惠性和社会价值,而不仅仅是商业回报。

对于监管机构,他认为治理应像水一样,柔而克刚。设定明确的伦理和安全边界(如“人机对齐”框架),但在具体技术路径上保持包容和开放,鼓励试错。

对于整个社会,王江平提到,应共同培养水的品格——保持开放心态学习AI知识,同时坚守人的主体性和价值观,确保技术最终服务于人的全面发展。

出品:南都数字经济治理研究中心

采写:南都N视频记者李玲 发自北京

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。