12月7日,2025大湾区科学论坛人工智能分论坛暨第六届中国(广东)人工智能论坛在广州南沙国际会展中心举行。在“人工智能创新与治理”圆桌交流环节,四位专家围绕中国AI发展的优势与挑战、算力支撑、人才培养、企业责任、敏捷治理机制等展开了深度对话。
![]()
“人工智能创新与治理”圆桌交流。(活动主办方)
交流中,四位专家针对人工智能的“敏捷治理”这一概念分享了见解。中国工程院院士、鹏城实验室主任高文指出,以AlphaGo下围棋为例,其训练数据中80%都是生成式数据,正是通过生成数据与既有数据的结合训练,才实现了对人类的超越。这一现象让我们必须重视生成式数据的治理问题,核心是要引导其“向善”发展。他强调,“敏捷治理”绝非事后补救,而应注重事前预埋治理逻辑。例如对生成式数据的管理上,需要进行标识,仅靠显式标识还不够——这类标识可能被人为移除,因此还需配套隐式标识,确保其难以被随意篡改。基于此,相关立法机构与技术部门应提前介入治理过程,而非等问题发生后再被动应对。
中国科学技术大学党委常委、副校长吴枫结合校园实践分享了看法。他提到,当前学校的信息化建设成效显著,基础设施完备,但人工智能技术的落地应用仍存在较大空白。为此,校方曾尝试推动人工智能在校园管理等场景中的应用,却发现各部门对数据安全高度敏感,普遍持谨慎态度,这让他意识到:人工智能在校园的应用,必须先从后台场景起步,而非直接推进前端落地。随后,学校用了一年多时间,重点推进数据治理工作——明确数据管理规则、探索合理利用路径,包括封闭场所的数据开发等相关规范。而解决完数据问题后,又面临新的课题:哪些人工智能技术适合校园场景?吴枫指出,师生及学校领导对人工智能的使用同样敏感,反对用技术对师生进行全方位的监测与了解,这意味着人工智能技术的应用必须建立在明确规范之上,先立规矩再谈开发。缺乏完善的治理体系,人工智能技术很难在校园这类敏感场景中顺利落地应用。
百度、京东的两位企业代表一致认为,“敏捷治理”的核心是“边发展边治理”——既要推动技术快速迭代,也要实现更具针对性、更高效的治理,确保治理节奏与发展步伐同频同步。同时,两位代表还结合企业自身的开发与服务实践,介绍了人工智能安全治理的具体做法与措施。
百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰表示,百度已将人工智能安全治理贯穿于技术研发到落地应用的全流程,既有模型安全保障,也有外部安全屏障。在源头环节,会对数据进行严格筛选,从根源上规避安全风险;即便数据经过筛选无虞,模型仍可能出现“幻觉”现象,团队也针对性开展研究,着力优化幻觉抑制。进入应用层面,会考虑到不同产品的特性搭建独立的安全保障体系。此外,团队还从多角度深入研究AI安全领域,例如专门开展防伪技术研发等。
京东集团高级副总裁、探索研究院副院长何晓冬认为,AI安全治理至关重要,京东主要从三个层次构建安全防护体系:第一,源头数据防护,公司内部建立了严格的数据安全保护机制;第二,生成内容标注,在AIGC时代,针对生成式数据制定了新的规范,比如京东直播中会对AI生成内容进行清晰标注;第三,敏感内容监测,对AI生成内容的敏感性进行持续跟踪监测。
圆桌交流环节上,“人工智能创新与治理——共建可信共生人工智能未来倡议书”发布,倡导构建“安全可信、创新共生、包容普惠”的人工智能发展新生态,确保技术进步与人类福祉同频共振。
![]()
“人工智能创新与治理——共建可信共生人工智能未来倡议书”发布。(活动主办方)
据悉,本届分论坛由广东省科学技术厅、鹏城实验室、南沙区人民政府等单位联合主办,以“AI & Governance”为主题,围绕人工智能前沿技术发展、创新与治理、大模型创新应用等话题,通过活动发布、主旨演讲、圆桌论坛等形式,共话智能向善、凝聚发展共识。
采写:南都N视频记者 张雨亭





京公网安备 11011402013531号