当前位置: 首页 » 资讯 » 新科技 » 正文

AI出海如何合规?港中文(深圳)吴保元:设个性化安全护栏

IP属地 中国·北京 南方都市报 时间:2026-01-07 20:14:03



1月6日,以“把握APEC机遇 扬帆新蓝海”为主题的粤港澳大湾区生成式人工智能安全发展联合实验室(以下简称“联合实验室”)福田服务站启用暨AI出海研讨会,在深圳市福田区华强科创广场举行。

活动现场,香港中文大学(深圳)人工智能学院终身副教授、助理院长吴保元围绕“人工智能出海中的安全挑战与对策”展开主题分享,与来自政府、企业、高校、科研机构及应用端的代表齐聚一堂,深入探讨粤港澳大湾区人工智能产业出海的新机遇与新未来。

AI安全的三重维度与核心风险

在吴保元看来,“人工智能安全”可划分为AI助力安全、AI内生安全以及AI衍生安全三个层次。

具体而言,AI在身份安全、信息安全、网络安全等传统安全领域具备显著应用价值,能够提供切实有效的保障助力,例如检测电信诈骗风险、防范恶意软件入侵等场景。但与此同时,AI也面临着隐私性、精确性、鲁棒性的安全“不可能三角”困境——功能足够强大、输出足够精准的AI模型,往往容易出现隐私泄露和鲁棒性不足等问题。多项研究成果及案例已表明,以ChatGPT为代表的大语言模型会“记忆”海量训练数据,而当前流行的视觉生成模型也能轻易生成如现实人物肖像等原始训练数据,这类现象不仅存在明显的隐私泄露隐患,更直接构成了AI内生安全风险。

AI衍生安全风险同样不容忽视。吴保元指出,AI技术在军事领域的武器化应用、在传播领域的虚假信息生成与扩散、对现有职场岗位的替代效应,以及其可能诱发的“信息茧房”加剧、歧视偏见放大等问题,都可能对现实社会秩序和公共利益产生负面影响,形成不容忽视的衍生安全风险。

针对上述安全风险,吴保元认为,有必要对AI模型开展价值对齐训练,确保AI的行为逻辑与人类的意图和价值观保持一致,符合人类社会的法律法规、意识形态、宗教信仰及风俗习惯等。


香港中文大学(深圳)人工智能学院终身副教授、助理院长吴保元围绕“人工智能出海中的安全挑战与对策”展开主题分享。(主办方供图)

AI产品跨境面临的三重合规挑战

吴保元进一步强调,上述AI安全问题在跨境场景下会被进一步放大,给AI产品的出海进程带来额外的合规与运营挑战。

首先,作为特殊的数据载体和重要的数据资产,AI模型及其相关数据(包括训练数据、模型参数、推理输入输出数据)均明确纳入数据跨境相关规定的监管范畴。若在境内收集用户个人信息、行业敏感数据等资源,并传输至境外用于AI模型训练,将直接受《个人信息保护法》《数据安全法》《促进和规范数据跨境流动规定》等法律法规的严格约束;部分功能强大或具备特殊属性的AI模型,还可能受到技术出口管制相关政策的限制。与此同时,若AI模型训练过程中使用了境外数据,其跨境应用也需符合目标国家和地区的相关数据出境规定。

其次,AI生成内容的合规性判定,与各地的法律法规、历史文化、宗教习俗、地域特点及时事热点高度相关。这就要求出海企业必须精准把握目的地的合规要求,针对性设置个性化的AI安全护栏,确保产品输出内容符合当地监管与公序良俗。

此外,AI产品出海时还需考虑责任追溯难题。在法律管辖层面,AI服务的提供者、用户、数据存储地及损害发生地往往分属不同国家和地区,导致管辖权界定困难,且各国产品责任法及赔偿标准差异显著,易引发法律适用冲突。在技术溯源层面,AI服务的分布式跨境架构与“算法黑箱”特性,使得安全事故的原因调查与证据固定难度极大,跨国调取日志数据、获取有效电子证据等环节均面临重重障碍。在监管标准层面,各国AI监管框架存在明显差异,缺乏统一的安全认证互认机制,直接导致企业出海合规成本高昂且不确定性极强。

基于上述挑战,吴保元建议,出海企业需提前预判、充分考量各类AI安全与合规风险,构建全流程的风险防控体系,为AI产品跨境布局筑牢安全根基。

此次活动由粤港澳大湾区生成式人工智能安全发展联合实验室、中共深圳市福田区委员会主办,福田区委统战部(台港澳局、侨务局)、福田区人工智能产业办公室、联合实验室福田服务站、深圳(福田)海联大模型和算法赋能服务中心、广东省网络数据安全与个人信息保护协会承办,南方都市报社、华强科创广场、深圳市人工智能行业协会协办。

出品:南都大数据研究院 AI新治向工作室

采写:南都研究员 唐静怡 李伟锋 孔令旖 南都N视频记者 袁炯贤

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。