韩国22日正式实施《关于人工智能发展和构建信赖基础的基本法》(简称《AI基本法》)。该法要求,企业与开发者在影响用户日常生活及安全的“高风险”领域应用AI模型时须采取严格措施,对深度伪造、虚假信息等问题承担更多责任。
据韩联社22日报道,韩国科学技术信息通信部宣布《AI基本法》当日正式生效。该法引入“高风险AI”的概念,即在医疗、就业流程、饮用水生产、交通运输、贷款审查、核安全等领域,生成内容足以显著影响用户日常生活及安全的AI模型。法案规定,有关企业或机构使用“高风险AI”须安排真人监督;使用生成式AI模型提供产品或服务须事先告知用户;在难以区分AI生成内容与现实时,应予以明确标注。
在韩国提供人工智能服务的跨国企业,凡符合下列中任何一项条件,均须指派一名境内代表:全球年收入达到1万亿韩元(约合6.81亿美元)及以上、在韩国国内销售额达100亿韩元(约合681万美元)及以上或在韩国日活跃用户达100万人及以上。按韩联社说法,美国开放人工智能研究中心(OpenAI)和谷歌公司目前符合上述条件。
该法规定,违规企业将面临最高3000万韩元(约2.04万美元)罚款。韩国政府计划为相关企业设置一年宽限期,韩国科学技术信息通信部将为企业提供咨询服务,帮助企业适应新规。该法还要求韩国科学技术信息通信部每三年提交一份政策蓝图,以促进AI产业发展。(完)(王奕昕)





京公网安备 11011402013531号