当前位置: 首页 » 资讯 » 新科技 » 正文

瞭望 | 技术镜像下的伦理校准

IP属地 中国·北京 新华社 时间:2026-02-24 18:29:01

  实现科技与伦理的动态适配,需从事后纠偏转向过程嵌入,将伦理原则前移至技术研发、应用部署的全流程

  脑机接口可增强认知能力,基因编辑可改变生理特征,但“为人”的关键仍是自我意识的连续性、自主决策能力以及为决策负责的态度

  “善”不是抽象的道德概念,而是要确保技术发展不偏离人类共同利益,让所有人都能从技术进步中受益,实现人与技术的和谐共生

  文 |《瞭望》新闻周刊记者 扈永顺


  随着生成式人工智能、基因编辑、量子计算等颠覆性技术的迅猛发展,人类社会正面临着前所未有的伦理挑战。例如生殖细胞编辑的伦理争议持续发酵;Neuralink等脑机接口涉及意识上传、记忆篡改风险;合成生物学如基因驱动灭蚊可能破坏生态平衡,等等。

  技术的指数级发展与伦理规约的渐进性适应之间形成了日益凸显的张力。《瞭望》新闻周刊记者采访多位专家,就当前科技与伦理的冲突与调和路径进行深入解析。

  受访专家认为,面对快速的技术迭代,治理手段须实现从宏观叙事向微观实践转向,针对AI、生物技术及数据安全等不同领域,根据具体应用场景的风险特征,建立敏捷、灵活且具备差异化的分类伦理治理机制,将伦理原则细化为可操作的伦理规则。

  科技突破与伦理滞后

  《瞭望》:新一轮科技突破速度和外溢影响远超以往,伦理建设滞后于技术创新。不同领域的伦理适配缺口呈现怎样的差异?又该如何构建与技术发展动态适配的治理体系?

  张成岗:人类社会的伦理规范通常在长期实践中缓慢形成,具有天然滞后性,而当代数字技术、生物技术正以前所未有的速度突破既有边界,伦理建设跟不上技术创新的步伐,且不同领域的伦理适配缺口差异显著。

  AI发展速度已超出大多数伦理框架的预设,ChatGPT等大模型在两年内从概念走向数亿用户,但内容责任、知识产权、隐私保护等规范仍在构建中,其“黑箱”特性也让传统伦理中的责任追溯变得困难;以CRISPR为代表的基因编辑技术,不仅涉及技术风险,更触及“人类自然性”这一根本命题,动摇“何为人”的定义;数据科学领域,传统隐私保护建立在“个人同意”基础上,但大数据时代数据聚合产生的群体洞察已超出个人同意范畴,权利边界界定成为核心困境。

  这些差异意味着我们不能期待统一的科技伦理框架,而需针对不同技术特点制定差异化治理机制。

  翟晓梅:新兴科技发展快于伦理治理,应摒弃用僵化原则规范科技发展的传统思维,允许科技伦理边发展、边反思、边修正,以包容和可修正的方式为实践提供指南;通过构建动态的科技伦理治理系统,由科研人员、伦理学家、机构、主管部门和公众等多方合力,将伦理融入科技发展的全过程。这种动态治理不是被动追赶技术,而是主动参与技术迭代,让伦理成为技术创新的内在约束而非外部枷锁。

  鲁晓:传统伦理治理多在技术成熟后进行补救,难以适应当前技术的飞速发展。实现科技与伦理的动态适配,需从事后纠偏转向过程嵌入,将伦理原则前移至技术研发、应用部署的全流程,推动形成可解释、可审计、可追责的技术发展路径。同时,算法决策、自动生成内容等技术打破了传统责任边界,“谁来负责、如何负责”变得模糊,需重塑技术发展的责任体系,通过制度安排明确开发者、平台、使用者和监管部门的责任,形成可追责、可审计、可纠偏的责任闭环,让科技向善从道德倡导化为制度约束。


科学技术伦理之问 AI辅助设计 / 本刊

  AI伦理:从技术风险到责任重构

  《瞭望》:生成式AI的偏见与幻觉根源何在?算法偏见如何放大社会不平等?面对AI带来的责任模糊与跨国风险,如何构建有效的治理框架?

  陈小平:训练数据是生成式AI偏见与幻觉的根本来源,其中存在三大陷阱:

  一是噪声陷阱,数据中包含虚假陈述、虚构事实和偏见,数据清洗仅能消除部分,无法根除;二是书本陷阱,大部分训练数据是非场景性的书本知识,与现实脱节,AI能复述原理却不善解决实际问题,如同“书呆子”,同时还会“继承”书本知识中隐含的偏见;三是逻辑陷阱,训练数据中往往存在相互冲突的观点,但生成式AI基于统计推断,无法准确把握逻辑关系,会将不一致的内容混杂,编造出不存在的观点,即幻觉。

  只要这三大陷阱存在,就难以完全避免或消除AI的偏见和幻觉,只能通过优化数据质量、完善训练方法来降低其影响。

  张成岗:算法并非中立工具,其偏见源于历史数据不平等、设计目标单一化及反馈回路的自我强化,且会被现代社会的制度性结构系统性放大。

  例如在就业市场,简历筛选算法可能因历史数据中对特定群体的歧视性记录,持续歧视该群体,一旦成为行业标准,就会形成“数据贫困—算法偏见—机会剥夺”的恶性循环;在司法体系中,风险评估算法如果基于有偏见的历史数据,不仅会复制过去的歧视,还通过“技术客观性”使其合法化、隐蔽化,让偏见披上科学的外衣。

  公众对AI决策的“信任阈值”需从三方面设定:一是透明度阶梯,按AI决策的风险等级要求不同的可解释性,高风险场景如医疗、司法需更高解释性;二是平衡信任,公众信任既基于结果正确,也基于开发过程的合理性和可问责性;三是动态校准,信任阈值应随系统性能变化调整,并通过包容性审议吸纳受影响社群参与,最终取决于公众对AI价值和风险分配公平性的感受。

  翟晓梅:在医疗AI领域,AI应被视为辅助性工具,而非独立决策主体,最终临床决策责任仍由医生承担。与此同时,AI系统的开发企业与相关研究者,须对其输出内容的准确性、可靠性承担相应责任,并履行必要的警示与说明义务,以保障临床应用的安全与合规。

  当前面临一个结构性矛盾:当医生因长期依赖AI而导致自身诊疗能力钝化,却仍需为最终决策承担全部责任时,会引发职业困境与信任危机。因此,我们不仅需要更智能的工具,更需要一种能守护并促进医生专业成长的、负责任的人机协同范式,避免技术替代人类核心能力。

  此外,传统医疗事故鉴定机制也需调整,由于AI决策的“黑箱”特性,在出现误诊时难以清晰划分责任,亟须在现有鉴定体系中纳入对算法透明度与可解释性的评估,构建健康的人机协同医疗环境。

  陈小平:AI“对齐”是指确保AI系统的行为与人类价值观、意图和目标保持一致。大模型训练方法多属不完全归纳法,存在“实例性”,它学会的是行为模式的实例,有对有错,数据充分时能解难题,数据不足时却会犯低级错误,呈现“锯齿状智能”,这导致“对齐”仅能在部分实例上有效,且大模型有内在“弹性”机制抗拒“对齐”,靠技术手段难以完全实现。

  更关键的是,人类社会对伦理准则的认知存在显著分歧,不同国家、文化群体对“善”“公正”的理解不同,将AI与人类“对齐”需明确以何种伦理框架为参照基准,且即便技术上实现“对齐”,结果仍需符合专业领域的技术规范要求,经过法定认证程序检验。

  鲁晓:生成式AI风险超越国界,仅靠一国监管难起效,需构建多层次、协同化、以规则为核心的综合治理体系。

  全球层面,推动底线共识型监管,围绕安全、隐私等关键问题凝聚国际共识,避免规则冲突;区域和国家层面,探索差异化、可调适的监管路径,在明确安全底线的前提下,各国根据国情进行制度创新和试点。

  “全球规则协调+本国制度创新+多主体协同”的组合式治理路径,既能防范跨国风险,又能为技术创新留足空间。


在广西柳州市北部生态新区机器人产业园,首台广西制造的工业版人形机器人正式亮相(2025 年 6 月 18 日摄) 新华社发(黎寒池摄)

  生命与交叉科技伦理的模糊地带

  《瞭望》:基因编辑技术中生殖细胞与体细胞编辑的伦理差异是什么?脑机接口与合成生物学又带来哪些新的伦理挑战?

  翟晓梅:生殖细胞编辑与体细胞编辑的伦理差异核心在于影响的时空范围和可控性:体细胞编辑针对已分化的特定组织细胞,如造血细胞、肌肉细胞,影响仅限于个体当前生命阶段,不会遗传给后代,伦理争议集中在安全性和可及性上;生殖细胞编辑修改精子、卵子或早期胚胎基因,遗传变化会传递给后代,具有永久性和代际传播性,引发代际伦理争议及对人类基因池长期影响的担忧。

  人们普遍认为,技术进步不能赋予科学家改变人类基因池的特权,保护后代基因是我们这一代人的责任,包括中国在内的绝大多数国家和WHO等国际组织明确禁止生殖细胞编辑的临床应用,仅允许在严格监管下开展实验室基础研究。

  在医学领域,治疗与增强的界限本质是伦理界限:治疗旨在预防、治愈疾病或恢复机体正常功能,使个体回归“物种典型水平的健康”;增强则是超越人的正常健康水平提升能力,如通过基因编辑提高智力、增强体能,这引发对人类自然属性的反思及加剧社会不平等的担忧,其界限映射出社会对“健康”“正常”乃至“人类福祉”的深层价值选择。

  鲁晓:中美欧在基因编辑监管上的差异源于各自发展阶段、文化价值观和治理理念的不同,正深刻影响全球科研合作。

  监管分化加速了科研活动的“功能分区”:美国在严格伦理审查下推进体细胞编辑临床研究,侧重创新;欧盟更审慎,强调风险防范,对基因编辑技术应用限制较多。这导致前沿实验向监管灵活地区集中,伦理与规范研究则多在监管严格地区开展,合作模式从“同向协作”转向“分区推进”。同时,监管差异抬高了跨国合作成本,样本共享、数据流动和联合试验常因标准不一而面临重复审批甚至制度冲突,延长研究周期、增加不确定性,部分项目被迫调整或缩减。

  监管多样性也为评估技术安全性、社会影响提供了现实样本,有助于校准全球监管边界,未来应加强对话、推动标准互认与伦理协商,在尊重多元制度的基础上降低壁垒,维护开放、负责任的全球科研合作生态。

  罗敏敏:目前的脑机接口更像是一个“粗糙的意图识别器”,远未达到读取记忆、情感等抽象思维的精度,窃取记忆的风险被高估了,但我们必须防患于未然。未来防范风险的核心在于本地化处理与“神经加密”:数据尽可能在设备本地完成分析,不向外传输,从源头保障安全;利用大脑数据的独特生理特征开发加密算法,即使数据被窃取也无法解读。

  此外,人类心理的复杂性本身就是抵御意识操控的天然防火墙,每个人的意识都独一无二,受经历、价值观等多重影响,外部力量想要精准操控极其困难。除了技术防护,还需从法律、伦理等多维度构建保障体系,明确脑机接口数据的隐私属性,规范技术应用场景,确保技术真正造福人类。

  翟晓梅:合成生物学的生态干预常引发“是否挑战敬畏自然传统伦理观”的讨论,但自然、非自然等术语常被附加道德判断。

  对合成生物学的伦理分析,应聚焦其对环境的具体冲击,而非抽象概念,核心是进行风险—收益分析,评估风险的性质和发生概率,不宜因笼统风险否定技术,也不应在缺乏评估时盲目研发。更妥善的做法是在技术发展全过程中实时监测,设定风险阈值,构建程序来权衡风险与收益并形成决策。

  以基因驱动技术为例,它可控制外来物种、预防传染病,也可能破坏生态平衡,妥善的伦理评估可从三方面开展:一是通过算法模拟等方式评估生态影响,预测可能的风险;二是将安全技术手段嵌入研发使用过程,如设置“自限性”机制,防止基因驱动扩散;三是完善审查机制,建立政府、科研人员、环保组织、公众等多方参与的平台,共同监测风险并权衡利弊。


重庆市云阳县克隆的雪域高原濒危牛种樟木牛正在嬉戏(2024 年 1 月29 日摄) 刘诗平摄 / 本刊

  技术镜像下的人文反思

  《瞭望》:前沿科技不断突破人类能力边界,新的伦理挑战持续涌现,这些技术将如何推动我们重新思考“何以为人”与“何为善”的根本命题?

  翟晓梅:技术不仅是改造世界的工具,更是照亮人类自我认知的镜子,它通过扩展能力的边界,迫使我们回归“何以为人”的根本问题。

  人脑的核心价值在于产生有意识的思考、情感与责任感知,而非物理载体本身,新兴技术能改变人的物质基础和心理状态,如脑机接口可增强认知能力,基因编辑可改变生理特征,但“为人”的关键仍是自我意识的连续性、自主决策能力以及为决策负责的态度。

  在追求技术进步的同时,我们应始终保持对技术局限性与人性复杂性的敬畏,不能让技术定义人类,而要让人类掌控技术方向。技术的发展路径深受社会制度、文化价值与公众选择的影响,我们需要主动塑造技术方向,在“保护人类本质”与“拥抱技术进化”之间重新锚定存在意义与向善方向。

  鲁晓:人的核心价值在于独特的精神品质,这是机器无法替代的:机器无法主动探索未知,而人拥有好奇心与创造力,能不断拓展知识的边界;机器无法复制真诚情感,而人能产生情感共鸣与韧性,在困境中坚守信念。

  人的本质是思维、情感与道德意识的综合体,思考“何以为人”需回归以人为本,在制度上划定伦理红线,确保技术始终是服务于人的工具,而非替代人的主体。思考“何为善”的核心是技术向善、人机协同与全民福祉的统一,“善”不是抽象的道德概念,而是要确保技术发展不偏离人类共同利益,让所有人都能从技术进步中受益,实现人与技术的和谐共生。

  罗敏敏:面对量子计算、脑科学等颠覆性技术,我们需确立“神经权利”,保障人类的精神自决权,防止技术干预人类的意识与思维。技术研发须引入“伦理红队”,在源头进行“破坏性测试”,提前预判技术可能带来的伦理风险,而不是等问题出现后再补救。

  陈小平:AI等新科技能提供发展动力,但不一定能让发展方向符合人类根本利益。生成式AI在历史上前所未有地将人类的一大类通用技能——适用于众多行业的语言文字工作技能转移到机器上,未来可能出现一种极端情况:掌握机器的极少数大企业员工赚取高额收入,大部分企业和工作岗位消失,社会两极分化。这种情况需要我们提前警惕。■

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。