当前位置: 首页 » 资讯 » 新科技 » 正文

瞭望 | 读脑?控脑?

IP属地 中国·北京 新华社 时间:2025-12-08 18:16:54

  未说出口的思想、情感和意图被掌握等担心,在10年内是不必要的

  我们对大脑改造的边界在哪儿,需要随着技术发展逐步探索。完整意识上传、记忆编辑等需要较长时间实现,相信在实现过程中,无论是社会共识层面还是法律伦理层面都会为技术的演进做好准备

  在全球尚未对脑机接口技术的伦理达成共识的背景下,我们更应稳步推进技术,构建与中国科技实力相匹配的伦理治理体系,避免陷入“先发展后治理”的陷阱

  文 |《瞭望》新闻周刊记者 张冉燃 董雪


  当脑机接口技术从实验室迈向现实应用,一场触及人类终极边界——大脑、思想与身份认同等——的深刻变革正悄然开启。

  这项技术不仅有望为瘫痪患者重建行动能力、为失明人士带来视觉希望,更将神经数据这一前所未有的隐私形态、思想情感的潜在掌控,乃至决策自主的哲学命题等,骤然推到我们面前,形成对人类积淀已久的社会伦理、法律体系和哲学认知的全新关切。

  今时今日,距离真正的“读心术”“精神控制”“意识上传”“记忆编辑”等场景仍较遥远,但防范其可能引发的隐私泄露、算法操控等风险,应当始于当下、防患未然。在脑机接口技术加速突破的当下,可能是关乎人类文明走向的十字路口——如果大脑信号可能被破译、神经数据需要确权,我们面临的就不仅是技术问题,更是如何守护人之为人的本质命题。


脑智卓越中心侵入式脑机接口超柔性神经电极,厚度仅为约头发丝的 1/100 脑智卓越中心供图由中国自主研发的半侵入式脑机接口系统已经开始临床试验。图为“北脑一号”(2025 年 3 月摄) 北京天坛医院供图脑智卓越中心侵入式脑机接口生产全植入脑机接口系统所用的半导体加工设备之一——激光植球机 脑智卓越中心供图

  神经数据权属之辩

  《瞭望》:大脑信号会否被非法获取、滥用?

  李澄宇:随着脑机接口技术在医疗康复、神经科学研究等领域的应用边界不断拓展,与其他智能设备带来的问题一样,大脑信号在技术上也存在被非法获取和滥用的可能。需要与电脑、手机等智能设备或医疗信息相关器械的设计一样,引入安全防火墙,保障信息安全。

  《瞭望》:大脑产生的神经数据所有权归谁?

  李澄宇:大脑产生的神经数据直接关联到个人的精神世界、内心隐私和人格尊严。因此,其最终所有权应归属于产生该数据的个人。去个人隐私后的数据,在明确归属个人的基础上,可类比其他类型的医疗数据,建立精细化的授权使用和收益分享机制。这里,要特别注意以下3个原则:

  一是知情同意要深化。对神经数据的收集和使用,必须获得用户具体的、分场景的知情同意。

  二是严格限制使用目的。收集的神经数据只能用于用户同意的特定目的,如疾病治疗,严禁未经清晰请求并获许可而进行二次开发及用于其他商业用途。

  三是收益共享。当匿名的、聚合的神经数据被用于训练更先进的算法并产生巨大商业价值时,可以考虑建立一种数据贡献者参与价值分配的模式,前提是确保数据的绝对匿名化和安全,防止任何形式的反推识别。

  段伟文:神经数据的所有权是一个悖论。神经数据极其特殊,患者本人难以理解其含义,医生和研究机构能进行专业解读和处理,并可能用于共享研究,但这些神经数据未来会被用于何处、产生何种价值等,均存在不确定性。因此,神经数据很难简单归属于被采集者、医疗机构或研究机构。

  国家层面目前对此尚未有清晰的法律界定。一个现实挑战在于如何界定神经数据——许多非直接来自大脑的信号,如通过模式识别分析的眼动、心率变异性,甚至颅内压值等,经过计算后也能间接揭示人的神经活动状态。

  有鉴于此,当前的核心任务是建立一套贯穿神经数据全周期的治理框架,其重点不在于纠结所有权的归属,而要确保神经数据的保管与使用始终安全、合规,承认并保障神经数据主体的追溯权与知情同意权,即个人有权知道其神经数据被如何使用,并能够追溯用途。

  《瞭望》:如何界定通过脑机接口产生的行为责任?

  李雪:由于脑机接口能够直接控制外部设备,行为的发生是否代表用户真实意图,或是系统故障导致的误操作,这一问题已引发法律、伦理界人士的广泛讨论。我认为可借鉴自动驾驶领域的责任分配原则,建立“神经责任界定标准”,通过操作日志与意图识别机制明确行为归属,确保行为责任的清晰划分。

  李澄宇:传统法律体系建立在“人的意图通过身体动作执行,行为责任清晰可辨”的基础上。但脑机接口一旦大规模使用,在意图与行为之间就插入了算法与机器执行的环节,有可能存在对责任认定的争议。建议参考自动驾驶技术分级控制,对算法的自动化与责任进行分类或分层,可大致分为产品责任、用户责任、混合责任三类:

  产品责任类似汽车因刹车失灵引发事故,当因脑机接口设备的设计缺陷、制造瑕疵或算法错误等导致非意图的后果时,可追究制造商、开发者的责任。

  用户责任是指脑机接口设备准确无误地执行了使用者的清晰指令,由此产生的行为后果由使用者承担。

  混合责任的过失认定相对复杂,因为这一情形涉及交互中的共同作用,例如使用者未按规程操作、忽视系统警告,同时脑机接口设备本身也存在问题,此时需要根据过错程度进行责任划分。

  为厘清责任,确保脑机接口设备的行为可追溯,未来需要保证脑机接口设备的工作状态、决策逻辑,尤其是基于AI的脑信号解码可记录、可追溯、可审计,以便发生争议时能够客观还原指令产生、传输与执行的完整链条,为责任认定提供关键证据。

  暂无“读心”之忧

  《瞭望》:未说出口的思想、情感和意图通过脑机接口技术被掌握,会否影响精神隐私?进而引发精神控制?

  李澄宇:脑机接口技术的核心是读取脑活动、写入脑信息,但目前还处于较为早期的技术与产品验证阶段,在脑中读取写入信息的精准度有限,且都在医疗环境下应用。

  同时需要澄清的是,未说出口的思想、情感,这些信息一般并不会被纳入脑机接口算法进行训练,因此不存在针对思想与情感的训练与被掌握的问题,也不会存在精神隐私问题。因此未说出口的思想、情感和意图被掌握等担心,在10年内是不必要的。

  谈到意图,如肢体运动、未说出的言语,以及视觉图像的输入等,是根据患者需求被解码或编码的,应该说不只可以被掌握,而且脑机接口技术本就依托掌握这些信息来帮助患者,这方面的隐私可通过软硬件防火墙、加密等方式来保护。

  谈到隐私泄露与精神控制,目前确实在研发帮助精神障碍患者的脑机接口技术,也会获取患者的精神疾病状态,如抑郁症患者的某些脑区特征性异常脑活动等,对这些信息同样需要进行软硬件防火墙、加密等方式保护。

  但我个人认为,对患者精神障碍症状的改善不应该看做是精神控制,目前脑机接口的精度也远远达不到精神控制的程度。精神疾病状态之外的精神世界,还远不是脑机接口技术可以获取的;其他的运动、视觉、记忆等脑机接口技术,仅涉及这些行为相关脑区的脑信号采集、处理和传输,这些脑区对精神世界参与度非常低,并不会对精神隐私带来泄露风险。

  李雪:我们需要辩证看待脑机接口对人类未来的影响。人和动物的区别之一在于语言能力——我们可以通过语言表达自己的思想和情感。而通过脑机接口与大脑交互,将有助于我们更好地理解自己的情感与意图及其产生的原因。当然,我们需要做好这类隐私的保护。

  就保护手段而言,可以从技术和法律两个方面实现:在技术层面,我们可以将脑机接口做成边缘计算系统,在系统内部筛选过滤信息,使输出的是高度凝练的、只用于我们目标的信息,如运动控制。在法律、伦理层面,以制度形式保障个体对自身脑电数据的所有权、知情权、授权权与撤销权等权利。


在复旦大学附属华山医院脑机接口前瞻性临床试验手术现场,采集到了高质量的单神经元信号 受访者供图

  脑机接口的哲学叩问

  《瞭望》:如果决策被脑机接口预测,人类是否失去了选择权?

  李雪:人的大脑是一个复杂系统,无法简单地用机械化思维解释。脑机接口能够预测决策,实际意味着系统更好地理解了个体的意图。这与日常生活中家人通过观察我们的行为推测我们的状态相似,并不意味着个体失去了选择权。相反,这种技术为我们提供了更多的选择。预测本身只是提供更多可能性,最终的决策权利仍然由个体掌握。

  我们对大脑改造的边界在哪儿,是需要随着技术发展逐步探索的,就像人类了解了DNA编码,做了大量基因测序,也能够在一定程度上对部分基因进行编辑,但是这距离解决大部分基因缺陷导致的疾病还很远,更不要说我们最早担忧的设计生命体等问题了。完整意识上传、记忆编辑等需要较长时间实现,我相信在实现过程中,无论是社会共识层面还是法律伦理层面都会为技术的演进做好准备。

  李澄宇:决策与选择权的问题如果是在讨论目前针对运动、视觉等应用场景的脑机接口技术,则不存在决策的问题,因为这些技术的基本要求在于编解码的准确率,目前技术并不代替使用者作出选择,不存在人类失去选择权的问题。

  对记忆脑机接口、视觉脑机接口、情绪脑机接口这些依赖调控神经元活动的脑机接口技术,有可能存在算法出现问题、进而出现在脑中错误写入信息,或者黑客获取了脑机接口控制权并写入误导性信息误导决策的情况。这应当在未来的技术研发中注意避免,采取隐私保护、保密、设立防火墙等方法降低风险。

  如果是讨论未来认知增强之后,可能发展出的“决策”或“认知”脑机接口,那么人类是否还拥有“选择权”确实是可以讨论的问题,但可以留到那个时代再讨论,预计15~20年内不太可能出现这种情况。

  《瞭望》:有人担心脑机接口技术可能预示着思想的共享,对这一潜在场景究竟是打破沟通壁垒的终极沟通还是消解自我特性的意识湮灭存在争议。你怎么看?

  李澄宇:目前以疾病治疗为目的的脑机接口技术,不存在思想共享的可能。也很难想象人类脑机接口的未来用户会同意意识湮灭。在隐私与自主权方面,应最大限度保障使用者的神经数据隐私,阻止可能出现的无意识的思想共享。

  而在未来脑机接口大发展的前提下,如果出现思想共享的可能,也应与语言、文字、广播、视频、广告、互联网传播等人类其他共享思想的模式一样,进行相应管控。

  《瞭望》:当意识可上传、记忆可编辑,会否引起人的身份认同危机?

  李澄宇:意识上传、记忆编辑在可见的未来不太可能实现,其困难来自脑机接口读取与写入脑信息的精准度还远远不够,尤其是对意识和记忆脑机接口靶点脑区这样基本的问题还不清楚答案。如果二三十年后技术上实现了,大概率也会和人类本有的意识和记忆进行某种程度的融合,而不会是裂脑人一样的分裂并引发身份认同危机。

  况且,脑机接口这类技术的应用属于自主选择范畴:重大疾病患者,其使用前提是基于使用者的明确认可;面向商业娱乐场景的非侵入式脑机接口产品,主要定位为消费级电子产品,是否使用、选择何种技术方案,也均由使用者自主决定。同时,相关技术的应用尺度应通过法律层面的明确规范进行界定,切实保障使用者的合法权益。

  在这些选择与制度保障下,意识上传、记忆编辑所产出的人,一定与现在的人有很大不同,如果这样改变意识与记忆的方式影响到后代人类或其他生物的生存、生殖、生活模式,这个变化可能会成为生物学上进化或演化的一部分,其所产生的影响可以建模分析。

  既踩“油门”又备“刹车”

  《瞭望》:脑机接口带来的认知增强是否可能带来失控的风险?

  李澄宇:在发展方向上,认知增强是脑机接口未来可能探索的方向之一,但当前的研究重点仍集中于帮助患有重大疾病或存在功能缺失的人群恢复部分生理或认知功能。未来认知增强技术的发展路径,需要在实践中不断评估校正,并借助法律与伦理框架约束。

  应该说,任何新兴技术都难免引发对未知风险的担忧,应通过科学规范的手段引导和管控,可以参考人工智能等领域的伦理规范经验,提早布局相关法规制定。

  段伟文:不能简单认为治疗的目的就合理、增强的目的就不合理。例如治疗健忘似乎具有目的上的正当性,但当前人类对记忆与认知的理解仍非常有限,部署相关技术一定要考虑安全性。安全是伦理的第一要义。

  一个需要警惕的情况是,人工智能、大模型,以及脑机接口等技术工具,如同人类的“义肢”,应该成为延伸人类能力边界、弥补认知局限的支撑,而非取代人类主体地位的替代者。但现在人工智能的介入正在改变人类认知的基本原则,AI辅助决策可能削弱人的自主判断能力,这种情况比较突出。

  应当说,技术并非天然崇高,它需要像人体跟“义肢”的磨合一样,与社会、法律与伦理等磨合,甚至是排异和修复。经过实际操作层面的持续调试,有利于技术真正服务于人。

  具体到脑机接口技术,它也需要与社会层面磨合。特别是要将伦理价值观嵌入技术研发的全流程,不是空谈原则,而是通过机制设计体现向善导向。

  值得指出的是,中国科技发展进步巨大,在不少领域已经从“跟跑”转向“并跑”,甚至是“领跑”。这也意味着中国的科技发展关系到全球命运,构建与之匹配的科技文化至关重要。对科技进行有效治理,不能仅依赖刚性的法律,也要借助伦理这类“软法”形成约束。

  《瞭望》:对做好脑机接口伦理治理有何思考?

  段伟文:脑机接口技术涵盖多个层面,其伦理问题也需根据不同类型区别对待。可考虑将其划分为三大领域进行差异化治理。

  在医疗应用领域,应恪守生命伦理,强化长期责任。例如在神经疾病治疗等医疗应用中,脑机接口技术必须遵循尊重自主、不伤害、有利、公正等生命医学伦理原则以及我国科技伦理原则。同时,需高度重视其特殊性——它可能对患者人格、认知产生长期且深刻的影响。因此,除短期疗效外,必须加强对患者长期生理、心理及生活质量的追踪研究,建立完善的责任与问责机制,体现技术应用的审慎与负责。

  在探索性研究领域,应聚焦数据与隐私前瞻风险。对认知增强等探索性研究,需特别关注神经数据安全和精神隐私保护等前沿伦理挑战。应警惕神经数据被用于社会分级、歧视或操控等不当用途的可能性。伦理审查不应是静态的“清单核对”,而应是动态的、嵌入研究全过程的。换言之,要在实践中及时发现由技术引发的新问题,并参照伦理指引权衡。这需要深入理解技术,并平衡不同群体的利益。

  对意识上传等远期科幻议题,从治理层面应明确将其界定为学术思想探讨范畴。这类议题虽能激发重要的伦理前瞻思考,但当前技术远未成熟。治理的重点在于务实地将此类前瞻性伦理问题与可操作的科学研究、临床应用清晰区分开来,避免概念混淆,从而将有限的研究力量和资源集中于解决更具现实紧迫性的问题上。

  在全球尚未对脑机接口技术的伦理达成共识的背景下,我们更应稳步推进技术,构建与中国科技实力相匹配的伦理治理体系,避免陷入“先发展后治理”的陷阱。

  技术创新如同文明的“油门”,我们不能只顾加速,还需备好伦理责任等的“刹车”,以最大限度减少潜在伤害。否则按当前技术的发展速度,有过数千年文明历史的人类,其韧性是否足以支撑下一个数千年,就可能打上问号。■

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。