当前位置: 首页 » 资讯 » 新科技 » 正文

对话刘晓春:AI替人下单,跨App操作的授权与责任难题

IP属地 中国·北京 南方都市报 时间:2026-03-13 22:40:28


从去年末一机难求的“豆包手机”,到今年新春火爆的“千问免单”活动,只要一句指令,AI智能体就能为你在手机上代劳外卖点餐、自动叫车等操作。

AI能代劳下单主要依赖两条技术路径:一条是GUI(图形界面识别)路线,通过读取屏幕、理解页面布局并模拟点击操作完成任务;另一条则是API(应用程序编程接口)路线,通过应用程序提供的接口完成服务调用。

不同路径不仅带来技术实现差异,也引发新的争论。GUI路线相对灵活、能够迅速落地,但容易触及隐私安全边界的争议;API路线效率更高,却面临着第三方授权的谈判难题。

随着AI智能体从“动口”走向“动手”,用户、平台与智能体提供者之间的责任分配、数据使用和授权机制等问题亟待厘清。围绕这些技术与法律争议,近日南都记者专访中国社会科学院大学互联网法治研究中心主任刘晓春。

AI代劳并未颠覆原有核心法律关系

南都:过去是用户在各个App内完成操作,但现在一些AI手机助手已经可以跨App执行任务,例如订餐、叫车或完成线上交易。当AI开始代替用户完成这些操作时,是否意味着传统互联网平台、用户和服务提供者之间的法律关系正在发生变化?

刘晓春:AI智能体跨App执行任务未颠覆原有核心法律关系,而是形成“用户-智能体-平台/服务提供者”的三方法律关系结构。

智能体是具备自动化决策能力的复杂工具,行为后果仍追溯至用户授权,但延伸结构新增了法律关系的层次,核心是智能体提供者需承担面向用户与平台的双重责任,其自动化属性还带来新型不确定性风险,引发责任分配新问题。

智能体提供者与用户的法律关系,本质上还是基于合同的服务提供行为,需要遵循一般的权利义务关系。提供者需向用户充分告知风险、明确操作边界,承担技术保障责任,避免因缺陷损害用户权益,特别是在个人信息处理和安全保障、出现模型幻觉及其他不可控操作等情况下的责任问题等等;用户需在授权范围内使用,对自身授权负责。

智能体提供者与第三方平台的法律关系,则涉及到竞争法上的考量,具体来说可能体现在数据获取和处理、平台功能操作方面的规则等。技术上可能有不同实现路径,涉及符合技术特点的法律分析和评价。这类规则目前可能还不是很明确,需要在实践中不断探索。

若技术屏蔽不符合用户意愿,存不正当竞争争议

南都:AI手机助手在调用第三方应用时,应该如何建立授权机制?用户同意授权就足以,还是需要经过第三方App的二次授权?

刘晓春:在以往的实践中,跨平台进行数据抓取并产生实质性替代、或者破解技术措施进行数据抓取等情形,法院有判决认定是需要经过授权的。对于AI手机助手在经过用户授权的前提下,代替用户进行跨平台操作,是否需要经过授权,目前还没有明确的规则。

有一种视角是从不同规则可能导致的竞争格局后果上来看。如果要求手机助手访问时都需要经过各平台同意,有可能存在很高的交易成本过高。如果平台选择拒绝授权,有可能会出现多个相对封闭的生态,各自内部使用不同的AI助手。这对手机智能助手的开发和应用推广很可能难以形成开放竞争、促进创新的格局。

南都:AI手机助手调用第三方App时可能会接触到一些平台上数据,例如订单信息、账户信息或交易数据。这是否可能引发新的不正当竞争争议?

刘晓春:这类数据接触情形,的确很有可能是第三方App所不愿意接受的。现实中也可以看到,很多App直接采取了屏蔽手机助手操作的方式,目前来看,这种技术操作比较有效地阻止了手机助手的访问。

接下来可能的问题是,如果手机助手在用户的要求下,绕开了这些屏蔽措施,是否构成不正当竞争,以及这些不符合用户意愿的技术屏蔽行为本身是否构成不正当竞争行为,还是有可能引发不正当竞争争议的。

南都:如果AI手机助手在执行任务时出现错误,例如误下订单、误操作支付,甚至造成财产损失,从法律角度看责任应当如何划分?

刘晓春:AI手机助手还在技术和商业模式发展的早期,还没有形成比较稳定的服务标准。导致出错的原因,如果是因为明显的服务质量瑕疵或者缺陷,不符合手机助手的公开承诺或者服务条款的约定,手机助手服务提供者有可能需要承担责任。

但如果对于特定风险,服务提供者已经做出充分而明确的风险提示,或者因为用户自己的风险操作导致的,有可能服务提供者可以免责。这一点可以参考法院在案件审理中对于大语言模型出现幻觉的责任认定方式。

特别是在技术发展早期,法律上给出一定的容错空间,是比较有利于创新发展的路径。

责任分配应该兼顾发展阶段与容错空间

南都:在人工智能快速发展的背景下,外界既期待AI带来的效率提升,也对隐私、安全等问题有所担忧。市场和监管需要秉持怎样的态度,如何既让创新能跑起来,安全也得到正视与保障?

刘晓春:在规制原则上可以坚持问题导向,精准识别控制和风险、整体上促进发展的逻辑,平衡安全保障与技术创新。问题导向方面,可以聚焦智能体手机助手已经被明确识别出来的安全问题,包括数据安全、权限滥用等现实问题,在落实现有一般性法律规则的同时,可以针对性建立智能体领域的安全规则和标准。

对于AI手机助手在创新应用方面,比如语音交互、智能服务等功能快速迭代的领域,需要预留试错空间,避免僵化规则抑制创新活力。

南都:如果未来需要出台针对AI手机智能体的政策或行业规范,从法律角度看,目前最迫切需要解决的具体问题有哪些?

刘晓春:第一,安全防控需建立分级分类精准机制。结合智能体的功能复杂度、风险等级(如基础信息查询、交易支付等不同场景),划分分级标准,实施差异化防控。对涉及高风险处理行为的智能体,明确更严格的风险监测和控制要求;对低风险场景则简化规制,为技术创新留足空间,避免“一刀切”。

第二,数据使用规则有必要更加清晰且兼顾生态开放与创新。明确智能体跨App调用数据的边界,规范数据获取、使用、留存的具体要求,既要防范数据泄露等安全问题,也要避免过度限制数据流通,推动平台生态开放协同,平衡数据安全与创新需求。

第三,责任分配需场景化、合理化,兼顾发展阶段与容错空间。结合智能体自动化属性带来的不确定性风险,根据具体应用场景明确用户、智能体提供者、平台的责任边界;充分考虑AI技术发展阶段,允许在充分履行风险提示义务的前提下,给予合理容错空间,避免过度追责抑制创新。

采写:南都N视频记者黄莉玲 发自北京

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。