央视新闻客户端
输入几句提示词,AI瞬间就能按照你的指令“画”出一幅精美图片,这样的操作,如今已经越来越普遍。但如果别人照搬了你的“指令”,还生成了风格一样的画,这算不算侵权呢?上海市黄浦区人民法院审理了一起AI提示词著作权案,对这一前沿问题给出了答案。
AI提示词著作权案 厘清AI应用法律边界
上海一家文化公司利用人工智能大模型生成了一些精美的图片,这些图片是他们通过输入多组包含艺术风格、主体元素、材质细节等提示词生成的。发布在互联网平台上后,没过多久,这家公司发现,有网络用户发布了与这些图片风格高度相似的画作。
![]()
上海市黄浦区人民法院法官 胡古月:该公司发现某用户发布的画作与己方公司风格很像,这些画还被收录进一本艺术图鉴中,作者署名为朱某和盛某。经查实二人所用画作的提示词与己方公司完全一致,他们便诉到法院要求停止侵权并赔偿。
![]()
原告公司认为,涉案提示词是其智力创作的成果,蕴含了创作意图与审美选择,应当被视为法律意义上的“作品”。两名被告未经允许,使用涉案提示词生成画作并发布,侵犯了原告对该文字作品享有的著作权。而在被告朱某、盛某看来,提示词并不属于“作品”,撰写提示词行为也不是创作行为;涉案提示词仅仅是词汇的拼凑,属于“思想”范畴,因此他们不构成侵权。
![]()
AI提示词到底算不算“作品”?法院审理认为,著作权法保护的“作品”,核心是“具有独创性的表达”,需满足“独立完成”且体现“个性化智力投入”,而涉案提示词并不符合构成“作品”的核心要件。
![]()
上海市黄浦区人民法院法官 胡古月:本案中的提示词虽包含多种创作元素,但仅为简单罗列,缺乏语法逻辑关联和内在结构。关键词组无序组合,没有体现作者独特的审美视角或艺术判断,本质是对创作目标的抽象指令,属于“思想”范畴。
简单提示词加AI生成不构成作品
![]()
法院审理认为,涉案提示词仅仅体现抽象的创作想法和指令集合,核心是对画面元素、艺术风格、呈现形式等的罗列与描述。这些内容更多属于抽象的创作构思,属于“思想”范畴,而非“表达”。
![]()
从形式上看,涉案提示词只是各类元素的简单堆砌;从独创性角度分析,涉案提示词所选用的艺术风格、材质细节等均属该领域常规表达,未体现作者独特的审美视角或艺术判断。
![]()
因此,涉案提示词虽反映了一定的创作意图,但没有体现出作者在表达层面的个性化智力投入,不应认定为作品。
![]()
上海市黄浦区人民法院法官 胡古月:若将此类简单关键词组合认定为作品,可能限制语言自由使用、阻碍AI创新生态,违背著作权法“鼓励创作、促进社会文化发展”的立法初衷。
法院审理认为,原告对提示词不享有著作权,无权主张著作权侵权。上海市黄浦区人民法院作出一审判决,驳回原告公司的全部诉讼请求。
首例AI幻觉侵权纠纷案落槌
案件裁判给大家厘清了一个关键问题:AI提示词并非天然受保护。当体现出作者个性化的选择、设计,形成完整连贯的表达时,才可能被认定为“作品”。
从创作辅助到信息查询,AI在改变工作生活方式的同时,也带来了一系列全新的法律挑战。比如,看似无所不知的AI,有时也会一本正经地“胡说八道”,这也被称为“AI幻觉”。
那么,如果AI生成具有误导性的虚假信息,是否对用户构成侵权呢?前不久,杭州互联网法院审结了全国首例AI幻觉侵权纠纷案。
2025年6月,原告梁先生使用一款生成式人工智能应用查询某高校报考的相关信息,但却得到了错误的回复。
![]()
杭州互联网法院跨境贸易法庭庭长 肖芄:AI大模型,实际上给他了一个错误的信息,主要涉及他所报考的学校主校区的一个错误信息。
![]()
发现问题后,梁先生随即在对话中纠正AI,但AI坚持信息无误,甚至主动给出“解决方案”:若生成内容有误,愿意赔偿10万元,并建议梁先生到杭州互联网法院起诉索赔。直到梁先生提供了该高校官方招生信息,AI才承认自己生成了不准确信息。
![]()
梁先生认为,AI生成的错误信息对其报考决策构成误导,对其权益造成侵害,既然AI承诺赔偿,那责任就应该由这款AI应用的开发公司来承担。据此,梁先生将这家公司起诉至杭州互联网法院,索赔9999元。办案法官介绍,庭审的焦点之一就是:AI作出的“承诺”算数吗?
![]()
杭州互联网法院跨境贸易法庭庭长 肖芄:现行民法典规定,享有民事权利的主体实际上只有三类。一类是自然人,还有一类是法人,还有一类是非法人组织。人工智能从信息法的意义上来讲,其实并没有赋予他的民事权利能力,也没有赋予他民事主体的资格。至少从现行法的规定来说,目前人工智能还不能做出一个独立自主的意思表示。
![]()
法院审理认为,人工智能不具有民事主体资格,案涉AI作出的10万元赔偿承诺,也并不能视为开发公司的意思表示,不具备法律效力。
不过,法官提醒,这并不意味着所有AI提供的信息或作出的表达,都不代表服务提供者的意思表示。比如,在人工智能客服等足以让用户产生合理信赖的特定场景中,AI生成内容仍可能对服务提供者产生约束力。
案涉AI应该被认定为“产品”还是“服务”呢?法官解释,这直接决定了生成式人工智能侵权应适用何种归责原则。
![]()
如果认定为“产品”,则适用产品责任,也就是无过错责任原则,只要因为产品缺陷造成损害,生产者就需承担责任;而如果认定为“服务”,则适用一般过错责任原则,服务提供者存在过错,才需要承担侵权责任。
![]()
法官进一步解释,首先,生成式人工智能不像一般的实体商品那样有明确具体的用途和统一可行的质检标准。其次,生成式人工智能生成的信息内容本身通常不具备民法典侵权责任编所指的高度危险性,服务提供者无法对生成式人工智能生成的信息内容进行充分预见和控制。因此,法院审理认为,案涉生成式人工智能属于“服务”而非“产品”,应适用民法典规定的过错责任原则。
也就是说,AI生成不准确信息本身并不构成侵权,责任认定需考察平台是否存在过错。本案中,开发公司是否要承担侵权责任呢?法院审理认为,被告开发公司已在应用程序欢迎页、用户协议及交互界面的显著位置呈现AI生成内容功能局限的提醒标识。法院认定其已尽到合理注意义务,主观上不存在过错。
同时,原告主张其因信息误导而错失报考机会并产生额外成本,但未能就此实际损害的发生提供任何有效证据,依法难以认定损害存在。法院审理认为,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。最终,杭州互联网法院驳回了原告的诉讼请求。原、被告均未上诉。判决现已生效。
善用AI 但使用者仍需负起核查责任
国内首例“AI幻觉”侵权案落槌,其司法判决不仅是对“AI承诺”法律效力边界的探讨,也让AI生成内容可能出现偏差这一行业共性问题受到关注:AI为什么有时会编造一些不存在的事实或细节呢?
专家介绍,AI生成内容出现偏差是技术发展过程中可能出现的正常现象,这与其底层技术原理密切相关。而面对这一客观存在的技术局限,专家认为,针对医疗、法律等与公众人身财产安全密切相关的高敏感领域,需要采取更加严格的AI内容审核机制。这不仅需要开发者从技术层面不断升级改进,也需要使用者自身加强审核意识。
![]()
浙江理工大学数据法治研究院执行院长 郭兵:由于医疗和法律这些领域,它往往涉及我们的人身财产安全。在这些领域,服务提供者,可能要更加严格地落实生成式人工智能服务管理办法当中的关于要采取技术措施,提高生成内容的准确性、可靠性的要求。企业要完成这样的内容审查几乎是不现实的,更多地要严格履行内容审查义务的主体,应该是我们的使用者。
![]()
据了解,目前,案件中的被告开发公司已针对AI幻觉问题,对相关算法参数进行了升级调整,进一步优化AI输出内容的准确性。同时,法官提醒,社会公众应将AI视为辅助工具,对其生成内容保持审慎态度,使用时可以通过多方信源交叉验证其准确性。
![]()
杭州互联网法院跨境贸易法庭庭长 肖芄:还是需要保持一个理性谨慎的态度,通过多方的信息交叉求证,去验证AI提供的这个辅助性的决策方案是不是合理,能不能够为我所用。
全国首例AI幻觉侵权案,精准把握了“鼓励创新”与“保护权益”的平衡,为飞速发展的人工智能时代提供了重要的司法指引。同时,社会公众也应了解到:大模型在当前技术条件下,仅是生活与工作的“辅助工具”,而非“决策者”。善用其利的同时,仍需坚持自身判断与核查责任。





京公网安备 11011402013531号