legal work committee

法务工作委员会
 热门关键词:娱乐法   法商论坛    法务委员查询 
中国电视剧制作产业协会
联系我们
资讯中心
Information Center
  
  
利用AI造谣,服务提供者是否需要承担责任?
来源: | 作者:来源:法制周末报 | 发布时间: 2024-02-19 | 2108 次浏览 | 分享到:

四川公安查处2起利用AI文章生成软件编造、传播网络谣言典型案例,重庆公布5起网络谣言典型案件,2起利用AI生成文章造谣……近日,多地警方查处了一批利用AI编造谣言的案例。

随着人工智能技术的发展,一些人为赚取流量,利用大模型等AI平台或工具很容易就能生成虚假的文字、图片甚至音视频,极易制造网络谣言。而这类利用AI生成内容编造的谣言,打破了人们“有图有真相”“眼见为实”的认知,使得谣言更加难辨真伪。

那么,利用AI生产的内容是“原创”吗?其生产内容的版权归属谁?生成内容被用作造谣,AI服务提供者需要承担法律责任吗?



利用AI造谣事件频发

“未来两年时间内,虚假或错误信息将对全球构成重大威胁。”近日,世界经济论坛公布的《2024年全球风险报告》指出,由AI产生的错误和虚假信息正在成为一种风险。


对于这种风险的担忧来自现实,利用AI编造谣言的情况正在全球上演,我国也不例外。

2023年12月20日,一篇题为《12岁女生被8人轮流扇耳光3小时,致耳膜穿孔》的文章发布在某平台,引发大量网民关注,也引起四川省德阳市罗江区警方关注。随后,有网友举报该文为虚假信息,几小时后该文章被平台下架。两天后,罗江警方找到了始作俑者刘某群。

刘某群为了博取流量,获得平台浏览奖励,将2023年12月实际发生在江西某地已被处理的“校园霸凌事件”截取相关图片后,利用AI小程序自动编辑功能,嫁接为发生在德阳某学校的“校园霸凌”虚假信息,制作了上述文章进行发布。目前,德阳公安已经依据治安管理处罚法对刘某群进行行政处罚,并对其造谣账号采取关停措施。

这样的现象,出现在全国多地。据《法治周末》记者不完全统计,自去年年末以来,就有四川、重庆、河南、江西、福建等地警方查处了一批利用AI工具编造谣言的案件;而在此前,还有山东、江苏、浙江、湖南、甘肃等多地警方也查处过相关案件。


北京嘉潍律师事务所律师赵占领向记者表示,“AI造假”问题确实正在成为网络环境发展和治理的一大风险。



AI生成内容的版权归属

为了流量和利益制造网络谣言,已经成为互联网的一大“毒瘤”。但AI技术的发展,使得这些“有心人”编造谣言变得更容易。通过各种AI工具,他们就能轻易甚至一键生成想要的虚假文字、图片、音视频。


那这些利用AI生成的内容受到著作权法的保护吗?其版权归属于谁?

2023年,北京互联网法院对全国首例AI生成图片著作权案,作出一审判决,对于我国人工智能产业发展具有积极意义。

李某认为刘某未经其许可使用涉案图片,且截去了自己的署名水印,严重侵害了其享有的署名权及信息网络传播权。北京互联网法院认定,李某在涉案图片生成过程中,通过设计提示词、设置参数的方式对生成图片的画面元素和画面布局进行具有个性化的选择和安排,能够体现出原告的独创性智力投入,享有涉案图片的著作权。刘某的行为侵害了署名权和信息网络传播权,判决其赔礼道歉并赔偿原告经济损失500元。一审宣判后,双方均未上诉。

中国社会科学院大学互联网法治研究中心执行主任刘晓春告诉记者,根据上述一审判决,如果在使用AI工具生成图片等内容的过程中,人有相应的自主选择,包括在操作AI工具过程中人特定的智力投入,也可以认定是独创性,使用者从而对生成的作品主张版权。

“很多学者有不同观点,认为实质上生成内容是AI完成的,人只是给了一些指令。”刘晓春直言,对于AI生成内容的版权问题,目前还存在较大争议,并无定论。

在刘晓春看来,使用者在指令过程中独创性生成的内容,获得著作权法上的保护没有太大障碍。但她强调,如果人的投入不足以构成一个创作的构成部分的话,没有明显的智力过程,那这部分AI生成的内容不应该受到著作权法的保护,例如,一两条简单指令就生成的图片等。



服务提供者对内容的义务和责任

“AI造假”使得网络谣言更加难辨真假,那么,AI服务提供者对于生成内容的真实性是否负有义务?如果相关内容被用作造谣,提供者是否承担责任?

2023年1月正式实施的《互联网信息服务深度合成管理规定》(以下简称《规定》)明确,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息;深度合成服务提供者提供智能对话、智能写作等模拟自然人进行文本的生成或者编辑,合成人声、仿声等语音生成或者显著改变个人身份特征的编辑,人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑等深度合成服务时,可能导致公众混淆或者误认的,应当在生成或者编辑信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。

同年8月施行的《生成式人工智能服务管理暂行办法》(以下简称《办法》)也规定,提供者应当按照《规定》对图片、视频等生成内容进行标识。

刘晓春表示,法律上AI服务的提供者有对生成内容进行标识的要求,我国也正在抓紧进行相应的执法、标准等配套工作。国家从技术规范方式做好标识要求,实际上一定程度能从源头上防止造假、谣言问题。对于有风险的一些合成,人工智能的提供商有责任去强制进行显性标识。对于平台而言,如果明知是虚假内容、谣言还去传播或纵容传播,肯定要承担相应的责任;如果是在不知道或没有办法明确知道的情况下,出现了举报或有理由能够发现这是合成内容的情况下,也需要采取相应的措施。

赵占领也指出,人工智能服务提供者除了标识的基本义务以外,提供者包括AI平台经营者发现违法或侵犯他人权益内容,也应当采取停止生成、停止传输、消除等处置措施,同时采取优化训练等措施去整改,并向有关部门进行报告。若提供者已经尽到标识义务,使用者利用其他技术手段消除标识,对生成内容进行传播误导了公众或损害了他人合法权益,则提供者或平台就没有责任了,主要是使用者责任。

同时,《办法》规定,“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务”。赵占领认为,《办法》虽然没有明确说明提供者、经营者必须保证生成结果的真实性、合法性,但规定了AI工具的提供者要对内容承担生产者责任,这意味着,如果生成的内容不真实或者侵犯他人合法权益,提供者本身需要承担相应的责任。

在赵占领看来,对人工智能服务提供者要求网络信息内容生产者责任是较为严格且笼统的,未来需要进一步对政策进行细化,不宜把所有内容都让其承担生产者责任。例如,缩小提供者的责任范围,明确在哪些情况下对于内容负有相应责任。因为在现有技术条件下,即使ChatGPT也很难完全做到生产的内容真实、准确、合法。

“规定太严技术上做不到,规定宽松容易生产虚假、违法内容,这是一个两难的问题;同时,生产内容在脱离了平台控制能力范围外,如何进行识别、监管也是一个难题。”赵占领直言,短期内很难解决这些难题,需要依靠技术和产业不断发展,监管逐步去摸索相应措施,再去完善相关规定。



END


视觉编辑 | 王硕 马蓉蓉


 
组织人员
The organizer
领导班子
秘书处
专家委员
法务委员