中国社会科学院大学互联网法治研究中心执行主任刘晓春告诉记者,根据上述一审判决,如果在使用AI工具生成图片等内容的过程中,人有相应的自主选择,包括在操作AI工具过程中人特定的智力投入,也可以认定是独创性,使用者从而对生成的作品主张版权。
“很多学者有不同观点,认为实质上生成内容是AI完成的,人只是给了一些指令。”刘晓春直言,对于AI生成内容的版权问题,目前还存在较大争议,并无定论。
在刘晓春看来,使用者在指令过程中独创性生成的内容,获得著作权法上的保护没有太大障碍。但她强调,如果人的投入不足以构成一个创作的构成部分的话,没有明显的智力过程,那这部分AI生成的内容不应该受到著作权法的保护,例如,一两条简单指令就生成的图片等。
“
服务提供者对内容的义务和责任
“AI造假”使得网络谣言更加难辨真假,那么,AI服务提供者对于生成内容的真实性是否负有义务?如果相关内容被用作造谣,提供者是否承担责任?
2023年1月正式实施的《互联网信息服务深度合成管理规定》(以下简称《规定》)明确,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息;深度合成服务提供者提供智能对话、智能写作等模拟自然人进行文本的生成或者编辑,合成人声、仿声等语音生成或者显著改变个人身份特征的编辑,人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑等深度合成服务时,可能导致公众混淆或者误认的,应当在生成或者编辑信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
同年8月施行的《生成式人工智能服务管理暂行办法》(以下简称《办法》)也规定,提供者应当按照《规定》对图片、视频等生成内容进行标识。
刘晓春表示,法律上AI服务的提供者有对生成内容进行标识的要求,我国也正在抓紧进行相应的执法、标准等配套工作。国家从技术规范方式做好标识要求,实际上一定程度能从源头上防止造假、谣言问题。对于有风险的一些合成,人工智能的提供商有责任去强制进行显性标识。对于平台而言,如果明知是虚假内容、谣言还去传播或纵容传播,肯定要承担相应的责任;如果是在不知道或没有办法明确知道的情况下,出现了举报或有理由能够发现这是合成内容的情况下,也需要采取相应的措施。
赵占领也指出,人工智能服务提供者除了标识的基本义务以外,提供者包括AI平台经营者发现违法或侵犯他人权益内容,也应当采取停止生成、停止传输、消除等处置措施,同时采取优化训练等措施去整改,并向有关部门进行报告。若提供者已经尽到标识义务,使用者利用其他技术手段消除标识,对生成内容进行传播误导了公众或损害了他人合法权益,则提供者或平台就没有责任了,主要是使用者责任。