近日,中制协法工委名誉主任、专家委员会主任、北京大学法学院教授、中国知识产权研究会副会长张平,在第十六届北京国际电影节中制协法工委举办的“智赋光影·法筑边界——影视行业AI应用的法律规制与权益保障”活动上,围绕“构建可信赖的人工智能体”主题,结合影视行业AI应用实践,深入解读人工智能治理的核心原则、国际差异及可操作路径,为影视行业AI应用的合规有序发展提供了重要指引。张平教授强调,尽管当下讨论多聚焦影视行业AI应用的法律规制,但任何具体领域的AI法律治理,都需坚守高位阶的根本原则,而“可信人工智能”正是贯穿AI治理全过程的核心导向。他指出,可信保障在人工智能硬件、软件、数据三大要素中均有体现,而影视领域的可信重点更多集中在数据可信层面。
张平指出,可信人工智能的核心前提是达成伦理共识,“以人为本,智能向善”已成为全球范围内的文字共识,但在具体领域和不同国家,其内涵解读与实践导向存在显著差异。从“以人为本”的内涵来看,中国秉持“人类整体权益与个体权利”双维度导向,既关注人类生存权、生命权等整体权益,也重视自然人的人身权、私权及平等发展权利,这与中国在联合国层面倡导的AI治理理念高度契合;欧盟则以人权为本,聚焦欧洲公民的个体利益保护,其《人工智能法》及GDPR智能合规法案均围绕公民人权保障展开;美国则以私人为本,侧重维护市场主体尤其是大企业的利益,其相关政策、法规均向硅谷企业及应用领域企业倾斜。张平结合自身参与中美电影节的经历表示,两国影视领域的发展均以产业为主导,但美国相关政策最终均落脚于保护大企业利益。
在“智能向善”的实践层面,张平表示,不同国家、民族因历史、文化、宗教差异,对“善”的理解各不相同。中国的“善”根植于传统文化,诸子百家均有丰富的善念阐述,中国人从小接受的“与人为善、和为贵、己所不欲勿施于人”理念,也深深影响着AI伦理的实践导向,而各国基于自身认知制定的伦理规则与政策也各有侧重。他以防沉迷规制为例,提出“合规不等于向善”——防沉迷最初聚焦游戏领域,如今已延伸至电视剧、短剧、短视频等多个领域,合规仅意味着不触碰法律红线,比如要求未成年人通过家长认证使用相关产品,而智能向善则要求企业主动提升自律标准,从源头规避诱导、误导等问题,尽管这可能增加企业管理成本、损失部分流量,但却是可信AI的必然要求,而这种向善的标准,需企业结合用户定位、企业文化及核心理念自行明确,难以通过立法完全界定。
针对影视行业,张平强调,其AI应用的可信性更多体现在数据可信上,同时需兼顾科技伦理与社会伦理,其中社会伦理在影视行业的体现更为普遍。在社会伦理层面,影视作品的价值导向需坚守人类共同的伦理底线,比如避免涉及性别混乱、弱化性别认同等不良导向,更要关注从业者的生存权——AI应作为赋能工具,将影视工作者从高危动作、科幻场景制作等繁重劳动中解放出来,降低行业成本,而非完全替代人类。他以AI生成讲话稿替代写手、智能驾驶替代出租车司机为例,指出若AI大量替代某一行业的人类工作,且缺乏相应的权益保障,就会违背“以人为本”的核心原则,甚至产生反人类的后果。他特别提到,萝卜快跑等无人驾驶技术若在人车混流的开放领域推广,会影响出租车司机的生存权,而在机场接驳、矿山作业等封闭领域替代高危劳动,则更为合理,影视行业的AI应用也应遵循这一逻辑。此外,张平还提到,生存权之外,AI治理还需关注人类的永生权、平等发展权利,尤其要兼顾能力较弱群体的发展需求。
谈及人工智能治理的可操作原则,张平重点解读了安全、人类自主、透明度、可溯源四大核心原则,同时提到,6月1日将有相关可操作指标体系正式实施,其团队也正参与国家人工智能立法、政策及标准的制定工作。在安全原则方面,他强调需兼顾技术安全与管理安全,技术上要做好防火墙、本地化部署等防护措施,管理上则需完善企业政策、用户协议、员工培训及内部规章制度,以此降低合规风险。他特别提醒,AI应用需防范数据安全风险,如“小龙虾”数字员工这类产品,本质上既有商业炒作属性,试图通过快速推广提升知名度、吸引用户,也可能成为安装在用户终端的“后门”,导致用户数据、个人信息被开发者掌控。因此,影视行业在使用数字演员、AI创作等工具时,必须坚持人类可控,杜绝过度收集个人信息。他以家庭雇佣保姆、管家为例,形象说明即使是数字员工,也不能完全交由AI自主掌控,需保持人类的主导权。在人类自主原则方面,他明确提出,当AI发展至人类无法控制的高风险状态时,立法应明确禁止其研发应用,并建立“一键中止”等强制性技术与法律保障——当前需解决的关键问题是,若AI已实现本地下载,断网、断云、断电均无法中止其运行时,需通过强制性标准明确管控措施,这与生物技术中禁止克隆人、仅允许克隆动物的逻辑一致,即通过法律限制高风险技术的应用。
在知识产权保护领域,张平聚焦AI训练数据的版权问题,提出训练数据的使用需尊重版权、支付报酬、明确出处,如同论文写作需规范引文注释一般。他表示,当前AI训练数据已成为大企业的核心商业秘密,没有企业愿意主动公开,而司法实践中,如纽约时代周刊相关案件已明确,若AI输出结果与他人作品高度接近,即构成侵权。未来国家将通过法定许可、版税制度、基金、保险等方式,平衡版权人与AI产业的利益分配。同时,算法需具备可解释性,杜绝欺诈、换脸等侵权行为,当前行业内普遍主张算法实行举证责任倒置,由开发者自证清白,而数据可解释性仍在进一步讨论中。此外,全链条可溯源原则的核心目的是明确AI开发、应用各环节的责任主体,解决多元参与者的责任划分问题——如同汽车驾驶事故中,司机操作不当需自行承担责任,与制造商无关,AI领域也需明确开发者、硬件制造者、平台、使用者等不同主体的责任边界。当前知识产权侵权治理中,存在追究平台责任的倾向,因平台具备更强的控制能力,而未来立法需明确责任承担方式,是单一主体补偿、多主体共同补偿,还是由具备赔偿能力的主体优先承担,同时结合“大保护、强保护、严保护”的导向,明确赔偿标准。
张平表示,中国AI治理已明确“以发展为基础”的定位,当前由发改委、工信部、科技部、外交部等促发展部门主导AI安全与治理工作,出台了一系列支持政策,改变了以往多由网信办、执法部门主导治理的格局。他呼吁,人工智能治理需立足全球视野,坚持在联合国层面推动形成国际共识,反对通过区域、集团或峰会制度主导规则制定,这也是中国在AI治理中的明确立场。影视行业也应借助国际电影节等平台,推动全球范围内AI应用伦理与规则的协同统一。
此次解读完整明确了可信人工智能的核心内涵与实践路径,既还原了AI治理的伦理共识、国际差异及可操作原则,也结合影视行业实践给出了具体指引,既为影视行业AI应用的法律规制与伦理建设提供了清晰方向,也为我国人工智能治理的国际化推进提供了思路,助力实现“人工智能为人类总体利益服务”的发展目标,推动AI技术与产业在安全、合规的前提下实现高质量发展。