- N +

【评论】AI短剧频现“盗脸”,莫让新兴创作游走于法律边缘

界面新闻记者 | 翟瑞民

界面新闻编辑 | 王强

“AI短剧盗脸”话题引发大量关注和讨论。首先是北京互联网法院近期审结了一起因AI换脸角色引发的肖像权纠纷案,短剧制作方和播出平台被判需承担侵权责任,赔偿经济损失并且赔礼道歉。其后,多名网友先后爆料维权,称自己被AI短剧“盗脸”,有网友的个人形象在剧中竟然化身为猥琐好色等负面角色,制作方和播出平台等涉嫌侵犯肖像权和名誉权,目前此事尚未有最后处理结果。

近年来,人工智能技术正在加速融入普通人的日常生活。AI换脸、拟声等技术应用越来越广泛,使用场景越来越多,但是与此同时,这些技术也带来诸多的潜在风险,肖像、声音和指纹等个人独特信息面临被无限制复制和泄露的可能,公民人格权利或受到严重侵害。在影视和娱乐行业,因为剧中角色“换脸”引发的侵权纠纷不但牵扯众多娱乐明星,就连普通网友也多被波及,如果不进行整治,未来人人都有可能成为受害者。

AI技术被引入后,对网络短剧行业发展起到了巨大的推动作用。制作机构之所以对之趋之若鹜,主要是AI应用本身具有的技术便利性,目前各种辅助制作大模型层出不穷;同时也能节省制作成本,区区几千元就可在线完成一部作品,最后如能在高流量平台顺利播出就会带来巨额收益。播出平台为了提高流量收益对于这种融合制作模式并不排斥,反而喜闻乐见,由此对其中夹杂的侵权痕迹和行为等,往往有意无意放宽审核标准,进而助长了AI短剧的侵权之风愈演愈烈。

滥用AI换脸技术隐藏的法律风险已被法律界多次提醒。民法典规定的人格权中,就包含姓名权、肖像权、名誉权和隐私权等,都是横亘在AI创作面前的红线。更有甚者,无所顾忌地AI换脸会触发刑事违法风险,衍生出冒用身份、诽谤造谣、网络诈骗和制作传播淫秽作品等犯罪行为,破坏社会管理秩序,严重危害公共安全。为避免AI创作走向失控,不能再让这种新兴技术模式游走在法律边缘,亟待从立法和监管层面予以严格规制。

我国已经出台网络安全法、数据安全法、个人信息保护法等多部维护网络数据安全的法律,也出台了《生成式人工智能服务管理暂行办法》,专门对AI技术应用进行规范。但是,人工智能技术始终在升级迭代,新型应用模式开发更新频繁,现有治理框架和规制措施已不能满足实践要求。而且,过往立法较为分散,多是专注于单一领域,法律位阶也较低,在AI应用治理过程中逐渐显现出局限性,更难以应对AI带来的系统性、跨领域挑战。

在此情况下,推进人工智能领域统一立法日益受到关注。全国两会期间,就有多名代表委员提出应突破分散立法模式,开展国家层面的人工智能综合立法,以规定统一的安全责任和基本使用标准。对于这些建议,立法机关有必要尽快评估和开展立法研究。

当前条件下,更需要从监管层面对AI换脸进行大力整治。加强AI技术的综合治理,规范AI应用到影视作品的配套规则和管理制度,需要政府相关部门尽快划清应用底线与禁止性清单,细化分级分类管理措施。

对于普通人群,监管部门更需要启动全网常态化侵权监测,强化AI作品制作方生产和传播平台审核的全链条合规义务,发现侵权情况后快速从严追究侵权方的责任。监管之下,公众也需要提升网络安全意识,不能再在网上随意透露个人信息,发布个人照片和视频最好通过技术手段做好风险防范,莫给“换脸”提供可乘之机。

返回列表
上一篇:
下一篇:

发表评论中国互联网举报中心

快捷回复:

    评论列表 (暂无评论,共1人参与)参与讨论

    还没有评论,来说两句吧...