在此背景下,雷军等公众人物遭遇AI配音恶搞带来的"困扰",再次说明规范AI合成技术的应用和传播边界,已非常迫切。
事实上,为AI立法已成为各国监管部门的共识。我国《生成式人工智能服务管理暂行办法》规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。其中就包括尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
但是,落到实践中,这样的原则性要求,如何形成具体的指导、给各方带来明确预期,还有待进一步厘清。比如,提供生成式人工智能服务的大模型平台,对这类侵权行为到底该承担怎样的责任?相关网络平台若未能及时阻止侵权行为的发生,是否应该承担连带责任?
值得注意的是,就在上个月,国家网信办就人工智能生成合成内容标识办法公开征求意见,征求意见稿提出,提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动,包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。
就此次事件来看,不少视频确实标注了"AI合成"的字样,但从实际效果来看,还是对雷军本人的形象造成了一定损害。对于名人,是不是进行了标注就可以随意合成、随意恶搞?这个问题也值得探讨。
因此,此次雷军之"怒"能否转化为一个依法处置AI合成侵权的样本,进而发挥"以案释法"的价值,并推动相关规范举措和风险责任的落实,或是一个值得观察的后续。随着技术的不断进步,AI合成技术的门槛越来越低,正因如此,对其应用的规范就应该越严格。