《报告》截图
构建法律、伦理等多维度治理机制
深度合成技术的良性发展,离不开多维度治理机制的探索。《报告》显示,除了发展深度伪造内容检测技术以外,近几年来,针对深度合成技术恶意使用所带来的挑战,世界各国纷纷出台相关法律法规,探索深度合成的治理路径。国际方面,美国从联邦和州层面进行专门立法,欧盟将深度合成纳入《通用数据保护条例(GDPR)》等现有法律框架规制。此外,德国、新加坡、英国、韩国等国家,均有适用于深度合成技术相关犯罪案件审理的法律法规。
清华大学苏世民书院院长薛澜提到,今天也有一些业内人士议论,人工智能领域刚刚发展就在探讨治理,是否过早?其实这是一个好事,因为过去许多其他技术在全球发展过程中,中国是落后的,这些技术引进中国时,相关的治理讨论已经结束了,中国直接参考结论即可。但这次人工智能技术的发展,中国至少处于并跑地位,在第一时间与其他国家共同面对如何治理的问题。
2019年11月起,我国先后出台《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》、《中华人民共和国民法典》、《互联网信息服务算法推荐管理规定》,均对生成合成类内容等提出了不同程度的监管要求。今年1月,国家网信办公布了《互联网信息服务深度合成管理规定(征求意见稿)》,对深度合成内容的用途、标记、使用范围以及滥用处罚作出了具体规定。
对于深度合成内容治理路径的探索,陈昌凤表示可以从技术、伦理与法制等几个方面努力,技术方面,通过政府与社会组织参与、协同治理,伦理方面,确立和倡导相关的深度合成原则。中国社科院哲学所科技哲学研究室主任段伟文建议,对深度合成技术引发的社会、法律和伦理问题,应展开有系统性、前瞻性的跨学科研究,对其可能出现的高风险应用场景,进行有针对性的治理与监管。
中国科学院自动化研究所研究员陶建华认为,目前深度合成本身的内涵和外延不够清楚,在监管中有很大的困难。大量技术存在两面性,最早从事深度合成相关研究的人,其动机是从娱乐、改善人的生活出发的,比如声音的个性化模仿,很多人研究让机器自主学习妈妈的声音,给婴儿朗读故事,所以应该更有效地去管理技术的使用者,而不去过多的约束它的研制者。
中国科大网络空间安全学院执行院长俞能海强调了治理的“全国一盘棋”,他提到,目前国家很多部门在做治理的相关研究和工作,各部门应统筹协调,一方面,人工智能技术在不同领域的应用很难有一个放之四海而皆准的统一规则,另一方面,技术人员与法律、政府等规制层面的人员要跨界交流合作,尽量使规制跟上技术发展节奏。