治理AI“深度伪造”,中国正在与美欧并跑(3)

2022-02-23 18:00  观察者网

深度合成内容模糊了真实和虚假的边界,将对社会信任、媒体信任、政治信任产生巨大的影响。陈昌凤表示,虚假内容的高难度甄别影响了事实核查的有效性,在社会重大事件或政治事件节点上,深度合成技术可能被用于操作舆论意见,借助社交媒体,使虚假信息短时间内引发产生病毒式扩散,激化社会矛盾。

负面风险不断加剧,如何有效甄别深度合成内容就成为了关键,但随着合成质量的不断提升,传统基于生物特征的鉴别方式越来越难以发挥作用。

浙江大学网络空间安全学院院长任奎表示,目前对深度合成的检测主要依赖于人工智能模型,依赖于训练数据的完备性,包括检测器泛用性相低、公开数据集适用性、数据敏感等,这些都将带来诸多挑战。

田天也表示,新型伪造方法层出不穷、网络传播环境的日趋复杂,加上基于检测算法存在漏洞缺陷等,反深伪检测技术面临“强对抗性”,需要持续更新与迭代。

《报告》显示,目前学术界和产业界均已对反深伪检测投入了大量研究,Meta(原Facebook)、谷歌、微软等机构均推出了深度合成视频认证的方法或产品。在国内,清华大学、中科大等高校在深度伪造内容检测方面取得显著成果,清华大学孵化团队瑞莱智慧推出的深度伪造内容检测平台DeepReal拥有工业级的检测性能和应对实网环境对抗变化的检测能力。清华大学人工智能研究院基础理论研究中心主任朱军认为,深度合成检测面临持续的攻防和博弈,未来还需融合多模态内容的取证分析、基于数字水印的溯源技术等多方面能力,实现精准识别。

同时,我们不能因为技术风险就因噎废食。

中国工程院院士邬贺铨认为,第一,任何新技术的出现和应用,都会带来社会问题,其中当然也有伦理问题;第二,伦理问题需要从道德和法律的层面来解决;第三,对于技术失控和技术滥用的问题,需要通过发展技术来解决,当前深度合成的技术发展得还不够,所谓“道高一尺魔高一丈”,发展永远在路上。