明星大佬“换脸”以假乱真,科技巨头对Deepfake痛下杀手

2022-06-01 15:51     腾讯

曾几何时,deepfake 在互联网上格外猖獗,新闻和成人类内容成为了"换脸"的重灾区。

由于受众广泛,市面上有不少现成的 deepfake 算法,供用户使用,如 DeepFaceLab (DFL) 和 FaceSwap。并且,由于深度学习技术的普及,也有一些低成本甚至免费的在线工具,可以训练这些算法,从而让好事之徒达到其目的。

常用的工具之一就是谷歌的 Colab,一个免费的托管式 Jupyter 笔记本服务。简单来说,用户可以在 Colab 的网页界面上运行复杂的代码,"白用l"谷歌的 GPU 集群,从而训练那些依赖高性能硬件的深度学习项目。

不过就在本月,谷歌终于对 colab 在线训练 deepfake 痛下杀手。

前不久,DFL-Colab 项目的开发者 chervonij 发现,谷歌本月中下旬将 deepfake 加入到了 Colab 的禁止项目列表当中:

图片来源:谷歌

chervonij 还表示,他最近尝试用 Colab 运行自己的代码的时候,遇到了如下的提示:

"您正在执行被禁止的代码,这将有可能影响您在未来使用 Colab 的能力。请查阅FAQ页面下专门列出的禁止行为。"

图片来源:DFL Discord 频道

然而这个弹出提示只是做出警告,并没有完全禁止,用户仍然可以继续执行代码 (continue anyway)。

有用户发现,这次谷歌的行动应该是主要针对 DFL 算法的,考虑到 DFL 是目前网络上 deepfake 行为最常采用的算法。与此同时,另一个没那么流行,的 deepfake 算法 FaceSwap 就比较幸运,仍然可以在 Colab 上运行且不会弹出提示。

FaceSwap 联合开发者 Matt Tora 接受 Unite.ai 采访时表示,自己并不认为谷歌此举是出于道德目的:

"Colab 是一个偏向 AI 教育和研究方向的工具。用它来进行规模化的 deepfake 项目的训练,和 Colab 的初衷背道而驰。"

他还补充表示,自己的 FaceSwap 项目的重要目的就是通过 deepfake 来教育用户关于 AI 和深度学习模型的运行原理,言外之意可能这才是 FaceSwap 没有被 Colab 针对的理由。

"出于保护计算资源,让真正需要的用户能够获取这些资源的目的,我理解谷歌的这一举动。"

Colab 未来是否将会完全禁止 deepfake 类项目的执行?对于不听劝的用户会有怎样的惩罚?目前谷歌并未对此次修改作出回应,这些问题也暂时没有答案。

不过我们可以确定的是,谷歌肯定是不希望 Colab 这样一个出于公益目的,提供免费训练资源的平台,被 deepfake 开发者滥用。

Google Research 将 Colab 免费开放给广大用户,目的是降低深度学习训练的硬件成本门槛,甚至让几乎没有编程知识背景的用户也能轻松上手--也即所谓的 AI 普及化 (democratization of AI)。

由于区块链行业的爆发增长,以及疫情的次生影响,当今全球芯片(特别是 GPU) 很大程度上仍然处于断供状态。所以如果是为了节约资源而禁用 Colab 运行 deepfake 项目,确实可以理解。

不过除了 deepfake 之外,Colab 禁止的其它行为当中也的确包括大众认知的恶意行为,比如运行黑客攻击、暴力破解密码等。

deepfake 使用门槛变高?

在过去相当长一段时间里,对于初入门和中等水平的 deepfake 视频创作者来说,想要实现一般可接受画质(480p或720p以上)的内容输出,自己却没有足够的硬件配置的话,那么 Colab 几乎是唯一的正确选择。

毕竟 Colab 界面简单,上手轻松,训练性能达到可以接受的水平,而且还免费,没有理由不用。前面提到的一些 deepfake 算法项目也都针对 Colab 提供了代码支持。

要讨论 deepfake,很难避开新闻换脸视频和成人换脸内容。硅星人发现,DFL 主项目页面直接把新闻视频换脸作为主要使用场景之一,并且页面中引导的一些用户社群也都默许明星或私人复仇式 (revenge porn) 的换脸成人内容,使得此类内容大量存在。

现如今谷歌决定禁止 deepfake 类项目在 Colab 上运行,势必将对私人的 deepfake 内容制作造成不小的打击。

因为这意味着那些初级和中级 deepfake 制作者将失去一个最重要的免费工具,让他们继续制作此类内容的成本显著提高。

今日关注
更多