三星开发全新Deepfake AI系统 可根据照片生成伪造视频

时间:2019-05-25 09:53:37       来源:猎云网

想象一下,如果有人通过窃取你的Facebook个人资料照片创建了一个伪造的视频,这是多么恐怖的一件事啊。幸运的是,坏人还没有掌握这种技术。

但是,三星已经找到了实现这一目标的方法。

通常来说,这种伪造视频需要庞大的图像数据集才能让视频逼真。现在,三星已经开发出一种新的AI系统,可以根据一张照片生成伪造视频。

当然,这项技术可用于娱乐,例如将经典肖像带入生活。通过将蒙娜丽莎的神秘笑容在三个不同的视频中展示,我们可以更深入地了解这项新技术。这项新AI技术,由俄罗斯的三星人工智能实验室开发,本周早些时候三星在一篇论文中详细介绍了该技术。

但是,这项新技术也存在一些缺点。达特茅斯大学的研究人员Hany Farid表示,这类技术及其快速发展也给人们带来了一些错误的引导,有篡改选举和欺诈的风险。

Farid说:“按照过去一年的趋势,这种技术和相关技术所需的数据越来越少,生成的内容也越来越复杂、越来越吸引人。尽管三星的程序可能会产生视觉故障,但是这些结果是技术进化的又一步表现……这就导致了多媒体内容的创作,而这些内容最终将无法与真实内容区分开来。”

就像Photoshop一样,Deepfake软件通过使用机器学习,制造出一个会说话、会移动的人来进行仿真,从而达到令人信服的目标。尽管计算机操纵视频已经存在几十年了,但Deepfake系统可以让视频片段编辑不仅更容易创建,而且更难检测。不妨把它们想象成逼真的数字木偶。

很多时候,Deepfake制作出来的视频就像制作“蒙娜丽莎”人物一样,都是无害的乐趣。这项技术让一种完整的模因成为可能,比如可以制作一款将尼古拉斯·凯奇的脸放在电影和电视节目中的模型。当然,Deepfake技术也可能被不法分子拿来做坏事,比如当它被用来将一个不知情的人的脸移植到成人电影中时,这种情况就有点严重了。

在本周早些时候发布的论文中,三星的人工智能实验室将其发明命名为“现实的神经谈话头”。术语“谈话头”指的是系统可以创建的视频类型;这类似于你在电视新闻上看到的那些权威人士的视频框。“神经”这个词是对神经网络的一种致敬,神经网络是一种模仿人脑的机器学习。

研究人员看到他们的突破被用于各种应用,包括视频游戏、电影和电视。他们写道:“这种能力具有远程呈现的实际应用,包括视频会议和多人游戏,以及特效行业。”

这篇论文还配有一段展示该团队创作成果的视频,而这段视频的配乐也恰好带有寒意,令人不安。

通常,一个合成的“说话头”需要你训练一个AI系统处理一个人的大量图像数据集。鉴于需要这么多的个人照片,Deepfake的目标通常是公众人物,比如名人和政客。

三星的系统使用了一个技巧,这个技巧似乎受到Alexander Graham Bell的名言“准备是成功的关键”的启发。该系统从一个漫长的“元学习阶段”开始,在这个阶段,它会观看大量视频来学习人脸是如何移动的。然后,它将学到的知识应用到单个静止或少量图片上,生成一个相当逼真的视频剪辑。

与真正的Deepfake视频不同的是,当再现细节时,单个或少量图像的结果是不真实的。比如,纽约奥尔巴尼大学专攻媒体取证和机器学习的计算机科学教授Siwei Lyu说,三星实验室演示视频中的玛丽莲·梦露伪造视频漏掉了她十分显眼的痣。这也意味着合成的视频往往保留了一些扮演数字木偶角色的人的外表。这就是为什么蒙娜丽莎的每一张脸看起来都有点不同。

一般来说,Deepfake系统的目标是消除这些视觉障碍。这需要输入视频和目标人员提供大量有意义的训练数据。

这种方法的少样本学习或一眼学习的效果很好,因为这意味着通过训练大量的视频可以训练出一个庞大的网络,而这需要很长时间。这种系统可以快速适应新的目标人群,只使用少量图像,而无需进行大量的再训练。他说:“这在概念上节省了时间,并使模型可推广。”

人工智能的迅速发展意味着,任何时候,只要研究人员在Deepfake上分享了取得的突破,图谋不轨之人就可以开始利用临时拼凑的工具来模仿它。三星的进步可能很快就会被更多的人所接受。

用三星新方法制作的假视频中的小瑕疵可能是显而易见的。但是,对于那些因为在Facebook上发布一张微笑照片而陷入造假风波的人来说,这并不是什么安慰。

关键词: