互联网公司如何为未来的深造做准备?


互联网公司如何为未来的深造做准备?

文章插图
Deepfakes(一个常用来描述用尖端人工智能技术拍摄的视频的术语)挑战了我们对真假的假设 。科技公司现在正试图与之抗争 。
凯德梅兹
几个月前 , 谷歌雇佣了几十名演员坐在一张桌子旁,站在走廊上,然后沿街和镜头聊天 。
然后,该公司的研究人员用一种新型人工智能软件交换了演员的脸 。步行者突然出现在桌旁 。曾经在走廊里的演员看起来就像在街上一样 。男人的脸贴在女人的身上 。女人的脸在男人的身上 。随着时间的推移,研究人员已经创建了数百个所谓的Deepfake视频 。
通过创建这些数字操作的视频,谷歌科学家认为,他们正在学习如何发现伪造品 , 研究人员和立法者担心,在2020年总统大选之前 , 这可能会成为一种新的、阴险的传播虚假信息的方式 。
对于谷歌这样的互联网公司来说,找到能够检测深度欺诈的工具是极其迫切的 。如果有人想传播假视频,谷歌的YouTube或脸书的社交媒体平台将是最好的选择 。
想象一下假的伊丽莎白沃伦参议员 , 他和真的几乎一样,他们在修改后的视频中打了一场激烈的战斗 。或者假的 。唐纳德特朗普总统也这样做了 。拥有这项技能的技术正在逐渐接近现实 。
亚利桑那州立大学计算机科学教授SubbaraoKambhampati说,“即使以目前的技术,一些人也很难分辨什么是真的,什么不是 。”
Deepfakes(一个常用来描述用尖端人工智能技术拍摄的视频的术语)挑战了我们对真假的假设 。
最近几个月,视频证据已经成为巴西、中非、加蓬和中国重大事件的中心 。大家都有同样的疑问:视频是真的吗?以加蓬总统为例 。他在国外得不到医疗服务 , 他的政府发布了一段所谓的生命证明视频 。反对者声称这是假的 。专家称这种混乱是“骗子的红利” 。
负责公司Deepfake研究的谷歌工程师之一尼克杜福尔说:“你已经看到了Deepfake的巨大影响 。”“他们允许人们声称,否则视频证据是伪造的,这将非常令人信服 。”
【互联网公司如何为未来的深造做准备?】几十年来,计算机软件使人们能够操纵照片和视频,或者从头开始创建假图像 。然而,这是一个缓慢而艰巨的过程,通常只有收到AdobePhotoshop或AfterEffects等不可预测软件的专家才能使用 。
现在,人工智能技术正在简化这一过程,从而降低篡改数字图像所需的成本、时间和技能 。这些人工智能系统通过分析成千上万幅真实图像,独立学习如何构建假图像 。这意味着他们可以处理曾经属于训练有素的技术人员的部分工作量 。这意味着人们可以制造比以往任何时候都多的假货 。
创建深度伪造的技术仍然是相当新的,结果通常很容易注意到 。但是技术在不断发展 。尽管检测这些假视频的工具在不断发展 , 但一些研究人员担心他们跟不上步伐 。
谷歌最近表示,任何学术或企业研究人员都可以下载其合成视频集,并使用它们来构建识别伪造品的工具 。视频采集本质上是计算机数字欺骗的轮廓 。通过分析所有这些图像 , 人工智能系统学会了如何监控假货 。脸书最近也做了类似的事情,利用演员制作假视频,然后发布给外部研究人员 。
专门从事人工智能的加拿大公司Dessa的工程师最近测试了由谷歌合成视频制成的Deepfake探测器 。它可以识别几乎完美的谷歌视频 。然而 , 当他们在从互联网上提取的Deepfake视频上测试它的检测器时,它有40%以上的时间都失败了 。
他们最终解决了这个问题,但只有在野外发现的视频(不是付费演员制作的)帮助重建探测器后,才证明探测器的性能和训练它所用的数据一样好 。
他们的测试表明 , 为了打击虚假和其他形式的在线虚假信息,几乎有必要不断重塑它 。几百个合成视频并不足以解决问题,因为它们不一定具备今天分发的假视频的特征,未来几年还会更少 。
“与其他问题不同,这个问题在不断变化 , ”Dessa的创始人兼机器学习主管RagavanThurairatnam说 。
2017年12月 , 一名自称“假”的人开始利用AI技术将名人头像嫁接到色情视频中的裸照上 。随着这种做法传播到Twitter、Reddit、PornHub等服务,Deepfake这个词进入了流行词典 。很快,这就成了网上发布的任何假视频的代名词 。
创造深度伪造的技术的改进速度让AI专家感到惊讶,没有理由相信它会变慢 。多年来,Deepfakes应该受益于科技行业为数不多的公理之一 。
:计算机总是功能越来越强大,并且数据总是更多 。这使所谓的机器学习软件更加有效 , 它可以帮助创建深层虚假 。
“它变得越来越容易 , 并且它将继续变得越来越容易 。毫无疑问,”慕尼黑工业大学计算机科学教授Matthias Niessner说道 , 他正在与Google进行深度研究 。“这种趋势将持续数年 。”
问题是:哪方面会更快改善?
像Niessner这样的研究人员正在努力构建可以自动识别和删除深层造假的系统 。这是同一枚硬币的另一面 。像Deepfake创作者一样,Deepfake检测器通过分析图像来学习其技能 。
检测器也可以突飞猛进 。Niessner和其他研究人员说,但这需要持续不断的新数据流,这些数据代表互联网上使用的最新Deepfake技术 。收集和共享正确的数据可能很困难 。相关示例很少,出于隐私和版权的原因,公司不能始终与外部研究人员共享数据 。
尽管激进主义者和艺术家偶尔会发布深造假作,以展示这些视频如何在线上改变政治言论,但这些技术并未广泛用于传播虚假信息 。据Facebook,谷歌和其他追踪深度欺诈行为的人士称 , 它们主要用于散布幽默或假色情 。
目前,deepfake视频具有细微的瑕疵 , 即使肉眼无法察觉,也可以通过自动化系统轻松检测到 。但是一些研究人员认为,改进后的技术将足够强大,可以创建没有这些微小缺陷的伪造图像 。像Google和Facebook这样的公司希望他们能够在此之前安装可靠的探测器 。
“在短期内,检测将是相当有效的,”亚利桑那州立大学教授坎巴姆帕蒂说 。“从长远来看,我认为将真实图片和假图片区分开是不可能的 。”