什么是深度伪造?定义和真实案例

深度伪造一词 2017 年首次出现在 Reddit 上当时,一个网名相同的用户开始分享使用人工智能换脸的篡改视频,最初是成人内容。 

虽然 Reddit 禁止了最初的子论坛,但这一想法已经开始流行。 

但是,这种技术的根源可以追溯到更久远的年代。

1997 年,研究人员已经开始尝试通过机器学习进行视频编辑。 

他们的早期唇语合成工具名为 视频重写 可能会让某人看起来说了一些他们没有说过的话。

严格来说,按照今天的标准,这还不算是深度伪造,但它为接下来的发展奠定了基础。

今天的博客主要介绍这项不断发展的技术是如何运作的,它在日常生活中的应用,以及它带来的风险和益处。 

让我们先来了解一下什么是深度伪造。


主要收获:

  • 深度伪造是人工智能生成的媒体,它能让人们看起来说了或做了他们实际上从未做过的事情。

  • 利用免费工具和基本技能,现在几乎任何人都能制作出令人信服的深度伪造视频、图像或音频片段。

  • 虽然深度伪造可能具有创造性或娱乐性,但也会带来严重的风险,如诈骗、诽谤和错误信息。

  • 您可以通过使用检测工具或仔细观察视觉和行为上的不一致来识别大多数深度伪造。


什么是 Deepfake?

Deepfake 是一种虚假媒体,通常是视频、音频片段或图片,利用人工智能进行修改,使某人看起来或听起来像是在做或说一些实际上从未做过的事。 

现在,不要误以为这只是一个糟糕的 Photoshop 工作或一个草率的配音。

我们说的是使用深度学习技术进行高级操作,而深度学习是人工智能的一个子集。

再也不用担心人工智能检测到你的短信了 Undetectable AI 可以帮助您:

  • 让人工智能辅助写作显现出来 像人一样
  • 旁路 只需点击一下,就能使用所有主要的人工智能检测工具。
  • 使用 人工智能 安全地自信地 在学校和工作中。
免费试用

这就是 "deepfake "一词的含义:深度学习和虚假内容。

深度伪造的目的通常是制造一些看起来足够真实的东西来欺骗人们。

也许你看过那些名人做怪事的病毒视频,或者政客发表他们从未真正说过的离谱言论。 

这些都是典型的深度伪造案例。你看到的东西并不是真的,但其背后的技术已经发展到足够好的程度,除非你真的在看,否则你的大脑不会立即发现其中的假象。

事实上,Undetectable AI 的研究团队认为 85 %的美国人表示,深度伪造削弱了他们对网络信息的信任.

你们刚刚了解了什么是 deepfake 视频或媒体,现在来看看人们是如何制作这些视频或媒体的。

深度伪造是如何产生的

大多数深度伪造背后的技术是一类机器学习算法,称为生成式对抗网络(GAN)。 

GAN 由两部分组成:生成器和鉴别器。 

生成器会根据训练好的内容来复制假媒体,而鉴别器的工作就是找出那些看起来是假的媒体。 

它们一直这样来来回回,直到生成器越来越善于制作能通过鉴别器测试的虚假内容。 

随着时间的推移,这种反反复复的过程导致媒体看起来惊人地逼真。

什么是 Deepfake 视频生成过程?

在制作深度伪造视频时,系统会对视频进行多角度分析,研究人物如何说话、脸部如何移动、身体如何晃动。 

所有这些信息都会输入到生成器中,以便生成模仿这些行为的内容。 

然后,鉴别器会帮助进行微调,指出不妥之处,直到最终结果看起来恰到好处。

正因为如此,幻象在运动中才能保持得如此之好。

根据深层伪造视频的目的,可以使用几种不同的技术。 

如果想让某人在视频中看起来说了或做了什么,而实际上他从未说过或做过什么,那么我们就在处理所谓的源视频深度伪造。 

由编码器和解码器组成的深度伪造自动编码器会研究原始视频,并将目标人物的表情、手势和细微的头部动作应用到原始视频中。 

音频防伪

音频深度伪造的工作原理是根据某人自然说话的录音克隆其声音,同样使用广义广义人工智能模型(GAN)。 

一旦经过训练,该模型就能以该声音生成新的语音,即使该人从未真正说过这些话。 

另一个经常添加的层次是唇语同步。 

在这里,系统将生成或预先录制的音频映射到视频上。

我们的目标是让视频中的嘴唇与音频中的文字相匹配。 

真实世界中的深度伪造案例

如今,"深度伪造 "随处可见。 

让我们向大家介绍几种流行的深度伪造技术,看看这种技术已经取得了多大的进步。

泽连斯基总统要求乌克兰军队投降的假新闻

2022 年 3 月,在俄乌战争初期,网上出现了一段视频 显示乌克兰总统沃洛德梅尔-泽连斯基 敦促他的士兵投降。 

它看起来就像一个全国性的讲话,并配有泽伦斯基的声音和举止。 

这段视频在社交媒体平台上传播开来,甚至被发布在一个被泄露的乌克兰新闻网站上。 

总统迅速采取行动,通过经核实的渠道发表官方声明,驳斥了这段视频。 

教皇方济各身着名牌风衣的 "深度伪造 "病毒图片

有时,deepfake 图片并不需要恶意就能造成混乱。

2023 年,一张病毒式传播的照片 教皇方济各身着时尚的白色 Balenciaga 夹克四处走动 在互联网上掀起了一场风暴。

它获得了数千万次观看,并在各个平台被广泛分享。

这张图片是由芝加哥的一位匿名用户使用一款名为 Midjourney 的人工智能工具创建的。 

埃隆-马斯克在网络诈骗中使用的深度假冒产品

2024 年 以埃隆-马斯克为主角的深度伪造 成为一些大规模在线诈骗的核心部分。 

人工智能生成的马斯克视频开始出现在 Facebook、TikTok 和其他平台上,宣传虚假的加密货币赠品和投资计划。 

这些片段看起来和听起来都非常真实。

损失不仅仅是理论上的。据报道,一位退休老人在被这些视频说服后,损失了近 $70 万元。 

针对美国选民的乔-拜登深度伪造抢答器电话

2024 年初,就在新罕布什尔州初选之前、 选民收到抢答电话 这听起来和美国总统乔-拜登如出一辙。 

乔-拜登在电话中敦促选民留在家中,将选票留给 11 月的大选。其用意在于混淆和误导选民跳过初选。

这一事件引发了要求监管的呼声。倡导团体敦促美国联邦选举委员会介入,但联邦选举委员会最终以权力有限为由拒绝了。

与此同时,负责分发抢答器的电信公司 同意支付 $1 百万美元的罚款.

在 2020 年印度大选中使用政治深假技术

并非所有使用 deepfake 技术的意图都是有害或欺骗性的(本博客稍后将对此进行详细介绍)。

在 2020 年德里立法议会选举期间 印度人民党利用人工智能定制竞选广告 针对不同的语言受众。 

该党拍摄了其领导人马诺吉-蒂瓦里(Manoj Tiwari)用英语发言的视频,并使用深度仿真唇语制作了一个哈里扬维(Haryanvi)方言版本。

虽然配音来自一位演员,但视觉效果是根据蒂瓦里的真实录像进行人工智能训练后修改的,以匹配新的音频。 

党员们认为这是技术的一种积极应用,使他们能够用选民听得懂的语言与选民沟通,即使候选人的语言并不流利。

深度伪造是否危险?风险与担忧

到目前为止,我们已经了解了什么是 deepfake、它是如何制作的,以及它在现实世界中的应用。 

不可否认,这项技术给人留下了深刻印象,但与之相关的风险也很严重,而且增长速度很快。 

深度伪造可以通过多种方式进行武器化。以下是几个主要问题。

诽谤

当某人的肖像或声音被用于制造虚假言论、声明或视频时,尤其是那些具有攻击性或争议性的言论、声明或视频,几乎会瞬间毁掉其声誉。 

与老式的骗局或假引语不同,令人信服的深度伪造几乎不会给观众留下任何怀疑的余地。

在这方面,"深度伪造 "可以激起民愤、破坏人际关系,或者只是推动一种破坏性的叙事。 

尤其令人担忧的是,deepfake 甚至不需要完美无缺。

只要人物有辨识度,内容足够可信,就能对公众舆论产生持久的影响。

信息的可信度

另一个令人担忧的主要问题是,深度伪造如何破坏了真相的概念本身。 

随着 "深度伪造 "变得越来越普遍,我们越来越难知道自己看到或听到的东西是否真实。随着时间的推移,这可能会导致人们对任何形式的数字通信的信任度越来越低。

这种信誉危机不只是个别事件。

在民主社会中,人们依靠共同的事实来做出决策、辩论问题和解决集体问题。 

但是,如果选民、观众或公民开始质疑一切,那么操纵舆论或将不方便的真相斥之为 "又一个深度伪造 "就会变得容易得多。 

勒索

人工智能生成的媒体可以用来诬陷个人,让人觉得他们做了违法、不道德或令人尴尬的事。 

这种伪造的证据可以用来威胁或控制他们。

而且是双向的。由于深度伪造现在已经非常逼真,因此面临真实勒索的人可能会声称证据是伪造的,即使事实并非如此。 

这种情况有时被称为 "勒索膨胀",即大量可信的赝品最终会降低实际罪证材料的价值。 

真凭实据的可信度在迷雾中迷失,这只会让揭露不法行为的工作变得更加复杂。

欺诈和骗局

欺诈者利用人工智能生成的视频或可信公众人物的声音,正在制造令人难以置信的骗局。

在某些情况下,伊隆-马斯克(Elon Musk)、汤姆-汉克斯(Tom Hanks)或奥普拉-温弗瑞(Oprah Winfrey)等名人的 "深度伪造 "被用来为他们从未听说过的产品或服务代言。

这些视频随后会在社交平台上推送,受众达数百万人。

即使是个人也会面临风险,尤其是在针对特定人群的鱼叉式网络钓鱼活动中,其个性化内容旨在操纵或欺骗特定人群。

根据一项 福布斯》2024 年报告目前,"deepfake "驱动的欺诈行为已经在全球造成了约 1120 亿美元的损失,预计在未来几年内,这一数字将增加两倍多。 

深度伪造的积极和创造性用途

值得注意的是,并非所有技术的应用都是负面的。 

虽然许多博客在解释什么是深度伪造时都侧重于误用,但越来越多的有创意、有成效的深度伪造方式正在被使用。 

下面是一些著名的例子。

电影和表演

电影制片厂开始依赖深度伪造技术,例如 

  • 增强视觉效果
  • 降低生产成本
  • 让不复存在的角色回归 

迪斯尼例如,该公司一直在改进高分辨率的深度伪造模型,使面部交换和演员去老化的逼真度令人印象深刻。

他们的技术以 1024 x 1024 的分辨率运行,可以准确跟踪面部表情,使人物看起来更年轻或更富有表现力。

除好莱坞外,深度伪造还促成了全球活动,如 大卫-贝克汉姆被数码克隆 以多种语言传递健康信息。

艺术

2018 年,多媒体艺术家约瑟夫-阿耶尔(Joseph Ayerle)利用深度伪造技术创造了一个人工智能演员,将意大利影星奥内拉-穆蒂(Ornella Muti)的脸与肯达尔-詹娜(Kendall Jenner)的身体融合在一起。 

其结果是对代际认同和艺术挑衅的超现实探索,是名为 Un'emozione per sempre 2.0 的视频艺术作品的一部分。

深度伪造还出现在讽刺和戏仿作品中。 

由《南方公园》主创特雷-帕克(Trey Parker)和马特-斯通(Matt Stone)创作的 2020 年网络剧《时髦的正义》(Sassy Justice)就是一个典型的例子。 

它利用深度伪造的公众人物来讽刺时事,同时提高人们对技术本身的认识。 

客户服务

除创意产业外,企业也发现深度伪造技术在面向客户的服务中大有用武之地。 

现在,一些呼叫中心使用由 deepfake 技术驱动的合成语音来自动处理基本请求,如账户查询或投诉记录。 

在这些情况下,其意图并非恶意,而只是为了精简。

呼叫应答系统可以使用人工智能生成的语音进行个性化设置,使自动服务听起来更自然、更吸引人。

由于所处理的任务通常是低风险和重复性的,因此在这种情况下,深度仿真有助于降低成本,让人工代理腾出手来处理更复杂的问题。

教育

教育平台也开始采用由深度仿真技术驱动的导师,以更具互动性的方式为学习者提供帮助。 

这些人工智能驱动的辅导员可以通过合成语音和个性化指导来授课。

深度伪造检测工具和技术

随着深度伪造变得越来越先进,越来越容易获取,我们也需要在它们造成危害之前对其进行识别。 

人们和组织也需要正确的工具和技术来保持领先。下面介绍几种工具和技术。

人工智能图像检测器(Undetectable AI

Undetectable AI 的人工智能图像检测器让深度伪造检测变得更加容易,即使是没有技术背景的人也能轻松搞定。 

检测器的工作原理是分析上传图像中的各种元素,如颜色模式、纹理、面部特征和结构不一致。 

它支持对使用最著名的人工智能图像生成器创建的媒体进行检测,如 

  • 中途旅程 
  • DALL-E
  • 稳定扩散 
  • 表意文字
  • 基于 GAN 的模型

要使用它,只需上传一张图片,让该工具进行分析,就能得到带有置信度评分的明确结论。

如果您不确定遇到的图片是否真实、 试用我们的人工智能图像检测器 检查人工智能是否有被篡改的迹象。

例如,这是一张使用稳定扩散技术生成的火烈鸟人工智能图像。

现在,让我们把 无法检测的人工智能探测器 进行测试,看它能否准确分辨出图像是人工智能生成的。

如您所见,Undetectable AI 的图像 AI 检测器已将此图像标记为 100% AI 生成。

真相扫描

打击深度伪造的另一个值得注意的工具是 真相扫描

TruthScan 专为高风险视频分析而设计。它旨在保护组织免受视频欺诈、身份欺骗和跨数字平台的误导宣传。

TruthScan 提供多种功能:

  • 换脸检测通过逐帧分析,查找面部替换和重演攻击的迹象。
  • 面部认证有助于验证一个人的面部和表情是真实的还是合成的。
  • 实时流分析对视频通话或现场活动特别有用,能以低延迟实时检测深度伪造。
  • 视频取证可挖掘压缩伪影、帧不一致和数字指纹,从而揭示编辑痕迹。

人工检测的视觉和行为技术

个人也可以使用一些实用技术来手动检测深度伪造,尤其是在需要立即进行分析的情况下。

一些直观的红色信号包括

  • 尴尬的面部定位或奇怪的表情。
  • 图像或视频不同部分的光照或色彩不一致。
  • 面部或发际线周围闪烁,尤其是在运动时。
  • 缺乏自然眨眼或眼球运动不规则。
  • 当音频与语音不一致时,唇语同步会出现差异。

从行为角度来看,假人往往难以模仿人类的细微特征。注意肢体语言、情绪表达和习惯性手势。

在实时对话中,尤其是在实时视频中,要求查看侧面轮廓。

许多深度仿真模型在保持自然表情的同时,仍难以准确呈现 90 度的面部角度或转头等复杂动作。

从文本和上下文中识别深度伪造

深度伪造并不局限于视觉效果。有些版本涉及模仿某人交流方式的合成文字、语音或行为。

在分析文本内容或对话时,请注意以下几点:

  • 错别字和奇怪的语法。
  • 感觉勉强或不自然的句子。
  • 电子邮件地址不正常或措辞不一致。
  • 感觉断章取义或与情况无关的信息。

语境也很重要。如果视频或信息出现在不合理的环境中,比如政治家在低质量的短片中随意宣布一项重大决定,就值得怀疑其真实性。

对我们的 AI 检测器和 Humanizer 感到好奇吗?在下面的小工具中试试吧!

关于 Deepfakes 的常见问题

深度伪造是否违法?

默认情况下,"深度伪造 "并不违法,但如果违反了现有法律,如涉及诽谤、儿童色情或未经同意的露骨内容的法律,则可能违法。

美国一些州已经通过了针对影响选举或涉及报复性色情内容的深度伪造的法律。

联邦法案,如 DEFIANCE 法案和 无伪造法案 对恶意使用 deepfake 技术的监管也在进行中。

有谁能做一个 deepfake 吗?

是的,几乎任何人都可以使用免费或低成本的软件和人工智能工具来进行深度伪造。

现在,许多平台都提供了用户友好型界面,因此无需高级技术技能即可上手。

如何保护自己免受深度伪造的侵害?

为了保护自己不被深度伪造,请避免公开分享高分辨率的照片和视频,尤其是脸部照片和视频。

在社交媒体上使用隐私设置,随时了解新威胁,并报告可疑内容。您还可以使用以下工具监控人工智能生成的媒体 检测工具.

有深度伪造检测应用程序吗?

是的,有一些应用程序和平台可以检测深度伪造。

工具,如 无法检测的人工智能图像探测器 以及 TruthScan 等以视频为重点的服务可以帮助验证媒体文件是人工智能生成的还是真实的。

最终想法

现在你知道什么是深度伪造图像或一般媒体了吧。它是人工智能和深度学习的复杂混合体,能在视觉或听觉上令人信服地模仿人,而且往往是在他们不知情或未经其同意的情况下。 

虽然危险是真实存在的,但创造性的使用也不会少。

最后的启示是:深度伪造不会消失。随着技术的不断进步,我们识别和应对的能力也必须不断提高。 

如果你想用简单有效的方法来验证图像是否是人工智能生成的,不妨试试 Undetectable AI 的人工智能图像检测器。 

它快速、准确,而且便于每个人使用。

现在就用人工智能图像检测器检查您的图像,看看会发现什么。

Undetectable AI(TM)