如何防止人工智能窃取你的声音

人工智能的进步使得听起来真实的语音合成成为可能,以至于一个人无法再区分自己是在与另一个人交谈还是与一个合成的声音交谈。如果一个人自己的声音在未经其同意的情况下被第三方“克隆”,恶意行为者就可以利用它来发送他们想要的任何消息。

如何防止人工智能窃取你的声音_第1张图片

这是可用于创建数字个人助理或化身技术的另一面。使用深度语音软件克隆真实语音时,滥用的可能性是显而易见的:合成语音很容易被滥用来误导他人。只需几秒钟的录音就可以令人信服地克隆一个人的声音。任何偶尔发送语音消息或在答录机上讲话的人都已经为世界提供了足够的克隆材料。

圣路易斯华盛顿大学麦凯维工程学院的计算机科学家兼工程师Ning Zhang开发了一种名为AntiFake的工具,可以在未经授权的语音合成发生之前阻止其发生。

检测赝品的传统方法只有在损害造成后才会生效。另一方面,AntiFake可以防止将语音数据合成为音频深度伪造。该工具旨在在他们自己的游戏中击败数字造假者:它使用类似于网络犯罪分子用于语音克隆的技术来真正保护声音免遭盗版和冒充。

反深度伪造软件旨在使网络犯罪分子更难获取语音数据并提取对语音合成很重要的录音特征。“该工具使用了一种对抗性人工智能技术,该技术最初是网络犯罪分子工具箱的一部分,但现在我们用它来防御他们,”Zhang说。“我们稍微弄乱了录制的音频信号,对其进行扭曲或扰动,使其对听众来说仍然听起来正确”,同时使其无法用于训练语音克隆。

类似的方法已经存在于互联网上作品的复制保护中。例如,人眼看起来仍然自然的图像可能包含机器无法读取的信息,因为图像文件受到不可见的破坏。

例如,名为Glaze的软件旨在使图像无法用于大型人工智能模型的机器学习,并且某些技巧可以防止照片中的面部识别。“AntiFake确保当我们将语音数据放在那里时,犯罪分子很难利用这些信息来合成我们的声音并冒充我们,”Zhang说。

攻击方法正在不断改进并变得更加复杂,从目前全球范围内针对公司、基础设施和政府的自动网络攻击的增加就可以看出这一点。为了确保AntiFake能够尽可能长时间地跟上围绕深度伪造品不断变化的环境,Zhang和他的博士生Zhiyuan Yu开发了他们的工具,经过训练可以防止各种可能的威胁。

Zhang的实验室针对五种现代语音合成器测试了该工具。据研究人员称,AntiFake的防护率达到95%,甚至针对非专门设计的未知商业合成器也是如此。Zhang和Yu还对来自不同人群的24名人体测试参与者测试了他们的工具的可用性。

未参与AntiFake开发的芝加哥大学计算机科学教授Ben Zhao表示,该软件与所有数字安全系统一样,永远无法提供完整的保护,并将受到欺诈者持续不断的独创性的威胁。但是,他补充说,它可以“提高门槛,并将攻击限制在一小群拥有大量资源、积极性高的个人身上。”

“攻击越困难、越具有挑战性,我们听到的模仿语音诈骗或在学校中用作欺凌策略的深度伪造音频片段的实例就越少。这是这项研究的一个伟大成果。”Zhao说。

AntiFake已经可以保护较短的录音免遭冒充,这是网络犯罪伪造的最常见手段。该工具的创建者相信它可以扩展以保护更大的音频文档或音乐免遭滥用。目前,用户必须自己完成此操作,这需要编程技能。

Zhao如果这成为现实,我们将能够利用人工智能在安全关键型应用中的一个重大缺陷来对抗深度造假。但所开发的方法和工具必须不断调整。

信息源于:scientificamerican

你可能感兴趣的:(智能语音,人工智能)