首页>>生活 >>内容

保护你的声音免受深度造假的侵害

发布时间:2023-11-28 14:24:26编辑:可爱的眼神来源:

生成人工智能的最新进展刺激了现实语音合成的发展。虽然这项技术有潜力通过个性化语音助手和增强无障碍的通信工具来改善生活,但它也导致了深度伪造的出现,其中合成语音可能被滥用来欺骗人类和机器以达到邪恶目的。

保护你的声音免受深度造假的侵害

为了应对这种不断演变的威胁,圣路易斯华盛顿大学麦凯尔维工程学院计算机科学与工程助理教授张宁开发了一种名为 AntiFake 的工具,这是一种新颖的防御机制,旨在阻止未经授权的语音合成。发生。张于 11 月 27 日在丹麦哥本哈根举行的计算机协会计算机和通信安全会议上介绍了 AntiFake。

与传统的 Deepfake 检测方法(用于评估和发现合成音频作为攻击后缓解工具)不同,AntiFake 采取了积极主动的立场。它采用对抗性技术,使人工智能工具更难以从录音中读取必要的特征,从而防止欺骗性语音的合成。该代码免费提供给用户。

“AntiFake 确保当我们将语音数据放在那里时,犯罪分子很难利用这些信息来合成我们的声音并冒充我们,”张说。“该工具使用对抗性人工智能技术,该技术最初是网络犯罪分子工具箱的一部分,但现在我们用它来防御他们。我们只是稍微弄乱了录制的音频信号,对其进行扭曲或扰动,使其对人类听众来说仍然听起来不错,但这与人工智能完全不同。”

为了确保 AntiFake 能够抵御不断变化的潜在攻击者和未知合成模型,张和第一作者、张实验室的研究生 Yuzhiyuan Yu 构建了该工具,使其具有通用性,并针对五种最先进的技术进行了测试。 - 艺术语音合成器。AntiFake 的防护率达到了 95% 以上,甚至针对看不见的商业合成器也是如此。他们还对 24 名参与者测试了 AntiFake 的可用性,以确认该工具可供不同人群使用。

目前,AntiFake 可以保护简短的语音片段,针对最常见的语音模仿类型。但是,张说,在持续打击虚假信息的斗争中,没有什么可以阻止这个工具的扩展,以保护更长的录音,甚至音乐。

“最终,我们希望能够充分保护录音,”张说。“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发——但我确实认为我们利用对手的技术来对抗他们的策略将继续有效。人工智能仍然容易受到对抗性扰动的影响,即使工程细节可能需要改变以保持其作为获胜策略。”