最新研究称,实时语音深度伪造技术已经成熟,有可能在未来不久出现。这种新型技术将利用人工智能(AI)模型,让攻击者能够在短时间内模仿任何人的声音,从而突破以往只能处理预录内容或需要较长处理时间的技术限制。
使用开源AI工具和经济实惠的硬件,攻击者可以轻松地使用普通笔记本电脑或智能手机来实现高质量的实时语音深度伪造。操作员仅需简单操作,就能够在定制网页界面上启动语音克隆,这种“深度伪造语音钓鱼”攻击方式不需要较复杂的配置,只需要使用普通设备的麦克风就可以获得足够真实的效果。
这种技术比以往的语音深度伪造技术更快速,更方便,而且具有更高的隐蔽性。专家在实际测试中发现,这类攻击几乎每次都能骗过目标,电话语音验证冒充风险大幅提升。但是,实时视频深度伪造仍然存在技术障碍,比如面部表情和语音不同步等易穿帮现象。
为了应对这种新型的AI伪造欺诈威胁,专家呼吁采用更复杂的远程验证方法,如在沟通中加入独特结构化信号或暗号。这将有助于防止深度伪造带来的社会工程攻击,从而保护个人和组织免受风险。
使用开源AI工具和经济实惠的硬件,攻击者可以轻松地使用普通笔记本电脑或智能手机来实现高质量的实时语音深度伪造。操作员仅需简单操作,就能够在定制网页界面上启动语音克隆,这种“深度伪造语音钓鱼”攻击方式不需要较复杂的配置,只需要使用普通设备的麦克风就可以获得足够真实的效果。
这种技术比以往的语音深度伪造技术更快速,更方便,而且具有更高的隐蔽性。专家在实际测试中发现,这类攻击几乎每次都能骗过目标,电话语音验证冒充风险大幅提升。但是,实时视频深度伪造仍然存在技术障碍,比如面部表情和语音不同步等易穿帮现象。
为了应对这种新型的AI伪造欺诈威胁,专家呼吁采用更复杂的远程验证方法,如在沟通中加入独特结构化信号或暗号。这将有助于防止深度伪造带来的社会工程攻击,从而保护个人和组织免受风险。