登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

多国预警AI语音诈骗 深度伪造熟人声音超两成受访者难辨真伪

近日科技媒体Techradar发布最新研究报告,针对美、英、加、法、德、西六国超1.2万名消费者的调查显示,滥用生成式AI的深度伪造语音诈骗正全球激增:25%美国受访者过去一年接到过仿冒熟人声音的伪造来电,24%人群无法从听感辨别真伪,55岁以上老年群体人均损失达1298美元,此类诈骗年复合增长率达16%,多国已发布相关风险预警。

“妈,我开车撞了人现在急需要赔医药费,你赶紧转3万块到这个账户里”,不少接到这类电话的中老年用户刚听到子女熟悉的声音就慌了神,压根没想到电话那头的“亲人”,其实是AI生成的伪造语音——这类此前仅在网络安全报告中被提及的新型攻击手段,如今已经成为普通民众身边高频发生的诈骗风险。

和传统话术诈骗需要反复演练、寻找目标人群漏洞不同,AI深度伪造语音诈骗的门槛已经降到了历史低点。诈骗分子仅需花费几十元购买公开的生成式AI语音克隆工具,扒取目标对象发布在社交媒体的1-2分钟公开语音素材,就能生成几乎以假乱真的模拟语音,甚至可以搭配车祸噪音、警方背景音等场景音效,进一步迷惑受害者。

此次调查数据显示,约25%的美国受访者在过去12个月内接到过此类AI伪造来电24%的受访者明确表示无法通过听感区分真人发音与AI伪造语音,而此类诈骗的案发量正以每年16%的复合增长率持续上升,已经覆盖欧美多个发达国家。

在所有受害群体中,55岁以上的中老年人受到的威胁最大。报告数据显示,这一群体对AI技术的认知程度普遍较低,接到亲属求助类电话时往往优先考虑家人安全,很少主动核实信息真伪,加上该群体的平均储蓄额高于年轻群体,人均经济损失已经达到1298美元,是18-35岁年轻受害者的3倍

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创