你能分辨得出吗?美国出现大量AI合成诈骗电话,70%受访者称无法分辨真假!

0
AI 诈骗电话

AI 模拟逝者的声音,让家属可以和逝者跨时空再次对话,这项技术已经不再普遍了。但有好自然有坏,也有不法分子将它当做了诈骗的手段之一……

根据外媒报道,在一项由美国资安公司迈克菲实验室针对美国等 9 个国家对于 7000 人的跨国民调当中,有大约 25% 的人就表示自己遭遇过 AI 语音诈骗,或听闻身边的人有类似的经验。

此外,民调还显示有 70% 的受访者就表示在接到类似的照片电话,他们恐怕没有信心能够分辨 AI 语音的真假。

ad1fc69046e073b76d25a495849c6dc9

Blackbird.AI 人工智慧公司执行长卡利德也指出,目前网路能搜索到多款免费 App,能用于合成仿真语音。只需本人短短几秒的讲话声音,即可复制合成。所以平常在社群平台上传的影音,都有可能被歹徒偷去用于电话诈骗。这些 “复制” 的人声能通过传送语音讯息,甚至能直接用来在电话中跟人对话。

美国当局也警告,最常见的 AI 诈骗电话是 “爷奶诈骗”,模拟了孙子孙女的语音打电话给老人家,谎称需要急用钱,向老人家求助,像是发生车祸、被警察扣留、需要筹措保险金等。而当下许多老人家在听到亲人的声音都会深信不疑,立刻进行汇款。

此外,AI 新创公司 ElevenLabs 也坦言自家的语音合成工具可被用于 “恶意用途”。先前就有用户发布透过 “深伪技术” 合成的语音,假冒英国女星 Emma Charlotte Duerre Watson 读希特勒自传《我的奋斗》。

对此,官方就表示世界已经到了在网路上看到的东西都不能轻易相信的程度。而创投公司 Team 8 科技主管塔尔霍赫伯格在也指出:“人类需要研发一种技术,能让人分辨跟你说话的对象,是你认识的真人。”

e68bbce79b98efbc8fe4bda0e7a1aee4bfa1e8bf99e698afe4bab2e4babae79a84e5a3b0e99fb3e59097efbc9f7e68890e58f97e8aebfe88085e99abee8bea8ai

值得一提的是,近期美国就出现了新型的诈骗,有许多歹徒直接用了网路上垂手可得、几可乱真的 AI 语音复制工具,假冒家庭成员来诈骗亲人。

像是其中一个案例就是美国亚利桑那州的一名妇女迪斯特法诺某天就接到了女儿遭到绑架的 “妈,救救我!” 的求助电话,里头哭泣的声音让她毫无怀疑。而绑匪也要求她汇出 100 万美元赎款。所幸她随后联络上女儿,证实了稍早的电话全是 AI 合成的仿真语音。

在接受采访时,迪斯特法诺就表示当时女儿在外地滑雪,她接到那通电话时就 “100%” 确认那就是她 15 岁的女儿。她表示:“问题不是那是谁,那就是她的声音…她哭起来就是那样,我没有一秒钟怀疑过。” 所幸最后她联系上了真正的女儿,才没有陷入这个骗局。她也将案件通报了警方调查,但这案例也充分显示了利用 AI “复制” 真人语音的网络犯罪有多可怕。

《法新社》报道就表示有专家指称,AI 最大的危险就是模糊了真实和虚幻的界线,让网路罪犯能以廉价又有效的技术来散播假讯息。

因此,使用 AI 合成仿真语音已经是当前新型的诈骗手段。或许未来在接到电话时,大家都要提心吊胆了吧……

About author

Apple Liew

言词应该只是精心制作、与思想相适应的衣裳。

订阅
通知
guest

0 Comments
内联反馈
查看所有评论
0
希望听到您的想法,请评论x