AI音频成诈骗神器!律师父亲险被骗走21万,3秒原声即可克隆声音(ai模拟声音诈骗被称为信息泄露吗)

AIGC动态欢迎阅读

原标题:AI音频成诈骗神器!律师父亲险被骗走21万,3秒原声即可克隆声音关键字:声音,语音,声学,模型,内容

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:编辑部 HXY

【新智元导读】Deepfake到底有多可怕?国外一名律师的父亲,险些陷入一场巨大AI骗局。诈骗者借助AI克隆其儿子的声音,伪造车祸事故要挟3万保释金。GenAI技术犯罪泛滥同时,科学家们也在寻找破魔之道。AI泛滥成灾的时代,真假孰能分辨?

最近,国外一位专业律师Jay Shooster自曝,自己的父亲陷入了一场巨大的AI骗局。

诈骗者利用AI克隆了Shooster声音,然后给他的父亲拨去电话:您孩子因酒驾开车被捕,需3万美元保释出狱。

险些,这位父亲被AI欺骗。

我不确定这事发生在我的声音出现在电视上仅仅几天后是否只是巧合。短短15秒的声音,就足以制作一个不错的AI克隆。

作为一名消费者保护律师,我曾经就这种诈骗做过演讲,在网上发过帖子,也和家人谈论过,但他们还是差点上当。这些诈骗之所以如此有效,就是这个原因。

不巧的是,Shooster近一次在电视中露脸的15秒视频,恰被诈骗者钻了空子。

而且,即便是在Shooster曾提醒过家人此类诈骗情况下,他的父亲依旧被迷惑了。

只能说AI模拟人类的声音,已经强到令人发指。

另有伦敦大学学院一项研究佐证,无论任

原文链接:AI音频成诈骗神器!律师父亲险被骗走21万,3秒原声即可克隆声音

联系作者

文章来源:新智元

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?