亲耳听到也不是真的 AI 复制人声诈骗兴起

【正见新闻网2023年04月18日】

近期 AI 应用发展风生水起,但让有心人士有机可趁,现在诈骗型态日趋复杂,最新诈骗即是 AI 语音复制诈骗。

《9to5mac》报导,AI 语音复制技术只需 3 秒人声即可制作逼真语音,这项技术如果与行之有年的来电显示诈骗结合,就会形成更严重的诈骗问题,因听起来就是认识或信任的人在呼救。

举例假设有诈骗犯利用两项技术打电话给你,声称绑架亲人,要求你不得报警立刻汇款,又让「亲人」与你通话,但这「亲人」其实是用 AI 语音复制亲人声音再来诈骗,紧张下大多数人都会相信亲人真被绑架。

不过这诈骗真的无敌吗?有四个方法可帮忙保住你的钱。
拨电话确认

假设接到这种诈骗电话,若想确认来电者是否伪造亲人电话号码,最快速就是挂断打给亲人确认,罪犯不太可能直接拦截你打电话。
问对方有困难度的问题

先确定这问题答案只有亲人知道,千万不要问在社群媒体或网路就找得到答案的问题。
不要接听不明来源电话

美国 FCC 建议,不要接听未知来电,应直接转入语音信箱再听;但现在很多诈骗来电都会伪装成亲人来电。
不要在网路公开个资

如果可以,永远不要在社群媒体、网路公开电话号码,也鼓励亲人不要在任何地方公开电话号码。

电话诈骗已是相当普遍的问题,FCC 也提醒,如果接到这类来电,千万不要透露任何个资。

但高阶罪犯将来可能使用更厉害技术取得民众信任,就是上述两项技术加上 Deepfake,用视讯通话取得民众信任。

但不管罪犯用哪些 AI 诈骗,接到这类电话(绑架、亲人受伤)时,只要切记上述 4 个方法,就有较高机率可保住你的钱。

添加新评论