:::#i分享【女兒來電喊救命 一查竟是 AI 仿造聲音詐騙新手法😱】

mailmail mail facebook twitter plurk line google+

發佈日期: 2024/7/1
類別: 婦幼安全宣導

英國一名女子分享自己遇上詐騙集團的過程,女子接到電話聽見女兒尖叫哭嚎的聲音,讓她驚慌失措。女子後來跟女兒連絡以後才發現,那通電話是 AI 模仿女兒的聲音,決定分享自身經驗提醒其他民眾別受騙。

­

電話中 15 歲的女兒布莉安娜(Briana)哭喊說自己被壞人抓了,尖叫著要媽媽救她,讓珍妮佛嚇壞了。珍妮佛之後跟布莉安娜本人確認,這才知道電話中的聲音根本不是女兒本人,而是詐騙集團用 AI 仿造出來的聲音。

­

近期網路安全公司 McAfee 一份研究指出,有將近四分之一的英國人表示,自己或周遭的人曾被 AI 詐騙,這當中有 78% 的人因此造成金錢損失。這份研究也發現,AI 技術只需要短短 3 秒的音檔,就能複製一個人的聲音,也就是說我們分享到社群媒體上的各種音檔影片,都可能成為被模仿的元素。

­

芬蘭防毒軟體公司 F-Secure 的情報負責人坎卡拉(Laura Kankaala)表示,由於 AI 技術越來越發達,不論是音檔或照片,都有可能不是真實的,民眾千萬別輕易匯款或提供任何銀行資訊。她也建議,可以跟家人設定好一個彼此間才知道的問題或安全詞,藉此確認電話那端的真實身分。

­

#AI詐騙

#仿造聲音

瀏覽人數: 1346

回列表
*