詐騙集團花招不斷,就連近期熱門話題「AI」都成為詐騙手法,加拿大陸續出現多起詐騙、以AI仿聲軟體模擬被害者家屬聲調,取信被害人後再進而詐取錢財,成為新的犯罪趨勢,一對加拿大老夫妻為此被騙走加幣2.1萬元(約新台幣47.9萬元)。
據《華盛頓郵報》報導指出,一對加拿大夫婦接到來電,對方聲稱是兒子鉑金(Benjamin Perkin)的律師,告知班鉑金車禍撞死外交官被捕,現在急需保釋金,同時間電話那頭傳來「鉑金嗓音」開口要錢,還邊溫情喊話「我愛你們」,愛子心切的夫妻緊急籌措加幣2.1萬元(約新台幣47.9萬元)匯給對方,直到兒子打電話回家,兩人才驚覺被騙。
廣告(請繼續閱讀本文)
鉑金表示,由於詐騙集團的仿聲實在逼真,「讓我的父母相信說話的人是我」,他也表示不清楚詐騙集團從哪得到聲音素材,不過,過去他確實有在YouTube上發布自己大聊雪上摩托車的影片,目前一家人已經報案,只不過錢要拿回來十分困難。
另外,加拿大薩斯喀徹溫省一名73歲奶奶卡德(Ruth Card),日前接到聲音極像孫子布蘭登(Brandon)的求救電話,電話那頭向她哭訴自己被逮捕、急需現金保釋,卡德表示聲音真的太像了「就像在跟布蘭登講話一樣」,所以她和老公隨即衝到銀行領錢,幸好銀行經理告知,不久前有人接到類似電話,後來發現聲音是AI仿聲軟體所偽造,卡德和先生才沒把領到手的錢匯出去。
報導指出,AI科技讓仿聲變得更簡單,加州大學柏克萊分校數位鑑識科學教授法力德(Hany Farid)表示,一、兩年前複製人聲需要大量音檔,現在只須擷取臉書或TikTok裡的30秒音檔,聲音就能輕鬆被複製。如今影音當道的網路社群,素材也變得隨手可得,成本變低的狀況下,也成為不肖份子的犯罪新趨勢。
廣告(請繼續閱讀本文)
★《鏡新聞》提醒您:犯罪行為,請勿模仿。
龘龘 艾批西_中正外文松山高中 AI 壞壞~
2023年03月08日04:57
致賢 希望能透過AI技術復活八音才子黃文擇的聲音!
2023年03月07日19:48
Jim Wu 聲音版deepfake
該立法禁了吧?
2023年03月07日15:18
chu 某很大金控證券處總管理處邱姓高層涉及非法秘密網路監控全台灣的電腦及手機
技術已經不用root只要電話號碼或電子信箱就可以監控到你的網路
包括通話對象、Line、所有網頁活動
2023年03月07日18:59
顯示全部