This reply
Lin mark this message contains personal perspective
originally written by Lin
使用者只要上傳一段聲音,它就能產出其他合成語音,建議使用傳統應對電話詐騙的方法:保持冷靜,先放下手機,聯絡當事人,確認對方的現況;認知到撥號來源也可能偽造,不要因此信任對方;若對方要求用難以追蹤的支付方式如禮品卡或是比特幣轉帳,就可以開始懷疑情況是否為真。
語音合成工具可被用於「惡意用途」,建議是:保持懷疑,仔細檢查任何向你要錢或個人訊息的人,即使他看起來是一個值得信賴的朋友或家人。一定要給他們回電話,最好是視訊,或者最好是親自見他們,看看請求是否真實。如果你需要朋友幫忙,那就親自去找他們談談。

Opinion Sources

https://blog.trendmicro.com.tw/?p=83714
https://www.gvm.com.tw/article/100491

犯罪分子擁抱AI:LLM 與 Deepfake 成雙面刃 – 資安趨勢部落格

網路駭客濫用生成式 AI (GenAI) 的情況正在急速攀升,就在我們介紹了 Gen AI 如何被用於網路犯罪的短短幾個禮拜之後,隨即又出現了新的重大進展。駭客正在大量推出各種犯罪用大型語言模型 (LLM) 以及Deepfake(深偽技術),不僅數量更多、範圍也更廣。 網路駭客濫用生成式 AI (GenAI) 的狀況正在急速攀升,就在我們介紹了  Gen AI 如何被用於網路犯罪的短短幾個禮

https://blog.trendmicro.com.tw/?p=83714

AI偽造你聲音,連你爸媽都能騙?為何語音合成詐騙盛行? | 曾子軒 | 遠見雜誌

當AI風潮盛行,電話詐騙更可怕!美國一對父母某天接到兒子電話,要求他們轉帳高額金額協助處理車禍,爸媽雖疑惑但確認是親生兒子聲音,因此核准,沒想到竟是AI合成語音。據美國研究,由於AI技術太普遍,現在只要你在抖音上傳超過30秒的影片,就有可能被利用來合成你的人聲。怎麼防?專家指只能這樣應對。

https://www.gvm.com.tw/article/100491
The reply is used in the following messages
A video (Preview not supported yet)
喂﹐先生您好,我是加利比銀行的,可以給您提供一張100萬額度的信用卡,還款期限為半年,請問您需要嗎﹐啊,不用,不用,沒有需要﹐我們還在做客戶調查問卷,佔用您一分鐘時間回答幾個問題,可以給您手機充值300元,您看可以嗎﹐只佔用您一分鐘﹐那行吧,你說吧﹐請問您是從事什麼職業的﹐上班﹐您生活在哪個城市呢﹐瀋陽﹐請您簡短介紹一下您的工作內容好嗎﹐簡單幾句話﹐
就是在一般大公司打工混日子﹐忘了請教您怎麼稱呼﹐我姓田﹐那您的全名怎麼稱呼﹐田浩﹐謝謝﹐再見﹐等會,您的300元花費﹐我當然知道他叫什麼﹐他的信息﹐他父母的信息﹐他親朋好友的信息﹐我都有﹐我只是叫他的聲音而已﹐然後我把他的聲音導入
AI軟件里讓AI學習﹐這類軟件不止一種功能大同小異﹐學好之後﹐我讓他說什麼﹐他就會用田浩的聲音說出來﹐比如我錄製一段聲音說﹐喂媽,我田浩,那小二虎生病了,需要手術﹐你趕緊給我轉50萬﹐到醫院賬戶里﹐我一會給你發﹐你快點啊﹐我現在﹐我得馬上去辦手續了﹐然後我把我的錄音導入軟件﹐選擇田浩的聲音模型
﹐再跟電話里的聲音對比一下﹐怎麼樣﹐他是用田浩的聲音模仿我的語氣說出的這段話﹐如果我用這個技術﹐偽裝成你的聲音﹐換成各種要錢的聲音
你能保證﹐發給你七八十歲的爸媽﹐你能保證﹐他們不給我轉錢嗎?

The content above by Cofacts message reporting chatbot and crowd-sourced fact-checking community is licensed under Creative Commons Attribution-ShareAlike 4.0 (CC BY-SA 4.0), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.