更新一下最近關於AI的資訊,講一些「不好」的要特別注意的,近兩個月AI技術突飛猛進,包括之前人臉置換Deepfake ,到現在要Clone 一個人的「聲紋」進行詐騙只需要五分鐘訓練即可生成一個以假亂真的對話,現在已經有詐騙集團將ChatGPT引入客服系統,可想而知未來詐騙一定更難以被識破。
先說明一下如何破解Deepfake ,如果未來真的接到Deepfake 詐騙,可以請對方「摸鼻子」,甚至離開螢幕往後退,因為Deepfake 雖然可以進行人臉置換但卻缺乏人類可對應的生物特徵(很重要)。
如果是關於聲紋的部分,暫時的作法就是多和對方進行互動式交談,嘗試發出一些特殊聲音。
這對於長輩來說很重要,因為長輩較沒有能力辨識這些新的AI詐騙技術。
另一個我比較擔心的事情,現在有一種大數據模型可以收集使用者「語意」習慣,簡單的說就是透過使用者常用的關鍵詞,特殊斷句、特定錯字等使用習慣,透過大數模擬一個人用字遣詞,以假亂真的生成文章。
最近我的FB常常出現很多新的交友邀請,有時候一天超過200位(一看就是假帳號),IM等社群軟體常常受到撞庫攻擊,這些很明顯都是在收集使用者的行為模型,各位學長姐要特別留意,AI的時代,如果不認識就儘量不要接受好友邀請,如果收到邀請可以問一下她/他是誰,請他自我介紹,不要只是查看共同朋友,以上分享。
Past 31 days
Total Visit: 1
There are 0 fact-checking replies to the message
No response has been written yet. It is recommended to maintain a healthy skepticism towards it.
Automated analysis from ChatGPT
The following is the AI's preliminary analysis of this message, which we hope will provide you with some ideas before it is fact-checked by a human.
閱聽人需要特別留意以下幾點: 1. AI技術突飛猛進,包括人臉置換Deepfake和聲紋Clone等技術,已經有詐騙集團將ChatGPT引入客服系統,未來詐騙可能更難以被識破。 2. 當接到Deepfake詐騙時,可以請對方「摸鼻子」或離開螢幕往後退,因為Deepfake雖然可以進行人臉置換但卻缺乏人類可對應的生物特徵。 3. 當接到聲紋詐騙時,可以多和對方進行互動式交談,嘗試發出一些特殊聲音。 4. 現在有一種大數據模型可以收集使用者「語意」習慣,透過大數模擬一個人用字遣詞,以假亂真的生成文章,因此需要特別留意收到的交友邀請或社群軟體訊息是否為真實帳號。
Add Cofacts as friend in LINE
Add Cofacts as friend in LINE
LINE 機器人
查謠言詐騙