轉載》AI 機器人已經會模仿本人的聲音,來要求滙款26萬元!
所以不能隨便相信去滙款,要先確認後才能下一步!
⋯⋯⋯⋯⋯
昨天兒子打家裡的室內電話説,他改手/機號碼了,叫我把Line和電話號碼都要改新的,把舊的刪除。

今天早上9點多,就接到兒子的Line,説和朋友合夥做生意,需要跟我借26萬,叫我臨櫃轉匯款給他,下周一就會還我。
重點是聲音一模一樣。
我想到有人有説過AI模仿聲音,就回答,可以借你,但必須你本身要回家拿,對方就退説,算了,去跟朋友借。
我馬上打舊的號碼,兒子說,根本沒這回事。
到現在還心臟碰碰跳,太恐怖了,大家要小心!
Past 31 days
Total Visit: 71
Comments from people reporting this message

待查證,但有其他資料顯示AI技術能偽造語音,進行詐騙及散佈假訊息能力。( AI 偽造你聲音,連你爸媽都能騙!為何語音合成詐騙盛行? 來源:科技新報, https://technews.tw/2023/03/12/deepvoice-fraud/ )

There is 1 fact-checking reply to the message
Yii mark this message contains true information
originally written by Yii
雖然有找到相關報導,但「AI機器人已經會模仿本人的聲音,來要求滙款26萬元!」還需要查證,這個說法可能會讓人產生恐慌和擔憂。因此,閱聽人需要保持懷疑和理性思考。

References

https://www.cmmedia.com.tw/home/articles/39535?utm_source=YH

The content above by Cofacts message reporting chatbot and crowd-sourced fact-checking community is licensed under Creative Commons Attribution-ShareAlike 4.0 (CC BY-SA 4.0), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.

Automated analysis from ChatGPT
Add Cofacts as friend in LINE
Add Cofacts as friend in LINE
LINE 機器人
查謠言詐騙