A l的世代..
詐騙集團的手法一直在推陳出新、

當你接到陌生來電時..!
千萬要記得不要先出聲-不要先喂..
問對方是誰?
要等對方先出聲,
如果對方還是不出聲,就要掛斷,
切記~切記~,因為AI正在準備收集你的聲音..
複製你的聲音要向你的親友進行詐騙。
Past 31 days
Total Visit: 12
There is 1 fact-checking reply to the message
張鳳軒 mark this message contains misinformation
originally written by 張鳳軒
一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。

專家建議,民眾不需要過度防備,也不需要接起電話先不出聲。

二、資安、AI專家說,對於陌生電話本來就應該小心謹慎,若擔心可能是詐騙電話,應直接掛掉,謹慎求證。民眾也可以跟家人朋友間設立「通話密語」,在接電話時,若不確定是否為親友本人時就能進行多重確認。

References

https://tfc-taiwan.org.tw/articles/10481

【事實釐清】網傳「接到陌生電話不要先講話,不出聲要直接掛掉,AI會蒐集民眾聲音」?

【報告將隨時更新 2024/4/12版】 AI技術日新月異,近期通訊軟體流傳一段文字訊息,提醒民眾接到陌生電話不要先講話,因為AI會蒐集民眾聲音。專家看法為何: 一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。 專家建議,民眾不需要過度防備,也不需要接起

https://tfc-taiwan.org.tw/articles/10481

The content above by Cofacts message reporting chatbot and crowd-sourced fact-checking community is licensed under Creative Commons Attribution-ShareAlike 4.0 (CC BY-SA 4.0), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.

Automated analysis from ChatGPT
Add Cofacts as friend in LINE
Add Cofacts as friend in LINE
LINE 機器人
查謠言詐騙