24H直播

結合AI變聲換臉 「假親友」詐騙手法升級

發布時間: 更新時間:
不少人在過年期間都會傳訊息、打電話拜年問候,但數發部示警,要小心結合AI的假親友詐騙,以深偽技術變音或換臉,透過來電與視訊借錢。專家也分析,隨著生成式AI日漸成熟,過去要求對方揮手或轉頭,不一定能找出破綻,甚至在變聲方面更難察覺異狀。

轄區員警到場,積極說服婦人,這樣的阻詐景象幾乎每天上演。面對詐欺亂象,尤其正值春節,傳訊息、打電話拜年問候都變頻繁,也讓數發部示警,小心結合AI的假親友詐騙跟著找上門。

台南市民蘇小姐表示,「如果遇到應該也認得出來,自己的親友跟家人,自己會了解。」

台北市民劉先生則說,「我的朋友都怎麼叫我,叫法不一樣的話,我就不認為他是我的朋友。」

儘管不少民眾自認能辨真假,但現在的詐騙模式不再只是單純冒充親友,花時間培養信任。數發部分析,不法集團濫用AI深偽技術,融入變聲與即時換臉,致電或視訊詐騙。

刑事局預防科偵查員魏培倫指出,「接到任何訊息,可能你的朋友都已經不是朋友,仿冒他們來跟他借錢,或是偽冒執法人員來說,他現在涉及刑案。」

詐騙結合科技,手法全面升級,在換臉部分,要求對方揮手或轉頭,未必能輕易找出破綻。資安專家點出,變聲方面更難發現端倪,光從打詐儀表板搜尋關鍵字,這類猜猜我是誰的詐騙,就有幾千件。

台灣數位安全發展協會理事長劉彥伯指出,「現在一樣是擷取3到5秒聲紋的話,他事實上有機會包含你的口氣、你的高中音等等,最簡單的方法,你可以請對方,比如說留下他的電話,說我晚點回撥給你,透過這種方式去找到,這個對方提到他可能是某一個親友。」

其實用傳統方式求證,就能防止掉入AI變聲陷阱;要求對方起身移動、換到其他空間,也能初步判斷,影像是否被「加工」,在科技發展下,眼見不一定為憑、耳聽不一定為真,求證前別輕易下定論。

您的參與,
讓公共服務更完整!
閱讀、按讚,就能客製您的專屬推薦新聞
本網站使用 Cookie 技術提升體驗,詳見服務條款。繼續瀏覽即代表同意上述規範。