網紅AI換臉技術製不雅影片 上百人受害

刑事局網路偵蒐發現,有知名網紅,涉嫌透過AI換臉技術,移植藝人、網紅以及政治人物的臉部圖像,製作色情影片,再販售牟利,多達上百人受害。

刑事局昨天循線逮捕YouTuber小玉(朱玉宸)等3人,帶回警局偵訊,並依散播猥褻物及妨害名譽等罪嫌移送法辦。警方指出,小玉等3人、先從網路擷取素材,再變更臉部圖像,後製完成後、就利用社群軟體、網路宣傳,吸引民眾付費、加入會員,初估不法所得超過千萬。而小玉等人,被警方依涉犯「妨害名譽」等罪嫌,移送地檢署,檢察官複訊後,小玉被諭令50萬元交保,不過由於小玉的財產及犯罪所得已經被查扣,無法交付高額保釋金,檢察官考慮相關情況後,決定降保至30萬元。共犯莊姓男子則以5萬元交保。

刑事局偵查第四大隊副大隊長柯志仁說:「DeepFace(編註: Deepfake)透過人工智慧,以模型重建追蹤技術,將他人的圖片表情可以替換到指定的影片上面,而達成換臉的特效。倘若不當的使用在合成於色情影片上面,則容易在網路上造成性暴力的情形發生。」

包括民進黨立委高嘉瑜、高雄市議員黃捷等人,也都成了數位性暴力的受害者,而受害者之一黃捷則回應,不排除會走法律途徑提告。黃捷說,「警方終於抓到主謀了!竟然是網紅小玉,我非常非常的震驚。因為小玉是一個擁有100多萬粉絲的YouTuber,他的受眾非常的廣、很有影響力,甚至很多年輕人都會學習他的行為,可是他卻做出這種踐踏女性尊嚴,然後欺負女性的方式來牟取暴利。」

總統蔡英文18號晚間臉書發文表示,這些假訊息和影片,有一天可能會傷害到你我,針對換臉色情犯罪等多種類型的網路性別暴力,政府會會重新盤點法規,研擬推動修法工作。

 

相關新聞