科技發達,要修圖修影片也變得比較容易,但如果不當使用,像是把明星合成到色情影片的這種行為,就成為犯罪。為了要防止這種違法情況發生,因此南韓科學技術院推出了新偵測軟體,可以檢測圖片或影片是否經過變造。
影片中,美國前總統歐巴馬對著鏡頭說出:「這是危險時機。」這部造假影片先前引發熱議。影片用「深偽技術」,也就是人工智能AI來以假亂真。深偽技術看來有趣,但不當使用就變成犯罪,南韓先前就有女星被合成到色情影片。為了預防這種情況,南韓科學技術院17日推出新的偵測軟體「KAICATCH(快抓取)」。
南韓科學技術院教授李興均表示:「先前的軟體無法檢測隨機圖像,100張影像中準確度只有5%到10%,但新軟體有70%到80%的準確度。」
「快抓取」是南韓第一個檢測深偽技術的軟體,它可透過像素分析,揪出肉眼無法發現的細微改變,包括複製、貼上、刪除等編輯過程都測得到。畫面上綠色的部分,就是被動過手腳的地方。
南韓科學技術院博士候選人柳英宰指出:「我們使用人工智能來開發軟體,先前我們只能用一種技術,檢測一種改變,但現在我們一次可檢測多達5種或20個算法,甚至可以找出被編輯的部分。」
研究團隊花了5年收集30萬張照片,幫助軟體提升檢測能力。快抓取預計年底前上市,屆時南韓防治深偽技術犯罪,將再添生力軍。