300位醫師收AI換臉恐嚇郵件 警:不排除是中國集團性犯罪
發布時間:
更新時間:
科技發展,衍生出AI的相關犯罪,尤其是深偽技術的使用出現增加趨勢,連醫師都變成下手目標。近期在北市聯醫,有超過300位醫師陸續收到恐嚇郵件,還附上一張和女子的親密照,要藉此勒索。警方獲報,發現這些影像都是用繪圖軟體合成,而且寄件IP就在香港,不排除是中國的集團性犯案。
左手抱女子,一絲不掛躺床上,不少醫師被點名就是畫面男主角,要求一手交錢,一手換檔案。其實這段影像是經過合成換臉,幕後藏鏡人躲在中國犯案。
台北市刑大科偵隊長闕育任表示,「該畫面是流傳於大陸地區的影音的截圖,那已在大陸用於恐嚇官員案件,這次套用到恐嚇台灣醫師,所使用之電子郵件註冊於大陸香港地區。」
同張照片一圖多用,透過置換臉部偽造私密照,發恐嚇信勒索。
超過300名北市聯醫醫師都收到這封郵件,院方聲稱,沒人受騙,警方不排除中國集團性犯罪會鎖定醫界下手。因為醫生照片和連絡信箱,進到醫院官網資訊就能一把抓。
不少醫學系教授也曾收過這類恐嚇信,由於剪輯粗糙,輕易見破綻,但科技發展快速,深偽技術問世,使用AI犯罪出現成長趨勢。
刑事局研發科股長林芳如說:「那深偽的技術的確是有被用在許多犯罪方式,那目的就是散佈假訊息,那藉由這些公眾人物的影像力或知名度,那去加深這些訊息的可信度。」
刑事局研發科偵查員沈士豪則說:「貼上去的臉,有一點點閃爍的狀況。」
碰上即時視訊,臉前揮揮手,畫面會閃爍;轉動頭部後,變臉就破功,要是錄好的造假影片,靠眨眼頻率、臉部表情、說話停頓點,用肉眼找破綻也不是不可能。
不過科技日新月異,這項技術只會越來越進步,就怕將來真偽難辨。
資安專家Max表示,「這1年的AI技術其實進步很多了,所以相比過去來講,其實確實變得困難很多。那未來技術一定會更加精進,所以辨別一定會變得越來越困難。」
Deepfake技術是把雙面刃,專家提醒,發展新科技同時也得完善法規和升級辨別技術,別讓AI淪為犯罪的萬能鑰匙。
李怡慧/編輯