24H直播

300位醫師收AI換臉恐嚇郵件 警:不排除是中國集團性犯罪

發布時間: 更新時間:
科技發展,衍生出AI的相關犯罪,尤其是深偽技術的使用出現增加趨勢,連醫師都變成下手目標。近期在北市聯醫,有超過300位醫師陸續收到恐嚇郵件,還附上一張和女子的親密照,要藉此勒索。警方獲報,發現這些影像都是用繪圖軟體合成,而且寄件IP就在香港,不排除是中國的集團性犯案。

左手抱女子,一絲不掛躺床上,不少醫師被點名就是畫面男主角,要求一手交錢,一手換檔案。其實這段影像是經過合成換臉,幕後藏鏡人躲在中國犯案。

台北市刑大科偵隊長闕育任表示,「該畫面是流傳於大陸地區的影音的截圖,那已在大陸用於恐嚇官員案件,這次套用到恐嚇台灣醫師,所使用之電子郵件註冊於大陸香港地區。」

同張照片一圖多用,透過置換臉部偽造私密照,發恐嚇信勒索。

超過300名北市聯醫醫師都收到這封郵件,院方聲稱,沒人受騙,警方不排除中國集團性犯罪會鎖定醫界下手。因為醫生照片和連絡信箱,進到醫院官網資訊就能一把抓。

不少醫學系教授也曾收過這類恐嚇信,由於剪輯粗糙,輕易見破綻,但科技發展快速,深偽技術問世,使用AI犯罪出現成長趨勢。

刑事局研發科股長林芳如說:「那深偽的技術的確是有被用在許多犯罪方式,那目的就是散佈假訊息,那藉由這些公眾人物的影像力或知名度,那去加深這些訊息的可信度。」

刑事局研發科偵查員沈士豪則說:「貼上去的臉,有一點點閃爍的狀況。」

碰上即時視訊,臉前揮揮手,畫面會閃爍;轉動頭部後,變臉就破功,要是錄好的造假影片,靠眨眼頻率、臉部表情、說話停頓點,用肉眼找破綻也不是不可能。

不過科技日新月異,這項技術只會越來越進步,就怕將來真偽難辨。

資安專家Max表示,「這1年的AI技術其實進步很多了,所以相比過去來講,其實確實變得困難很多。那未來技術一定會更加精進,所以辨別一定會變得越來越困難。」

Deepfake技術是把雙面刃,專家提醒,發展新科技同時也得完善法規和升級辨別技術,別讓AI淪為犯罪的萬能鑰匙。

現在加入公視會員,除了有專屬推薦新聞,還有機會免費喝咖啡!
本網站使用 Cookie 技術提升體驗,詳見服務條款。繼續瀏覽即代表同意上述規範。