可解釋性人臉辨識 台大資工成功開發

人工智慧AI廣泛運用,不過它到底是怎麼做成決策、依據又是為何卻難以解釋。台大研究團隊在科技部支持下,開發出「可解釋性人臉辨識模組」。

這是球王「費德勒」不同時期與不同打扮的照片,傳統人工智慧也許可以判定這是同一人,卻無法提供判釋原因。台大資工系教徐宏民與研究團隊,研發出「可解釋的人臉辨識模組xCos」,認定兩張照片為同一人的判定原因之一,在鼻子。台大資工系教授徐宏民說明,「很綠的這個地方,很高的地方,我覺得這個鼻子這邊似乎是非常非常重要的準據。以前是沒有,以前這兩個(照片)給它,除了吐一個分數出來,你也不知道它怎麼做判斷的。」

各國積極推動人工智慧AI,但歐盟認為,阻礙AI廣泛運用的主因,正是缺乏信任,因為不知道它怎麼做決定的。徐宏民教授指出,這也是為甚麼多國積極投入研發「可解釋性人工智慧XAI」,因為這可解開AI決策過程中的「黑盒子」,讓它運用在更多醫學、金融、能源等領域。徐宏民說:「在這些重要的決策上的時候,可以不只是有一個AI可以協助你判斷,同時也可以解釋這背後,做這樣判斷的邏輯是什麼。我想在輔助人類做決策的過程當中,它可以帶來更多的方便。」

科技部長陳良基表示,可解釋性人工智慧無疑是未來發展重要目標。去年也推出世界第一個「AI科研發展指引」,其中一指引就是要重視可解釋性,因為人工智慧與人類發展密切,甚至取代人類工作,必須重視其運用上的倫理。