24H直播

"會解說原因的人工智慧組" 臺大資工系成功開發

發布時間: 更新時間:
臺大資工系教授徐宏民的研究團隊,得著科技部的支持,開發出「會曉解說原因,會人面面模的人工智慧組」,徐教授表示,會使了解AI人工智慧決策的背後理由,就會使較信任人工智慧的物件。

這是球王「費德勒」不同時期與不同打扮的照片,傳統人工智慧也許可以判定這是同一人,卻無法提供判釋原因,台大資工系教徐宏民與研究團隊,研發出「可解釋的人臉辨識模組xCos」,認定兩張照片為同一人的判定原因之一,在鼻子。

各國積極推動人工智慧AI,但歐盟認為,阻礙AI廣泛運用的主因,正是缺乏信任,因為不知道它怎麼做決定的,徐宏民教授指出,這也是為甚麼多國積極投入研發「可解釋性人工智慧XAI」,因為這可解開AI決策過程中的「黑盒子」,讓它運用在更多醫學、金融、能源等領域。

科技部長陳良基表示,可解釋性人工智慧無疑是未來發展重要目標,去年也推出世界第一個「AI科研發展指引」,其中一指引就是要重視可解釋性,因為人工智慧與人類發展密切,甚至取代人類工作,必須重視其運用上的倫理。

記者林靜梅 吳嘉堡 台北報導


 
您的參與,
讓公共服務更完整!
閱讀、按讚,就能客製您的專屬推薦新聞
本網站使用 Cookie 技術提升體驗,詳見服務條款。繼續瀏覽即代表同意上述規範。