你常用ChatGPT嗎?AI聊天機器人改變新世代的學習與工作模式,已經成為生活的一部分。
但人工智慧最早的開發人傑佛瑞.辛頓,日前卻透過《紐約時報》詔告天下,警告持續發展AI是一條危險的道路。理由是AI將會超越人類的智商,反過來主宰人類。他甚至很後悔自己當初的投入。
辛頓認為,「我們要做的是減少長期的風險、讓比我們更聰明的東西反過來控制我們。像GPT4以大量知識凌駕人類,而且會持續凌駕我們。以推論來說,它的表現沒那麼好,但它已經會做簡單的推論;以進步的速率來說,我們希望它能進步更快,我們需要擔憂的是這個。」
75歲的辛頓在2012年開發出讓電腦透過影像判讀自學,以辨識出實體物件的神經網絡,就像人類的大腦,是AI學習成長的媒介。這套網絡系統催生現在的AI聊天機器人技術。
辛頓在意識到AI進化程度遙遙領先人類後選擇退場,有媒體形容他對AI有著「科學怪人情結」,擔憂自己的研發變成巨獸。
不過辛頓的擔憂早已經引起科技業與專家的警覺,包括AI任意取用未經同意和未經確認的網路資訊,形成難以辨認真偽的內容與影像,目前已經挑戰各國政府的規範底線。
英國圖靈學會人員沃爾崔吉說:「(駭客)不代表會造成世界末日,但很有可能嚴重損害社會。」
2022年《華盛頓郵報》報導,Google工程師雷默因公開透露公司開發的AI聊天機器人LaMDA擁有等同7歲小孩的自主意識,而以違反保密政策遭到解雇。
真相為何不得而知,但如何強化AI機器人感知人類情緒的能力,的確是目前AI專家努力的方向。
普渡大學電腦科學教授貝拉,嘗試將人類的行為型態,包括人類情緒、心理學和人類意向,結合AI程式模組,讓機器人能感知人類的情緒變化。
貝拉指出,「目前的AI還無法捕捉人類臉上或聲音中細微的情緒變化,還有我們表達的狀態。我們正在建立一種科技,結合這些人類不同的表達形式。」
90年代興起的陪伴機器人,充其數是寵物玩具;AI機器人真的可以像科幻作品所描繪的,進化到可讀懂人類情緒與心思,甚至進行對話溝通的程度,那麼該思考的是人與機器關係的定義與界線。
英國科學博物館人員摩根表示,「讓人更擔憂的是AI如何被人類所使用,所以它是工具,會被誤用、會造成損害。」
不可諱言的是,現階段的AI技術的確有助於提升許多領域的應用。以醫療保健來說,結合人腦判讀,提高疾病防治與治療準確度,也能針對個別用戶,提供精準營養的建議指南。
史帝芬斯科技大學電腦科學教授克萊伯格舉例,「研究發現,每個人對食物的反應並不相同,有著個別性差異。你吃一根香蕉,葡萄糖數值可能是平穩的;但你吃了餅乾之後,血糖可能飆升。對我來說可能完全相反,因此很難對所有人提供一個通則。」
AI是否會駕馭人類,即使連AI教父也無法百分之百給出答案。但確定的是,只要人能保有自主意識,事先做好風險控管,無論AI工具有多先進,決策與行動權仍會在人類手上。