AI加速發展仰賴資料中心 高耗能高排碳衝擊環境
2024年的美國消費電子展CES,各種應用人工智慧的產品,可說是百花齊放。有的產品還強調會應用到最新的ChatGPT。
韓國斗山機器人執行長柳威廉說:「ChatGPT啟動後會根據你的表情,判斷出你的感覺和心情,再根據你的感覺和心情,建議你選擇適合的雞尾酒飲料。」
CES所在的美國拉斯維加斯,是餐飲旅遊娛樂產業的重鎮,就有當地的餐飲勞工團體認為,放任AI無限制的應用,勢必造成勞工權益的重傷害。
拉斯維加斯餐飲業工會代表帕帕喬治認為,「科技、機器人、AI不受控實在太可怕,這會造成相當大的損害。」

但其實在ChatGPT出現、引發人工智慧加速發展之前,就有學術研究注意到,AI高耗能與大量碳排放的特性,排擠其他領域對資源的使用,以及造成的環境衝擊。
包括ChatGPT在內,各種人工智慧模型都必須有機器學習與訓練的過程,因此必須建造能進行大量且快速運算的資料中心。
美國麻省理工學院MIT、在2019年的科技評論報告中指出,6千5百萬個參數的簡單模型,每小時耗電量就要27千瓦,雲端運算成本約合新台幣4千4百元。如果進階到「嵌入式語言模型」,這個數字就達10倍以上。
如果是更複雜、參數多達2億1千多萬個,還加上「神經網路架構搜索NAS」,每小時耗電量超過656百萬瓦,成本更超過1億元。

美國的半導體研究機構SemiAnalysis,也有報告指出,OpenAI為了支援ChatGPT的運作,需要3千6百多個輝達公司的HGX-A100行伺服器,帶動近2萬9千個圖形處理器GPU一起運轉,單日耗電量就要每小時564百萬瓦。而高耗電量背後的意義,就是發電過程大量的碳排放。
MIT的研究顯示,搭飛機來往紐約和舊金山,來回一趟每個人的碳排放約9百公斤,一般人的日常生活則各國不遷,美國每個人一年的碳排放就超過16公噸,而搭配NAS的神經網路,建立模型的學習過程,碳排放高達284公噸,是汽柴油車輛的好幾倍。

美國哥倫比亞大學氣候問題研究所,2023年的研究指出,人工智慧的應用是必然的趨勢,因此高耗能高污染的副作用也無法避免。
因此各國政府需要在能源政策上,提高再生能源的比例,而產業界也需要提高硬體設備的能源效率,雙管齊下來減少AI造成的環境負擔。