Google更新AI倫理政策 刪除不應用於武器開發及監控技術承諾

CNN報導,Google在近期更新的最新版公開AI倫理政策中,刪除了過去承諾不會使用AI開發武器與監控應用的條款。
根據網站時光機(Wayback Machine)網路檔案記錄,Google在先前版本的AI政策中明訂,不會針對特定領域設計或應用AI,包含以對人類造成傷害為目的的武器或技術、超出國際公認規範的監控技術等,但相關條文現今已全數移除。
不過Google也在舊版AI政策中用小字註明:「隨著Google在AI領域的經驗不斷加深,以上(指不會應用AI)項目可能會隨之滾動調整。」
Google曾一度在2018年時規劃參與美國國防部的雲端運算工程計畫,引發內部員工反彈,有超過4千名員工簽署請願書,要求Google保證公司本身及相關承包商「永遠不會開發戰爭技術」,甚至還有十幾名員工辭職以示抗議;最終Google決定放棄此合作案。
如今隨著聊天機器人ChatGPT在2022年推出,原先制定的相關規範已跟不上AI科技發展速度。Google雖然早在2018年就首度發布AI相關政策條款,但CNN指出,Google最新的政策價值觀與當年相比已出現重大逆轉。
Google研究、科技與社會資深副總裁曼尼卡(James Manyika),以及Google DeepMind執行長哈薩比斯(Demis Hassabis),4日聯名發布部落格文章表示,民主國家發布的AI框架「加深了Google對AI潛力與風險的理解」。
文章提及,在日益複雜的地緣政治格局中,全球正在展開AI領導地位的競爭,相信民主國家應該在自由、平等和尊重人權等核心價值的指導下引領AI發展。
文章也寫道,「我們相信,擁有這些價值觀的公司、政府和組織應該共同努力,創造出保護人民、促進全球發展和支持國家安全的AI。」