AI軍事領域應用日益廣泛 人類反成受害者?

AI人工智慧在軍事領域應用日益廣泛,不少人擔心當這些人工智慧武器聰明到不受人類控制的時候,人類會成為受害者。聯合國目前正研擬具有約束力的國際條約,但美國、俄國等軍事科技的先進國家都對此表達反對。

20多年前好萊塢電影中,描述了聰明到不受人類控制的機器人到處製造暴力與破壞,讓人類社會成為受害者。隨著電腦晶片與程式的進步,自動化在軍事上的應用已遠非20多年前可以相比。

各式各樣從海空平台發射的巡弋飛彈,依照事先輸入的目標位置在飛行過程中自動躲避敵人雷達追蹤,最後以資料比對等方式鎖定攻擊對象。

不只是武器本身,發射的平台高度自動化與無人化。例如美國從小布希、歐巴馬到川普,無人飛機經常出沒在敵國領域上空,進行偵察甚至是空襲任務。歐巴馬政府甚至曾因為要避免美軍人命損失,在阿富汗大量運用無人機空襲,反而造成平民傷亡而受到不少批評。

目前無人飛機多半要由地面人員遙控,透過衛星資料鏈指揮千里之外的無人飛機。最後是否發射武器,還是由控制室裡的人按照程序決定。但如果連這些發射平台都走向全自動化,運用AI自己思考和決策,最後要由誰來負起發動攻擊的責任,成為難以避免的課題。

聯合國於是從20日到22日三天在瑞士日內瓦召開專家會議,以中南美洲為主的各國以及多個非政府組織大力推動修正1983年生效的《特定傳統武器公約CCW》,希望透過具有國際法約束力的條文,限制或禁止各國在核生化以外的傳統武器上運用人工智慧AI。換言之,無論武器演進如何,發射與否的決定權必須留在人類手上。

但積極研發自動化武器系統的美國、俄羅斯和以色列等國對這項訴求持保留態度,日本經濟新聞報導指出,把限制AI的條文納入CCW公約,有相當的困難度。