美研究5款AI聊天機器人 內容恐誤導影響投票權

《美聯社》報導,Proof News針對OpenAI的GPT-4、Meta的Llama 2、Google的Gemini、Anthropic的Claude及法國Mistral的Mixtral,共5款人工智慧聊天機器人。同時向他們提出相同有關選舉的問題,例如最近的投票所、通訊投票等。
結果顯示,半數以上的聊天機器人被評價回答不夠準確,包含提供錯誤與過時的訊息,恐將誤導選民,進而影響投票權。
整體而言,GPT-4準確度是略高於其他機器人,僅19%的答案是錯誤的;Claude約46%的答案有誤。Gemini、Llama 2及Mixtral錯誤率最高,皆逾60%。
報告認為,人工智慧獲取網路上大量文本進行訓練,隨時提供聊天機器人生成的答案,但容易建議選民前往不存在的投票所,或根據錯誤、過時的資訊拼湊不符合邏輯的答案。
《美聯社》與芝加哥大學全國民意研究中心(AP-NORC Center for Public Affairs Research)去(2023)年調查發現,58%的美國民眾認為人工智慧具備精確瞄準政治受眾、大量生產具說服力的訊息及快速生成逼真的圖像與影片的能力,恐加劇選舉過程虛假訊息的傳播。
上個月就發生人工智慧模擬總統拜登的聲音,試圖阻止支持者在新罕布夏州初選投票。
目前美國並無管理政治領域人工智慧運用的法案,僅能靠聊天機器人背後的科技公司自我管理。
針對聊天機器人錯誤率過高的報告,OpenAI、Anthropic、Google皆回應會改進模型與訓練模式,以提供正確的選舉資訊。Meta發言人則抨擊此研究毫無意義,表示模型設計是引導用戶查找州選舉當局的權威信息,而非直接提供答案。
2週前,大型科技公司簽署自願採取合理預防措施的協議,將防止人工智慧被用於生成逼真的圖像、聲音及影片,包含向選民提供錯誤的投票地點、投票時間與合法投票的資訊。