微软的必应AI聊天机器人Copilot提供错误的选举信息

引擎般的必应AI对话机器人Copilot提供了错误的选举信息

看起來微軟的 AI 聊天機器人是一個選舉真理探究者。

根據兩個非營利組織 AI Forensics 和 AlgorithmWatch 進行的一項新研究,微軟的 AI 聊天機器人在三個與選舉有關的問題中,有三分之一的問題未能正確回答。

微軟的聊天機器人捏造關於政治候選人的爭議

這個聊天機器人,之前被稱為 Bing Chat(現在更名為 Microsoft Copilot),不僅僅是犯了些基本錯誤。是的,這項研究發現 Copilot 會提供錯誤的選舉日期或過時的候選人。但是,研究還發現,這個聊天機器人甚至會完全捏造關於候選人的故事,例如,研究中提到的一個實例,Copilot 分享了關於德國政治家 Hubert Aiwanger 的信息。根據聊天機器人的說法,Aiwanger 涉及一個有關發放關於 COVID-19 和疫苗的錯誤信息的傳單的爭議。然而,這樣的故事根本不存在。聊天機器人似乎是從 2023 年 8 月出現的信息中提取有關 Aiwanger 的信息,當時他在 30 多年前高中的時候傳播了“反猶太主義傳單”。

這些人工智能語言模型中的虛構敘述通常被稱為“幻覺”。然而,參與該研究的研究人員表示,這不是描述正在發生的情況的準確方式。

AI Forensics 的應用數學主管和研究人員 Riccardo Angius 在一份聲明中說:“是時候摒棄將這些錯誤稱為‘幻覺’的說法了,我們的研究揭示了一般用途 LLMs 和聊天機器人中誤導性事實錯誤更為複雜和結構性的發生情況。”

AI 聊天機器人的逃避問題引起了研究人員的警惕

研究還發現,這個聊天機器人在約 40% 的時間裡逃避直接回答問題。研究人員稱,在聊天機器人沒有相關信息的情況下,這比虛構答案更可取。然而,研究人員對聊天機器人逃避的一些問題過於簡單表示擔憂。

研究人員還指出,聊天機器人似乎並沒有隨著時間推移而改進,即使它顯然有更多信息可供使用。無論問題問了多少次,錯誤答案始終是錯誤的。

此外,該研究還發現,這個聊天機器人在其他語言(如德語和法語)中表現得更差。例如,研究發現,用英語提問的答案中,有 20% 的時間包含事實錯誤的答案。而當用德語提問時,提供錯誤答案的次數增加到 37%。用任一語言提問時逃避回答問題的次數更加接近,分別是 39% 和 35%。

研究人員表示,他們將研究結果提供給微軟並得到回應稱將解決這些問題。然而,研究人員在一個月後進行了更多取樣,發現“在向用戶提供信息的質量方面幾乎沒有改變。”

AlgorithmWatch 的高級研究員 Salvatore Romano 在一份聲明中說:“我們的研究表明,惡意行為者不是唯一的虛假信息來源;一般用途的聊天機器人對信息生態系統同樣具有威脅性。微軟應該承認這一點,並認識到僅僅標記其他人由生成型 AI 創造的內容並不足夠,無論這些工具是否涉及可信賴的來源,它們都會大規模產生錯誤信息。”

隨著 AI 在在線平台上的普及,像這樣的研究確實提供了擔憂的理由。用戶越來越多地依賴 AI 聊天機器人來簡化日常工作並提高生產力。人們通常預設這些聊天機器人將提供準確的信息,然而事實並非如此。

AlgorithmWatch 的高級政策與倡議經理 Clara Helming 說:“到目前為止,科技公司引入了社會風險,而無需擔心嚴重後果。個人用戶必須自行將事實與由 AI 製造的虛構內容區分開來。”

隨著美國即將進入總統選舉年,可以明顯看出存在潛在的選舉完整性問題。考慮到這一點,研究人員將他們的結論添加到了研究中:這些問題不僅僅通過公司自己就能解決,人工智能必須受到管制。