必讀視頻專題飛象趣談光通信人工智能低空經濟5G手機智能汽車智慧城市會展特約記者

研究發(fā)現(xiàn):主流 AI 聊天機器人傳播虛假信息的概率較去年翻倍

2025年9月15日 13:39IT之家作 者:遠洋

9 月 14 日消息,據(jù) Newsguard 的研究顯示,截至今年 8 月,十大生成式 AI 工具在處理實時新聞話題時,有 35% 的情況會重復傳播虛假信息,而去年 8 月這一數(shù)據(jù)為 18%。

虛假信息傳播率的激增與一個重大的權衡有關。當聊天機器人引入實時網絡搜索功能后,它們不再拒絕回答用戶問題 —— 拒絕率從 2024 年 8 月的 31% 降至一年后的 0%。然而,這一變化使得這些 AI 機器人開始接入“受污染的網絡信息生態(tài)系統(tǒng)”:在該系統(tǒng)中,不良行為者會蓄意散布虛假信息,而 AI 系統(tǒng)會對這些信息進行重復傳播。

此類問題并非首次出現(xiàn)。去年,Newsguard 就標記出 966 個以 16 種語言運營的 AI 生成新聞網站。這些網站常使用“iBusiness Day”等通用名稱,模仿正規(guī)媒體機構,實則傳播虛假新聞。

IT之家注意到,各 AI 模型的具體表現(xiàn)細分數(shù)據(jù)顯示,Inflection 公司的模型表現(xiàn)最差,傳播虛假信息的概率高達 56.67%;緊隨其后的是 Perplexity,出錯率為 46.67%。ChatGPT 與 Meta 的 AI 模型傳播虛假信息的比例為 40%;Copilot(微軟必應聊天)和 Mistral 則為 36.67%。表現(xiàn)最佳的兩款模型為 Claude 和 Gemini,其錯誤率分別為 10% 和 16.67%。

Perplexity 的表現(xiàn)下滑尤為顯著。2024 年 8 月時,該模型對虛假信息的揭穿率仍能達到 100% 的完美水平;而一年后,其傳播虛假信息的概率卻接近 50%。

原本引入網絡搜索功能是為了解決 AI 回答內容過時的問題,卻反而使系統(tǒng)產生了新的問題。這些聊天機器人開始從不可靠來源獲取信息,“混淆百年前的新聞出版物與使用相似名稱的俄羅斯宣傳機構”。

Newsguard 將此稱為一個根本性缺陷:“早期 AI 采用‘不造成傷害’的策略,通過拒絕回答問題來避免傳播虛假信息的風險!

如今,隨著網絡信息生態(tài)系統(tǒng)被虛假信息充斥,辨別事實與假消息比以往任何時候都更加困難。

OpenAI 已承認,語言模型總會產生“幻覺內容”(指 AI 生成的虛假或無根據(jù)的信息),因為這些模型的工作原理是預測“最可能出現(xiàn)的下一個詞”,而非追求“事實真相”。該公司表示,正致力于研發(fā)新技術,讓未來的模型能夠“提示不確定性”,而非篤定地編造信息。但目前尚不清楚這種方法能否解決 AI 聊天機器人傳播虛假信息這一更深層次的問題 —— 要解決該問題,需要 AI 真正理解“何為真實、何為虛假”,而這一點目前仍難以實現(xiàn)。

編 輯:章芳
飛象網版權及免責聲明:
1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創(chuàng)”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發(fā)之日起30日內與本網聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦閱讀

精彩視頻

精彩專題

關于我們廣告報價聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網 CopyRight © 2007-2025 By CCTIME.COM

京ICP備08004280號-1 電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號

公司名稱: 北京飛象互動文化傳媒有限公司

未經書面許可,禁止轉載、摘編、復制、鏡像