你是不是也遇到過這樣的情況:問AI一個問題,它給了你一個特別詳細、豐富,看上去好有邏輯的答案。但當我們去核實時,卻發現這些信息完全是虛構的?

這就是著名的“AI幻覺”現象。

圖源:河森堡新浪微博

為什么會出現AI幻覺呢?今天就讓我們一起來揭開這個謎題。

為什么會出現AI幻覺?

AI幻覺指的是AI會生成看似合理但實際確實錯誤的信息,最常見的表現就是會編造一些不存在的事實或者細節。

就像在考試時遇到不會的題目,我們會試圖用已知的知識去推測答案一樣。AI在遇到信息缺失或不確定的情況時,會基于自己的“經驗”(訓練數據)進行填補和推理。

這不是因為它想要欺騙我們,而是因為它在試圖用自己理解的模式來完成這個任務。

1

基于統計關系的預測

因為AI(尤其是像ChatGPT這樣的語言模型)通過大量的訓練數據學習文字之間的統計關系。它的核心目標是根據上下文預測最可能出現的下一個詞,并不是對問題或內容進行真正的理解。所以 AI本質上是通過概率最大化來生成內容,而不是通過邏輯推理來生成內容的。

簡單來說,AI就像是一個博覽群書的智者,通過學習海量的文本和資料來獲取知識。但是它并不是真正理解這些知識,而是通過找到文字之間的統計關系和模式來“預測”下一個最合適的詞。即 AI 是根據之前學到的大量例子,來猜測接下來最有可能出現的詞。

不過有時候,模型也會“猜錯”。如果前面出現一點偏差,后面的內容就會像滾雪球一樣越滾越大。這就是為什么AI有時會從一個小錯誤開始,最后編織出一個完全虛構的故事。

2

訓練數據的局限性

由于AI并沒有真實世界的體驗,它的所有“認知”都來自訓練數據??墒怯柧殧祿豢赡馨澜缟纤械男畔?,有時候甚至還會包含錯誤信息。這就像是一個人只能根據自己讀過的書來回答問題,如果書里有錯誤信息,或者某些領域的知識缺失,就容易產生錯誤的判斷。舉個例子:早期AI幻覺較大的時候,可能會出現AI學過“北京是中國的首都”和“巴黎有埃菲爾鐵塔”這兩個知識點。當我們問它“北京有什么著名建筑”時,它可能會把這些知識錯誤地混合在一起,說“北京有埃菲爾鐵塔”。

3

過擬合問題

因為大模型的訓練參數量非常龐大,大模型會在訓練數據上產生“過擬合”的問題。即因為記住了太多錯誤或者無關緊要的東西,從而讓 AI對訓練數據中的噪聲過于敏感,最終導致幻覺產生。

4

有限的上下文窗口

受限于技術原因,雖然現在大模型的上下文窗口越來越大(比如可以處理64k或128k個tokens),但它們仍然是在一個有限的范圍內理解文本。這就像是隔著一個小窗口看書,看不到整本書的內容,容易產生理解偏差。

5

生成流暢回答的設計

現在很多大模型被設計成要給出流暢的回答,當它對某個問題不太確定時,與其說“我不知道”,它更傾向于基于已有知識編造看起來合理的答案。上面的種種情況疊加在一起,造成了現在非常嚴重的AI幻覺問題。

圖庫版權圖片,轉載使用可能引發版權糾紛

如何才能降低AI幻覺?

AI看起來很方便,但 AI 一本正經的“胡說八道”有時候真的讓人非常頭疼,給的信息經常需要反復核實,有時反而不如直接上網搜索來得實在。那么,如何應對AI幻覺呢?我們總結了下面這些方法幫助大家。

1

優化提問

想要獲得準確答案,提問方式很關鍵。與AI交流也需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準確。同時,我們在提問的時候要提供足夠多的上下文或背景信息,這樣也可以減少AI胡亂推測的可能性。總結成提示詞技巧就是下面四種問法:

1.設定邊界:“請嚴格限定在2022年《自然》期刊發表的研究范圍內”;

示例:“介紹ChatGPT的發展歷程”→“請僅基于OpenAI官方2022-2023年的公開文檔,介紹ChatGPT的發展歷程”

2.標注不確定:“對于模糊信息,需要標注‘此處為推測內容’”;

示例:“分析特斯拉2025年的市場份額”→“分析特斯拉2025年的市場份額,對于非官方數據或預測性內容,請標注[推測內容]”

3.步驟拆解:“第一步列舉確定的事實依據,第二步展開詳細分析”;

示例:“評估人工智能對就業的影響”→“請分兩步評估AI對就業的影響:

1)先列出目前已發生的具體影響案例;

2)基于這些案例進行未來趨勢分析”。

4.明確約束:明確告訴AI要基于已有事實回答,不要進行推測。

示例:“預測2024年房地產市場走勢”→“請僅基于2023年的實際房地產數據和已出臺的相關政策進行分析,不要加入任何推測性內容”。

2

分批輸出

因為AI內容是根據概率來進行生成的,一次性生成的內容越多,出現AI幻覺的概率就越大,我們可以主動限制它的輸出數量。比如:如果我要寫一篇長文章,就會這么跟AI說:“咱們一段一段來寫,先把開頭寫好。等這部分滿意了,再繼續寫下一段?!边@樣不僅內容更準確,也更容易把控生成內容的質量。

3

交叉驗證

想要提高AI回答的可靠性,還有一個實用的方法是采用“多模型交叉驗證”。使用的一個AI聚合平臺:可以讓多個AI模型同時回答同一個問題。當遇到需要嚴謹答案的問題時,就會啟動這個功能,讓不同的大模型一起參與討論,通過對比它們的答案來獲得更全面的認識。

點擊可放大,圖片來源:作者提供

再比如納米AI搜索平臺的“多模型協作”功能,它能讓不同的AI模型各司其職,形成一個高效的協作團隊。讓擅長推理的DeepSeekR1負責分析規劃,再由通義千問進行糾錯補充,最后交給豆包AI來梳理總結。這種“專家組”式的協作模式,不僅能提升內容的可信度,還能帶來更加全面和深入的見解。

圖源:作者提供

4

RAG技術

AI是一個聰明但健忘的人,為了讓他表現更靠譜,我們可以給他配一個超級百科全書,他可以隨時查閱里面的內容來回答問題。這本“百科全書”就是RAG的核心,它讓AI在回答問題之前,先從可靠的資料中找到相關信息,再根據這些信息生成答案。這樣一來,AI就不容易“胡說八道”了。目前RAG技術多用在醫療、法律、金融等專業領域,通過構建知識庫來提升回答的準確性。當然實際使用中像醫療、法律、金融這樣的高風險領域,AI生成的內容還是必須要經過專業人士的審查的。

5

巧用AI幻覺

最后再說一個AI幻覺的好處。

很多時候AI幻覺也是天馬行空的創意火花!就像一個異想天開的藝術家,不受常規思維的束縛,能蹦出令人驚喜的點子。

看看DeepSeek就知道了,它確實比ChatGPT和Claude更容易出現幻覺,但是今年DeepSeek能火得如此出圈也離不開其強大的創造能力。

有時候與其把AI幻覺當成缺陷,不如把它看作創意的源泉!在寫作、藝術創作或頭腦風暴時,這些“跳躍性思維”反而可能幫我們打開新世界的大門。


圖庫版權圖片,轉載使用可能引發版權糾紛

AI幻覺的本質——AI在知識的迷霧中,有時會創造出看似真實,實則虛幻的“影子”。但就像任何工具一樣,關鍵在于如何使用。

當我們學會用正確的方式與AI對話,善用它的創造力,同時保持獨立思考,AI就能成為我們得力的助手,而不是一個“能言善辯的謊言家”。

畢竟,在這個AI與人類共同進步的時代,重要的不是責備AI的不完美,而是學會與之更好地協作。

策劃制作

作者丨田威 AI工具研究者

審核丨于旸 騰訊玄武實驗室負責人

來源: 科普中國新媒體

內容資源由項目單位提供