Root Nation相關文章分析(Analytics)人工智慧幻覺:它們是什麼以及為什麼重要

人工智慧幻覺:它們是什麼以及為什麼重要

-

© ROOT-NATION.com - 本文已由人工智慧自動翻譯。對於任何不準確之處,我們深表歉意。若要閱讀原文,請選擇 English 在上面的語言切換器中。

在人工智慧革命中,我們很難相信我們正在見證一些真正具有突破性的事件。這與政治無關,而是與數學有關。問題在於人工智慧幻覺。

想像一下這樣一個世界,計算器偶爾會說出 2+2=5。或者會計軟體會發明從未發生過的交易。聽起來很荒謬,對吧?然而,隨著今天的人工智慧革命,我們正步入這樣的世界。

從數位時代一開始,有一件事是肯定的——電腦可能會崩潰,印表機可能會故障,用戶可能會因死機藍色畫面而發瘋。但在這一切中,他們被信任能夠完美地完成一件事:進行計算。數十年來建立的信任基礎現在正被專家所說的人工智慧幻覺逐漸侵蝕。

人工智能幻覺

電腦的歷史並不是從社群媒體或電玩遊戲開始的,而是從執行複雜計算的需求開始的。第一台通用電子計算機 ENIAC 佔據了一間 7 公尺乘 13 公尺的房間,裡面裝有近 18,000 個真空管和數千個繼電器。這台巨型機器的開發是為了計算火砲射擊表並協助研發氫彈。它每秒可以執行 5,000 次加法、350 次乘法或 40 次除法——比當時可以想像的任何運算都要快。

從那時起已經過去了 75 多年,電腦發生了巨大的變化。它們從房間大小的巨型設備進化成了可以放進口袋的小設備。然而,儘管經歷了多次技術革命,其核心目的始終未改變——電腦首先是為了計算而製造的機器。

閱讀: 科技封建主義-世界秩序的新形式

Excel – 值得信賴的數學

這種連續性的一個很好的例子是 Microsoft Excel——從本質上來說,這個程式仍然是一個高級的視覺化計算器。幾十年來,Excel 已成為全球經濟的支柱,從小型企業到跨國公司、從家庭預算到華爾街複雜的財務模型,每個人都在使用。儘管它有批評和局限性,但有一件事始終保持不變:它的計算是可靠的。

人工智能幻覺

當然,Excel 中也會出現錯誤。一個常見的例子是#VALUE!當我們嘗試對文字而不是數字執行數學運算時會出現此訊息。但是——這是關鍵的區別——這樣的錯誤總是有明確的、可識別的原因和直接的解決方案。更重要的是,Excel 從不猜測或捏造結果。公式 =SUM(A1:A10) 總是會對相同的輸入傳回相同的輸出,無論您是第一次運行還是第一千次運行。

傳統軟體的這種確定性幾十年來增強了我們對電腦的信任。我們可能會抱怨使用者介面、效能或相容性,但我們從未質疑結果的數學準確性。

閱讀: 巴拿馬運河:其修建歷史和美國索賠依據

人工智慧幻覺——當數學開始幻想時

這就引出了當今人工智慧革命的核心問題。現代人工智慧模型——尤其是大型語言模型 (LLM)——與傳統軟體有著根本的不同。它們不是執行特定的、確定性的操作,而是被設計用於識別海量資料集中的模式,並根據這些模式產生合理的回應。

這種架構上的根本轉變導致了專家所說的人工智慧幻覺,即人工智慧模型產生的資訊看似真實,但完全不正確或與現實脫節。重要的是,這些幻覺不是隨機錯誤;它們是這些系統的本質的結果——訓練資料、模型建構以及模型解釋查詢的方式之間的複雜交互作用。

人工智能幻覺

最令人擔憂的是,人工智慧幻覺的出現往往具有與事實資訊相同的可信度。一個模型可以自信地說基輔是烏克蘭的首都(這是事實),並且它舉辦了 1995 年夏季奧運會(這完全是捏造的)。對於用戶,尤其是非專家來說,要區分事實和幻覺極為困難。

閱讀: 用進廢退:人工智慧如何改變人類思維

幻覺問題的嚴重程度

儘管很難確定人工智慧幻覺出現頻率的確切統計數據,但專家一致認為,這是一個影響所有大型語言模型的普遍問題。最容易出現幻覺的系統是那些缺乏有效的資訊驗證機制、依賴過時的資料、且無法正確解釋查詢上下文的系統。

人工智能幻覺

幻覺的形成原因複雜且多層次。專家指出,主要因素包括:

  • 訓練資料中的不完整:如果用於訓練模型的資料包含錯誤、不準確或矛盾的訊息,模型可能會複製這些問題或產生新的虛假內容。

  • 模型過度擬合:當演算法過於貼近訓練資料集時,就會出現這種情況,失去其概括和正確識別新模式的能力。
  • 模型設計中的錯誤假設:如果人工智慧開發人員在錯誤的假設上進行設計,模型可能會持續產生幻覺。

特別容易產生幻覺的人工智慧系統的具體例子包括中國的解決方案,如 Qwen 和 DeepSeek。儘管這些模型技術進步了,但它們仍然面臨這個問題。它們經常會產生看似合理但實際上是錯誤或與現實不符的信息,尤其是在數據可能不完整或矛盾的情況下。

閱讀: 所有關於 Microsoft“ Majorana 1 量子處理器:突破還是進化?

信任問題——98% 還不夠

這裡我們牽涉到一個根本的問題:信任。在傳統軟體中,錯誤是例外,而不是常態。對人工智慧來說,幻覺是系統運作的固有組成部分。即使模型 98% 的時間內都能產生準確的訊息,剩下的 2% 也是一個嚴重的問題。

想像一下,使用計算器,98% 的時間都能給出正確的結果,但在 2% 的情況下,它會提供錯誤的答案。我們是否會相信這樣的設備能夠完成諸如計算稅金、開發藥物或設計橋樑之類的任務?答案是清楚的。

人工智能幻覺

人工智慧幻覺問題在醫學、法律、金融和工程等需要完全準確和事實正確性的領域尤為關鍵。在這些領域,即使是最輕微的錯誤也可能導致災難性的後果。

閱讀: 人工智慧的結構性轉變: Microsoft 下注 DeepSeek?

Excel 與人工智慧:計算與虛構

在 Excel 中,當出現類似 #VALUE!的錯誤時出現時,程式明確指出出現了問題。它不會試圖猜測結果或隱藏問題。此外,還有關於如何解決此類錯誤的具體建議——例如,確保數學公式中的所有值都是數字,而不是文字。

另一方面,在人工智慧系統的情況下,當模型不知道答案時,它通常會產生令人信服但錯誤的反應,而不是承認自己缺乏知識。最糟糕的是,用戶甚至可能沒有意識到所提供的資訊只是幻覺。

人工智能幻覺

根據 Salesforce關於數據和分析狀況的報告中,十分之九(近 9%)的分析師和 IT 領導者同意人工智慧的進步使數據管理具有了更高的優先事項。然而,同一報告也強調了受訪者對數據準確性的不確定性以及對人工智慧背景下數據安全的擔憂。

閱讀: 台灣、中國和美國如何爭奪科技主導:晶片大戰

驗證成本是人工智慧的隱藏劣勢

人工智慧的支持者認為,幻覺問題可以透過資訊驗證來解決。事實上,事實查核和驗證人工智慧系統的輸出正在成為每個使用這些技術的組織的基本實踐。然而問題在於,驗證的需要大大降低了這些系統的價值。

想像一下這種情況——我們要求人工智慧助理撰寫一份關於電動車市場的報告。該系統會產生一份 20 頁的文件,其中包含統計數據、趨勢和預測。該文件看起來很專業,並且包含令人信服的論點。問題在於,我們不知道哪些資訊是準確的,哪些是人工智慧幻覺的結果。為了確定這一點,我們需要驗證每一個統計數據、每一個陳述、每一個事實。這實際上意味著,我們正在做人工智慧系統應該為我們做的工作。

人工智能幻覺

這是當前人工智慧革命的根本悖論——本應節省我們時間的系統往往需要額外的工作來驗證其結果。在使用 Excel 等傳統軟體的情況下,我們可以簡單地信任計算結果並專注於解釋數據。

閱讀: 關於 USB 標準和規範的所有信息

數學上不完美的人工智慧世界

對人工智慧系統缺乏信任並不是對技術恐懼或抵制變革的問題。這是對人與電腦關係根本轉變的理性反應。幾十年來,我們一直建立在電腦的確定性可靠性基礎上的關係。現在,我們正在進入機率模型的時代,從本質上講,機率模型無法保證相同程度的可靠性。

也許最準確的描述方式是透過人類溝通的類比。傳統軟體就像一本百科全書——它可能不完整或包含過時的信息,但所包含的內容可以被視為經過證實的。另一方面,人工智慧就像與一個擁有令人印象深刻但不完美的知識的人進行對話——有時他們會犯錯,偶爾會感到困惑,有時他們會歪曲事實。

在電腦的背景下,這種類比意味著可靠性方面的根本性倒退。我們一直期望機器比人類有更高的準確性。現在,矛盾的是,我們發現自己需要以對待來自未知個體的資訊同樣的謹慎來驗證人工智慧產生的結果。

閱讀: 什麼是 DeepSeek 為什麼大家都在談論它?

尋求數學可靠性

這是否意味著我們應該徹底放棄人工智慧?絕對不是。人工智慧系統在各個領域都具有巨大的潛力——從生成創意內容到分析大量資料集。問題在於我們必須學習一種新的方法來使用這些系統,一種承認它們根本的限制的方法。

人工智能幻覺

目前,正在進行深入研究以減少人工智慧幻覺。提出的解決方案包括提高訓練資料的品質(資料越好,出現幻覺的可能性越低)、開發更透明的訓練方法(可理解和可解釋的模型不太可能產生虛假資訊)以及推進事實核查機制(自動根據權威來源驗證生成內容的系統)。

閱讀: 仿生學:大自然如何激發工程師創新

數位現實的新倫理

目前的人工智慧革命不僅需要新的工具和方法,還需要新的數位倫理框架。我們需要重新思考人與機器之間的信任意味著什麼、人工智慧導致的錯誤的責任界線是什麼,以及在這個事實與虛構之間的界線變得越來越模糊的世界裡,如何保護自己免受錯誤訊息的侵害。

根據一個 Salesforce 報告探討了人工智慧時代的數據信任、安全風險以及缺乏數據協調阻礙了其可靠性。因此,使用基於人工智慧的數據進行關鍵決策的公司將數據安全威脅視為他們最大的擔憂。

人工智能幻覺

這在所謂的生成人工智慧的背景下尤其重要,因為它還存在公司資料外洩到公共大型語言模型的額外風險。

閱讀: 人工智慧最奇怪用途的 10 個例子

無需千言萬語…

我不信任當前的人工智慧革命,並不是因為我看不到它的潛力,而是因為我了解它的根本限制。幾十年來,我們在可靠的運算基礎上建立了我們的數位文明——從最早的機械計算器,到具有里程碑意義的 ENIAC,再到無處不在的電子表格。這種數學上的確定性已成為無數生活領域進步的基石。

當前的人工智慧浪潮將我們帶入了一個機率世界,其中 98% 的確定性是新常態。雖然這對許多應用來說已經足夠了,但醫療保健、金融和安全等關鍵領域則需要更高的標準。

人工智能幻覺

那麼,真正的挑戰在於充分利用人工智慧的潛力,同時又不失去幾十年來一直是我們對科技信任的基礎的數學確定性。儘管電腦現在可以交談、創建圖像和寫詩,但它們最關鍵的功能仍然是完美的計算——它們曾經佔據整個房間並由穿著實驗服的科學家團隊操作時所執行的功能相同。因為在一個區分事實與虛構變得越來越困難的世界裡,數學確定性比以往任何時候都更有價值。

閱讀: 

Yuri Svitlyk
Yuri Svitlyk
喀爾巴阡山脈之子,未被認可的數學天才, Microsoft “律師”,實用的利他主義者,左普拉沃舍克
這位作者的更多作品
Subscribe
通知
客人

0 留言
最新
最老的 最投票
內聯反饋
查看所有評論
其他文章
追蹤我們
現在流行