This is an example of a HTML caption with a link.
:::
宣導 管理員2 - 資訊新知 | 2025-11-25 | 點閱數: 170

發布日期 2025 年 11 月 23 日 9:30 | 作者  | 

人工智慧( AI )的「幻覺」現象引起關注已久, AI 模型回答頗常出現,可能答案看似合理但卻是錯的或完全虛構。舉例詢問 ChatGPT 問題,得到一個聽起來不錯但全錯答案,就是 AI 幻覺。幻覺有時甚至讓人笑出來(如萊特兄弟發明原子彈),但多數狀況卻會造成困擾,特別是醫療等需要準確資訊領域。

AI 幻覺定義是,當 AI 模型輸出錯誤、邏輯不一致或完全虛構。這種現象為生成式 AI 模型特有,尤其大型語言模型( LLMs )如 ChatGPT 。與軟體程式錯誤不同, AI 幻覺並不是程式設計師錯誤,而是模型學習機率導致。

AI 幻覺可分為幾種類型:

  1. 事實幻覺:當 AI 資訊不正確或缺乏證據,如「巴黎艾菲爾鐵塔建於 1999 年」,其實是 1887~1889 年建成。
  2. 上下文幻覺:偏離問題或打破對話邏輯時,如問「我該如何做燉菜?」卻得到「燉菜很好吃,太陽系有九顆行星」的回答。
  3. 邏輯幻覺:邏輯完全錯誤,如「如果芭芭拉有三隻貓,再養兩隻,那她就有六隻貓」,這顯然是算術錯誤。
  4. 多模態幻覺:這發生在產生多媒體的 AI 模型,如要求畫「一隻戴太陽眼鏡的猴子」圖,卻出現沒戴太陽眼鏡的猴子。

幻覺不僅消耗用戶對 AI 的信任,還可能造成危險,特別是專業人士也靠 AI 找答案時。為了避免 AI 幻覺,使用者可自行檢查:

  • 手動事實檢查:使用搜尋引擎和可信參考資料檢查 AI 說的聲明、名稱、日期或數字。
  • 問後續問題:要求 AI 詳細說明細節。如果 AI 無法回答或加入新回答,原始細節就可能是虛構的。
  • 要求證明:詢問 AI「你能提供來源嗎?」或「你對這個答案有多有信心?」
  • 交叉比較模型:問不同 AI 模型相同問題。如果答案差異很大,代表至少一個模型是錯的。

 

(首圖來源: shutterstock )