AI幻覺
【關鍵專訪】理直氣壯講幹話!大型語言模型訓練AI為什麼喜歡「不懂裝懂」亂回答?
2024年9月,《自然》(Nature)期刊登出一篇引人注目的發表,作者研究大型語言模型的不同版本,對於各項問題回應的正確程度。結果發現,較早版本的大型語言模型遇到不懂的問題比較會迴避,但升級過後的版本,似乎更容易胡謅出一個有模有樣(但錯誤)的答案。這難道代表著隨著大型語言模型的訓練參數越來越龐大,AI越來越不可靠了嗎?
ChatGPT就是幹話:哲學家指出「AI幻覺」說法有誤,他們就是在「扯淡」
幹話並不在意話語的真實性,僅關注話語本身的效果;撒謊則是有意地說出與事實不符的話。講幹話並不是故意的,只是對真實性完全沒興趣,他們的目的在於創造某種印象或者效果,而不是傳達事實。或許你會問:幹話跟ChatGPT有什麼關聯?富蘭克福的幹話理論解釋給你聽......
如何分辨ChatGPT的答案是真是假?讓專家教你不一樣的「偵測方法」
大家熟知的ChatGPT,即使已經能夠回答使用者的問題、可以生成書信,但仍然會編造錯誤、虛假的資訊,就是AI幻覺。目前,除了使用者主動確認資訊、謹慎的解讀AI給的答案之外,怎麼知道AI有沒有給出錯誤的回答呢?