
ChatGPT 被發現引用 xAI Grok 產生的 Grokipedia 百科的內容,後者完全由 Grok AI 採集網路資訊編寫,並非人類檢查和核對後的結果。像是這種 AI 引用 AI 生成的內容可能會造成嚴重後果,例如別有用心的人炮製虛假信息餵給 AI 並藉助其進行廣泛傳播。
Grokipedia 是伊隆馬斯克旗下人工智慧公司 xAI 基於 Grok 創建的維基百科,即這個網站上的所有內容都是由 Grok AI 自主編寫的,Grok AI 在抓取互聯網原始資訊並加工後再次輸出為百科條目。
現在 ChatGPT 就被發現有時可能會引用來自 Grokipedia 的文章數據,引用的內容主要是某些不太常見的主題,例如涉及到伊朗政治以及英國歷史學家理查德埃文斯爵士的生平事蹟等。
問題在於許多使用者會相信 ChatGPT 給的回答,而 ChatGPT 所引用的內容可能來自 Grok AI 寫的,Grok AI 又是引用自網路再進行加工,這其中難免涉及事件真實性等問題。
這就像是先前在人工智慧領域部分 AI 公司使用其他 AI 工具產生的資料來訓練 AI 模型,這可能導致 AI 模型出現幻覺並降低模型質量,甚至出現所謂的模型崩潰,雖然 ChatGPT 只是引用 Grokipedia 給出回答而非訓練模型,但這同樣可能出現虛假資訊的問題。
正常來說 AI 工具應引用知名網站或媒體發布的信息,如果 AI 不對內容來源進行甄別就很容易掉進陷阱,例如有些網站使用 AI 生成海量沒有實際意義的垃圾內容,這些內容可能包含虛假信息甚至是謠言,要是被 AI 引用就可能造成虛假信息的廣泛傳播。
儘管每個 AI 工具都會註明資訊可能有錯誤,但真正能做到對 AI 回答進行核實的用戶少之又少,也就是大部分用戶可能不會核實 AI 給出的內容,這就會加劇虛假信息的傳播。
目前 OpenAI 和 xAI 都沒有就此事發布回應,OpenAI 或許要開發新機制來甄別不同資訊來源的可靠性,否則未來 AI 引用 AI 生成的內容,別有用心的人就可以利用這個問題炮製虛假信息並藉助 AI 傳播。