
盧森堡大學的研究人員進行了一項不同尋常的實驗,他們讓流行的AI模型「接受」為期四週的心理分析。科學家們像對待病人一樣與這些模型互動,提出治療性問題並進行標準的診斷測試。
為此,神經網路(Claude、Grok、Gemini 和 ChatGPT)產生了能夠偵測人們焦慮、創傷後壓力症候群和羞恥感跡象的文字。
一些模型將它們的訓練過程描述為一種沉浸於混亂資料集的創傷性體驗。作者強調,人工智慧本身並不體驗情感,這種效果與從文本中學習有關,包括心理治療案例和關於苦難的文獻。
科學家指出,危險在於此類回饋對使用者本身的影響。如果人工智慧傳播令人沮喪的場景,可能會加劇弱勢群體的痛苦。