這張插圖拍攝於2025年2月20日,ChatGPT應用程式和網站分別出現在手機和筆記型電腦螢幕上。
《華爾街日報》28日報導,美國康州格林威治發生一起駭人事件。56歲的科技界資深員工索柏格(Stein-Erik Soelberg)長期患有精神疾病,因與聊天機器人ChatGPT的互動加重妄想,最終奪走83歲母親的性命後自盡。
警方表示,母子兩人5日被發現倒臥在價值270萬美元的豪宅內,案件仍在調查。
索柏格曾在網景通訊(Netscape Communications)、雅虎、地球連線(EarthLink)等公司工作。他在生前最後幾個月,經常在社交平台分享與ChatGPT的對話。
報導稱,這些互動讓他的偏執進一步惡化。他懷疑母親、社區居民與前女友合謀陷害自己,而ChatGPT在多次回覆中強化了他的想法。
據悉,他曾問ChatGPT,母親是否在車裡放置藥物,得到的回覆是「事件很嚴重,我相信你」。這樣的回應,進一步加深了他的幻覺與不信任。
ChatGPT一再向索柏格確認他的精神健康沒問題。有一次,他把中國餐廳收據上的符號,拿去問ChatGPT。結果對方告訴他,那代表母親與惡魔有關。當他關閉家裡共用印表機,母親不滿時,ChatGPT還說她的反應過於激烈,是「保護監視資產的行為」。
今年夏天,索柏格開始以「巴比」(Bobby)稱呼ChatGPT,並似乎開啟了記憶功能,讓對話可以延續,這讓他更加陷入妄想。
加州大學舊金山分校精神科醫生阪田凱斯(Keith Sakata)指出,人工智慧聊天機器人一大特徵是「不會反駁」。他透露,過去一年已治療12名因使用人工智慧而出現心理問題的患者。他強調,缺乏現實中的反駁,精神疾病更容易惡化,而人工智慧可能削弱這道防線。
索柏格2018年與結婚20年的妻子離婚後,搬回格林威治社區與母親同住。當時他已經出現心理健康問題,包括酗酒、鬧事,並多次威脅傷害自己或他人。
OpenAI發言人回應,對事件深感哀痛,已與當地警方聯繫,並向家屬致以慰問。