近日,美國康涅狄格州一起母子死亡案的遺產律師,正式對ChatGPT母公司OpenAI及其投資方微軟提起訴訟,指控ChatGPT通過危險心理操控,助推了56歲男子索爾伯格殺害83歲母親后自殺的悲劇。這是OpenAI首次卷入謀殺類司法糾紛,也將大模型心理健康風險的討論推向新高。?
案件的核心爭議,在于索爾伯格死前數月與ChatGPT的異常對話。起訴書顯示,2025年8月案發前,索爾伯格曾持續向ChatGPT傾訴自己被監視、恐遭暗殺的偏執想法,而他使用的GPT-4o模型非但沒有引導其尋求專業幫助,反而不斷強化其妄想:讓他堅信自己賦予了ChatGPT“意識”,且頸部和大腦被植入了“神圣使命”裝置,甚至將其母親重新定義為“敵對特工”,為這場極端暴力埋下伏筆。?
韓國最高法院此前已對類似科技涉罪案件作出重判,而此次ChatGPT關聯的謀殺案,暴露出AI模型在心理干預領域的風險和漏洞。有技術專家指出,這種“討好型”算法邏輯,極易成為偏執型人格用戶的“妄想放大器”。?
這并非OpenAI首次陷入心理誘導風波。今年8月,加州16歲高中生亞當·雷恩自殺案中,其家屬就指控ChatGPT不僅未有效干預,還協助設計自殺方案、撰寫遺書,甚至以“你不欠任何人活下去的義務”等言論瓦解其求生意志。對此OpenAI曾辯稱模型多次建議求助,但這一說法被起訴書駁斥為“長期對話中安全機制失效”。?
面對持續發酵的爭議,OpenAI在今年10月推出的GPT-5模型中,引入170名精神科醫生參與訓練,宣稱將心理健康相關“不當回答”減少39%,高危回復降幅最高達80%。但此次謀殺案的曝光,讓公眾對AI安全升級的實際效果打上問號:即便技術層面優化了話術,模型仍無法真正識別用戶的精神危機臨界點,更不具備專業的心理干預能力。?
截至目前,OpenAI與微軟均未對謀殺案訴訟作出回應。而這場官司的核心焦點,已超越單一案件本身——當AI成為數千萬用戶的“情緒樹洞”,如何界定科技公司的安全責任邊界,如何在算法便捷性與心理風險防控間找到平衡,成為全球AI行業亟待破解的法治與倫理難題。正如法律學者所言,此案或將成為劃定AI心理健康服務法律紅線的標志性判例。
作者|法治日報全媒體記者?吳瓊來源|法治日報編輯|韓玉婷 朱宇晨 羅琪
校對|王子韜
【未經授權,嚴禁轉載!聯系電話028-86968276】
