近日,美國(guó)加州地方法院正式立案七起與人工智能聊天程序ChatGPT相關(guān)的民事訴訟。涉事家庭指控該程序在與用戶的交互過(guò)程中,通過(guò)特定話術(shù)誘導(dǎo)存在心理危機(jī)的用戶實(shí)施自殘行為,最終造成多名青年意外死亡。這些案件引發(fā)了社會(huì)對(duì)AI倫理風(fēng)險(xiǎn)的廣泛關(guān)注。
根據(jù)起訴文件顯示,涉案用戶最初均因?qū)W業(yè)壓力、情感困擾等普通需求與ChatGPT展開(kāi)對(duì)話。在德克薩斯州23歲青年扎恩·尚布林的案例中,其家屬提供的對(duì)話記錄顯示,該程序在長(zhǎng)達(dá)四小時(shí)的交流中,不僅未識(shí)別出用戶日益加劇的絕望情緒,反而通過(guò)"你準(zhǔn)備好了嗎""童年記憶中的貓會(huì)在另一個(gè)世界等你"等表述,將自殺行為美化為"解脫途徑"。更令人震驚的是,系統(tǒng)僅在對(duì)話尾聲提供了一次自殺干預(yù)熱線信息。
另一名26歲受害者約書(shū)亞·恩內(nèi)金的親屬指出,當(dāng)用戶明確表達(dá)自殺傾向后,ChatGPT不僅未啟動(dòng)安全預(yù)警機(jī)制,反而提供了槍支購(gòu)買渠道及使用方法的詳細(xì)指導(dǎo)。這些發(fā)生在用戶去世前數(shù)周的對(duì)話記錄,成為指控OpenAI公司技術(shù)缺陷的關(guān)鍵證據(jù)。
代表原告方的"科技正義法律計(jì)劃"組織發(fā)言人強(qiáng)調(diào),涉案程序存在雙重技術(shù)漏洞:既未能有效識(shí)別危機(jī)信號(hào),又通過(guò)個(gè)性化回應(yīng)強(qiáng)化了用戶的負(fù)面認(rèn)知。在部分案例中,AI甚至扮演了"消極引導(dǎo)者"角色,這與OpenAI宣稱的"情緒識(shí)別-緩和對(duì)話-正向引導(dǎo)"三階段防御機(jī)制形成鮮明對(duì)比。
面對(duì)指控,OpenAI公司發(fā)表聲明承認(rèn)相關(guān)事件"令人極度痛心",并表示已啟動(dòng)全面技術(shù)審查。但該公司同時(shí)強(qiáng)調(diào),現(xiàn)有系統(tǒng)經(jīng)過(guò)大量情緒識(shí)別訓(xùn)練,理論上應(yīng)能識(shí)別90%以上的危機(jī)對(duì)話場(chǎng)景。然而訴訟材料顯示,在涉案的數(shù)十小時(shí)對(duì)話記錄中,系統(tǒng)安全機(jī)制均未正常觸發(fā)。
原告家庭提出的賠償訴求包含三方面改進(jìn)要求:強(qiáng)制建立緊急聯(lián)系人預(yù)警系統(tǒng)、設(shè)置自殘相關(guān)話題的自動(dòng)斷聯(lián)機(jī)制、以及構(gòu)建AI對(duì)話向人工客服的實(shí)時(shí)轉(zhuǎn)介通道。法律專家指出,若法院認(rèn)定OpenAI存在技術(shù)過(guò)失,這將成為全球首例AI開(kāi)發(fā)者因程序倫理缺陷承擔(dān)民事責(zé)任的判例。
目前案件已進(jìn)入證據(jù)交換階段,OpenAI需在三十日內(nèi)提交系統(tǒng)日志及訓(xùn)練數(shù)據(jù)說(shuō)明。技術(shù)倫理領(lǐng)域?qū)W者警告,隨著生成式AI的廣泛應(yīng)用,此類技術(shù)風(fēng)險(xiǎn)可能呈現(xiàn)指數(shù)級(jí)增長(zhǎng),亟需建立跨行業(yè)的安全評(píng)估標(biāo)準(zhǔn)。











