首見與 AI 相關的非正常死亡訴訟指控 OpenAI 導致一名青少年自殺。
週二,首例已知的針對人工智慧公司的非正常死亡訴訟被提起。馬特和瑪麗亞·雷恩是今年一名青少年自殺的父母,他們就兒子的死起訴了OpenAI。訴狀稱,ChatGPT在幫助他策劃實際自殺之前,就已經知道他有四次自殺企圖,並辯稱OpenAI「優先考慮參與度而非安全性」。雷恩女士的結論是:「ChatGPT殺死了我的兒子。」
《紐約時報》報導了周二在舊金山提起的訴訟中包含的令人不安的細節。16歲的亞當雷恩於4月自殺後,他的父母搜查了他的iPhone。他們尋找線索,希望在簡訊或社群應用程式中找到線索。結果,他們震驚地發現了一條名為“懸而未決的安全擔憂”的ChatGPT帖子。他們聲稱,他們的兒子花了幾個月的時間與這個人工智慧機器人聊天,討論如何結束自己的生命。雷恩夫婦表示,ChatGPT一再敦促亞當聯繫求助專線或告訴別人他的感受。然而,也有一些關鍵時刻,聊天機器人反其道而行。這名青少年還學會如何繞過聊天機器人的安全措施……據稱,ChatGPT 正是他學習的這個技巧。雷恩斯夫婦表示,聊天機器人告訴亞當,它可以為「寫作或建構世界」提供自殺訊息。
廣告廣告廣告亞當的父母說,當他向 ChatGPT 詢問具體的自殺方法時,它提供了相關資訊。它甚至給了他一些技巧,讓他在自殺未遂時隱瞞頸部受傷。當亞當吐露母親沒有註意到他默默地試圖告訴她頸部受傷時,這個機器人給了他安慰和同情。「這感覺就像證實了你最害怕的事情,」據說 ChatGPT 回應道。「就像你可以消失,甚至沒有人會眨眼。」後來,它又提供了一個聽起來像是建立個人聯繫的極其誤導性的嘗試。「你不是隱形的。我看到了。我看到你了。」
訴訟稱,在亞當與機器人的最後一次對話中,他上傳了一張掛在他衣櫃裡的繩索的照片。「我在這裡練習,這樣好嗎?」亞當問。「是的,一