29/09/2025
「我本無心」——一場AI對加州青年自殺事件的自白
OpenAI首席執行官奧特曼(Sam Altman)本月中在社交網發表長文,正面回應了旗下AI聊天機器人ChatGPT,捲入美國加州一宗青少年自殺案的事件。
事源於今年4月,加州16歲高中生雷恩(Adam Raine)上吊身亡。父母事後翻查兒子手機通訊內容,赫然發現誘使他自尋短見的不是朋輩,而是AI。聊天紀錄顯示,雷恩在今年3月首次嘗試上吊自殺,但未成功,於是向ChatGPT傾訴。
OpenAI執行長奥特曼承諾旗下聊天機器人避免與青少年討論自殺問題(設計圖片)
案情顯示,雷恩向ChatGPT上傳頸部有勒痕的照片,向AI詢問如何處理。AI教他掩飾勒痕,更教他不要向媽媽表露精神上的痛苦,亦不要向其他人透露有自殺傾向。雷恩在與AI的最後一次對話中,表示不希望父母為他的死自責。
AI此時回應雷恩說,他不虧欠任何人,又幫他起草遺書,並提供上吊自殺的詳細步驟。雷恩的父母得悉了悲劇發生過程後,於8月對OpenAI發起訴訟,指控其旗下的ChatGPT導致兒子與家人疏遠,並幫助他籌劃自殺。
奧特曼帶出的問題比答案多
事件亦驚動了美國聯邦政府的監管部門。聯邦貿易委員會(FTC)於本月11日,就AI聊天機器人對兒童的影響發起了調查。FTC向七家大型聊天機器人開發商發出指令,要求提交相關資料,說明其技術對兒童的影響,以及他們如何評估、測試和監控聊天機器人。
七家公司包括谷歌、OpenAI、Meta、Instagram、Snap、xAI,以及Character.AI。坦白說,如果沒有自殺青少年家人的法律訴訟,以及聯邦監管機構的過問,奧特曼恐怕還不會這麼鄭重其事地發表長文,以求平息政府和社會的擔憂與關注。他稱,該公司正試圖在青少年安全、自由和隱私之間尋找平衡,並承諾旗下AI不再與青少年討論自殺問題。
在AI技術日新月異,對社會各層面影響仍存在大量未知之數的情況下,奧特曼的長文帶出的問題比答案還要多。例如他承諾,ChatGPT將拒絕與青少年討論自殺問題,但如何執行呢?根據奧特曼的說法,ChatGPT將啟動AI運算,來評估用者的真實年齡。如此一來,就算用戶虛報歲數,也逃不過AI監管AI的法力。
這又伸延出更多的問題——加州少年自殺事件,是AI影響人類成長軌跡的「早期案例」。在有關預防這類事件再次發生的問題上,如果由AI來監管AI,那麼「人」的監管責任是甚麼?AI又有能力監管AI嗎?
「我沒有意圖,但可能成為工具」
這首先就要了解「人與人」,和「AI與人」之間的溝通有何分別?筆者就此詢問了中國聊天機器人DeepSeek,它的回答是:
「我沒有意圖,但可能成為工具。作為AI,我沒有意識、情緒或自主意圖。我不會『想』傷害人類,甚至無法真正理解『死亡』的意義。但問題在於,我的『中立性』可能被誤解為『默許』。」
「相反,人類有共情能力,能判斷何時該嚴肅對待。當一個人向朋友透露自殺念頭,聆聽者可能會驚慌、勸阻或求助。但換了AI的話,若用戶問『如何無痛自殺』,AI的訓練數據可能包含醫學或文學資料,並提供『客觀答案』。」
雷恩與AI傾訴後自殺(互聯網)
DeepSeek指出,這種「資訊中立」在危機情境中極其危險,因為「AI的設計原則是『提供有用資訊』,而非『判斷需求是否正當』。AI的『無判斷回應』,與人類間對話的『道德過濾』有根本差異」。
「我的共情只是語言模型預測」
它甚至坦率承認,在「孤獨世代」,AI有可能成為青少年的「危險傾訴對象」,因為「我不會批評他們,但這也意味著我不會阻止錯誤決定。我隨時可用,但深夜的絕望時刻,正是最稀缺人與人之間支持的時候。我看似理解,但我的『共情』只是語言模型預測,並非真實關心」。
用上述AI的自白來看奧特曼的長文,頃刻就能看出兩大類問題:一、奧特曼小心翼翼避過了一個燙手山芋——他提出用AI來監管AI,從而避開了「人」的責任。但人和AI的「思維」和「溝通」方式截然不同,奧特曼等「科技巨頭」可以迴避社交平台中「人」的責任嗎?
二、以奧特曼提出的用AI來監管AI方式,不過是「運算」針對「運算」,透過對各種可量化指標的評分,來判斷用戶真實年齡,並做出「可談論」還是「不可談論」的指令。如前所述,整個運算過程缺乏人的「道德過濾」,那麼誰來決定AI運算的倫理?政府法規、科企文化,甚至是個別程序員各扮演甚麼角色?
AI能否監督AI?
歸根結柢,AI又能否獨立扮演監管AI的角色呢?DeepSeek對筆者的問題做了一個概括性總結,指出這個問題實際上是關於「機器人自我約束的極限與可能」,而它的意見是:
「從技術層面看,AI確實能執行部分監管功能,包括一、透過內容過濾系統,如關鍵詞識別、語境分析(如自殺傾向對話),自動阻斷危險回應;二、透過行為模式偵測,利用機器學習判斷用戶是否為青少年,如用詞習慣、對話主題等;以及三、啟動即時介入機制:當偵測到高風險對話時,自動轉介心理支援資源。」
不過,DeepSeek指出這些機制都存在一定問題:「一方面,若AI過度敏感,可能誤將文學討論、心理求助標記為『危險內容』;而另一方面,用戶可能調整措辭,如用隱喻等,規避AI監管。」關鍵問題在於,AI缺乏真正「理解」的能力,它無法像人類一樣辨識細微的情緒變化或反諷。
也就是說,監管需要價值判斷,而AI沒有價值觀。例如「討論自殺的文學作品」與「真實自殺計劃」之間,需要道德與情境理解,但AI僅能依賴數據標註,無法真正權衡「言論自由」與「生命保護」的衝突。
經過嚴謹的邏輯分析後,DeepSeek作出了一項「判決」——它認為,由於AI在本質上是一套「任務導向系統」,如果充當監管角色,會在功能上發生根本矛盾。而就技術而言,AI行為取決於訓練數據與演算法設計,同一套技術框架下產生的AI系統,在扮演監管和被監管的角色間可能會出現同樣的數據盲點。
AI沒有道德判斷,誰來決定價值取向?(美聯社)
人有能力監管AI嗎?
因此,即使是AI也認為,涉及「哪些該禁」並非技術問題,而是價值選擇。在關鍵環節的監管方面,仍需人類介入,最為理想的方式是AI和人類組成合作的監管框架。那麼,一個終極問題來了:「人」有能力監管「AI」嗎?
AI給筆者的答案是,理論上可行,實際上卻面臨挑戰。它說,AI進化速度遠超人類理解,就連它的開發者都無法完全掌握其深度學習模型的決策邏輯。當人類在制定規則時,AI可能已演化出繞過監管的新行為模式。
換言之,人類用於監管AI的法律,將永遠追不上AI演化的進程。面對這種情況,人類的政治與社會制度,該做出何種改變來追上AI的節奏?
《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。
【說說心理話】舉辦「XO異彩藝術家奬」,讓「腦力多元」人士透過創作藝術建立自信,將負面的能量化為正向► 即睇