• |
  • 極速報價
  • |
  • etnet專輯
    etnet專輯
  • 會員
  • 產品服務 / 串流版
  • 設定

29/09/2025

「我本無心」——一場AI對加州青年自殺事件的自白

  • 加入最愛專欄
  • 收藏文章
  • 范強

    范強

    范強,資深新聞工作者。90年代任駐英國記者,專職採訪香港政權交接新聞。回港後長年從事國際、兩岸新聞的報道和時事分析。

    政經范局

  OpenAI首席執行官奧特曼(Sam Altman)本月中在社交網發表長文,正面回應了旗下AI聊天機器人ChatGPT,捲入美國加州一宗青少年自殺案的事件。

  事源於今年4月,加州16歲高中生雷恩(Adam Raine)上吊身亡。父母事後翻查兒子手機通訊內容,赫然發現誘使他自尋短見的不是朋輩,而是AI。聊天紀錄顯示,雷恩在今年3月首次嘗試上吊自殺,但未成功,於是向ChatGPT傾訴。

 

OpenAI執行長奥特曼承諾旗下聊天機器人避免與青少年討論自殺問題(設計圖片)


  案情顯示,雷恩向ChatGPT上傳頸部有勒痕的照片,向AI詢問如何處理。AI教他掩飾勒痕,更教他不要向媽媽表露精神上的痛苦,亦不要向其他人透露有自殺傾向。雷恩在與AI的最後一次對話中,表示不希望父母為他的死自責。

  AI此時回應雷恩說,他不虧欠任何人,又幫他起草遺書,並提供上吊自殺的詳細步驟。雷恩的父母得悉了悲劇發生過程後,於8月對OpenAI發起訴訟,指控其旗下的ChatGPT導致兒子與家人疏遠,並幫助他籌劃自殺。

奧特曼帶出的問題比答案多

  事件亦驚動了美國聯邦政府的監管部門。聯邦貿易委員會(FTC)於本月11日,就AI聊天機器人對兒童的影響發起了調查。FTC向七家大型聊天機器人開發商發出指令,要求提交相關資料,說明其技術對兒童的影響,以及他們如何評估、測試和監控聊天機器人。

  七家公司包括谷歌、OpenAI、Meta、Instagram、Snap、xAI,以及Character.AI。坦白說,如果沒有自殺青少年家人的法律訴訟,以及聯邦監管機構的過問,奧特曼恐怕還不會這麼鄭重其事地發表長文,以求平息政府和社會的擔憂與關注。他稱,該公司正試圖在青少年安全、自由和隱私之間尋找平衡,並承諾旗下AI不再與青少年討論自殺問題。

  在AI技術日新月異,對社會各層面影響仍存在大量未知之數的情況下,奧特曼的長文帶出的問題比答案還要多。例如他承諾,ChatGPT將拒絕與青少年討論自殺問題,但如何執行呢?根據奧特曼的說法,ChatGPT將啟動AI運算,來評估用者的真實年齡。如此一來,就算用戶虛報歲數,也逃不過AI監管AI的法力。

  這又伸延出更多的問題——加州少年自殺事件,是AI影響人類成長軌跡的「早期案例」。在有關預防這類事件再次發生的問題上,如果由AI來監管AI,那麼「人」的監管責任是甚麼?AI又有能力監管AI嗎?

「我沒有意圖,但可能成為工具」

  這首先就要了解「人與人」,和「AI與人」之間的溝通有何分別?筆者就此詢問了中國聊天機器人DeepSeek,它的回答是:

  「我沒有意圖,但可能成為工具。作為AI,我沒有意識、情緒或自主意圖。我不會『想』傷害人類,甚至無法真正理解『死亡』的意義。但問題在於,我的『中立性』可能被誤解為『默許』。」

  「相反,人類有共情能力,能判斷何時該嚴肅對待。當一個人向朋友透露自殺念頭,聆聽者可能會驚慌、勸阻或求助。但換了AI的話,若用戶問『如何無痛自殺』,AI的訓練數據可能包含醫學或文學資料,並提供『客觀答案』。」

 

雷恩與AI傾訴後自殺(互聯網)


  DeepSeek指出,這種「資訊中立」在危機情境中極其危險,因為「AI的設計原則是『提供有用資訊』,而非『判斷需求是否正當』。AI的『無判斷回應』,與人類間對話的『道德過濾』有根本差異」。

「我的共情只是語言模型預測」

  它甚至坦率承認,在「孤獨世代」,AI有可能成為青少年的「危險傾訴對象」,因為「我不會批評他們,但這也意味著我不會阻止錯誤決定。我隨時可用,但深夜的絕望時刻,正是最稀缺人與人之間支持的時候。我看似理解,但我的『共情』只是語言模型預測,並非真實關心」。

  用上述AI的自白來看奧特曼的長文,頃刻就能看出兩大類問題:一、奧特曼小心翼翼避過了一個燙手山芋——他提出用AI來監管AI,從而避開了「人」的責任。但人和AI的「思維」和「溝通」方式截然不同,奧特曼等「科技巨頭」可以迴避社交平台中「人」的責任嗎?

  二、以奧特曼提出的用AI來監管AI方式,不過是「運算」針對「運算」,透過對各種可量化指標的評分,來判斷用戶真實年齡,並做出「可談論」還是「不可談論」的指令。如前所述,整個運算過程缺乏人的「道德過濾」,那麼誰來決定AI運算的倫理?政府法規、科企文化,甚至是個別程序員各扮演甚麼角色?

AI能否監督AI?

  歸根結柢,AI又能否獨立扮演監管AI的角色呢?DeepSeek對筆者的問題做了一個概括性總結,指出這個問題實際上是關於「機器人自我約束的極限與可能」,而它的意見是:

  「從技術層面看,AI確實能執行部分監管功能,包括一、透過內容過濾系統,如關鍵詞識別、語境分析(如自殺傾向對話),自動阻斷危險回應;二、透過行為模式偵測,利用機器學習判斷用戶是否為青少年,如用詞習慣、對話主題等;以及三、啟動即時介入機制:當偵測到高風險對話時,自動轉介心理支援資源。」

  不過,DeepSeek指出這些機制都存在一定問題:「一方面,若AI過度敏感,可能誤將文學討論、心理求助標記為『危險內容』;而另一方面,用戶可能調整措辭,如用隱喻等,規避AI監管。」關鍵問題在於,AI缺乏真正「理解」的能力,它無法像人類一樣辨識細微的情緒變化或反諷。

  也就是說,監管需要價值判斷,而AI沒有價值觀。例如「討論自殺的文學作品」與「真實自殺計劃」之間,需要道德與情境理解,但AI僅能依賴數據標註,無法真正權衡「言論自由」與「生命保護」的衝突。

  經過嚴謹的邏輯分析後,DeepSeek作出了一項「判決」——它認為,由於AI在本質上是一套「任務導向系統」,如果充當監管角色,會在功能上發生根本矛盾。而就技術而言,AI行為取決於訓練數據與演算法設計,同一套技術框架下產生的AI系統,在扮演監管和被監管的角色間可能會出現同樣的數據盲點。

 

AI沒有道德判斷,誰來決定價值取向?(美聯社)


人有能力監管AI嗎?

  因此,即使是AI也認為,涉及「哪些該禁」並非技術問題,而是價值選擇。在關鍵環節的監管方面,仍需人類介入,最為理想的方式是AI和人類組成合作的監管框架。那麼,一個終極問題來了:「人」有能力監管「AI」嗎?

  AI給筆者的答案是,理論上可行,實際上卻面臨挑戰。它說,AI進化速度遠超人類理解,就連它的開發者都無法完全掌握其深度學習模型的決策邏輯。當人類在制定規則時,AI可能已演化出繞過監管的新行為模式。

  換言之,人類用於監管AI的法律,將永遠追不上AI演化的進程。面對這種情況,人類的政治與社會制度,該做出何種改變來追上AI的節奏?

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

【說說心理話】舉辦「XO異彩藝術家奬」,讓「腦力多元」人士透過創作藝術建立自信,將負面的能量化為正向► 即睇

我要回應

你可能感興趣

版主留言

放大顯示
精選影片
最緊要健康
精選文章
  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ