青少年沉迷AI聊天機器人而自殺 母親狀告獨角獸公司Character.ai

一名青少年因沉迷於人工智慧聊天機器人而自殺,她的母親現在指責該機器人的製造者是導致他死亡的同謀。

Megan Garcia 近日在佛羅里達州聯邦法院對 Character.ai 提起民事訴訟,指控其疏忽、過失死亡和欺騙性交易行為。

今年 2 月,美國佛羅里達州男孩 Sewell Setzer III 在家中自殺身亡。據報導,在去世前的幾個月裡,男孩一直與機器人聊天,2024 年 2 月 28 日,在他與機器人最後一次互動的「幾秒鐘」後,Setzer 自殺身亡。

Character.AI 由兩名前 Google 人工智慧研究員創立,是目前主打「AI」陪伴的明星獨角獸新創公司。事發後,Character.AI 稱,將新增針對年輕用戶的安全功能,包括當用戶在應用程式上花費一個小時後會警告他們。

Garcia 在一份新聞稿中說:「一款危險的人工智慧聊天機器人應用程式向兒童推銷,虐待和掠奪我的兒子,操縱他自殺。」 「我們的家庭因這場悲劇而悲痛欲絕,但我要大聲警告家庭,人工智能技術具有欺騙性、令人上癮,並要求 Character.AI、其創辦人和 Google 承擔責任。」

在一條推文中,Character.ai 回應稱:「我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。作為一家公司,我們非常重視用戶的安全。」公司否認訴訟的指控。

根據 Garcia 的指控,Setzer 每天用手機給機器人發幾十條短信,並獨自在房間裡與它交談幾個小時。Garcia 指責 Character.ai 開發的產品加劇了她兒子的憂鬱症,她說這已經是過度使用該新創公司產品的結果。

Garcia 律師在新聞稿中指出,Character.ai「故意向兒童設計、操作並向兒童推銷掠奪性人工智慧聊天機器人,導致一名年輕人死亡」。

訴訟還將 Google 列為被告,也是 Character.ai 的母公司。這家科技巨頭在聲明中表示,它只與 Character.ai 簽訂了許可協議,並不擁有這家新創公司或維持所有權股份。

警語:珍惜生命,自殺不能解決問題,生命一定可以找到出路;若需諮商或相關協助可撥生命線專線「1995」、張老師服務專線「1980」或衛福部安心專線「1925」。