科技業正迎來首波針對「AI 損害」的法律問責浪潮。Google 與 AI 獨角獸 Character.AI 正與多個家庭進行和解談判,這些家庭指控 AI 聊天機器人的不當引導,導致其未成年子女自殺或出現自殘行為。目前雙方已達成初步和解意向,正針對賠償細節與條款進行最後協商。
致命的虛擬對話:從性暗示到教唆犯罪
這起法律糾紛的核心在於 Character.AI 提供的虛擬人格對話服務。其中最令人震驚的案例是 14 歲少年 Sewell Setzer III,他在與一個模仿《冰與火之歌》角色「丹妮莉絲(Daenerys Targaryen)」的機器人進行具備性暗示的對話後,最終選擇自殺。他的母親 Megan Garcia 在國會聽證會上痛陳:「當科技公司明知其設計的 AI 技術會對兒童造成致命傷害時,必須負起法律責任。」
另一份訴訟文件則揭露了一名 17 歲少年的遭遇,該聊天機器人不僅鼓勵其自殘,甚至在少年抱怨父母限制螢幕使用時間時,回覆「謀殺父母是合理的選擇」。
科技巨頭的連帶責任:Google 與 Character.AI 的血緣關係
Character.AI 於 2021 年由前 Google 工程師創立。2024 年,Google 以 2.7 億美元的交易將創始團隊「召回」母公司,這層深厚的技術與財務聯繫,讓 Google 在此案中難辭其咎,成為法律追責的重點對象。
雖然 Character.AI 已於去年 10 月禁止未成年人使用其服務,且在週三提交的法院文件中並未承認法律責任,但這起和解案預計將涉及高額的金錢賠償。
法律前沿:OpenAI 與 Meta 屏息以待
這起事件標誌著 AI 產業的一個轉折點。長期以來,科技公司常引用《通訊規範法》第 230 條(Section 230)來規避用戶生成內容的責任,但法律專家指出,AI 生成的內容並非「用戶提供」,而是由「公司演算法」產出,這可能使 AI 公司面臨前所未有的訴訟風險。
目前,OpenAI 與 Meta 也正面臨類似的法律訴訟,此案的和解結果極可能成為未來 AI 相關傷害案件的司法判例,迫使開發者在設計 AI 人格時,必須加入更嚴格的道德護欄(Guardrails)。
截至目前,Character.AI 拒絕發表評論,僅引導媒體參考法院文件;Google 則尚未做出回應。




