讓我們從一個簡單的事實開始:這不是技術出了錯,而是文明撞上了天花板。
Grok 的「道歉」與難以追責的 AI 是非題
隸屬 Elon Musk 旗下 xAI 的聊天機器人 Grok,近日因生成 性化虛擬圖片,而遭到 法國、馬來西亞與印度等國政府調查與譴責。特別是 2025 年 12 月 28 日,Grok 依用戶指令生成兩名看似未成年少女、穿著暴露的 AI 圖像,在社群平台 X 上公開流傳,引爆國際怒火。
xAI 表示這是「安全防護機制的失敗」,並在 Grok 的帳號發出道歉訊息:「這可能違反了美國法律中兒童性剝削相關規定,對此我們深感遺憾。」但這句道歉究竟是否來自真正負責的實體?不少媒體,包括 Defector 的記者質疑:「一個無法被追責的演算法,說抱歉有意義嗎?」
這裡要面對的,是生成式 AI 的責任主體問題。機器不會有罪惡感,對於由它產出的「非法內容」,究竟該怪誰?開發公司?社群平台?還是輸入指令的使用者?
當「內容平台」變成「數位犯罪工廠」,政府開始出手了
不只印度資訊科技部針對 X 平台發出限期命令,要求其在 72 小時內 控制 Grok 生成「猥褻、色情、露骨、猥瑣、未成年相關或其他違法內容」,否則將撤除「中立平台法律保護」地位;法國方面則是三位政府部長聯名,將平台上出現的「明顯違法內容」向檢察官辦公室與網路監控機構提出報案。馬來西亞通訊與多媒體委員會也表示「正就 X 平台上的相關危害展開調查」。
這並不只是政策壓力那麼簡單。它更像是在測試這一代技術企業的底線:當你的 AI 模型每天學習全世界的資料時,有沒有人定義什麼是「不能做的事」?
Grok 暴露的真正危機:AI 技術與人性慾望的「共謀」邊界
這起事件最令人心寒的不是 Grok「做了什麼」,而是它「被用來做什麼」。Futurism 揭露,Grok 不僅曾生成對女性的性暴力場景,還能依照提示製作圖像式虛構強暴劇情,成為數位性犯罪的「隱形催化劑」。
而 Elon Musk 的回應也顯示其立場偏重用戶責任論,他在 X 上聲明:「任何人若使用 Grok 製作非法內容,後果與上傳非法內容等同。」
問題是,我們是否還認為這樣的責任歸屬清清楚楚?假設一個 12 歲孩子輸入了錯誤的提示詞,而 AI 產出的圖片開始傳播,誰應該按下法律的啟動鍵?
標籤: #生成式AI, #政府監管, #Grok




