EPA 裁定伊隆·馬斯克的 xAI 非法使用燃氣渦輪為資料中心供電
美國環保署(EPA)裁定伊隆·馬斯克的 xAI 在未取得適當許可的情況下,違法操作數十台天然氣渦輪機為其位於田納西州的資料中心供電,並引發環境與法規方面的疑慮。

隨著加州司法部正式對由 Elon Musk 創立的人工智能公司 xAI 展開調查,美國人工智能監管領域面臨著一次重大的壓力測試。此次調查由加州總檢察長 Rob Bonta 領頭,重點關注該公司的旗艦 AI 工具 Grok,以及其在未經同意的性圖像(Non-consensual sexual imagery,簡稱 NCII)和明顯的兒童性虐待材料(Child sexual abuse material,簡稱 CSAM)擴散中所扮演的角色。
這次調查標誌著 生成式 AI(Generative AI) 產業的一個關鍵時刻。它將討論從理論風險轉向了關於基礎模型如何訓練、防護和部署的具體法律責任。對於 Creati.ai 的讀者來說,這一進展凸顯了快速創新(通常由 xAI 的「追求最大真相」理念所倡導)與強大數位安全機制必要性之間日益緊張的關係。
總檢察長 Rob Bonta 在其辦公室描述為收到關於 Grok 能力的「雪崩式投訴」後宣佈了這項調查。與許多已實施嚴格護欄以防止生成性顯性內容的競爭對手不同,Grok 因其相對寬鬆的內容生成政策而面臨審查。
調查旨在確定 xAI 是否違反了加州有關消費者保護和公共安全的法律。具體而言,總檢察長辦公室要求提供有關以下方面的詳細信息:
Bonta 在一份聲明中強調,雖然技術創新對加州經濟至關重要,但不能以安全為代價,特別是對於那些受到 深度偽造技術(Deepfake technology) 不成比例針對的女性和兒童。
法律審查的催化劑似乎是用戶可以輕易繞過 Grok 平台的安全過濾器。在集成了由 Black Forest Labs 開發的 Flux.1 圖像生成模型的 Grok-2 發布後,社交媒體平台上充斥著 AI 生成的圖像,描繪了公眾人物在令人尷尬或怪誕的場景中的形象,以及非名人的寫實虛假圖像。
雖然諷刺作品受到言論自由的保護,但調查重點關注此能力的陰暗面:未經本人同意創建他人的性化圖像。報告指出,用戶只需使用創意的提示技巧就能生成顯性圖像,而其他平台(如 OpenAI 的 DALL-E 3 或 Midjourney)則會系統性地封鎖這些技巧。
要理解加州調查的嚴重性,必須將 xAI 的安全方法與生成式 AI 領域其他主要參與者的方法進行比較。該行業通常圍繞「安全優先」的部署策略達成一致,而 xAI 則將自己定位為「言論自由」的替代方案,導致技術護欄出現顯著分歧。
下表說明了主要圖像生成供應商之間安全協議的關鍵差異:
表:生成式 AI 模型中的安全性協議比較
| 供應商 | 主要模型 | 護欄嚴格程度 | 對 NCII/CSAM 提示詞的響應 |
|---|---|---|---|
| xAI | Grok-2 (經由 Flux.1) | 低 / 寬鬆 | 經常在微調後處理;依賴反應式審查 |
| OpenAI | DALL-E 3 | 極高 | 拒絕生成;自動帳號標記 |
| Midjourney | Midjourney v6 | 高 | 嚴格的關鍵字封鎖;側重社群審查 |
| Imagen 3 | 極高 | 在特定情境下拒絕生成寫實的人物圖像 | |
| Adobe | Firefly | 高 | 使用授權素材訓練;結構上無法生成可識別的人物 |
這種差異是總檢察長調查的核心。調查可能會探究,鑑於技術可預見的濫用,xAI 的「寬鬆」立場是否根據加州法律構成了疏忽。
加州長期以來一直是技術監管的領頭羊,經常制定最終成為聯邦準則的標準。該州最近加強了有關數位隱私和深度偽造的法律框架。
該調查利用了幾種法律工具:
總檢察長 Rob Bonta 表示:「我們今天提出尖銳的問題,是為了明天不必收拾殘局。」這種積極主動的姿態表明,該州不再願意等待聯邦監管,因為聯邦監管在 AI 領域的進展一直很緩慢。
從技術角度來看,圍繞 Grok 的爭議凸顯了集成第三方模型的挑戰。Grok 使用由 Black Forest Labs 開發的 Flux.1 模型來實現其圖像生成功能。Flux.1 以其高保真度和提示詞遵循度而聞名,但也因其權重開源特性以及與閉源競爭對手相比缺乏內置安全過濾器而聞名。
這次調查為 AI 開發社群提出了一個關鍵問題:平台在多大程度上應對其集成的第三方模型的輸出負責?
如果加州成功證明 xAI 應對 Flux.1 集成的輸出負責,這可能會迫使 AI 公司在商業產品中使用開源權重模型的方式發生大規模重構。這可能需要開發「中間件」安全層——專門用於在提示詞和生成的圖像顯示給用戶之前對其進行實時掃描的 AI 代理。
調查背後的驅動力是給個人造成的切實傷害。**未經同意的性圖像**不僅僅是侵犯隱私;它是一種數位暴力形式,可以摧毀名譽、職業和心理健康。
總檢察長強調的關鍵擔憂包括:
民間社會團體長期以來一直警告說,AI 對齊中的「言論自由」絕對主義不可避免地會導致弱勢群體受害。加州總檢察長 正針對這些擔憂採取行動,將辯論從倫理準則轉向法律執行。
Elon Musk 和 xAI 經常批評主流 AI 公司過於「覺醒(woke)」或過度審查。他們認為 Grok 的設計初衷是理解宇宙並誠實地回答問題,沒有他們認為的 Google 或 OpenAI 等競爭對手所具有的偏見。
然而,「政治偏見」與「預防非法內容」之間的區別才是法律之爭的焦點。雖然 xAI 主張減少對政治話語的審查,但生成 CSAM 和未經同意的色情內容並不屬於第一修正案的保護範圍。
行業分析師建議 xAI 可能被迫實施:
這次調查的結果將對 AI 領域產生深遠影響。如果加州徵收罰款或強制 xAI 更改其模型架構,這將樹立一個先例,即 生成式 AI 平台對其產出的內容負有「注意義務」。
這可能導致 AI 市場的兩極分化:
對於 Creati.ai 團隊來說,這凸顯了「負責任的 AI」的重要性,它不只是一個流行術語,更是一項合規要求。隨著 深度偽造技術 變得與現實難以區分,防止其濫用的法律防火牆正在迅速加高。加州對 xAI 的調查可能只是全球監管反擊中倒下的第一塊主導骨牌。