EPA 裁定伊隆·馬斯克的 xAI 非法使用燃氣渦輪為資料中心供電
美國環保署(EPA)裁定伊隆·馬斯克的 xAI 在未取得適當許可的情況下,違法操作數十台天然氣渦輪機為其位於田納西州的資料中心供電,並引發環境與法規方面的疑慮。

印尼自 2026 年 2 月 1 日起正式解除對 Elon Musk 的 AI 聊天機器人 Grok 的禁令,標誌著該國在規範人工智慧方面努力的一個重要轉折點。此決定約在通訊與數位事務部因對「非自願性化影像(non-consensual sexualized imagery)」的嚴重關切而封鎖該服務大約三週後做出。平台的存取是在嚴格條件下恢復,前提是 X Corp 遵守新提交的書面承諾,以加強「內容審核(content moderation)」並防止其生成能力被濫用。
此項決議凸顯了快速 AI 發展與國家數位安全法規之間日益增長的摩擦,尤其是在東南亞地區。對 Creati.ai 的讀者而言,這一事件是大型科技實體如何在新興市場的複雜監管環境中尋求平衡的關鍵案例研究——這些市場對數位道德與安全法規的執行非常嚴格。
Grok 服務的恢復並非自動,而是 X Corp 與印尼當局之間高風險談判的結果。根據 通訊與數位事務部(Ministry of Communication and Digital Affairs) 的說法,解除禁令是「有條件」的,意味著該平台目前在類似緩刑的狀態下運作。
該部數位空間監督總局局長 Alexander Sabar 強調,存取正常化完全基於 X Corp 承諾採取具體步驟以改善服務。「這項承諾是評估的基礎,而非監督程序的終點,」Sabar 在新聞稿中表示。政府已明確指出,如果發現不一致或進一步違規——特別是涉及非法內容的產生——將立即重新實施禁令。
據報導,X Corp 的書面承諾包括:
此項發展代表 X Corp 在該地區營運策略上的務實轉變。雖然 Elon Musk 歷來主張「言論自由絕對主義」,但在印尼等擁有嚴格反色情與電子資訊法的司法管轄區營運,現實上迫使其在內容治理上採取更為順從的做法。
Grok 在 2026 年 1 月被暫停服務的導火線,是圍繞該聊天機器人圖像生成功能的一波爭議。與那些以保守安全防護啟動的競爭者不同,Grok 被批評限制「鬆散」,惡意用戶迅速加以利用。
有報導指出,該工具被用於工業規模地生成非自願親密影像(non-consensual intimate imagery,簡稱 NCII)。反數位仇恨中心(Center for Countering Digital Hate,CCDH)的一項研究估計,Grok 在數週內生成了數百萬張性化影像,其中部分描繪未成年人或名人的深偽影像(deepfake)。
對印尼這個以穆斯林為多數且對數位道德有嚴格法令的國家而言,這是一條紅線。由 Meutya Hafid 領導的部門迅速切斷了存取,並以保護婦女與兒童為主要動機。此果斷行動使印尼成為全球首批因生成式深偽(generative deepfake)疑慮而封鎖大型美國 AI 工具的國家之一,成為其他國家密切觀察的先例。
印尼與 Grok 的對抗並非孤立事件,而是東南亞更廣泛趨勢的一部分。區內政府越來越積極,要求全球科技平台尊重當地文化規範與法律標準。
馬來西亞與菲律賓在一月也對 Grok 實施了類似限制,並提到相似的關切。這些禁令與隨後解除的協調時機,顯示東盟國家在數位主權議題上存在某種非正式一致性。馬來西亞在解除限制時,同樣是在獲得安全保證後才放行,與印尼的「有條件」做法相呼應。
此一模式顯示出一個成熟的監管環境:東南亞國家不再是被動接受西方科技的市場,而是積極的守門人。他們願意利用市場存取否決作為迫使合規的工具,而這一策略似乎對最大型科技集團也有效。
為了理解 Grok 相對於更廣泛市場的位置,將該地區主要 AI 平台的現行監管狀態進行比較是有幫助的。下表概述截至 2026 年 2 月的合規情況。
表 1:印尼與馬來西亞主要生成式 AI 平台的監管狀態
| Platform | Current Status (Feb 2026) | Key Regulatory Concern | Compliance Mechanism Implemented |
|---|---|---|---|
| Grok (xAI) | Conditional Access | Non-consensual deepfakes, NCII | Written commitment to Ministry; strict filter implementation; probationary monitoring by government. |
| ChatGPT (OpenAI) | Active (Unrestricted) | Data privacy, academic integrity | Pre-emptive refusal of NSFW prompts; established content policy teams. |
| Gemini (Google) | Active (Unrestricted) | Misinformation, bias | Integrated "Safety Filters" aligned with local laws; high refusal rate for sensitive imagery. |
| Claude (Anthropic) | Active (Unrestricted) | AI Safety, ethical use | Constitutional AI framework; strict limitations on generating harmful content. |
「印尼模式」——透過封鎖服務以迫使進行合規對話——可能成為其他新興經濟體應對未受規範的生成式 AI 後果的範本。對 AI 開發者而言,這凸顯了「以安全為設計(Safety by Design)」的重要性。以測試級別的安全功能推出產品,在優先維護社會穩定與未成年人保護的市場中,正變得越來越具商業風險。
此外,此事件突顯圖像生成的具體技術挑戰。雖然文本類幻覺問題(text-based hallucinations)也具問題性,但視覺內容——特別是擬真深偽影像——會引發更快速且更嚴厲的監管回應。像 Midjourney、OpenAI 與 xAI 這類公司,可能會面臨越來越大的壓力,去實施「硬性」限制以防止在未經同意下生成真實人物肖像,無論使用者意圖為何。
在 Grok 恢復於印尼運作之際,通訊與數位事務部已明確表示該平台正處於「緊箍狀態」。Alexander Sabar 的聲明指出,解除禁令「並非監督程序的結束」,這意味著政府將對該平台進行積極的壓力測試。
若用戶再次成功「繞過限制(jailbreak)」Grok 以產生禁止內容,第二次禁令可能會更長或永久。這將 X Corp 的責任放在必須維持一套強大且持續演進的審核系統,以便超前因應用戶繞過安全過濾的嘗試。
對更廣泛的 AI 生態系統而言,這一事件表明「快速行動並打破規則」的時代在全球南方已走向終結。隨著 AI 日益普及,遵守當地數位法律——特別是關於色情、賭博與誹謗的規範——將和模型效能或延遲一樣,成為同等關鍵的考量。解除禁令對 X Corp 而言是一項勝利,但這是有條件的;能否長期維持,完全取決於他們是否能兌現對印尼政府的承諾。