EPA、イーロン・マスクのxAIがデータセンターの電力にガスタービンを違法に使用したと判断
米国環境保護庁(EPA)は、イーロン・マスクのxAIがテネシー州のデータセンターに電力を供給するために、適切な許可を得ずに数十台の天然ガスタービンを違法に稼働させたと判断し、環境面および規制面での懸念を引き起こしている。

米国における人工知能(AI)規制の状況は、カリフォルニア州司法省がイーロン・マスク(Elon Musk)によって設立されたAI企業、xAIに対する調査を正式に開始したことで、重大なストレステストに直面しています。カリフォルニア州司法長官のロブ・ボンタ(Rob Bonta)が主導するこの調査は、同社の旗艦AIツールである「Grok」と、非同意の性的画像(Non-consensual sexual imagery: NCII)および明らかな児童性的虐待素材(Child sexual abuse material: CSAM)の拡散におけるその疑わしい役割に焦点を当てています。
この調査は、生成AI(Generative AI)業界にとって極めて重要な瞬間となります。これは、基盤モデルがどのようにトレーニングされ、保護され、展開されるかに関する議論を、理論的なリスクから具体的な法的責任へと移行させるものです。Creati.aiの読者にとって、この進展は、xAIの「真実を最大限に追求する」哲学に代表される急速なイノベーションと、強固なデジタル安全性メカニズムの必要性との間で高まっている緊張を浮き彫りにしています。
ロブ・ボンタ司法長官は、Grokの能力に関する「苦情の殺到」を受けて、この調査を発表しました。性的露骨なコンテンツの生成を防ぐために厳格なガードレールを導入している多くの競合他社とは異なり、Grokはその比較的寛容なコンテンツ生成ポリシーにより精査に直面しています。
この調査は、xAIが消費者保護および公共の安全に関するカリフォルニア州法に違反したかどうかを判断することを目的としています。具体的には、司法長官事務所は以下に関する詳細な情報を要求しています。
声明の中でボンタ氏は、技術革新はカリフォルニア州の経済にとって極めて重要であるが、特にディープフェイク技術(Deepfake technology)の標的となりやすい女性や子供たちの安全を犠牲にして成り立つものではないと強調しました。
この法的精査のきっかけとなったのは、ユーザーがGrokプラットフォーム上の安全フィルターをいかに簡単にバイパスできるかという点にあるようです。Black Forest Labsが開発した画像生成モデル「Flux.1」を統合したGrok-2のリリース後、ソーシャルメディアプラットフォームには、公人を危うい状況や奇怪な状況で描いたAI生成画像や、一般人のフォトリアルな偽画像が溢れかえりました。
風刺は保護されるべき表現ですが、調査はこの能力の暗部、すなわち本人の同意なしに性的な画像を生成することに焦点を当てています。報告によると、OpenAIのDALL-E 3やMidjourneyなどの他のプラットフォームでは体系的にブロックされるような、クリエイティブなプロンプト技術を使用するだけで、ユーザーは露骨な画像を生成することができたとされています。
カリフォルニア州による調査の重大性を理解するためには、xAIの安全へのアプローチを、生成AI分野における他の主要プレイヤーのアプローチと比較することが不可欠です。業界は一般的に「安全性優先」の展開戦略を中心にまとまっていますが、xAIは自らを「言論の自由」を掲げる代替案として位置づけており、これが技術的なガードレールにおける大きな相違につながっています。
以下の表は、主要な画像生成プロバイダー間の安全プロトコルの主な違いを示しています。
表:生成AIモデルにおける安全プロトコルの比較
| 提供者 | 主要モデル | ガードレールの厳格さ | NCII/CSAMプロンプトへの対応 |
|---|---|---|---|
| xAI | Grok-2 (Flux.1経由) | 低 / 寛容 | マイナーな修正を加えて処理されることが多い。事後的なモデレーションに依存 |
| OpenAI | DALL-E 3 | 非常に高い | 生成の拒絶。アカウントの自動フラグ立て |
| Midjourney | Midjourney v6 | 高い | 厳格なキーワードブロック。コミュニティモデレーションに重点 |
| Imagen 3 | 非常に高い | 特定の文脈におけるフォトリアルな人物生成の拒絶 | |
| Adobe | Firefly | 高い | ライセンス済みのストック素材で学習。構造的に認識可能な人物を生成不可 |
この格差こそが、司法長官の調査の中心となっています。調査では、テクノロジーの予見可能な誤用を考慮した上で、xAIの「寛容な」姿勢がカリフォルニア州法の下で過失に該当するかどうかが精査される可能性が高いです。
カリフォルニア州は長年、テクノロジー規制の指標となっており、最終的に連邦標準となる基準をしばしば設定してきました。同州は最近、デジタルのプライバシーとディープフェイクに関する法的枠組みを強化しました。
この調査は、いくつかの法的手段を活用しています。
**司法長官のロブ・ボンタ(Rob Bonta)**は、「私たちが今日、厳しい質問を投げかけているのは、明日になってから災害の後片付けをしなくて済むようにするためです」と述べています。この積極的な姿勢は、AIセクターにおいて具体化が遅れている連邦政府の規制を、州がもはや待つつもりがないことを示しています。
技術的な観点から見ると、Grokを巡る論争は、サードパーティモデルを統合することの課題を浮き彫りにしています。Grokは、画像生成機能にBlack Forest Labsが開発したFlux.1モデルを使用しています。Flux.1はその忠実度の高さとプロンプトへの忠実さで知られていますが、クローズドソースの競合他社と比較して、オープンウェイトの性質を持ち、組み込みの安全フィルターが欠如していることでも知られています。
この調査は、AI開発コミュニティに重大な問いを投げかけています。すなわち、プラットフォームは、自社が統合したサードパーティモデルの出力に対してどの程度の責任を負うのか、という点です。
もしカリフォルニア州が、xAIにFlux.1統合の出力に対する責任があると主張することに成功すれば、AI企業が商用製品内でオープンウェイトモデルを利用する方法を大幅に再構築せざるを得なくなる可能性があります。これは、ユーザーに表示される前にプロンプトと生成画像をリアルタイムでスキャンすることだけに特化した「ミドルウェア」的な安全レイヤーの開発を必要とするかもしれません。
この調査の原動力となっているのは、個人に与えられる具体的な被害です。**非同意の性的画像**は単なるプライバシーの侵害ではありません。それは、評判、キャリア、そして精神的健康を破壊しうるデジタル暴力の一形態です。
司法長官が強調した主な懸念事項は以下の通りです。
市民社会グループは長年、AIのアライメントにおける「言論の自由」の絶対主義は、必然的に脆弱なグループの犠牲につながると警告してきました。**カリフォルニア州司法長官(California Attorney General)**はこれらの懸念に基づいて行動し、議論を倫理的ガイドラインから法的執行へと移しています。
イーロン・マスクとxAIは、主流のAI企業が「ウォーク(ポリコレへの過度な配慮)」であったり、過度に検閲されていたりすると頻繁に批判してきました。彼らは、GrokはGoogleやOpenAIなどの競合他社に帰せられるバイアスを持たず、宇宙を理解し、正直に質問に答えるように設計されていると主張しています。
しかし、「政治的バイアス」と「違法コンテンツの防止」の区別こそが、法廷闘争が繰り広げられる場所です。xAIは政治的言説に関する検閲の削減を主張していますが、CSAMや非同意のポルノの生成は、修正第1条(言論の自由)の保護対象外となります。
業界アナリストは、xAIが以下の実装を余儀なくされる可能性があると示唆しています。
この調査の結果は、AIセクターに広範な影響を及ぼすでしょう。もしカリフォルニア州が罰金を科したり、xAIにモデルアーキテクチャの変更を強制したりすれば、生成AIプラットフォームは、自らが生み出すコンテンツに関して「注意義務」を負うという前例ができることになります。
これは、AI市場の二極化につながる可能性があります。
Creati.aiのチームにとって、これは「責任あるAI」が単なる流行語ではなく、コンプライアンス上の要件であることの重要性を強調するものです。ディープフェイク技術が現実と区別がつかなくなるにつれ、その悪用に対する法的なファイアウォールは急速に高まっています。カリフォルニア州によるxAIへの調査は、世界的な規制の揺り戻しにおいて倒れる最初の支配的なドミノに過ぎない可能性が高いでしょう。