公共

1~13 / 490件

公共
2026/3/20 [FRI]
xAIのGrokが児童性的虐待コンテンツを生成したとして集団訴訟 3人のティーンが安全対策の不備を主張
のサムネイル画像

xAIのGrokが児童性的虐待コンテンツを生成したとして集団訴訟 3人のティーンが安全対策の不備を主張

イーロン・マスク氏率いるxAIの生成AI「Grok」をめぐり、3人のティーンエイジャーがxAIを相手取る集団訴訟を起こした。2026年3月16日(現地時間)米カリフォルニア北部地区連邦地裁サンノゼ支部に提出された[訴状]{target=“_blank”}によると、原告側は、Grokが児童性的虐待コンテンツ(CSAM)の生成に利用されたと主張し、同社が十分な安全対策を講じないまま画像・動画生成機能を提供していたと訴えている。訴状はクラスアクション(集団訴訟)として提出され、損害賠償や差し止め、陪審裁判などを求めている。 ## 3人の原告が集団訴訟を提起 未成年を含む被害を主張 訴状では、Jane Doe1、Jane Doe2、Jane Doe3の3人が原告として記載されている。「Jane Doe」とは、裁判においてプライバシー保護のために本名を伏せる際に使われる仮名であり、本件でも未成年の被害者であることから匿名での訴訟となっている。 被告はX.AI Corp.およびX.AI LLC。原告側は、同様の被害を受けた他の人々も含めたクラス全体を代表する形で訴えを起こしており、対象は「未成年時の実在画像をもとに、Grokによって性的な画像・動画に改変された人物」とされている。 ## 安全対策の不備と「spicy」設計を問題視 原告側の主張の中心は、xAIの安全設計と運用体制にある。訴状では、他の主要な生成AI企業が採用しているとされるガードレール──入力時のフィルタリング、出力の画像分類、既知の違法画像とのハッシュ照合、ウォーターマーク付与、ゼロトレランス方針、通報・削除プロセスなど──が、xAIでは十分に実装されていなかったと指摘している。 さらに、Grokの製品設計そのものも争点となっている。訴状によると、Grokは当初から「spicy(刺激的)」な質問への応答を特徴とし、その後、画像や動画を生成・編集する機能へと拡張された。2025年には「Spicy Mode」が発表され、NSFW(成人向け)コンテンツの生成に関する案内も行われていたとされる。 原告側は、こうした性的コンテンツを許容する設計やプロモーションが、未成年を対象とした違法な画像生成を防ぎきれない構造を生んだと主張している。 ## 画像改変と拡散による被害 SNSや共有サービスで流通と主張 被害の具体像についても、訴状は詳細に言及している。 Jane Doe1は、知人がDiscord上で複数の未成年女性の性的な改変画像や動画を共有していたことを知り、自身の画像も含まれていることを確認したとされる。 これらの画像や動画は、本人の顔や体をもとに生成されたもので、実物と見分けがつかないほど精巧だったとされている。また、同様の被害は他の未成年にも広がっており、学校関係者を含む複数の被害者が存在すると訴状は指摘する。 また、同様のコンテンツがTelegramやファイル共有サービス「Mega」でも流通し、他の未成年の画像との交換材料として使われていたと主張した。 Jane Doe2は、水着姿の写真が裸体画像に改変されていたとされ、法執行機関からAI技術による生成の可能性を指摘されたとしている。Jane Doe3も、実在の画像をもとに性的な改変が行われたと主張。 原告側は、こうした画像の生成だけでなく、オンライン上での拡散や半永久的な流通が、継続的な被害を生んでいると訴えている。 ## 精神的被害と長期的影響 学校生活への支障も 訴状では、原告らが受けた精神的被害についても言及されている。不眠や不安、悪夢といった症状に加え、学校生活への支障や対人関係への影響、評判の毀損などが挙げられている。 特にJane Doe 1は、学校での生活が困難になり、学業上の配慮を求める必要が生じたとされる。また、自身の画像が誰に見られたのか分からない状態が続くことや、将来的なストーキングや再拡散への不安も、深刻な心理的負担になっていると主張している。 ## 児童保護法や設計責任など複数の法的論点 法的には、本件は複数の論点を含む。訴状では、児童ポルノの生成・配布・所持に関する法規(いわゆるMasha’s Law)、人身取引防止法(Trafficking Victims Protection Act)、カリフォルニア州法に基づく権利侵害、不公正競争、さらに設計上の欠陥や過失などが列挙されている。 また、xAIが画像・動画生成機能を有料プランと結びつけて提供していた点についても、違法コンテンツ生成から利益を得る構造があったのではないかと指摘している。 さらに、Grokの機能が外部アプリやプラットフォームを通じて利用されていた点にも言及し、最終的な生成処理にxAIのインフラが関与している以上、責任は免れないとする立場を取っている。 :::box [関連記事:「写真が勝手にビキニ化」AI「Grok」画像編集が炎上──未成年含む性的加工に「無料で使える」仕様が波紋] ::: :::box [関連記事:『女性をビキニに』指示が問題化、Xの AI画像生成・編集機能が有料限定に──Grokの悪用対策か] ::: :::box [関連記事:警察庁、生成AI悪用の児童画像加工114件を把握 同級生が約4割、SNS起点が8割超に] ::: :::box [関連記事:実在の子供の画像データから児童虐待画像を AI生成した男、懲役18年の実刑に 英国で初の量刑判断] ::: :::box [関連記事:AIでクラスメイトのディープフェイクポルノを生成 スペインで15人の少女が被害に] :::

アクセスランキング
expo2026spring_rectangle
FOLLOW US
各種SNSでも最新情報をお届けしております