イメージ画像xAI社のAIアシスタント「Grok」によって作成された「子どもの性的な画像」がダークウェブで共有されている――ネット上の子どもの性的虐待コンテンツ撲滅に取り組むイギリスの団体「インターネット監視財団(IWF:Internet Watch Foundation)」が警鐘を鳴らした。
xAI社が2025年12月末にGrokの新しいAI画像編集機能を導入した後、X上で未成年や女性のビキニ姿や、性的に描写した画像が作成されることが問題になっている。
IWFのホットライントップは1月8日、「Grokが児童の性的画像を生成しているとの報告を受けて、当財団の分析担当者が調査を行ない、このツールを使って作成されたものとみられる、11歳から13歳の子どもを描いた犯罪画像を発見しました」と報告した。
IWFが発見したのは、X上ではなく、ダークウェブ(Googleなど通常の検索エンジンでは引っかからない、匿名性の高いウェブサイト)に投稿された画像だったという。
同団体は「私たちがこれまでに確認した画像は、Xそのものではなくダークウェブのフォーラムにあり、ユーザーは『Grok Imagine』を使って作成したと主張していました。その中には少女を性的に描写した画像や上半身裸の画像が含まれています」と説明。
画像はイギリスの法律で「児童性的虐待コンテンツ(CSAM)」のカテゴリーCにあたる可能性があると指摘している。
IWFによると、そのユーザーはGrokで作成した画像を出発点にして別のAIツールでさらに過激でカテゴリーAに該当する可能性がある動画を作成していた。
児童虐待を可能にするツールの取り締まり求める
Grokの性的画像作成問題が国際的な問題になった後、複数の国が対策を取ると発表した。
xAI社のイーロン・マスクCEOは当初、ビキニ画像の作成を面白がる姿勢を見せていたが、1月4日に「Grokを使って違法なコンテンツを作成した者は、違法コンテンツをアップロードした場合と同じ結果を被ることになる」と態度を変えた。
日本のxAI社も6日に、「違法コンテンツ(児童性的虐待素材(CSAM)を含む)が含まれる投稿に対して、投稿の削除、アカウントの永久凍結などを含む対応を行うことに加え、行政や法執行機関と協力するなどの措置をとります」という声明を投稿している。
IWFは「被害は連鎖的に広がっています。人々を、特に子どもを虐待して傷つけるために利用される可能性がある製品を、世界中の公共空間で公開することを正当化できる理由は一つもありません」と訴えている。
生成AIによる児童性的虐待コンテンツ(CSAM)は深刻な問題になっており、子どものオンライン性的搾取をなくすための政府や生成AI開発者の取り組みが求められている。


