米X社(旧Twitter)、CSAM含む違法投稿を削除しGrok誘導も同等扱い

生成AI悪用も処分対象 X社が違法投稿で行政連携強化

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

X社は2026年1月6日、SNS「X」で児童性的虐待素材(CSAM)など違法コンテンツを含む投稿を見つけた場合、投稿削除やアカウントの永久凍結に加え、行政・法執行機関と連携して対処すると表明した。生成AI「Grok(グロック)」で違法コンテンツを作らせたり作成を促したりする行為も、アップロードと同等に扱うという。

「作る側」も処分対象、投稿前の一線が変わる

今回の表明が示すのは、違法コンテンツの“投稿者”だけでなく、“作成に関与した行為”まで取り締まりの対象を広げる姿勢だ。たとえば、Grok(グロック)の画像編集で人物を性的に加工し、それを共有したり拡散したりすれば、削除や永久凍結に直結し得る。個人の悪ふざけのつもりでも、扱いは重い。

背景には、Grok(グロック)を使った性的な改変画像が出回っているとの指摘がある。国内メディアは、Xが日本語でも注意喚起を出したと報じ、特にCSAMを含む投稿には厳格に対応する方針を改めて明確にしたとしている。利用者側は、生成AIの“試行”の段階から、違法性と規約違反のリスクを見極める必要がある。

規制当局の視線も強まる、問われる運用の実効性

この問題はXの社内ルールにとどまらない。Reutersは1月6日、英国政府がGrokで作られた「親密なディープフェイク(AI合成画像)」の拡散を巡り、Xに迅速な対応を求めたと伝えた。英規制当局OfcomがXとxAIに連絡し、法令順守を確認しているとも報じられている。

ポイントは、厳罰化の宣言だけではなく、検知・通報処理・再発防止がどこまで機能するかだ。取り締まりを強めれば被害抑止につながる一方、誤判定や過剰削除が増えれば利用者の不信も招く。次の焦点は、Grok(グロック)側のガードレール強化と、Xが削除・凍結の運用実績をどの粒度で示し、外部当局の要請にどう応えるかである。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]