本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
X社は2026年1月6日、SNS「X」で児童性的虐待素材(CSAM)など違法コンテンツを含む投稿を見つけた場合、投稿削除やアカウントの永久凍結に加え、行政・法執行機関と連携して対処すると表明した。生成AI「Grok(グロック)」で違法コンテンツを作らせたり作成を促したりする行為も、アップロードと同等に扱うという。
「作る側」も処分対象、投稿前の一線が変わる
今回の表明が示すのは、違法コンテンツの“投稿者”だけでなく、“作成に関与した行為”まで取り締まりの対象を広げる姿勢だ。たとえば、Grok(グロック)の画像編集で人物を性的に加工し、それを共有したり拡散したりすれば、削除や永久凍結に直結し得る。個人の悪ふざけのつもりでも、扱いは重い。
背景には、Grok(グロック)を使った性的な改変画像が出回っているとの指摘がある。国内メディアは、Xが日本語でも注意喚起を出したと報じ、特にCSAMを含む投稿には厳格に対応する方針を改めて明確にしたとしている。利用者側は、生成AIの“試行”の段階から、違法性と規約違反のリスクを見極める必要がある。
規制当局の視線も強まる、問われる運用の実効性
この問題はXの社内ルールにとどまらない。Reutersは1月6日、英国政府がGrokで作られた「親密なディープフェイク(AI合成画像)」の拡散を巡り、Xに迅速な対応を求めたと伝えた。英規制当局OfcomがXとxAIに連絡し、法令順守を確認しているとも報じられている。
ポイントは、厳罰化の宣言だけではなく、検知・通報処理・再発防止がどこまで機能するかだ。取り締まりを強めれば被害抑止につながる一方、誤判定や過剰削除が増えれば利用者の不信も招く。次の焦点は、Grok(グロック)側のガードレール強化と、Xが削除・凍結の運用実績をどの粒度で示し、外部当局の要請にどう応えるかである。
参考・出典
- XユーザーのX Corp. Japanさん: 「Xでは、違法コンテンツ(児童性的虐待素材(CSAM)を含む)が含まれる投稿に対して、投稿の削除、アカウントの永久凍結などを含む対応を行うことに加え、行政や法執行機関と協力するなどの措置をとります。」 / X
- X、Grokによる違法画像作成に警告 アカウント凍結や法的措置も – Impress Watch
- 生成AI「Grok」の悪用を断罪へ Xが厳格な新指針、法執行機関などと連携 – ITmedia Mobile
- UK urges Musk’s X to urgently address intimate ‘deepfakes’ by Grok
- Grok is undressing children — can the law stop it? | The Verge
