本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
生成AIが「本人の同意なしに性的な画像を作れる」という現実が、監督当局の介入を招いている。イーロン・マスク氏のAI企業xAIが開発するGrok(グロック)を巡り、英国とカナダの当局が相次いで調査に乗り出す構えを示した。xAI側は機能の調整を打ち出したが、規制当局の焦点は「なぜ防げなかったのか」「再発をどう止めるのか」に移りつつある。
英国の調査が示す焦点 生成そのものよりも拡散と保護体制
問題となっているのは、実在する人物の写真をもとに、下着姿や裸に見えるような性的画像へ加工する「ヌーディファイ(nudification)」的な悪用が起き得る点である。こうした画像がX上に投稿・拡散され、被害者の同意がないまま性的文脈で消費されることは、プライバシー侵害や児童の保護の観点から重大なリスクとなる。英オンライン安全の監督機関Ofcomは、Xが英国のオンライン安全法(Online Safety Act)の義務を満たしているかを確認するため、現地時間1月12日に正式な調査を開始した。
Ofcomの発表では、違法コンテンツのリスク評価、拡散を抑える仕組み、迅速な削除、子ども保護や年齢確認といった安全設計が論点になる。同機関は現地時間1月15日の更新で、XがGrokの利用に一定の対策を講じたと説明した点を「歓迎する」としつつ、調査自体は継続すると明確にした。つまり今回の争点は、生成AIの“機能”だけではなく、プラットフォームとして違法・有害なコンテンツを抑え込む運用能力にある。
カナダはプライバシー法で検証 同意なき深層偽造の責任
カナダでは、連邦プライバシーコミッショナーのフィリップ・デュフレーヌ氏が現地時間1月15日、X Corp.への調査を拡大すると発表し、Grokを開発するxAIに対しても関連調査を開始した。対象は、民間部門の連邦プライバシー法PIPEDAに照らし、個人情報の収集・利用・開示が適正だったか、そして深層偽造(ディープフェイク)生成に必要な同意が有効に取得されていたかである。カナダ当局によると、X Corp.については2025年2月27日に受理した申立てを受け、AI学習目的の個人情報の扱いを巡る調査が既に走っており、そこに「無断で性的画像が作られ得る」という新たな問題が加わった構図だ。
一方、X側は機能制限を進めている。Ars Technicaによれば、Xの安全対策チームは現地時間1月14日夜以降、Grokアカウント経由で実在人物の“露出の高い服装”への編集を抑える技術的措置などを実装したとしている。また、Al Jazeeraも、違法となり得る法域では性的に見える画像生成を地理的にブロックする方針に触れている。ただし、規制当局から見れば「一部の導線を塞いだ」だけで、単独アプリや別経路での生成・共有が残る可能性、監視と削除の実効性、被害申告への対応速度といった点が次の検証対象になる。生成AIが生活インフラに組み込まれるほど、技術の自由度と安全設計の責任配分をどう線引きするかが、各国で一段と制度化されていく可能性が高い。
参考・出典
- Ofcom launches investigation into X over Grok sexualised imagery
- News release: Privacy Commissioner of Canada expands investigation into social media platform X following reports of AI-generated sexualized deepfake images – Office of the Privacy Commissioner of Canada
- Grok was finally updated to stop undressing women and children, X Safety says – Ars Technica
- Musk’s X to block Grok AI tool from creating sexualised images of real people | X | The Guardian
- Musk’s Grok to bar users from generating sexual images of real people | Elon Musk News | Al Jazeera
