本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
生成AIを悪用して実在人物の偽の性的画像を作る「性的ディープフェイク(実在人物の偽の性的画像)」を巡り、木原官房長官は2026年1月6日、被害やサービスの実態、対策技術、国際動向を整理し、関係省庁が連携して対応する考えを示した。政府は大規模プラットフォームに、違法・有害情報の削除申し出方法や判断基準の公表も求めている。
広がり方が速いほど、被害者の負担が増える
相談が表に出にくい一方で、被害は子どもにも及んでいる。警察庁によると、18歳未満の画像を性的に加工した性的ディープフェイクについて、2025年1~9月に全国の警察へ79件の相談が寄せられ、約8割は中高生だった。学校行事の写真が材料にされ、グループ内で共有される事例も確認されたという。
現場でまず突き当たるのが「止めたいのに、止め方が分からない」という壁だ。投稿が拡散する速度に比べ、削除の申し出窓口や必要書類はサービスごとに異なり、被害者側が手順を探す時間が被害の拡大につながりやすい。政府が求める手続きと基準の可視化は、初動の迷いを減らす狙いがある。
制度の整備と、線引きの難しさをどうつなぐか
木原長官は、法整備を通じて事業者の自主的な取り組みを促してきたとも説明した。総務省などが所管する情報流通プラットフォーム対処法(改正前はプロバイダ責任制限法)では、大規模事業者に削除の申し出方法や基準の公表を義務付ける枠組みが示されている。海外では、XのAIチャットボット「Grok(グロック)」を介した拡散も問題になっている。
ただ、迅速な削除は被害を減らす一方で、過剰に消せば表現の萎縮を招きかねない。次に焦点となるのは、合成で作られた画像をどこから「違法・有害」と扱うのか、検知や通報の運用を各社任せにせずどこまで揃えられるのかという点だ。
