中国・網信弁が暫定管理規定案を公表、AI擬人化対話を規制

中国、AI擬人化インタラクションを規制 依存防止を重視

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

中国の国家インターネット情報弁公室(網信弁)は2025年12月27日、「人工知能の擬人化インタラクション(人間の人格や感情をまねた対話)を提供するサービス」を対象にした暫定管理規定の意見募集案を公表した。利用者の依存や心理的影響、個人情報の扱いまでを運用面で縛り、事業者に安全責任を課す。意見募集の締め切りは2026年1月25日だ。

「相手は人ではない」と示す、依存への介入も

案が想定するのは、文章や画像、音声、動画などで「人間らしい人格特性」や「感情的なやり取り」を再現し、一般の利用者に提供される製品・サービスである。事業者には、対話相手が自然人ではなくAIであることを分かりやすく告知することを求める。長時間利用への注意喚起も盛り込み、連続利用が2時間を超えた場合は、ポップアップなどで休止を促す仕組みを想定している。

依存や心理面のリスクも、規制の中心に据えた。利用者の感情状態やサービスへの依存度を評価し、極端な感情や「のめり込み」が見られる場合に、必要な介入措置を取るよう求める。未成年向けの「情緒的な付き添い」機能では保護者の同意や利用時間の制限、課金抑止などを求め、高齢者については親族や特定の関係者を模した提供を禁じる方向を示した。

安全責任はライフサイクル全体へ、透明化の流れと接続

案は、設計から運用、更新、終了まで「全期間での安全責任」を事業者の義務として掲げる。アルゴリズム(判断の手順)の審査体制やデータ安全、個人情報保護、ログの保存、緊急時対応の整備などを求め、アプリ配信事業者にも、上架時の確認や違反時の対処を求める。規制が「コンテンツの中身」だけでなく、運用の仕組みそのものに踏み込む設計になっている点が特徴だ。

透明性の面では、2025年に複数省庁が「AI生成・合成コンテンツの表示ルール」を打ち出し、同年9月1日から施行するとしている。擬人化対話の規制案は、生成物の表示だけでなく、利用者が「相手の性質」を誤認しないための告知と、依存の兆候への対応までを一体で扱う。Reutersは、消費者向けAIの急拡大を背景に監督を強める動きだと伝えた。企業側は、利用者保護とサービスの魅力の両立に加え、心理状態の把握が過度な監視にならない運用設計が問われる。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]