本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
オーストラリアで現地時間12月10日、16歳未満が主要なSNSにアカウントを持つことを禁じる新しい法律が施行される。プラットフォーム側に年齢確認とアカウント停止を義務づける世界初の仕組みで、子どもの安全を守る一方、表現の自由や利用実態とのずれをどう埋めるのかが問われている。
家庭と10代にとって何が変わるのか
対象となるのは、FacebookやTikTok、Instagram、X、YouTubeなど「年齢制限付きSNS」と指定されたサービスだ。10日以降、事業者は16歳未満のアカウントを見つけて停止し、新規登録も拒む措置を取る義務を負う。ログイン不要の公開投稿や、多くのメッセージアプリやゲームは対象外とされ、友人との連絡手段がすべて失われるわけではない。
世論調査ではおおむね7割が年齢制限を支持し、「家庭だけでルールを守らせる負担が軽くなる」と歓迎する保護者もいる。一方で、学生やデジタル権利団体は、部活動の連絡や政治情報の共有にも使われてきた場が狭まり、偽名アカウントや規制の緩いサービスへ利用が移る恐れがあると問題を指摘している。
政府と企業のねらい、世界が見る「実験」
今回の規制は、オンライン安全法を改正した「ソーシャルメディア最低年齢法」として2024年に成立した。政府は、アルゴリズムが不安や自傷関連の投稿を繰り返し見せるなど、設計そのものが子どもの心身をむしばむとして、責任の矛先を家庭から事業者へ移す狙いを掲げる。各社は年齢確認の仕組みを整え、閉鎖した未成年アカウント数などを当局に報告することになる。
しかし、どの程度の年齢確認を「合理的」とみなすかはまだ模索段階で、顔認証や身分証提出が広がればプライバシー侵害につながるとの批判も根強い。憲法上の政治的表現の自由を侵すとして高裁で違憲訴訟も起きるなか、EUやアジアの国々も豪州の動向を注視している。子どもの安全と発言の場をどう両立させるのかという問いは、日本社会にも共有されつつある。
