ソーシャルメディアが世界中の若者の行動や交流に大きな影響を与える中、これらのプラットフォームへのアクセス年齢の最低設定に疑問を呈する政府が増えています。児童保護、プライバシー、そしてデジタルの自由のバランスを考慮したルールは、国によって大きく異なります。以下では、国際的に実施されている政策の概要をご紹介します。
大陸によって年齢要件が異なる
米国では、 COPPA (児童オンラインプライバシー保護法)と呼ばれる連邦法により、企業が13歳未満の児童の個人情報を保護者の同意なしに収集することが禁止されています。そのため、TikTok、Instagram、Snapchatといった多くのプラットフォームでは、最低年齢を13歳に設定しています。しかし、体系的な本人確認が不十分なため、この制限はしばしば回避されています。
アジアでは、いくつかの国がより厳格な措置を導入しています。中国では、未成年者は本人確認を義務付けられています。2021年以降、当局は動画アプリの「依存症対策」システムを中心に、スクリーンタイムの制限も導入しています。韓国では、14歳未満のオンラインサービスへの登録には親の同意が法律で義務付けられています。
調和と多様性の間のヨーロッパ
2018年以降、 一般データ保護規則(GDPR)により、加盟国はデジタルサービスへのアクセスの最低年齢を13歳から16歳までに設定できるようになりました。
- ドイツ、アイルランド、オランダ:16 年。
- イタリア、スペイン:14年。
- フランス:15歳。フランスの法律では15歳未満の利用には保護者の同意が必要ですが、最近の法案では、この年齢未満のソーシャルネットワークへのアクセスを完全に禁止することを目指しています。
- 英国: 大多数のプラットフォームで適用されている国際基準に従い、13 歳。ただし、英国は年齢相応のデザイン コードを実施しており、プラットフォームに未成年者向けにサービスを適応させることを義務付けています。
欧州連合内のこの多様性は、共通の枠組みが存在するにもかかわらず、調和の難しさを反映しています。
オーストラリアは16歳までの年齢確認を義務化する方向に動いています。
オーストラリアでは、TikTok、Meta、Snapchatの利用規約に従い、ソーシャルメディアプラットフォームの利用最低年齢は13歳のままです。しかし、オーストラリア政府は2023年に、ソーシャルメディアプラットフォームへのアクセスに年齢確認を義務付けることについてのパブリックコメントを開始し、最低年齢を16歳に設定することを目指しています。この提案は、未成年者のオンライン保護を改革するためのより広範なプロジェクトの一環であり、ソーシャルメディアへの早期の接触が及ぼす有害な影響を示す研究に基づいています。
メンタルヘルスとプラットフォームの責任に関する世界的な議論
多くの科学的研究により、10代の若者のソーシャルメディアの集中的な使用と、不安、抑うつ、そして低い自尊心の増加との間に関連性が示されています。これらの知見は、世界中で懸念を呼んでいます。これを受けて、多くの政府は、年齢確認の義務化やアルゴリズムの透明性の向上など、法規制の強化に取り組んでいます。一方、プラットフォーム側はペアレンタルコントロール、スクリーンタイム制限、「ティーンモード」などのツールを開発していますが、潜在的な回避策の存在を踏まえ、その有効性を保証するのに苦慮しています。
まとめると、13歳から16歳までの若者にとって、ソーシャルメディアへのアクセス基準は国によって大きく異なります。世界的な潮流として、未成年者を保護するためのメカニズムの強化が挙げられます。フランスは、15歳未満のソーシャルメディア利用を全面的に禁止することを検討することで、若者のメンタルヘルスとデジタルセーフティを公共の議論の中心に据える国際的な潮流に追随しています。今後の法整備において、実効性、デジタル権利の尊重、そして技術的な実現可能性を両立させることができるかどうかは、まだ不透明です。
