Les entreprises de médias sociaux sommées de renforcer les vérifications d'âge pour les moins de 13 ans il y a 3 jours Partager Enregistrer Laura Cress et Imran Rahman-Jones, Journalistes spécialisés en technologie Partager Enregistrer Getty Images Les grandes entreprises technologiques ont été sommées de mettre en place des vérifications d'âge plus robustes pour les moins de 13 ans au Royaume-Uni, similaires à celles actuellement en place pour les services destinés aux adultes. Les plateformes contactées par l'autorité de régulation des médias Ofcom et l'autorité de protection des données Information Commissioner's Office (ICO) sont Facebook, Instagram, Snapchat, TikTok, YouTube, Roblox et X. On leur a dit qu'elles devraient faire davantage pour garantir la sécurité des enfants plus jeunes en ligne. La directrice générale d'Ofcom, Dame Melanie Dawes, a déclaré que les services « ne parvenaient actuellement pas à placer la sécurité des enfants au cœur de leurs produits ». Les entreprises ont défendu les mesures de protection qu'elles ont mises en place, Google, propriétaire de YouTube, déclarant qu'elle était surprise par l'approche d'Ofcom et l'incitant à se concentrer plutôt sur les services à plus haut risque. Cependant, les deux régulateurs ont déclaré que les plateformes de médias sociaux devaient renforcer leur engagement à empêcher les enfants de moins de 13 ans de s'inscrire. « Nous ne disons pas que c'est une page complètement vierge qu'ils doivent traiter, mais ils n'ont pas été assez loin », a déclaré Dame Melanie au programme Today de BBC Radio 4. Elle a dit qu'elle croyait que Google était « mal à l'aise » face à l'appel à l'action d'Ofcom. « Cela braque les projecteurs sur eux et leur demande de rendre des comptes sur ce qu'ils font, non pas par un communiqué de presse de la Silicon Valley, mais selon les conditions du public britannique. » Actuellement, de nombreuses plateformes s'appuient sur l'auto-déclaration d'âge de la part des personnes qui s'inscrivent. « Comme l'auto-déclaration est facile à contourner, cela signifie que les enfants d'âge mineur peuvent facilement accéder à des services qui n'ont pas été conçus pour eux », a déclaré l'ICO dans une lettre ouverte aux plateformes de médias sociaux et vidéo. La plupart des plateformes de médias sociaux ont une limite d'âge minimum de 13 ans, mais la recherche d'Ofcom suggère que 86% des enfants âgés de 10 à 12 ans ont leur propre profil de médias sociaux. Ofcom souhaite que les entreprises utilisent des « vérifications d'âge hautement efficaces », actuellement uniquement exigées par la loi pour certains services proposant du contenu réservé aux plus de 18 ans, comme la pornographie. La mise en œuvre de méthodes similaires pour les médias sociaux des jeunes enfants exigerait que les grandes entreprises technologiques adoptent volontairement les mesures les plus robustes. L'accent de l'ICO porte sur le traitement des données des jeunes enfants. « Lorsque des services ont établi un âge minimum, comme 13 ans, ils n'ont généralement pas de base légale pour traiter les données personnelles des enfants au-dessous de cet âge sur leur service », a déclaré sa lettre, du directeur général Paul Arnold. La secrétaire d'État à la Technologie, Liz Kendall, a déclaré qu'aucune plateforme ne recevrait un « laissez-passer » en matière de protection des enfants et qu'Ofcom avait son soutien total pour tenir les plateformes responsables. « Aucune entreprise ne devrait avoir besoin d'une ordonnance judiciaire pour agir de manière responsable afin de protéger les enfants », a-t-elle ajouté. Que disent les entreprises technologiques ? YouTube a déclaré qu'elle était surprise par le « départ d'Ofcom d'une approche basée sur les risques, d'autant plus que nous appliquons régulièrement
Initialement rapporté par BBC Technology. Publié sur ABN12.
