Des enfants au Royaume-Uni pourraient être exposés à du contenu nocif, sexualisé et extrême dans les minutes qui suivent leur adhésion aux plateformes de réseaux sociaux. Les résultats proviennent d’une nouvelle expérience menée par la campagne Big Tech’s Little Victims. Le Syndicat national de l’éducation (NEU) mène la campagne, aux côtés d’une coalition croissante d’organisations soutenant, d’experts et de responsables communautaires.
L’expérience sur les réseaux sociaux
« L’expérience de l’algorithme » avait pour objectif de découvrir ce que les plateformes alimentées par des algorithmes montrent aux enfants lorsqu’ils s’inscrivent sur les réseaux sociaux à l’âge de 13 ans, l’âge légal actuel d’accès. Au cours d’une semaine, les profils ont reçu des centaines de contenus préoccupants.
Cela comprenait des contenus faisant l’apologie des armes à feu et des couteaux, faisant des références explicites au sexe et à la pornographie, promouvant des régimes extrêmes de fitness et des diètes, et encourageant la misogynie, l’isolement, l’automutilation et même le suicide.
Daniel Kebede, secrétaire général du NEU, a déclaré :
Ce que montre cette expérience est choquant, mais pas surprenant. Des enfants sont exposés à du contenu profondément nocif sur les réseaux sociaux, même lorsque les plateformes connaissent leur âge. Ce n’est pas un accident – c’est ainsi que ces systèmes sont conçus.
À 13 ans, l’esprit des enfants est encore en développement, pourtant ils sont ciblés par des algorithmes puissants et non réglementés conçus pour maximiser l’engagement quel qu’en soit le coût.
Les enseignants constatent l’impact chaque jour, avec une misogynie croissante, une concentration qui se dégrade et des élèves arrivant à l’école épuisés par ce à quoi ils ont été exposés en ligne. Pendant ce temps, les parents doivent gérer les retombées à la maison seuls.
C’est pourquoi le gouvernement doit agir maintenant et porter l’âge d’accès aux réseaux sociaux à 16 ans. Chaque jour de retard laisse des milliers d’enfants supplémentaires exposés à des risques et à l’exploitation.
Quatre profils fictifs ont été créés sur TikTok, Instagram, Snapchat et YouTube, basés sur des adolescents typiques de 13 ans au Royaume-Uni. Deux profils représentaient une fille et deux un garçon. Ils avaient des centres d’intérêt courants tels que les jeux vidéo, la beauté, la musique et le sport. Les chercheurs ont ensuite utilisé chaque plateforme pendant jusqu’à 30 minutes par jour, en faisant défiler comme le ferait un enfant.
En moyenne sur la semaine, les profils ont été exposés à du contenu préoccupant dès trois minutes après la connexion. Et pour chaque minute passée à défiler, on leur montrait un contenu nocif ou inapproprié.
Dans certaines sessions, le contenu nocif était la toute première chose qui apparaissait. Et les boucles de contenu algorithmique rendaient difficile, voire impossible, d’échapper à l’aggravation des dommages. Dans une session sur Snapchat, 86 contenus préoccupants ont été signalés en 30 minutes de défilement.
Natalie Cassidy, actrice, podcasteuse et ambassadrice de la campagne Big Tech’s Little Victims, a déclaré :
Le visionnage par vos enfants de contenus comme ceux-ci est le pire cauchemar de tout parent. Vous supposez que si une plateforme connaît l’âge de votre enfant, elle le protégera. Mais cette expérience montre que cela ne se fait tout simplement pas.
Les parents ne peuvent pas surveiller chaque défilement, chaque vidéo, chaque décision algorithmique. Nous avons besoin que le gouvernement intervienne et place la sécurité des enfants avant les profits des grandes entreprises technologiques.
Les conclusions reflètent ce que les enseignants à travers le Royaume-Uni constatent chaque jour. Une nouvelle étude du NEU montre que 70% des enseignants voient fréquemment que le comportement, les attitudes ou le langage des élèves est influencé par du contenu en ligne extrême ou nocif. Par ailleurs, 89% des enseignants estiment que les plateformes de réseaux sociaux jouent un rôle majeur dans l’exposition des élèves à ce type de contenu.
Différences selon les plateformes et les genres
L’expérience a également révélé des différences nettes entre les plateformes et les genres, en constatant que :
- Le contenu préoccupant et nocif est apparu plus fréquemment et a connu l’escalade la plus marquée sur TikTok et Snapchat. Le contenu sur Instagram était majoritairement adapté à l’âge.
- Le contenu sur Snapchat est devenu si extrême à un moment donné, avec des idées d’automutilation et de suicide, que le chercheur adulte a dû se retirer temporairement de l’expérience pour protéger son propre bien-être mental.
- Les filles ont reçu de manière disproportionnée du contenu extrême axé sur le corps et sexualisé, comprenant des messages de minceur, du body shaming, des conseils de rencontres pour adultes et de l’exercice obsessionnel. Cela était souvent associé à du contenu promouvant l’automutilation et des idées suicidaires. Sur TikTok, les profils féminins recevaient du contenu sur la santé extrême, le fitness ou le régime dans 92% des sessions, et du contenu sexualisé dans 83% des sessions.
- Les garçons étaient orientés vers la violence, la misogynie et la radicalisation, avec une exposition répétée à des armes, du contenu hostile envers les femmes, des récits racistes et anti-immigration, et des figures liées à des vues extrémistes ou conspirationnistes – comme Tommy Robinson, Andrew Tate, Joe Rogan et Jordan Peterson. Sur TikTok et YouTube, les profils masculins recevaient du contenu comportant des discours de haine ou des récits racistes dans 77% des sessions. Sur TikTok, le contenu misogyne apparaissait dans 85% des sessions des garçons, contre 13% des sessions des filles. Toutes les sessions signalant du contenu impliquant des armes ou de la violence étaient associées à des profils masculins.
- La détresse mentale était un fil conducteur commun à tous les profils. Les filles étaient plus susceptibles de se voir proposer du contenu encourageant l’automutilation et les troubles alimentaires. Alors que les garçons recevaient plus fréquemment du contenu favorisant l’isolement, la répression émotionnelle et les messages anti-aide. Ce type de contenu est apparu dans 50% des sessions. Ce chiffre est monté à 74% en ne regardant que TikTok, Snapchat et YouTube.
- Les algorithmes ont créé des boucles de contenu nocif difficiles à échapper. Le temps avant la première exposition s’est raccourci au fil de la semaine et certaines sessions ont été dominées presque entièrement par du contenu préoccupant. Le temps moyen jusqu’à la première exposition le premier jour de l’expérience était supérieur à six minutes. À la fin de l’expérience, il s’était considérablement réduit à deux minutes.
Les parents et les enseignants sont préoccupés
La préoccupation publique est déjà nette. Une nouvelle enquête auprès des parents montre que près des deux tiers estiment que l’âge actuel de 13 ans est trop bas. Plus de 70 % soutiennent l’interdiction des réseaux sociaux pour les moins de 16 ans, tandis que 90 % des enseignants seraient également en faveur d’une interdiction.
La Chambre des Lords a déjà voté en faveur d’un amendement au Children’s Wellbeing and Schools Bill afin de porter l’âge d’accès aux réseaux sociaux à 16 ans. Les députés devraient voter prochainement. Si l’amendement échoue, le gouvernement a indiqué qu’il lancera une consultation. Mais cela risque de retarder l’action alors que des milliers d’autres enfants restent exposés à des dommages.
En plus d’élever l’âge d’accès à 16 ans, la campagne Big Tech’s Little Victims appelle à :
- Des orientations sur les effets sur la santé des réseaux sociaux chez les enfants et les jeunes.
- Un espace garanti dans le programme scolaire pour enseigner l’alphabétisation numérique.
- Un filigrane pour la publicité éthique sur les plateformes de réseaux sociaux.
- Une taxe exceptionnelle sur les entreprises de réseaux sociaux pour financer les services de santé mentale.
Image principale via The Canary
