Sommaire :
Les dangers des contenus en ligne pour les jeunes
Les jeunes doivent être mieux protégés contre les contenus dangereux en ligne. Telle était la conclusion il y a six ans, à la suite du décès d’une jeune Britannique. Qu’est-ce qui a changé depuis?
L’histoire de Molly
Ian Russell n’a aucun doute: Instagram a contribué à la mort de sa fille. Nous sommes en 2017, Molly a 14 ans, et un soir de novembre, après avoir dîné et regardé la télévision avec sa famille, elle se retire dans sa chambre. Le lendemain matin, sa mère, Ruth, la retrouve sans vie, victime d’un acte d’automutilation. Cherchant désespérément des réponses, le père accède aux comptes de médias sociaux de sa fille et découvre une réalité choquante. Si certaines des activités en ligne de Molly reflétaient les intérêts stéréotypés d’une jeune fille, d’autres impliquaient des actes d’automutilation et de suicide.
Les conséquences alarmantes
Une enquête est menée pour déterminer la cause du décès et les données qui en ressortent sont alarmantes. Au cours des six derniers mois de sa vie, Molly a interagi dans plus de 2100 posts sur Instagram associés à la dépression, à l’automutilation ou au suicide. « Ce matériel a considérablement affecté sa santé mentale », a déclaré Andrew Walker, le médecin légiste impliqué dans l’affaire. Ces résultats confirment les craintes de M.Russell, qui pensait que la mort de sa fille était due à la dépression, mais aussi aux effets négatifs des contenus en ligne.
Les réponses insuffisantes des réseaux sociaux
Le cas de Molly marque donc un tournant. Pour la première fois, les médias sociaux sont pointés du doigt et, entre une faible justification et quelques aveux de culpabilité, promettent de faire mieux.
Les difficultés de la modération
Qu’est-ce qui a changé depuis cette tragédie? Peu de choses, semble-t-il. La modération des contenus est une question épineuse pour les entreprises, qui tentent de concilier sécurité et liberté d’expression. Cependant, l’objectif des plateformes reste de garder leurs utilisateurs collés à l’application. Les contenus extrêmes, qui suscitent l’indignation et la sensation, sont ceux qui fonctionnent le mieux. L’algorithme le sait et suit cette logique.
Les mesures de restriction
Facebook, Instagram, TikTok et X ont en effet mis en place des mesures pour limiter l’accès à des contenus potentiellement dangereux. Si vous tapez des mots-clés tels que automutilation ou suicide, la recherche est bloquée et un message apparaît pour demander à l’utilisateur s’il a besoin d’aide. Comme le montre l’enquête de Patti Chiari, il est toutefois très facile de contourner ces restrictions: il suffit d’entrer les bons hashtags. Sur Instagram, il suffit même de cliquer sur « voir le post ». Des images de plaies ouvertes, de sang et de lames de rasoir, des messages destructeurs et même des conseils apparaissent. Et après avoir recherché des contenus liés au suicide, l’algorithme identifie le sujet comme notre intérêt principal, continuant à nous bombarder de phrases anxieuses et dépressives. C’est exactement ce qui est arrivé à la jeune Anglaise: elle est tombée dans un mécanisme qui lui rappelait sans cesse ses souffrances.
Les défis persistants
Ainsi, les contenus dangereux sont toujours là. Le témoignage de M.Russel nous rappellent qu’en dépit des promesses faites, nous sommes encore loin d’un environnement en ligne totalement sûr. Le débat sur la protection de la santé mentale des utilisateurs, en particulier des mineurs, est donc plus important et nécessaire que jamais. Également en mémoire de Molly.

