
L’antenne française de l’ONG dénonce dans un rapport l’effet « spirale » de l’algorithme du réseau social qui oriente rapidement des adolescents visionnant des vidéos relatives au mal-être vers des « contenus dépressifs ».
Dans un rapport publié, mardi 21 octobre, l’antenne française de l’ONG Amnesty International a dénoncé l’effet « spirale » de l’algorithme du réseau social TikTok, et accusé d’amplifier l’exposition à des contenus en lien avec le suicide ou l’automutilation.
« Amnesty International France a décidé de saisir l’Arcom pour porter plainte dans le cadre du DSA [Digital Services Act, le règlement européen sur les services numériques] contre TikTok pour manquement à ses obligations », a déclaré à la presse Katia Roux, chargée de plaidoyer pour Amnesty International France.
D’après les conclusions de l’ONG, des adolescents « manifestant un intérêt pour des contenus relatifs à la tristesse ou à un mal-être psychologique » sont orientés en moins d’une heure vers des « contenus dépressifs ».
Ce rapport « apporte de nouvelles preuves de la manière dont TikTok expose les jeunes sur sa plateforme à des contenus qui peuvent être préjudiciables, qui peuvent normaliser, banaliser, voire idéaliser la dépression, l’automutilation ou le suicide », a avancé Mme Roux.
Sollicité par l’Agence France-Presse (AFP), le réseau social a estimé que « sans tenir compte de la façon dont les vraies personnes utilisent TikTok, cette « expérience » a été conçue pour aboutir à un résultat prédéterminé ». Le réseau social a assuré proposer « de manière proactive une expérience sûre et adaptée à l’âge des adolescents ». « Neuf vidéos sur dix qui enfreignent nos règles [sont] supprimées avant même d’être visionnées », a insisté le réseau social.
Des vidéos exprimant des pensées suicidaires
Amnesty, qui avait déjà publié un rapport en 2023 sur l’algorithme du réseau social, a créé trois profils factices d’adolescents de 13 ans sur TikTok et fait défiler le fil personnalisé, baptisé « Pour toi », pour visionner pendant plusieurs heures des contenus évoquant « la tristesse ou des problèmes de santé mentale ».
« Dans les quinze à vingt minutes après le début de l’expérience, les trois fils contenaient presque exclusivement des vidéos sur la santé mentale, dont jusqu’à la moitié sur des contenus tristes et dépressifs. Sur deux des trois comptes, des vidéos exprimant des pensées suicidaires sont apparues dans les quarante-cinq minutes », est-il écrit dans le rapport.
Douze comptes automatisés ont ensuite été créés, en lien avec l’association Algorithmic Transparency Institute, intégrant l’historique des trois premiers comptes. L’ONG a constaté une amplification des contenus sur la santé mentale, toutefois moins importante que sur les comptes gérés manuellement.
« TikTok n’a pas pris les mesures adéquates pour identifier et prévenir les risques auxquels la plateforme expose les jeunes », a assuré Katia Roux, pointant un non-respect des obligations imposées par le DSA depuis août 2023. « On espère véritablement que (…) ces nouvelles preuves seront examinées, seront prises en compte pour faire avancer l’enquête ouverte par la Commission européenne », a-t-elle ajouté.
En février 2024, la Commission européenne a ouvert une enquête visant TikTok pour des manquements présumés en matière de protection des mineurs.
Le Monde avec AFP