Amnesty International France dénonce l’algorithme de TikTok et ses risques pour la santé mentale des jeunes

Monde

L’antenne française d’Amnesty International publie ce mardi un rapport qui met en lumière l’effet potentiellement problématique de l’algorithme de TikTok, évoquant une spirale où des contenus liés à la tristesse, à la détresse psychologique ou à l’automutilation pourraient être davantage proposés aux jeunes. L’ONG indique vouloir saisir l’Arcom, régulateur du numérique et de l’audiovisuel, dans le cadre du Digital Services Act (DSA) afin de faire valoir ses observations.

Contexte et objectifs du rapport

Selon Katia Roux, chargée de plaidoyer pour Amnesty International France, l’organisation a décidé de porter plainte auprès de l’Arcom pour des manquements supposés du service TikTok au regard du DSA.

Le document avance des «nouvelles preuves» montrant que des adolescents manifestant un intérêt pour des contenus relatifs à la tristesse ou à un mal-être psychologique pourraient être dirigés vers des contenus dépressifs en moins d’une heure.

Après un premier rapport publié en 2023 sur l’algorithme du réseau social, Amnesty affirme avoir mené de nouvelles expériences en France et conclut que TikTok expose les jeunes à des contenus potentiellement préjudiciables, susceptibles de normaliser, banaliser, voire idéaliser la dépression, l’automutilation ou le suicide.

Méthodologie et expériences menées

La société a été interpellée sur la façon dont ses algorithmes peuvent influencer l’exposition des mineurs. TikTok aurait réagi en déclarant que l’expérience a été conçue pour aboutir à un résultat prédéfini et qu’elle ne reflète pas l’usage réel des personnes.

Pour tester les mécanismes du fil «Pour toi», Amnesty International France aurait créé trois profils fictifs d’adolescents âgés de 13 ans et a laissé défiler le fil personnalisé sur plusieurs heures afin d’observer les contenus proposés autour de la tristesse ou de problématiques liées à la santé mentale.

Selon le rapport, les 15 à 20 premières minutes d’utilisation ont vu les fils se concentrer quasi exclusivement sur des questions liées à la santé mentale, et sur deux des trois comptes, des vidéos exprimant des pensées suicidaires sont apparues dans les 45 minutes suivantes.

Observations complémentaires

Par ailleurs, douze comptes automatisés ont été créés, en lien avec l’association Algorithmic Transparency Institute, et ont été reliés à l’historique des trois profils initiaux afin d’évaluer l’impact sur le long terme.

Constats et cadre européen

L’ONG note une amplification des contenus traitant de la santé mentale, même si cet effet est moins marqué que celui observé sur des comptes gérés manuellement. Katia Roux affirme que TikTok n’aurait pas pris les mesures adéquates pour identifier et prévenir les risques encourus par les jeunes, ce qui est présenté comme une possible violation des obligations imposées par le DSA depuis août 2023.

Amnesty espère que ces nouvelles preuves seront examinées et prises en compte dans l’enquête ouverte par la Commission européenne.

En février 2024, la Commission européenne avait annoncé l’ouverture d’une enquête visant TikTok pour des manquements présumés en matière de protection des mineurs. De son côté, TikTok affirme proposer «de manière proactive une expérience sûre et adaptée à l’âge des adolescents» et rappelle que «neuf vidéos sur dix qui enfreignent nos règles sont supprimées avant même d’être visionnées».