Des travailleurs invisibles au cœur de l’IA générative
Assis dans un vieux gratte-ciel de Nairobi, Michael Geoffrey décrit son parcours d annotateur pour l’IA. Son rôle consistait à préparer et qualifier des données qui servent à entraîner des algorithmes, un travail qui, selon lui, a eu des conséquences lourdes sur sa vie.
Au Kenya, loin des bureaux de la Silicon Valley, le pays est devenu l’un des hubs mondiaux pour les tâches liées à l’IA. Des petites structures et des géants tels que Meta, ChatGPT, Tesla et TikTok externalisent une part importante de ce travail, indispensable au fonctionnement de l’IA générative en 2025.
Lire aussi : En Inde, des petites mains gavent l’intelligence artificielle de données
Une intervention humaine indispensable
Parmi les tâches, annoter des milliers d’images pour identifier des éléments, par exemple les parties d’une tête de chien ; ou analyser image par image les éléments filmés depuis un véhicule ; ou encore apprendre à un robot chirurgical à reconnaître des coupures et des points de suture. Le principe reste le même : pour qu’une IA sache reconnaître un chat, des humains décrivent des milliers de photos.
Robert West, spécialiste en IA, rappelle que sur internet il existe des contenus sensibles que des systèmes comme ChatGPT doivent apprendre à ne pas répéter. Il affirme qu’il faut apprivoiser le modèle et qu’un tel travail n’est pas réalisé en temps réel et ne couvre qu’une fraction des questions possibles, mais il demeure essentiel pour former ces outils.
Le même raisonnement s’applique aux assistants conversationnels : il y a plein d’êtres humains payés pour poser des prompts et d’autres qui rédigent les réponses, explique-t-il, après une année de recherches dans les laboratoires de Microsoft. Sans intervention humaine, l’IA ne peut pas apprendre à différencier certains contenus.
Sans intervention humaine, ce serait la catastrophe ; il faut donc apprendre au modèle à apprivoiser les contenus indésirables.
Impact sur la vie privée et la santé mentale
Le directeur du Data Science Lab de l’EPFL souligne l’importance des contributions humaines, même si leur volume reste secret : « Si je devais estimer, les annotateurs et les rédacteurs de prompts consacrent plus de temps que les ingénieurs et les programmeurs à ces outils. »
Michael Geoffrey décrit une expérience pénible : « Regarder de la pornographie pendant huit heures, ce n’est pas de la rigolade. Après 4 ou 5 jours, mon corps s’est complètement éteint. » Il explique que cette activité a affecté sa vie personnelle et a conduit, avec son épouse, à une séparation.
Conditions de travail indignes
Angela Chukunzira, sociologue à Mozilla, dénonce des conditions de travail indignes et des risques importants pour la santé mentale. Elle rappelle que l’exposition permanente à des contenus nocifs peut rendre les travailleurs insensibles et altérer leur sens des réalités.
Les travailleurs invisibles ne sont pas seuls : les modérateurs de contenus jouent aussi un rôle crucial. Sur TikTok, 85 % des contenus inappropriés sont filtrés par l’IA, mais l’intervention humaine demeure nécessaire pour corriger les erreurs.
« Les gens ne savent pas qu’il existe des personnes comme moi qui filtrent les mauvais contenus, au prix de leur santé mentale », témoigne Ethan, annotateur en IA.
Employé par un sous-traitant à Nairobi, il traque des contenus choquants venus du monde entier : au moins 250 vidéos par jour. La majorité des vidéos visibles sur TikTok est sélectionnée par l’IA, mais elle peut faire des erreurs, par exemple en confondant fumer une cigarette et lécher une sucette.
« Certaines vidéos, deux ou trois, vous hantent pour le reste de votre vie », confie encore Ethan, évoquant des contenus extrêmes.
Un modèle d’exploitation et les recours juridiques
Mercy Mutemi, avocate à Nairobi, mène plusieurs procédures visant Meta et d’autres acteurs du secteur, dénonçant un modèle d’exploitation dans l’IA au Kenya qui s’apparente à de la traite d’êtres humains ou au travail forcé. Selon elle, le secteur de l’annotation, de la modération et de l’entraînement des algorithmes repose sur des mécanismes d’exploitation.
« Meta elle-même était impliquée dans la traite d’êtres humains. Quand vous êtes pris dans un système de traite, on vous fait venir à des fins d’exploitation… La plateforme vous donne des objectifs impossibles et le salaire peut être réduit si vous ne les atteignez pas », affirme Mercy Mutemi.
Des procédures judiciaires sont en cours au Kenya, visant à faire reconnaître ces pratiques et à protéger les travailleurs vulnérables.
Des travailleurs vulnérables et des mouvements émergents
De nombreux migrants au statut précaire ont travaillé pour Meta au Kenya via des chaînes de sous-traitance, selon Mercy Mutemi. Le dossier est jugé par la justice kényane et met en lumière des mécanismes d’exploitation au sein du secteur.
Michael Geoffrey milite désormais pour les droits de ses pairs au sein de la Data Labelers Association (DLA), un mouvement syndical naissant qui cherche à peser auprès des grands groupes pour obtenir de meilleures conditions.
Meta, TikTok, OpenAI et Tesla n’ont pas répondu aux sollicitations de la RTS.