"Je vois des têtes coupées, des enfants battus, des cris que je n’oublie pas. On me dit de continuer, que c’est juste du travail. Mais ça reste dans ma tête."
Derrière chaque IA, il y a des mains humaines, comme ce dataworker à Manille, chargé d’entraîner une IA à reconnaître des contenus violents, sans pause suffisante ni soutien…
Ces travailleurs de l’ombre annotent, nettoient et structurent les données mais à quel prix ?
Exploitation, bas salaires, et pressions psychologiques : les témoignages révèlent une face sombre de l’innovation technologique et mettent en lumière les conditions de travail précaires de ces acteurs essentiels, trompés dès le départ sur le type de tâches à accomplir.
‼️ Impact de l’exposition prolongée à ce type de contenu :
🤕 Stress post-traumatique : cauchemars, flashbacks ou anxiété chronique, similaires à ce que vivent les soldats.
🤢 Épuisement émotionnel : une désensibilisation ou, au contraire, une hypersensibilité qui affecte leur vie personnelle.
🤮 Cas extrêmes : bien que les informations soient difficiles à obtenir car les entreprises limitent la transparence, des témoignages ont remonté des cas de dépression sévère ainsi que des suicides liés à ces conditions de travail.
À Nairobi, par exemple, des travailleurs employés par des sous-traitants rapportent des journées de neuf heures à étiqueter des textes toxiques pour des géants technologiques, pour un salaire entre 1,32 et 2 dollars de l’heure, loin de refléter la pénibilité de leur tâche. 😱
Il me semblait pourtant avoir entendu parler de plusieurs centaines de milliards d’investissement dans l’IA… Nous sommes loin des IA éthiques… 🤑
Pour bien se rendre compte, voici la nature du contenu traumatisant
😡 Violence explicite : décapitations, agressions, accidents mortels, actes de guerre.
Pour détecter la violence, ils doivent étiqueter des milliers d’heures de telles séquences.
👿 Contenu sexuel perturbant : pédopornographie, scènes d’abus sexuels ou viols.
Ils doivent les catégoriser ou les signaler.
🤬 Discours haineux et harcèlement : analyse de textes ou enregistrements audio remplis d’insultes racistes, sexistes, homophobes ou de menaces de mort.
Pour détecter le "hate speech", ils passent des heures à lire et à classer des messages haineux.
💀 Désinformation et propagande morbide : contenus liés à des théories conspirationnistes ou à des campagnes de désinformation, incluant récits macabres ou images manipulées comme des fausses exécutions ou des scènes de panique.
💩 Autres contenus choquants : photos de mutilations animales, autopsies, images de suicides, souvent nécessaires pour entraîner des IA dans des domaines comme la sécurité publique.
Alors sommes-nous prêts à reconnaître leur rôle et à repenser leur place dans la chaîne de valeur, ne faudrait-il pas un contrôle de ces métiers ?
L’IA peut transformer nos vies, mais elle ne doit pas se bâtir sur le sacrifice de ceux qui la rendent possible.
38 comments
April 3, 2025