Profile picture of Olivier Schollaert
Olivier Schollaert
Consultant en IA : Un peu d'IA, un peu d'automatisation... la pénibilité s'envole
Follow me
Generated by linktime
May 2, 2025
𝐓𝐮 𝐥𝐚𝐢𝐬𝐬𝐞𝐫𝐚𝐢𝐬 𝐭𝐚 𝐯𝐢𝐞 𝐞𝐧𝐭𝐫𝐞 𝐥𝐞𝐬 𝐦𝐚𝐢𝐧𝐬 𝐝'𝐮𝐧𝐞 𝐈𝐀 ? L’IA devient de plus en plus prédictive et décisionnelle (diagnostics assistés, détection précoce de maladies, tri automatisé d’urgences...), la qualité des données est la colonne vertébrale du système. Mais cette force est aussi une faiblesse. 𝟏. 𝐐𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞𝐬 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 : 𝐮𝐧 𝐞𝐧𝐣𝐞𝐮 𝐯𝐢𝐭𝐚𝐥 L’IA médicale repose sur des images (radios, IRM, scanners), des dossiers patients, des résultats de labo, etc. Si ces données sont bruitées, biaisées ou mal étiquetées, l’IA peut «apprendre» des choses fausses, menant à des erreurs de diagnostic. On parle ici de vies humaines, donc le seuil d’erreur tolérable est extrêmement bas. 𝟐. 𝐋’𝐚𝐭𝐭𝐚𝐪𝐮𝐞 𝐩𝐚𝐫 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐟𝐚𝐥𝐬𝐢𝐟𝐢𝐞́𝐞𝐬 : 𝐥𝐞 “𝐝𝐚𝐭𝐚 𝐩𝐨𝐢𝐬𝐨𝐧𝐢𝐧𝐠” C’est une forme d’attaque insidieuse où l’on injecte volontairement de fausses données dans le système d’apprentissage ou dans les bases de données cliniques. Dans le médical, cela peut signifier : ❌ Des images médicales manipulées (ex. : un faux nodule inséré dans un scanner pulmonaire). ❌ Des métadonnées fausses (ex. : inverser les étiquettes "cancer / non-cancer"). ❌ Un fichier malveillant qui altère les modèles IA pendant leur apprentissage ou leur inférence. 👉 Objectif d’un attaquant ? Saboter les résultats, créer des diagnostics erronés, décrédibiliser un hôpital, voire orchestrer une fraude ou une cyberattaque plus large. 𝟑. 𝐃𝐞𝐞𝐩𝐟𝐚𝐤𝐞𝐬 𝐦𝐞́𝐝𝐢𝐜𝐚𝐮𝐱 : 𝐮𝐧 𝐜𝐚𝐮𝐜𝐡𝐞𝐦𝐚𝐫 𝐞𝐧 𝐠𝐞𝐬𝐭𝐚𝐭𝐢𝐨𝐧 Il est déjà techniquement possible de créer des "deepfakes" d’imagerie médicale, c’est-à-dire des images réalistes mais entièrement synthétiques, conçues pour piéger une IA. Imagine une IA qui détecte un cancer à partir d’une fausse image IRM générée par un algorithme malveillant. Diagnostic erroné. Traitement inutile. Coûts élevés. Et surtout, perte de confiance dans tout le système. 𝟒. 𝐄𝐭 𝐝𝐨𝐧𝐜 ? 𝐂𝐨𝐦𝐦𝐞𝐧𝐭 𝐬𝐞 𝐝𝐞́𝐟𝐞𝐧𝐝𝐫𝐞 ? Il existe des pistes : ✔️ Traçabilité et signature numérique des données médicales (hashage, blockchain, etc.). ✔️ IA contre IA : utiliser d’autres modèles pour détecter les anomalies ou incohérences dans les données. ✔️ Apprentissage robuste : entraîner les modèles à résister aux attaques et aux perturbations. ✔️ Contrôle humain renforcé sur les données critiques et sur les décisions automatisées. En résumé : L’IA médicale ouvre un monde de promesses mais elle expose aussi à des vulnérabilités, où des attaques invisibles peuvent mettre en péril des vies. Ceci est un appel à une vigilance proactive : 𝐥’𝐈𝐀 𝐧𝐞 𝐬𝐞𝐫𝐚 𝐣𝐚𝐦𝐚𝐢𝐬 𝐩𝐥𝐮𝐬 𝐟𝐢𝐚𝐛𝐥𝐞 𝐪𝐮𝐞 𝐥𝐚 𝐝𝐨𝐧𝐧𝐞́𝐞 𝐪𝐮’𝐞𝐥𝐥𝐞 𝐜𝐨𝐧𝐬𝐨𝐦𝐦𝐞… 𝐞𝐭 𝐥𝐚 𝐬𝐞́𝐜𝐮𝐫𝐢𝐭𝐞́ 𝐪𝐮𝐢 𝐥𝐚 𝐩𝐫𝐨𝐭𝐞̀𝐠𝐞.
Stay updated
Subscribe to receive my future LinkedIn posts in your mailbox.

By clicking "Subscribe", you agree to receive emails from linktime.co.
You can unsubscribe at any time.

May 2, 2025
😱 Grok m'a surpris ce matin... et cela pourrait aussi vous aider à pousser vos réflexions ! Pour rappel, Grok (3 beta) est l’IA développée par xAI d’Elon Musk, disponible gratuitement sur X (ex Twitter). J'avais une simple idée en tête et je l'ai mis au défi. Dans le prompt, je lui ai demandé de valider chaque point de mon idée et d'y trouver une source. J'ai été bluffé, il découpe, analyse et valide les différents points partis d’une simple idée… 👍 Extrait du résultat (de plusieurs pages, oui c'était une longue idée 😁): 💡 "Pendant que les grosses boîtes font la course à l'AGI..." ✔️ Validation : La course à l’AGI (intelligence artificielle générale) est bien réelle. Des entreprises comme OpenAI, Google (DeepMind), et xAI investissent massivement dans le développement d’une IA capable de rivaliser avec l’intelligence humaine. Par exemple, OpenAI a levé des fonds massifs (6,6 milliards de dollars en octobre 2024 selon TechCrunch) pour accélérer ses recherches sur l’AGI. 🔦 Source : TechCrunch, "OpenAI raises $6.6B at $157B valuation" (octobre 2024). 💡 "...des chercheurs pensent que l'évolution des processeurs et de la puissance de calcul empêchera d'y arriver" ✔️ Validation : Certains experts estiment que les limites physiques des semi-conducteurs (fin de la loi de Moore) et les besoins exponentiels en puissance de calcul pour l’AGI pourraient freiner les progrès. Un article de MIT Technology Review (2023) souligne que la croissance de la puissance de calcul ne suit plus le rythme des exigences des modèles d’IA, et des architectures alternatives (comme le calcul quantique) pourraient être nécessaires. 🔦 Source : MIT Technology Review, "The AI hardware problem: Compute isn’t growing fast enough" (2023). ‼️ Nuance : D’autres, comme NVIDIA, affirment que leurs GPU (ex. Jetson Orin, jusqu’à 275 TOPS) repoussent ces limites, mais les coûts énergétiques et environnementaux restent un défi. ... ❓ Et vous, avez-vous déjà utilisé Grok 3 ? N'hésitez pas à tester, c’est gratuit et certains résultats sont étonnants ! PS : Comme avec toutes les IA il faut malgré tout vérifier la véracité des données ! PS2 : J’ai demandé à Grok 3 de se représenter lui-même pour illustrer ce post (pas pour illustrer le contenu de l’idée), je n’ai donné aucune indication, regardez l’image, pourquoi a-t-il fait ce choix-là selon vous ?
42 comments
March 28, 2025
On nous dit que l’IA ne remplace pas les humains, elle remplace des tâches, mais… 💥 𝗟'𝗲́𝘃𝗼𝗹𝘂𝘁𝗶𝗼𝗻 𝗱𝗲 𝘀'𝗮𝗿𝗿𝗲̂𝘁𝗲 𝗽𝗮𝘀 : même ceux qui utilisent l’IA devront s’adapter. Prenons un parallèle : 𝗔𝗻𝗻𝗲́𝗲𝘀 𝟵𝟬-𝟮𝟬𝟬𝟬 : Ceux qui savaient utiliser Excel ont remplacé ceux qui faisaient tout à la main. 𝗔𝗻𝗻𝗲́𝗲𝘀 𝟮𝟬𝟭𝟬-𝟮𝟬𝟮𝟬 : Ceux qui savaient coder ou automatiser des tâches ont pris une longueur d’avance. 𝟮𝟬𝟮𝟰-𝟮𝟬𝟮𝟱 : Ceux qui maîtrisent les IA génératives gagnent en productivité, prennent des marchés, ou changent de métier plus vite. 𝗠𝗮𝗶𝘀... ⚠️ À un moment, l’IA n’aura plus besoin de nous pour être « utilisée ». Sur quelles périodes parle-t-on de remplacements concrets ? 𝗖𝗼𝘂𝗿𝘁 𝘁𝗲𝗿𝗺𝗲 (𝟮𝟬𝟮𝟰-𝟮𝟬𝟮𝟲) : Remplacement partiel dans les métiers très répétitifs : saisie de données, support client de niveau 1, modération de contenus, traduction simple… Les métiers techniques avec forte productivité via l’IA (code, design, rédaction) voient leur nature changer rapidement. 𝗠𝗼𝘆𝗲𝗻 𝘁𝗲𝗿𝗺𝗲 (𝟮𝟬𝟮𝟲-𝟮𝟬𝟯𝟬) : Transformation profonde de certains métiers : les fonctions support, la relation client, le juridique de premier niveau… Montée en puissance de l’IA autonome dans des contextes contrôlés (voitures autonomes sur trajets définis, robots logistiques…). 𝗟𝗼𝗻𝗴 𝘁𝗲𝗿𝗺𝗲 (𝟮𝟬𝟯𝟬 𝗲𝘁 𝗮𝘂-𝗱𝗲𝗹𝗮̀) : Si l'IA générale (AGI) devient réalité, alors une refonte profonde du travail humain sera nécessaire : revalorisation des métiers du soin, de l’enseignement, de la relation humaine ; montée des débats sur le revenu universel et le sens du travail. 𝗖𝗲 𝗻’𝗲𝘀𝘁 𝗽𝗮𝘀 𝘂𝗻𝗲 𝗰𝗼𝘂𝗿𝘀𝗲 𝗰𝗼𝗻𝘁𝗿𝗲 𝗹’𝗜𝗔, 𝗰’𝗲𝘀𝘁 𝘂𝗻𝗲 𝗰𝗼𝘂𝗿𝘀𝗲 𝗽𝗼𝘂𝗿 𝗿𝗲𝘀𝘁𝗲𝗿 𝗵𝘂𝗺𝗮𝗶𝗻 𝗱𝗮𝗻𝘀 𝘂𝗻 𝗺𝗼𝗻𝗱𝗲 𝗮𝘂𝗴𝗺𝗲𝗻𝘁𝗲́ et si votre boulot n’a plus beaucoup de sens dites-vous qu’il sera plus vite remplacé...
41 comments
April 22, 2025
"Je vois des têtes coupées, des enfants battus, des cris que je n’oublie pas. On me dit de continuer, que c’est juste du travail. Mais ça reste dans ma tête." Derrière chaque IA, il y a des mains humaines, comme ce dataworker à Manille, chargé d’entraîner une IA à reconnaître des contenus violents, sans pause suffisante ni soutien… Ces travailleurs de l’ombre annotent, nettoient et structurent les données mais à quel prix ? Exploitation, bas salaires, et pressions psychologiques : les témoignages révèlent une face sombre de l’innovation technologique et mettent en lumière les conditions de travail précaires de ces acteurs essentiels, trompés dès le départ sur le type de tâches à accomplir. ‼️ Impact de l’exposition prolongée à ce type de contenu : 🤕 Stress post-traumatique : cauchemars, flashbacks ou anxiété chronique, similaires à ce que vivent les soldats. 🤢 Épuisement émotionnel : une désensibilisation ou, au contraire, une hypersensibilité qui affecte leur vie personnelle. 🤮 Cas extrêmes : bien que les informations soient difficiles à obtenir car les entreprises limitent la transparence, des témoignages ont remonté des cas de dépression sévère ainsi que des suicides liés à ces conditions de travail. À Nairobi, par exemple, des travailleurs employés par des sous-traitants rapportent des journées de neuf heures à étiqueter des textes toxiques pour des géants technologiques, pour un salaire entre 1,32 et 2 dollars de l’heure, loin de refléter la pénibilité de leur tâche. 😱 Il me semblait pourtant avoir entendu parler de plusieurs centaines de milliards d’investissement dans l’IA… Nous sommes loin des IA éthiques… 🤑 Pour bien se rendre compte, voici la nature du contenu traumatisant 😡 Violence explicite : décapitations, agressions, accidents mortels, actes de guerre. Pour détecter la violence, ils doivent étiqueter des milliers d’heures de telles séquences. 👿 Contenu sexuel perturbant : pédopornographie, scènes d’abus sexuels ou viols. Ils doivent les catégoriser ou les signaler. 🤬 Discours haineux et harcèlement : analyse de textes ou enregistrements audio remplis d’insultes racistes, sexistes, homophobes ou de menaces de mort. Pour détecter le "hate speech", ils passent des heures à lire et à classer des messages haineux. 💀 Désinformation et propagande morbide : contenus liés à des théories conspirationnistes ou à des campagnes de désinformation, incluant récits macabres ou images manipulées comme des fausses exécutions ou des scènes de panique. 💩 Autres contenus choquants : photos de mutilations animales, autopsies, images de suicides, souvent nécessaires pour entraîner des IA dans des domaines comme la sécurité publique. Alors sommes-nous prêts à reconnaître leur rôle et à repenser leur place dans la chaîne de valeur, ne faudrait-il pas un contrôle de ces métiers ? L’IA peut transformer nos vies, mais elle ne doit pas se bâtir sur le sacrifice de ceux qui la rendent possible.
38 comments
April 3, 2025