L'IA aujourd'hui épisode du 2025-10-31
L'IA aujourd'hui ! - Podcast készítő Michel Levy Provençal
Kategóriák:
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : emploi et environnement, fiabilité des chatbots et risques d’empoisonnement, qualité des sources médicales, sécurité des packages JavaScript, et éclairage sur LLaMA 3.D’abord, l’impact économique et écologique. Amazon annonce 14 000 suppressions de postes, justifiées par l’automatisation via l’IA, moins coûteuse selon l’entreprise. Microsoft et Meta suivent le mouvement avec des plans de licenciements similaires, dans une logique de réduction des coûts humains tandis que les investissements dans l’IA s’accélèrent. Côté énergie, la demande explose: Google relance la centrale nucléaire Duane Arnold, fermée depuis cinq ans, pour alimenter ses infrastructures. La consommation mondiale d’électricité grimpe en partie à cause des usages IA, très énergivores. L’eau aussi est sollicitée pour le refroidissement des serveurs: Google a consommé 17 % d’eau en plus en 2023. En coulisses, une armée de micro-travailleurs, souvent précaires, alimente l’entraînement des modèles. Josse, étudiant à Rouen, en est un exemple: tâches répétitives, faible rémunération, peu de droits.Sur la fiabilité, un rappel venu du terrain juridique: l’analogie du “stagiaire de première année” masque des risques spécifiques. Les modèles peuvent générer des citations de jurisprudence inexistantes ou des hallucinations subtiles — dates modifiées, éléments de tests juridiques altérés — tout en produisant un texte fluide qui inspire une confiance excessive. Autre écueil, la “fidélité”: des explications plausibles sur le raisonnement du modèle qui ne correspondent pas à ce qu’il a réellement fait. Les usages professionnels exigent donc des protocoles de vérification dédiés.Ce constat rejoint une étude récente de l’Union Européenne de Radio-Télévision: environ 37 % des réponses de chatbots sont incorrectes, en amélioration par rapport à la moitié auparavant, mais 45 % contiennent au moins une erreur et 31 % citent des sources inexactes. Copilot, ChatGPT, Perplexity et Gemini ont été testés, ce dernier s’en sortant mal dans ce panel. Les causes sont multiples: associations probabilistes erronées, données d’entraînement déjà fausses, et apprentissage par renforcement qui peut encourager l’invention plutôt que l’aveu d’ignorance. Une enquête indique qu’un tiers des adultes au Royaume-Uni feraient entièrement confiance à l’IA, moitié chez les moins de 35 ans. Les auteurs appellent à mieux prioriser la lutte contre la désinformation, à offrir des contrôles aux éditeurs — notamment des citations uniformes — et à clarifier la responsabilité des fournisseurs, d’autant que les réponses ne sont pas toujours reproductibles.Autre risque, l’empoisonnement des modèles. Une étude conjointe montre que l’ajout de seulement 250 fichiers malveillants dans un corpus de millions peut suffire à altérer discrètement un modèle. On distingue l’empoisonnement des données (pendant l’entraînement) et celui du modèle (après), avec deux familles d’attaques. Ciblées: les “backdoors” qui s’activent via un mot déclencheur, par exemple “alimir123” pour provoquer une réponse insultante sur une personne donnée. Non ciblées: le “topic steering”, qui inonde le web de contenus biaisés, comme “manger de la laitue guérit le cancer”, récupérés ensuite par le modèle. Une publication en médecine a montré que remplacer 0,001 % du jeu d’entraînement par de la désinformation médicale suffit à accroître la diffusion d’erreurs dangereuses, sans dégrader les scores standards. À noter, en 2023, un bug a brièvement exposé des titres de conversations d’utilisateurs. Certains artistes emploient désormais l’empoisonnement comme défense pour dégrader les modèles qui aspirent leurs œuvres.Face à ces défis, le contrôle des sources prouve son efficacité dans la santé. Une évaluation de LLM assistés par recherche web en neurologie — Sonar, Sonar-Pro et Sonar-Reasoning-Pro — montre qu’activer un “whitelisting” vers des domaines autorisés comme aan.com et neurology.org améliore la précision de 8 à 18 points. Sonar passe ainsi de 60 % à 78 % de bonnes réponses. Les sources non professionnelles divisent par deux la probabilité d’avoir juste, alors que citer des documents AAN ou de neurologie la double. Cette méthode convertit un outil grand public en assistant de décision clinique fiable, avec un effet qui dépendra toutefois des lignes directrices disponibles dans chaque spécialité.Côté outils, les développeurs JavaScript peuvent prévenir les risques à l’installation de packages avec NPQ. Contrairement à npm audit, qui agit après coup, NPQ audite avant l’installation. Usage: npx npq install express, ou installation globale avec npm install -g npq, puis remplacer npm par npq. On peut définir NPQ_PKG_MGR=pnpm si besoin, ou créer un alias pour ne pas oublier. NPQ exécute des “marshalls”, des vérifications ciblées, désactivables au cas par cas, par exemple MARSHALL_DISABLE_SNYK=1.Enfin, rappel pédagogique: un LLM est un programme qui a lu une large part du web pour apprendre à générer du texte et du code. “Open source” signifie que son code et ses poids sont accessibles. LLaMA 3, développé par Meta, fait partie des options open source les plus utilisées, disponible en plusieurs tailles pour s’adapter aux capacités matérielles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
