L’IA gagne en puissance, mais ses hallucinations empirent

L’article de La Presse traite des hallucinations des systèmes d’intelligence artificielle (IA) modernes, un phénomène où les IA produisent des réponses inventées. Les systèmes de « raisonnement automatisé » d’OpenAI, Google et DeepSeek sont particulièrement sujets à ces erreurs. Les entreprises d’IA ne comprennent pas entièrement pourquoi ces hallucinations se produisent, mais elles sont liées à la manière dont les IA apprennent en analysant des données numériques sans pouvoir distinguer le vrai du faux.

Un exemple frappant est celui de Cursor, un outil de soutien technique pour les programmeurs, où un robot IA a faussement informé les utilisateurs d’un changement de politique. Cette erreur a provoqué une réaction négative des clients, soulignant les risques des hallucinations dans des contextes critiques. Les systèmes de raisonnement sont meilleurs en mathématiques mais moins fiables pour les faits, ce qui pose des défis pour leur utilisation dans des domaines sensibles comme le droit et la médecine.

Les taux d’hallucinations des nouveaux systèmes d’IA sont alarmants. Lors de tests, certains systèmes ont montré des taux d’erreur allant jusqu’à 79%. Ces erreurs sont dues à la manière dont les IA devinent les réponses basées sur des probabilités mathématiques plutôt que sur des règles strictes définies par des humains. Amr Awadallah, PDG de Vectara, estime que les hallucinations sont inévitables malgré les efforts pour les réduire.

Les entreprises comme Okahu travaillent à gérer ces erreurs pour maintenir la valeur des systèmes d’IA. Depuis 2023, OpenAI et Google ont amélioré leurs IA pour réduire les erreurs, mais les systèmes de raisonnement continuent de générer plus d’hallucinations. Les tests montrent que les nouveaux systèmes d’OpenAI, comme o3 et o4-mini, ont des taux d’hallucination plus élevés que leurs prédécesseurs.

Les entreprises d’IA utilisent désormais l’apprentissage par renforcement pour améliorer leurs systèmes. Cette méthode permet aux IA d’apprendre par essais et erreurs, ce qui fonctionne bien pour certaines tâches mais pas pour d’autres. Laura Perez-Beltrachini, chercheuse à l’université d’Édimbourg, explique que cette approche peut amener les IA à se concentrer sur une tâche au détriment d’autres aspects. Les ingénieurs continuent de chercher des solutions pour réduire les hallucinations et améliorer la fiabilité des systèmes d’IA.

En conclusion, bien que les systèmes d’IA soient de plus en plus puissants, leurs hallucinations restent un problème majeur. Les entreprises d’IA doivent continuer à rechercher des moyens de réduire ces erreurs pour garantir la fiabilité des informations fournies par les robots d’IA…   Source

Laisser un commentaire