La fin des hallucinations de l’IA ? Microsoft croit avoir la bonne formule

Manuel Lodjo
4 min de lecture
Découvrez si l'outil « Correction » de Microsoft résout réellement les problèmes d'hallucinations des IA... ou s'il s'agit d'une fausse promesse.

Peut-on vraiment faire confiance aux IA pour corriger leurs propres hallucinations?

Comment sait-on qu’une IA ment ? Ses lèvres bougent.

Bon d’accord, ni ChatGPT ni Gemini n’ont de lèvres, mais elles ont bien un petit problème avec la vérité. On appelle ça des « hallucinations ».

Non, on ne parle de champignons hallucinogènes ici, mais plutôt de réponses1 complètement fausses, illogiques ou inventées avec un aplomb déconcertant.

Parce que oui, l’IA générative, a beau être la hype du moment, elle peut être une sacrée menteuse quand elle veut.

Citations bidons, faits inventés, images historiquement inexactes : la liste est longue.

La bonne nouvelle, c’est que Microsoft affirme avoir trouvé la parade pour combattre les confabulations des IA. Mais bon, soyons honnêtes, c’est loin d’être une solution miracle.

Alors, c’est quoi le deal ?

Intégrée à Azure AI Content Safety, « Correction » est censée être la panacée pour les hallucinations.

Le concept est assez simple : un premier modèle d’IA repère les passages douteux, tandis qu’un second se charge de les corriger, en s’appuyant sur des documents de référence. Comme ça, plus de blabla sans queue ni tête, juste du contenu vérifié et fiable.

Sur le papier, cette approche a de quoi séduire.

Qui ne voudrait pas d’une IA plus « digne de confiance » ? Surtout dans des domaines comme la santé ou la finance ou la moindre erreur peut entraîner des conséquences désastreuses.

Avec Correction, la firme de Redmond espère donc rassurer les entreprises qui hésitent encore à se lancer dans l’utilisation de l’IA.

Petit rappel en passant : Google a lui aussi introduit une fonctionnalité similaire cet été dans Vertex AI, sa plateforme de développement d’IA. Sans oublier OpenAI qui avait aussi fait sortir CritiqueGPT2 pour « détecter les erreurs dans la sortie de code de ChatGPT ».

Mais soyons réalistes : est-ce qu’on peut vraiment faire confiance à une IA qui en corrige une autre ? Ça sent la promesse en carton, non ?😬

Ce que disent les experts

Selon Os Keyes, doctorant à l’Université de Washington, la structure même des modèles de langage rend les hallucinations presque inévitables comme le confirme une autre étude3 publiée cette année.

Pour lui4 :

Essayer d’éliminer les hallucinations de l’IA, c’est comme essayer d’enlever l’hydrogène de l’eau.

Os Keyes

Autrement dit, bonne chance, les gars !

Mais voilà que l’outil « Correction » repose lui-même sur des IA.

Savez-vous ce que ça veut dire ?

Oui, ces modèles qui corrigent peuvent eux aussi halluciner. Je vous laisse imaginer.

Mike Cook de l’université Queen Mary, a lui aussi un doute. Il craint que cet outil ne donne un « faux sentiment de sécurité ».

En gros, les utilisateurs risquent de croire que leurs modèles IA sont enfin fiables, alors qu’ils continuent à dire n’importe quoi de temps en temps.

Microsoft nous propose un pansement sur une jambe de bois ?

Nous sommes d’accord, « Correction » peut certainement réduire les hallucinations mais ne règle pas selon les experts la cause profonde du problème.

Alors oui, cette solution peut rassurer les entreprises et faciliter l’adoption de l’IA dans des domaines sensibles.

Mais croire en une IA parfaite et infaillible ? C’est probablement la plus grosse hallucination de toutes… 😉

Et vous ?

Que pensez-vous de la fonctionnalité « Correction » de Microsoft ? Est-ce une réelle avancée ou un leurre ? Partagez vos avis dans les commentaires, on vous lit avec plaisir !


Références

  1. Qu’est-ce que l’hallucination de l’IA et peut-on y remédier ?. Geekflare, du 3 juillet 2024. Consulté le 01 octobre 2024. ↩︎
  2. Finding GPT-4’s mistakes with GPT-4. OpenAI, du 27 juin 2024. Consulté le 01 Octobre 2024.
    ↩︎
  3. [PDF] Hallucination is Inevitable: An Innate Limitation of Large Language Models.Semantic Scholar, du  22 janvier 2024. Consulté le 01 Octobre 2024. ↩︎
  4. Microsoft claims its new tool can correct AI hallucinations, but experts advise caution. TechCrunch, du 24 septembre 2024. Consulté le 01 Octobre 2024.
    ↩︎

Partagez cet article
Laisser un commentaire