la crypto pour tous
Rejoindre
A
A

L'IA ne comprend toujours pas le mot « non », révèle une étude du MIT

11h00 ▪ 3 min de lecture ▪ par Fenelon L.
S'informer Intelligence Artificielle

Une recherche menée par le Massachusetts Institute of Technology expose une faille majeure de l’intelligence artificielle (IA) : son incapacité à saisir correctement la négation. Cette lacune pourrait avoir des conséquences dramatiques dans des secteurs critiques comme la santé.

Chercheur MIT en blouse, pointant du doigt avec expression de découverte, posture penchée vers l'avant, regard concentré et révélateur. Écran d'ordinateur affichant erreur IA avec "NON" mal interprété

En bref

  • L’IA moderne échoue systématiquement à comprendre les mots « non » et « pas ».
  • Cette défaillance pose des risques majeurs dans le domaine médical et juridique.
  • Le problème réside dans la méthode d’entraînement basée sur l’association plutôt que sur le raisonnement logique.

L’IA ne comprend toujours pas les mots « non »  et  « pas »

Une équipe de recherche dirigée par Kumail Alhamoud, doctorant au MIT, a mené cette étude en partenariat avec OpenAI et l’Université d’Oxford. 

Leurs travaux révèlent une faille troublante : les systèmes d’IA les plus avancés échouent systématiquement face aux négations. Des modèles réputés comme ChatGPT, Gemini et Llama privilégient constamment les associations positives, ignorant les termes de négation pourtant explicites.

Le secteur médical illustre parfaitement cette problématique. Lorsqu’un radiologue rédige un rapport mentionnant « pas de fracture » ou « aucun élargissement », l’IA risque de mal interpréter ces informations vitales. 

Cette confusion pourrait engendrer des erreurs diagnostiques aux conséquences potentiellement fatales pour les patients.

La situation empire avec les modèles vision-langage, ces systèmes hybrides qui analysent conjointement images et textes. Ces technologies montrent un biais encore plus prononcé envers les termes positifs. 

Elles échouent souvent à différencier les descriptions positives des négatives, multipliant les risques d’erreur dans l’imagerie médicale assistée par IA.

Un problème d’entraînement, pas de données

Franklin Delehelle, ingénieur de recherche chez Lagrange Labs, explique que le cœur du problème ne réside pas dans le manque de données. Les modèles actuels excellent à reproduire des réponses similaires à leur formation, mais peinent à générer des réponses véritablement nouvelles.

Kian Katanforoosh, professeur à Stanford, précise que les modèles linguistiques fonctionnent par association, non par raisonnement logique. Quand ils rencontrent « pas bien », ils associent automatiquement « bien » à un sentiment positif, ignorant la négation.

Cette approche crée des erreurs subtiles, mais critiques, particulièrement dangereuses dans les applications juridiques, médicales ou de ressources humaines. Contrairement aux humains, l’IA ne parvient pas à surmonter ces associations automatiques.

Les chercheurs explorent des pistes prometteuses avec des données de négation synthétiques. Cependant, Katanforoosh souligne qu’augmenter simplement les données d’entraînement ne suffit pas. 

La solution réside dans le développement de modèles capables de raisonnement logique, combinant apprentissage statistique et pensée structurée. Cette évolution représente le défi majeur de l’intelligence artificielle moderne.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.



Rejoindre le programme
A
A
Fenelon L. avatar
Fenelon L.

Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.