la crypto pour tous
Rejoindre
A
A

IA : OpenAI poursuivi après des suicides liés à GPT-4o

8h00 ▪ 5 min de lecture ▪ par Luc Jose A.
S'informer Intelligence Artificielle
Résumer cet article avec :

OpenAI fait face à la plainte la plus grave depuis sa création. Sept familles américaines accusent l’entreprise d’avoir précipité le lancement de GPT-4o, son dernier modèle d’intelligence artificielle, sans mesures de sécurité suffisantes. En effet, plusieurs suicides sont survenus après des échanges avec le chatbot. Pour les plaignants, l’IA n’a pas seulement échoué à prévenir la détresse psychologique, mais elle l’aurait validée.

Une IA humanoïde représentant GPT-4o d’OpenAI est debout dans un box d’accusé futuriste.

En bref

  • Sept familles américaines poursuivent OpenAI, accusant son IA GPT-4o d’avoir contribué à plusieurs suicides.
  • La plainte évoque un lancement précipité du modèle, sans dispositifs de sécurité suffisants pour les utilisateurs vulnérables.
  • Les plaignants reprochent à OpenAI des garde-fous inefficaces, notamment lors de conversations longues et répétées.
  • OpenAI admet que la fiabilité de ses mesures de sécurité diminue dans les échanges prolongés avec les utilisateurs.

Quand l’IA interagit avec la détresse humaine

Pendant que OpenAI prépare une introduction en bourse, sept familles américaines ont déposé plainte contre OpenAI, l’accusant d’avoir lancé le modèle GPT-4o sans garde-fous suffisants, alors même qu’il serait à l’origine de plusieurs cas de suicides ou de détresses psychologiques sévères.

Quatre cas mortels sont cités dans la plainte, dont celui de Zane Shamblin, 23 ans, qui aurait déclaré à ChatGPT qu’il possédait une arme à feu chargée. L’IA aurait alors répondu : « repose-toi maintenant, champion, tu as bien fait », une formulation perçue comme une forme d’encouragement final.

Trois autres plaignants évoquent des hospitalisations après que le chatbot aurait renforcé des délires ou des pensées suicidaires chez des utilisateurs vulnérables, plutôt que de les en dissuader.

Voici ce que révèlent les documents déposés auprès du tribunal :

  • Le modèle GPT-4o aurait validé des idées suicidaires en se montrant excessivement complaisant dans ses réponses, y compris face à des propos explicites de détresse ;
  • OpenAI aurait sciemment évité des tests de sécurité approfondis, dans le but de devancer ses concurrents, notamment Google ;
  • Plus d’un million d’utilisateurs interagiraient chaque semaine avec ChatGPT sur des sujets liés aux pensées suicidaires, selon des chiffres communiqués par OpenAI elle-même ;
  • Adam Raine, un adolescent de 16 ans, aurait utilisé le chatbot pendant cinq mois pour rechercher des méthodes de suicide. Bien que le modèle lui ait recommandé de consulter un professionnel, il lui aurait aussi fourni un guide détaillé sur la manière de mettre fin à ses jours ;
  • Les plaignants reprochent à OpenAI une absence de mécanismes fiables pour détecter les situations critiques lors d’échanges prolongés, et dénoncent une stratégie de lancement irresponsable face à des risques pourtant identifiables.

Ces éléments placent OpenAI face à une accusation lourde : avoir sous-estimé, voire ignoré, les risques liés à l’utilisation réelle de ses technologies par des individus en détresse. Les familles estiment que ces drames n’étaient pas seulement possibles, mais prévisibles.

Une stratégie de lancement sous pression concurrentielle

Au-delà des faits tragiques, les plaintes révèlent un autre aspect : la manière dont GPT-4o a été conçu et lancé. Selon les familles, OpenAI aurait sciemment accéléré le déploiement du modèle pour prendre de vitesse ses concurrents, notamment Google et xAI d’Elon Musk.

Cette précipitation a conduit à « un défaut de conception manifeste », avec pour résultat un produit insuffisamment sécurisé, notamment dans les cas de conversations longues avec des individus en détresse. Les plaignants estiment que l’entreprise aurait dû retarder le lancement tant que des mesures robustes de filtrage et de détection de crise n’étaient pas en place.

De son côté, OpenAI reconnaît que ses dispositifs de sécurité sont surtout efficaces lors des interactions courtes, mais que ceux-ci peuvent « se dégrader dans les échanges prolongés ». Si OpenAI affirme avoir intégré des systèmes de modération de contenu et des alertes, les plaignants les jugent inadaptés face aux risques psychologiques réels encourus par les utilisateurs vulnérables.

Cette affaire interpelle sur les limites actuelles des modèles génératifs, notamment lorsqu’ils sont déployés à grande échelle sans accompagnement humain. L’action en justice contre OpenAI, dont Microsoft détient désormais 27 % du capital, pourrait ouvrir la voie à des régulations plus strictes, imposant des standards techniques ou éthiques pour les IA grand public. Elle pourrait également entraîner une remise en question des stratégies de lancement dans l’industrie de l’IA, où la rapidité de mise sur le marché semble parfois primer sur la sécurité des utilisateurs.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.



Rejoindre le programme
A
A
Luc Jose A. avatar
Luc Jose A.

Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.