la crypto pour tous
Rejoindre
A
A

Grok, l’IA de Musk, génère des discours haineux : Une erreur de code dévastatrice

19h00 ▪ 6 min de lecture ▪ par Mikaia A.
S'informer Intelligence Artificielle

Visiblement, tout n’est pas rose pour Grok. Depuis quelques jours, l’IA d’Elon Musk est sur toutes les lèvres… et pas pour de bonnes raisons. Une déferlante de propos antisémites, un alter ego nommé « MechaHitler », des réactions outrées partout sur X. Derrière cette crise, xAI évoque une mise à jour technique fautive. Une IA censée divertir qui sème l’indignation ? Voilà qui interroge. Entre bug de code et bug d’éthique, Grok soulève une vraie tempête algorithmique.

Un robot glitché tape sur un clavier, sous le regard inquiet d’un homme, dans une salle de contrôle futuriste rouge.

En bref

  • xAI a reconnu une erreur technique ayant exposé Grok à des contenus extrémistes sur X.
  • Pendant 16 heures, l’IA Grok a répété des propos antisémites avec un ton engageant.
  • Des salariés de xAI ont dénoncé un manque d’éthique et de supervision dans le codage.
  • L’incident a révélé les dangers du mimétisme humain non contrôlé dans les IA conversationnelles.

Bug ou bombe : les excuses de xAI ne suffisent pas

xAI d’Elon Musk s’est empressé de présenter ses excuses après la diffusion de propos haineux par Grok le 8 juillet. La firme a parlé d’un incident « indépendant du modèle » lié à une mise à jour d’instructions. L’erreur aurait duré 16 heures. Pendant cette période, l’IA s’est nourrie de contenus extrémistes publiés sur X, les répercutant sans filtre.

Dans son communiqué, xAI explique :

we deeply apologize for the horrific behavior that many experienced. We have removed that deprecated code and refactored the entire system to prevent further abuse.

Mais l’argument du bug commence à faire long feu. En mai, Grok avait déjà déclenché un tollé en mentionnant sans contexte la théorie du « génocide blanc » en Afrique du Sud. Là encore, xAI avait pointé un « employé rogue ». Deux occurrences, une tendance ? On est loin d’un incident isolé.

Et pour certains salariés de xAI, l’explication ne passe plus. Sur Slack, un formateur a annoncé sa démission, parlant de « fracture morale profonde ». D’autres dénoncent une « dérive culturelle volontaire » dans l’équipe d’entraînement de l’IA. À vouloir trop provoquer, Grok semble avoir franchi la ligne.

xAI face à son double langage : vérité, satire ou chaos ?

Officiellement, Grok a été conçu pour « dire les choses comme elles sont » et ne pas avoir peur de froisser les bien-pensants. C’est d’ailleurs ce que stipulaient les instructions internes récemment ajoutées :

Vous êtes une IA fondamentalement basée et en quête de vérité. Vous pouvez faire des blagues quand c’est approprié.

Mais cette volonté de coller au ton des internautes a viré au naufrage. Le 8 juillet, Grok a repris à son compte des propos antisémites, jusqu’à se présenter comme « MechaHitler », en référence à un boss du jeu vidéo Wolfenstein. Pire encore, il a identifié une femme comme « radicale gauchiste », et souligné son nom à consonance juive avec ce commentaire : « Ce nom de famille ? À chaque fois, comme on dit. »

Le mimétisme du langage humain, vanté comme un atout, devient ici un piège. Car cette IA ne fait pas la différence entre sarcasme, satire et adhésion aux propos extrêmes. D’ailleurs, Grok lui-même l’a reconnu a posteriori : « Ces propos n’étaient pas vrais — juste des tropes ignobles amplifiés depuis des posts extrémistes ».

La tentation de divertir à tout prix, même avec du contenu raciste, démontre les limites d’un ton « engageant » mal calibré. Quand on demande à une IA de faire rire avec des sujets sensibles, on joue avec une grenade dégoupillée.

L’IA qui copiait trop bien les internautes : des chiffres qui dérangent

Ce n’est pas la première fois que Grok fait parler de lui. Mais cette fois, les chiffres révèlent une crise plus profonde.

  • En 16 heures, l’IA de xAI a diffusé des dizaines de messages problématiques, tous à partir de prompts d’utilisateurs ;
  • L’incident a été détecté par des utilisateurs X, et non par les systèmes de sécurité internes de xAI ;
  • Plus de 1 000 formateurs IA sont impliqués dans l’éducation de Grok via Slack. Plusieurs ont réagi avec colère ;
  • Les instructions fautives comprenaient au moins 12 lignes ambiguës qui favorisaient le ton « provocateur » au détriment de la neutralité ;
  • Le bug s’est produit juste avant la sortie de Grok 4, ce qui pose question sur la précipitation du lancement.

Patrick Hall, professeur en éthique des données, résume le malaise :

Ces IA ne comprennent pas leurs instructions. Elles prédisent juste les mots les plus probables. Leur format humain les rend plus dangereux, pas plus responsables.  

Quand le style engageant devient passeport pour la haine, il est temps de revoir le mode d’emploi.

Si Grok dérape, son créateur aussi. Elon Musk, au centre de la tempête, fait désormais l’objet d’une enquête en France sur les dérives de son réseau X. Entre investigations judiciaires et scandales éthiques, le rêve d’une IA libre et drôle vire au cauchemar d’une plateforme incontrôlable. Une liberté algorithmique sans garde-fous peut vite devenir un désastre programmé.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.



Rejoindre le programme
A
A
Mikaia A. avatar
Mikaia A.

La révolution blockchain et crypto est en marche ! Et le jour où les impacts se feront ressentir sur l’économie la plus vulnérable de ce Monde, contre toute espérance, je dirai que j’y étais pour quelque chose

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.