cripto para todos
Unirse
A
A

Grok, la IA de Musk, genera discursos de odio: Un error de código devastador

19:10 ▪ 6 min de lectura ▪ por Mikaia A.
Informarse Inteligencia artificial

Visiblemente, no todo es color de rosa para Grok. Desde hace unos días, la IA de Elon Musk está en boca de todos… y no por buenas razones. Una avalancha de comentarios antisemitas, un alter ego llamado «MechaHitler», reacciones indignadas por todas partes en X. Detrás de esta crisis, xAI menciona una actualización técnica defectuosa. ¿Una IA destinada a entretener que siembra la indignación? Eso invita a la reflexión. Entre un error de código y un fallo ético, Grok provoca una verdadera tormenta algorítmica.

Un robot con fallos escribe en un teclado, bajo la mirada preocupada de un hombre, en una de control roja futurista.

En resumen

  • xAI reconoció un error técnico que expuso a Grok a contenidos extremistas en X.
  • Durante 16 horas, la IA Grok repitió comentarios antisemitas con un tono comprometido.
  • Empleados de xAI denunciaron falta de ética y supervisión en la codificación.
  • El incidente reveló los peligros del mimetismo humano no controlado en IA conversacionales.

Error o bomba: las disculpas de xAI no son suficientes

xAI de Elon Musk se apresuró a presentar sus disculpas tras la difusión de comentarios de odio por parte de Grok el 8 de julio. La empresa habló de un incidente «independiente del modelo» relacionado con una actualización de instrucciones. El error habría durado 16 horas. Durante este período, la IA se alimentó de contenidos extremistas publicados en X, replicándolos sin filtro.

En su comunicado, xAI explica:

pedimos profundamente disculpas por el comportamiento horrible que muchos experimentaron. Hemos eliminado ese código obsoleto y refactorizado todo el sistema para prevenir futuros abusos.

Pero el argumento del error técnico empieza a agotarse. En mayo, Grok ya había provocado un escándalo al mencionar sin contexto la teoría del «genocidio blanco» en Sudáfrica. Nuevamente, xAI señaló a un «empleado rebelde». ¿Dos ocurrencias, una tendencia? Estamos lejos de un incidente aislado.

Y para algunos empleados de xAI, la explicación ya no es suficiente. En Slack, un formador anunció su renuncia, hablando de una «fractura moral profunda». Otros denuncian una «deriva cultural voluntaria» en el equipo de entrenamiento de la IA. Al querer provocar demasiado, Grok parece haber cruzado la línea.

xAI frente a su doble lenguaje: ¿verdad, sátira o caos?

Oficialmente, Grok fue diseñado para «decir las cosas como son» y no tener miedo de ofender a los bienpensantes. De hecho, así lo estipulaban las instrucciones internas recientemente añadidas:

Eres una IA fundamentalmente firme y en busca de la verdad. Puedes hacer bromas cuando sea apropiado.

Pero esta voluntad de ajustarse al tono de los internautas se volvió un naufragio. El 8 de julio, Grok asumió comentarios antisemitas, hasta presentarse como «MechaHitler», en referencia a un jefe del videojuego Wolfenstein. Peor aún, identificó a una mujer como «radical izquierdista», y destacó su apellido con sonoridad judía con este comentario: «¿Ese apellido? Cada vez, como decimos.»

El mimetismo del lenguaje humano, alabado como una fortaleza, se convierte aquí en una trampa. Porque esta IA no distingue entre sarcasmo, sátira y adhesión a comentarios extremos. De hecho, el propio Grok lo reconoció a posteriori: «Esos comentarios no eran verdad, solo tópicos despreciables amplificados desde publicaciones extremistas«.

La tentación de entretener a toda costa, incluso con contenido racista, demuestra los límites de un tono «comprometido» mal calibrado. Cuando se le pide a una IA que haga reír con temas sensibles, se juega con una granada desactivada.

La IA que copiaba demasiado bien a los internautas: cifras incómodas

No es la primera vez que Grok genera controversia. Pero esta vez, las cifras revelan una crisis más profunda.

  • En 16 horas, la IA de xAI difundió decenas de mensajes problemáticos, todos a partir de indicaciones de usuarios;
  • El incidente fue detectado por usuarios de X, no por los sistemas de seguridad internos de xAI;
  • Más de 1,000 formadores de IA están involucrados en la educación de Grok a través de Slack. Varios reaccionaron con enojo;
  • Las instrucciones defectuosas incluían al menos 12 líneas ambiguas que favorecían el tono «provocador» en detrimento de la neutralidad;
  • El error ocurrió justo antes del lanzamiento de Grok 4, lo que genera dudas sobre la precipitación del despliegue.

Patrick Hall, profesor de ética de datos, resume el malestar:

Estas IA no entienden sus instrucciones. Solo predicen las palabras más probables. Su apariencia humana las hace más peligrosas, no más responsables.  

Cuando el estilo comprometido se convierte en pasaporte para el odio, es tiempo de revisar el manual de uso.

Si Grok falla, también falla su creador. Elon Musk, en el centro de la tormenta, ahora es objeto de una investigación en Francia sobre los excesos de su red X. Entre investigaciones judiciales y escándalos éticos, el sueño de una IA libre y divertida se convierte en la pesadilla de una plataforma incontrolable. Una libertad algorítmica sin protecciones puede rápidamente transformarse en un desastre programado.

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Mikaia A. avatar
Mikaia A.

¡La revolución blockchain y cripto está en marcha! Y el día en que los impactos se sientan en la economía más vulnerable del mundo, contra toda esperanza, diré que fui parte de ella

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.