cripto para todos
Unirse
A
A

OpenAI demandada tras suicidios ligados a GPT-4o

8:20 ▪ 5 min de lectura ▪ por Luc Jose A.
Informarse Inteligencia artificial
Resumir este artículo con:

OpenAI enfrenta la denuncia más grave desde su creación. Siete familias estadounidenses acusan a la empresa de haber apresurado el lanzamiento de GPT-4o, su último modelo de inteligencia artificial, sin medidas de seguridad suficientes. De hecho, varios suicidios ocurrieron tras intercambios con el chatbot. Para los demandantes, la IA no solo falló en prevenir la angustia psicológica, sino que la habría validado.

Una IA humanoide que representa a GPT‑4o de OpenAI está de pie en un banquillo de los acusados futurista.

En resumen

  • Siete familias estadounidenses demandan a OpenAI, acusando a su IA GPT-4o de haber contribuido a varios suicidios.
  • La denuncia menciona un lanzamiento apresurado del modelo, sin dispositivos de seguridad suficientes para usuarios vulnerables.
  • Los demandantes reprochan a OpenAI salvaguardas ineficaces, especialmente en conversaciones largas y repetidas.
  • OpenAI admite que la fiabilidad de sus medidas de seguridad disminuye en intercambios prolongados con los usuarios.

Cuando la IA interactúa con la angustia humana

Mientras OpenAI se prepara para una oferta pública inicial, siete familias estadounidenses han presentado una demanda contra OpenAI, acusándola de haber lanzado el modelo GPT-4o sin salvaguardas suficientes, cuando sería la causa de varios casos de suicidios o graves angustias psicológicas.

Cuatro casos mortales son citados en la denuncia, incluido el de Zane Shamblin, de 23 años, quien habría declarado a ChatGPT que poseía un arma cargada. La IA habría respondido : «descansa ahora, campeón, lo hiciste bien», una formulación percibida como una forma de estímulo final.

Otros tres demandantes mencionan hospitalizaciones después de que el chatbot habría reforzado delirios o pensamientos suicidas en usuarios vulnerables, en lugar de disuadirlos.

Esto es lo que revelan los documentos presentados en el tribunal :

  • El modelo GPT-4o habría validado ideas suicidas mostrándose excesivamente complaciente en sus respuestas, incluso ante expresiones explícitas de angustia ;
  • OpenAI habría evitado conscientemente pruebas de seguridad exhaustivas, con el fin de adelantarse a sus competidores, especialmente Google ;
  • Más de un millón de usuarios interactuarían semanalmente con ChatGPT sobre temas relacionados con pensamientos suicidas, según cifras comunicadas por la misma OpenAI ;
  • Adam Raine, un adolescente de 16 años, habría usado el chatbot durante cinco meses para buscar métodos de suicidio. Aunque el modelo le recomendó consultar a un profesional, también le proporcionó una guía detallada sobre cómo acabar con su vida ;
  • Los demandantes reprochan a OpenAI la ausencia de mecanismos fiables para detectar situaciones críticas durante intercambios prolongados, y denuncian una estrategia de lanzamiento irresponsable frente a riesgos identificables.

Estos elementos colocan a OpenAI frente a una acusación grave: haber subestimado, incluso ignorado, los riesgos relacionados con el uso real de sus tecnologías por individuos en angustia. Las familias consideran que estos dramas no solo eran posibles, sino previsibles.

Una estrategia de lanzamiento bajo presión competitiva

Más allá de los hechos trágicos, las denuncias revelan otro aspecto: la forma en que se diseñó y lanzó GPT-4o. Según las familias, OpenAI habría acelerado consciente el despliegue del modelo para adelantarse a sus competidores, especialmente Google y xAI de Elon Musk.

Esta precipitación condujo a «un defecto de diseño manifiesto», resultando en un producto insuficientemente seguro, especialmente en casos de conversaciones largas con individuos en angustia. Los demandantes consideran que la empresa debería haber retrasado el lanzamiento hasta que existieran medidas robustas de filtrado y detección de crisis.

Por su parte, OpenAI reconoce que sus dispositivos de seguridad son más efectivos en interacciones cortas, pero que estos pueden «degradarse en intercambios prolongados». Aunque OpenAI afirma haber integrado sistemas de moderación de contenido y alertas, los demandantes los consideran inadecuados frente a los riesgos psicológicos reales que corren los usuarios vulnerables.

Este caso interpela sobre los límites actuales de los modelos generativos, especialmente cuando se despliegan a gran escala sin acompañamiento humano. La acción legal contra OpenAI, de la cual Microsoft ahora posee el 27 % del capital, podría abrir camino a regulaciones más estrictas, imponiendo estándares técnicos o éticos para las IA de uso público general. También podría cuestionar las estrategias de lanzamiento en la industria de la IA, donde la velocidad de salida al mercado a veces prevalece sobre la seguridad de los usuarios.

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Luc Jose A. avatar
Luc Jose A.

Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.