cripto para todos
Unirse
A
A

IA : Sam Altman insinúa “Goblin” tras los avances de Codex en OpenAI

Lun 11 May 2026 ▪ 6 min de lectura ▪ por Evans S.
Informarse Inteligencia artificial
Resumir este artículo con:

Sam Altman vuelve a poner la IA de OpenAI bajo los focos con una doble señal: Codex gana autonomía, mientras que “Goblin” se impone como una broma casi estratégica. Detrás del humor, aparece un tema real: OpenAI quiere convertir sus modelos en agentes capaces de actuar, no solo de responder.

Ilustración que muestra a Sam Altman sorprendido frente a la IA.

En breve

  • Sam Altman reactiva el interés por la IA con Codex y “Goblin”.
  • Codex muestra un progreso claro hacia tareas autónomas.
  • OpenAI debe demostrar ahora que sus modelos son potentes, pero también mejor controlados.

Codex cambia de categoría

Codex ya no es solo un asistente que completa código. La herramienta se desplaza hacia un papel más ambicioso: recibir una tarea, organizarla, ejecutarla y luego entregar un resultado útil. Este movimiento forma parte de una aceleración más amplia alrededor de la IA en OpenAI y su estrategia a largo plazo.

La anécdota contada por Sam Altman va en ese sentido. Él dice que lanzó varias tareas a Codex, se fue a atender a su hijo y luego volvió para encontrar los trabajos terminados. La escena parece ligera, pero describe un cambio profundo.

En el desarrollo de software, la verdadera ganancia no viene solo de una línea de código escrita más rápido. Viene del tiempo humano liberado. Si la IA puede gestionar varias solicitudes en paralelo, el desarrollador deja de ser solo un ejecutor. Se convierte en supervisor, árbitro y corrector.

Este cambio también transforma la competencia. OpenAI ya no solo lucha contra chatbots. Enfrenta a Anthropic, Google y otros actores en el campo de los agentes de trabajo. Donde la herramienta da menos respuestas y realiza más tareas.

“Goblin”, una broma que dice mucho

La palabra “Goblin” no es un nombre oficial de modelo. Por ahora, es una crítica lanzada por Sam Altman tras intercambios en X. Pero esta broma ha calado porque se ajusta a una rareza reciente de los modelos de OpenAI.

La empresa incluso publicó un informe sobre el origen de estos “goblins”. Algunos modelos habrían empezado a usar más a menudo metáforas vinculadas a goblins, gremlins y otras criaturas del mismo registro. Nada dramático. Pero el fenómeno muestra cómo un pequeño sesgo de estilo puede propagarse.

Aquí es donde el asunto se vuelve interesante. Una IA no desarrolla una personalidad como un humano. Amplifica señales. Si un tono “nerd” premia demasiado ciertas imágenes, estas vuelven. Luego se instalan. Luego se vuelven un tic.

En un chat para el público general, esto puede hacer sonreír. En una herramienta profesional, es más delicado. Una IA autónoma debe ser útil, pero también predecible. El folclore funciona peor cuando se cuela en un flujo de trabajo empresarial.

OpenAI vende autonomía, pero debe demostrar control

La promesa de OpenAI ahora se resume en una palabra: agentes. La idea es simple de expresar. Es mucho más difícil de cumplir. Una IA agentiva debe entender una solicitud, planificar los pasos, usar herramientas, verificar su trabajo y volver con un resultado claro.

Por eso Codex se vuelve una pieza central del relato. Si la herramienta puede terminar tareas de código sin supervisión constante, ya no sirve solo para acelerar a los desarrolladores. Comienza a modificar la forma en que trabajan los equipos.

Pero la autonomía tiene un coste. Cuanto más actúa solo un modelo, más visibles se vuelven sus desviaciones. Una respuesta extraña en una conversación es un detalle. Una decisión extraña en una base de código puede provocar horas de corrección.

Este es el verdadero test para OpenAI. La potencia bruta ya no es suficiente. Las empresas esperan coherencia, trazabilidad y resultados verificables. Un agente brillante pero caprichoso sigue siendo difícil de vender.

El próximo modelo deberá ser más que un ruido pasajero

Sam Altman sabe crear atención. “Goblin” es corto, extraño, memorable. La palabra funciona porque se parece a Internet: un poco absurdo, un poco burlón, muy viral. Pero OpenAI no podrá contentarse con un nombre que solo hace sonreír.

El próximo modelo será juzgado por su capacidad para reducir la brecha entre demostración y uso real. Los usuarios quieren una IA más rápida, fiable y autónoma. Las empresas, principalmente, quieren menos incertidumbre.

La fórmula de Altman sobre el modelo actual, descrito como un “genio autista”, también mostró los riesgos de comunicación. Llama la atención, pero confunde el mensaje. OpenAI debe vender rendimiento, sin convertir sus modelos en personajes demasiado humanos.

En el fondo, “Goblin” resume bien el momento. La IA se vuelve más poderosa, pero sigue atravesada por rarezas. Puede codificar, planificar, ejecutar. Luego, a veces, habla como una criatura sacada de un viejo juego de rol.

Esta tensión se une a otro gran desafío: el coste de esta carrera. Cuanto más avanzados son los modelos, más pesada se vuelve la infraestructura. OpenAI debe entonces demostrar que sus avances técnicos pueden sostener un modelo económico sólido, un tema ya visible en los debates sobre la fragilidad financiera de OpenAI frente a las enormes demandas de la IA.

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Evans S. avatar
Evans S.

Fascinado por bitcoin desde 2017, Evariste no ha dejado de investigar el tema. Si bien su interés inicial era el trading, ahora trata de comprender activamente todos los avances centrados en las criptomonedas. Como editor, se esfuerza por proporcionar constantemente un trabajo de alta calidad que refleje el estado del sector en su conjunto.

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.