OpenAI quiere crear una red social sin cuentas falsas gracias a World ID
OpenAI estaría considerando crear una red social donde el registro se realizaría mediante una prueba de humanidad, a través de World ID y sus “Orbes” de escaneo ocular. La idea, reportada por varios medios, es simple en el papel: cortar el paso a los bots y a los ejércitos de cuentas falsas, que se han convertido en un ruido de fondo permanente en X, Instagram o TikTok.

En resumen
- OpenAI estaría estudiando una red social con verificación “anti-bot” mediante World ID.
- La biometría promete una web más limpia, pero aumenta la fricción y reaviva los debates sobre la privacidad.
- Si el proyecto se lanza, la diferencia se jugará tanto en el producto como en la confianza.
Una red social «solo humanos», la idea que vuelve como un boomerang
El contexto importa. Sam Altman se encuentra en el centro de dos proyectos que abordan el mismo problema. OpenAI fabrica la IA más utilizada por el gran público. World, llevado por Tools for Humanity, impulsa una identidad digital que se supone prueba que «eres realmente tú», sin necesariamente mostrar tu nombre. Las fuentes incluso mencionan una posible mezcla con Face ID de Apple, como complemento biométrico.
Este proyecto parece ser una respuesta directa a una realidad embarazosa. Las plataformas sociales necesitan compromiso. Pero el compromiso se manipula. Los bots inflan las vistas, manipulan las tendencias, alimentan debates fantasma. Una red de «humanos verificados» se convierte entonces en un argumento de marketing tanto como en una elección técnica.
No es la primera vez que OpenAI coquetea con la idea de una plataforma social. The Verge ya informó sobre la existencia de un prototipo interno, descrito como un flujo social tipo X, con componentes derivados de ChatGPT. Reuters retomó estos elementos precisando que el formato final seguía siendo incierto, entre una app dedicada y la integración en la IA ChatGPT.
La lógica estratégica es clara. Una red social es un grifo de contenidos frescos, en tiempo real. También es un terreno ideal de experimentación para herramientas de creación, moderación y recomendación. El quid de la cuestión es la calidad de la señal. Y los bots la contaminan.
World ID y los Orbes, promesa de limpieza… y fuente de tensiones
World se apoya en un dispositivo físico, el Orb, para verificar la humanidad de un usuario a través del iris. Una vez verificado, el usuario recibe un World ID. El proyecto está desarrollado por Tools for Humanity, una estructura cofundada por Sam Altman, y ya se ha desplegado a gran escala en varios países.
En cuanto a la parte de «privacidad», Tools for Humanity insiste en un mensaje: el Orb usaría los datos en memoria temporal cifrada en el momento de la verificación, para luego eliminarlos, manteniendo una copia cifrada conservada en el dispositivo del usuario. Dicho así, suena limpio. Pero este tipo de promesa depende de detalles de implementación, auditorías y la confianza en la gobernanza.
Ahí es donde aparece la fricción. Los escaneos oculares provocan una reacción visceral en muchas personas. Algunos lo ven como un avance pragmático. Otros, como una pendiente resbaladiza hacia una identidad impuesta por la biometría. World ya ha sido criticado en estos temas y ha enfrentado preguntas regulatorias y mediáticas recurrentes.
La verdadera apuesta de OpenAI, más allá de la caza de bots
Una red social «verificada humana» no resuelve todo. Un humano puede trollear, acosar, enviar spam o manipular. La verificación reduce una categoría de molestias, sobre todo las que se basan en IA o automatización masiva. No garantiza un debate sano. Desplaza la batalla hacia la moderación y las incentivos del producto.
La apuesta de OpenAI, si se confirma, es también una apuesta de experiencia de usuario. Escanear tu iris para publicar un mensaje es una barrera fuerte. Aunque el objetivo sea noble, a la mayoría de las personas no les gustan las fricciones. Por eso el proyecto deberá ofrecer un beneficio inmediato y tangible: menos spam, más conversaciones útiles y una sensación de «mundo real» en línea.
Queda una cuestión política, en sentido amplio. Cuando la empresa que populariza la IA también propone el sistema que distingue humanos y máquinas, ocupa dos extremos del mismo conducto. Algunos verán coherencia. Otros, un conflicto de intereses o una concentración de poder. Este debate no será teórico: formará parte del lanzamiento, si es que se produce. Vitalik Buterin también tiene otros planes para salvar el anonimato en línea.
¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.
Fascinado por bitcoin desde 2017, Evariste no ha dejado de investigar el tema. Si bien su interés inicial era el trading, ahora trata de comprender activamente todos los avances centrados en las criptomonedas. Como editor, se esfuerza por proporcionar constantemente un trabajo de alta calidad que refleje el estado del sector en su conjunto.
Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.