OpenAI veut créer un réseau social sans faux comptes grâce à World ID
OpenAI envisagerait de créer un réseau social où l’inscription passerait par une preuve d’humanité, via World ID et ses “Orbes” de scan oculaire. L’idée, rapportée par plusieurs médias, est simple sur le papier : couper l’herbe sous le pied des bots et des armées de faux comptes, devenus un bruit de fond permanent sur X, Instagram ou TikTok.

En bref
- OpenAI étudierait un réseau social avec vérification “anti-bots” via World ID.
- La biométrie promet un web plus propre, mais augmente la friction et les débats sur la vie privée.
- Si le projet sort, la différence se jouera autant sur le produit que sur la confiance.
Un réseau social “humains seulement”, l’idée qui revient comme un boomerang
Le contexte compte. Sam Altman se retrouve au centre de deux projets qui parlent au même problème. OpenAI fabrique l’IA la plus utilisée du grand public. World, porté par Tools for Humanity, pousse une identité numérique censée prouver que “vous êtes bien vous”, sans forcément afficher votre nom. Les sources évoquent même un mix possible avec Face ID d’Apple, en complément biométrique.
Ce projet ressemble à une réponse directe à une réalité embarrassante. Les plateformes sociales ont besoin d’engagement. Or l’engagement se trafique. Les bots gonflent les vues, manipulent les tendances, alimentent des débats fantômes. Un réseau “humains vérifiés” devient alors un argument marketing autant qu’un choix technique.
Ce n’est pas la première fois qu’OpenAI flirte avec l’idée d’une plateforme sociale. The Verge a déjà rapporté l’existence d’un prototype interne, décrit comme un flux social de type X, avec des briques issues de ChatGPT. Reuters a repris ces éléments en précisant que le format final restait incertain, entre appli dédiée et intégration dans l’IA ChatGPT.
La logique stratégique est limpide. Un réseau social, c’est un robinet de contenus frais, en temps réel. C’est aussi un terrain d’expérimentation idéal pour les outils de création, de modération et de recommandation. Le nerf de la guerre, c’est la qualité du signal. Et les bots le polluent.
World ID et les Orbes, promesse de propreté… et source de crispations
World s’appuie sur un dispositif physique, l’Orb, pour vérifier l’humanité d’un utilisateur via l’iris. Une fois vérifié, l’utilisateur reçoit un World ID. Le projet est développé par Tools for Humanity, une structure cofondée par Sam Altman, et il s’est déjà déployé à grande échelle dans plusieurs pays.
Sur la partie “privacy”, Tools for Humanity martèle un message : l’Orb utiliserait les données en mémoire temporaire chiffrée au moment de la vérification, puis les supprimerait, avec une copie chiffrée conservée sur l’appareil de l’utilisateur. Dit comme ça, ça sonne propre. Mais ce genre de promesse se joue sur des détails d’implémentation, des audits, et la confiance dans la gouvernance.
C’est là que la friction apparaît. Les scans oculaires déclenchent une réaction viscérale chez beaucoup de gens. Certains y voient un progrès pragmatique. D’autres une pente glissante vers une identité imposée par la biométrie. World a déjà été critiqué sur ces sujets, et a connu des questions réglementaires et médiatiques récurrentes.
Le vrai pari d’OpenAI, au-delà de la chasse aux bots
Un réseau social « vérifié humain » ne résout pas tout. Un humain peut troller, harceler, spammer, ou manipuler. La vérification réduit une catégorie de nuisances, surtout celles qui reposent sur l’IA ou l’automatisation massive. Elle ne garantit pas un débat sain. Elle déplace la bataille vers la modération et les incitations du produit.
Le pari d’OpenAI, s’il se confirme, est aussi un pari d’expérience utilisateur. Scanner son iris pour poster un message, c’est une barrière forte. Même si l’objectif est noble, la plupart des gens détestent les frictions. Le projet devra donc proposer un bénéfice immédiat et tangible : moins de spam, plus de conversations utiles, et une sensation de “vrai monde” en ligne.
Reste une question politique, au sens large. Quand l’entreprise qui popularise l’IA propose aussi le système qui distingue humains et machines, elle occupe deux extrémités du même tuyau. Certains y verront une cohérence. D’autres un conflit d’intérêts, ou une concentration de pouvoir. Ce débat ne sera pas théorique : il fera partie du lancement, s’il a lieu. Vitalik Buterin a aussi d’autres plans pour sauver l’anonymat en ligne.
Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.
Fasciné par le bitcoin depuis 2017, Evariste n'a cessé de se documenter sur le sujet. Si son premier intérêt s'est porté sur le trading, il essaie désormais activement d’appréhender toutes les avancées centrées sur les cryptomonnaies. En tant que rédacteur, il aspire à fournir en permanence un travail de haute qualité qui reflète l'état du secteur dans son ensemble.
Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.