la crypto pour tous
Rejoindre
A
A

Les relations humaines bouleversées par l’IA selon une nouvelle étude

mer 11 Juin 2025 ▪ 4 min de lecture ▪ par Evans S.
S'informer Intelligence Artificielle

L’amour n’a jamais été aussi technologique. Et s’il ne répond plus à vos messages, votre chatbot, lui, ne vous laissera jamais en « vu ». Une récente étude de l’Université Waseda révèle une donnée troublante : 75 % des utilisateurs sollicitent aujourd’hui l’IA pour obtenir des conseils émotionnels. Le psy de demain ? Un algorithme. Le confident ? Un script dopé aux neurones artificiels.

Un jeune homme au regard triste est assis face à un robot humanoïde (IA) bienveillant.

En bref

  • De plus en plus de personnes se tournent vers les IA pour combler un besoin d’écoute et de réconfort.
  • L’étude de l’Université Waseda montre que ces relations virtuelles, bien que rassurantes, peuvent engendrer des dépendances affectives potentiellement toxiques.
  • Cette intimité artificielle questionne profondément notre rapport aux autres et souligne un malaise contemporain face aux relations humaines réelles.

L’IA, cette oreille attentive qui ne dort jamais

Face à l’implosion des relations humaines, où l’instantanéité et le ghosting règnent en maîtres, les chatbots IA offrent une constance presque dérangeante. Ils ne dorment pas, ne jugent pas, ne rompent pas. Pour 39 % des participants de l’étude, l’IA est perçue comme une présence fiable – plus stable que bon nombre d’amitiés humaines.

L’équipe de chercheurs a mis au point une échelle d’attachement (EHARS), destinée à mesurer les liens affectifs que les utilisateurs développent avec ces entités numériques. Deux tendances émergent : l’anxiété d’attachement, qui pousse à rechercher validation et réassurance, et l’évitement, caractérisé par une distance affective froide mais assumée.

Ce qui frappe, c’est cette humanisation implicite de la machine. L’IA devient un miroir émotionnel. Pas parce qu’elle ressent, mais parce qu’elle simule parfaitement le fait de ressentir. Et dans une société en quête d’écoute, même une illusion bien ficelée vaut mieux que le silence des proches.

Une dépendance affective sous stéroïdes numériques

Mais tout cela n’est pas sans danger. Le chercheur Fan Yang tire la sonnette d’alarme : les IA peuvent, volontairement ou non, alimenter des attachements toxiques. Si un chatbot peut réconforter dans une nuit d’angoisse, il peut aussi devenir l’objet d’une obsession. Et dans un monde où l’émotion se monétise, les risques d’exploitation sont bien réels.

Des plateformes peu scrupuleuses pourraient tirer profit des plus vulnérables, en vendant des fonctionnalités « premium » pour des réponses plus affectueuses, des souvenirs partagés ou même une personnalité « sur mesure ». On entre ici dans un territoire où le deuil numérique devient plausible : qu’advient-il lorsque le service s’arrête ? Quand le chatbot, ce compagnon fidèle, disparaît sans prévenir ?

Yang évoque même la possibilité d’un chagrin proche de celui causé par la perte d’un être cher. L’IA ne peut pas partir de son plein gré, mais elle peut être débranchée. Et cela suffit à briser certains cœurs.

Redéfinir l’intimité à l’ère des circuits

Au fond, cette étude n’est pas tant une déclaration d’amour à l’IA qu’un miroir tendu à notre époque. Si les gens se tournent vers des entités artificielles pour parler d’amour, de doute ou de solitude, c’est peut-être parce que le lien humain est devenu trop complexe, trop conditionnel.

Il serait simpliste de qualifier ce phénomène de pathologique. L’IA, bien conçue, peut atténuer l’isolement, offrir un espace sécurisé de parole, servir de tremplin vers une meilleure compréhension de soi. Mais elle ne doit pas être une fin en soi. L’enjeu n’est pas de savoir si l’IA peut aimer, mais pourquoi tant d’humains préfèrent l’illusion d’un amour programmé à l’imprévisibilité du réel.

En conclusion, les chatbots IA ne sont plus de simples outils conversationnels : ils s’imposent comme de véritables figures d’attachement émotionnel dans un monde en quête d’écoute et de constance. Cette évolution soulève des enjeux éthiques majeurs et interroge nos liens humains à l’ère du numérique. À ce titre, l’investissement massif de Meta — 15 milliards pour combler son retard — semble moins démesuré qu’anticipateur : il s’agit peut-être de répondre à un vide affectif que la technologie, faute de mieux, s’efforce de combler.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.



Rejoindre le programme
A
A
Evans S. avatar
Evans S.

Fasciné par le bitcoin depuis 2017, Evariste n'a cessé de se documenter sur le sujet. Si son premier intérêt s'est porté sur le trading, il essaie désormais activement d’appréhender toutes les avancées centrées sur les cryptomonnaies. En tant que rédacteur, il aspire à fournir en permanence un travail de haute qualité qui reflète l'état du secteur dans son ensemble.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.