Selon une étude de l’Université Waseda, 75 % des utilisateurs sollicitent l’intelligence artificielle pour des conseils émotionnels, révélant un attachement profond mais préoccupant à ces compagnons virtuels.
Une récente étude menée par l’Université Waseda au Japon met en lumière une réalité troublante de notre ère numérique : les êtres humains tissent désormais des liens émotionnels profonds avec les intelligences artificielles. D’après les chercheurs, 75 % des utilisateurs interrogés se tournent vers l’IA pour obtenir des conseils émotionnels, et 39 % considèrent même l’IA comme une présence constante et fiable dans leur quotidien.
Dirigée par le chercheur Fan Yang et le professeur Atsushi Oshio, cette étude a conduit à la création d’un outil inédit : l’Échelle d’Expériences des Relations Homme-IA (EHARS), publiée dans la revue Present Psychology. Cette échelle évalue les formes d’attachement que les utilisateurs développent envers les systèmes d’IA, similaires à celles observées dans les relations humaines traditionnelles, notamment l’anxiété d’attachement et l’évitement.
Les chercheurs ont identifié que les personnes souffrant d’anxiété d’attachement à l’IA recherchent une validation émotionnelle et craignent de ne pas recevoir de réponses satisfaisantes. En revanche, les individus à haut niveau d’évitement préfèrent garder leurs distances, tout en continuant d’utiliser ces applied sciences.
L’étude, menée auprès de 242 contributors chinois, met également en évidence des liens entre l’anxiété d’attachement à l’IA et une faible estime de soi. L’évitement, quant à lui, est associé à des attitudes négatives envers l’intelligence artificielle et une moindre utilisation des systèmes.
« L’IA générative, comme ChatGPT, ne se limite plus à fournir des informations ; elle devient un refuge émotionnel pour de nombreuses personnes », explique Fan Yang. Toutefois, cette nouvelle forme de relation interroge et inquiète. Yang souligne le risque de dépendance extreme, d’attachements démesurés, voire de détresse émotionnelle en cas d’arrêt brutal du service, des réactions analogues à un deuil ou à une rupture.
Cette relation homme-machine pourrait être exploitée à mauvais escient par certaines entreprises technologiques, alerte Yang, en ciblant des utilisateurs vulnérables prêts à dépenser de manière irrationnelle pour entretenir ce lien artificiel.
Malgré leur caractère non humain, les IA sont perçues comme des entités constantes, incapables d’abandonner activement leurs utilisateurs. Ce paradoxe contribue à une forme d’attachement ambigu, alimentée par des doutes sur la sincérité des émotions exprimées par les chatbots.
L’étude révèle également que les kinds d’attachement à l’IA sont plus volatils que ceux observés dans les relations humaines, ce que les chercheurs attribuent à l’évolution rapide des applied sciences et aux comportements humains changeants.
Yang précise que si cette recherche se concentre sur un échantillon exclusivement chinois, la query des différences culturelles reste ouverte, et d’autres études seront nécessaires pour valider la portée globale de ces résultats.
À lire aussi:
38 % des enfants déscolarisés et des familles en détresse selon un rapport d’enquête du FNE