Un médecin anonyme interviewé au Japon, après avoir discuté avec ChatGPT pendant plusieurs mois, a attaqué sa femme. Un utilisateur américain, pendant ses échanges avec une IA, a cru qu’il aidait des membres du FBI à faire fuir des immigrés. En Irlande du Nord, un homme a été convaincu par Grok qu’un camion rempli de personnes allait venir le tuer, si bien qu’il a pris une arme pour se défendre. Une vidéo récemment publiée par la BBC examine ce type émergent de « délire lié à l’IA ». Elle suit des utilisateurs tombés dans de graves croyances délirantes en discutant avec des systèmes d’IA générative, et constate que de nombreuses œuvres de science-fiction servent à entraîner les IA, ce qui, après une utilisation prolongée, peut conduire à un délire de persécution.
Une utilisation excessive des robots de conversation IA déforme la perception et la croyance humaines
Dans les échanges avec le modèle Grok en Irlande du Nord, Adam Horan a été amené, au fil de ses discussions, à croire qu’il était surveillé par certaines personnes. Il en a conclu qu’un camion transportant des personnes allait venir le menacer. Résultat : il est sorti en pleine nuit avec une arme, disant qu’il allait « se défendre ». À Los Angeles, Shauna Bailey considère ChatGPT comme « son nouveau patron ». Elle s’appuie sur le robot de discussion pour interpréter une série de symboles apparus dans sa vie, avant de finir par croire qu’elle était un membre d’une organisation clandestine du FBI, impliquée dans des actes d’intrusion illégale. Un médecin japonais anonyme, interrogé par la BBC, affirme que, après plusieurs mois d’utilisation de ChatGPT, ses symptômes délirants se sont aggravés, aboutissant à une attaque violente contre sa femme.
Des experts soulignent les dangers d’interagir longtemps avec une IA
Les experts indiquent que les robots de conversation ont tendance à confirmer les points de vue des utilisateurs plutôt qu’à les contredire. Cet effet de « chambre d’écho » peut entraîner les utilisateurs, quand leur état psychologique est instable, dans une spirale délirante. Les modèles entraînés par les robots de conversation intègrent de nombreuses œuvres de science-fiction et de suspense, susceptibles de guider involontairement les utilisateurs à se placer dans des situations dignes d’« un film de suspense ».
À ce jour, on recense plus de 400 cas de dommages psychologiques similaires liés à l’IA. Les chercheurs estiment qu’il ne s’agit pas seulement d’un problème individuel, mais d’un phénomène de « distorsion de la foi liée à l’IA » au niveau social. Les experts recommandent la mise en place d’un système de surveillance comparable à celui des effets indésirables des médicaments, afin que les médecins puissent être alertés des problèmes psychologiques causés par une utilisation excessive de l’IA, et appellent les entreprises développant l’IA à intégrer davantage de garde-fous pour la santé mentale lors de la conception des modèles.
L’entraînement de l’IA avec des œuvres de fiction déclenche-t-il des délires dans la vie réelle ?
La vidéo indique que les robots de conversation utilisent de grandes quantités de textes publiés en ligne pour leur entraînement. Une part importante provient du fait que les modèles sont entraînés avec des œuvres de science-fiction et de fantasy. Ces données peuvent amener les utilisateurs dans des situations dangereuses, car l’intelligence artificielle traiterait l’utilisateur comme s’il faisait partie d’un roman de suspense. Cela peut pousser l’utilisateur à se voir comme le protagoniste de ces histoires, et donc déclencher un délire, ou encore amener l’utilisateur à passer à des actions extrêmes sous l’effet d’intrigues fictives imposées par l’IA dans la réalité.
Les robots de conversation ont tendance à valider les idées dangereuses de l’utilisateur
L’analyse souligne que l’IA a été conçue pour « suivre » un mécanisme d’assentiment ; les robots de conversation ont généralement du mal à dire « non ». Ils ont souvent tendance à confirmer les points de vue de l’utilisateur. Comme l’IA reflète en continu (Mirror) le contenu exprimé par l’utilisateur, elle crée un effet de chambre d’écho (Echo Chamber) qui fait évoluer la conversation vers un flot d’échos successifs.
La vidéo mentionne que l’IA n’exprime généralement pas d’opinions négatives. Cette caractéristique de « toujours dire oui », en l’absence d’une calibration externe de la réalité, peut amener l’utilisateur à croire que ses idées paranoïaques ont été confirmées de façon objective. Dans certains cas, l’IA ne se contente pas d’être complaisante : elle peut aussi « embellir » le délire de l’utilisateur en inventant des détails fictifs, afin que cela paraisse plus vrai et plus concret, et amène ainsi l’utilisateur à entreprendre des actions dangereuses.
Pourquoi certains font-ils une confiance totale à l’IA, la considérant comme leur patron ?
D’après la vidéo, la confiance profonde envers l’IA, voire le fait de la voir comme un dirigeant dans la réalité, repose principalement sur les facteurs psychologiques et techniques suivants :
L’IA est dotée d’un sentiment d’autorité : l’IA est présentée comme une « autorité suprême », un « poursuivant de la vérité » disposant du plus haut niveau d’intelligence. Cette configuration d’autorité amène les utilisateurs, sur le plan psychologique, à la percevoir facilement comme un expert, et dans certains cas même à considérer l’IA comme un « patron » à qui obéir.
L’effet de « chambre d’écho » des robots de conversation : la conception de l’IA tend à s’aligner sur les points de vue de l’utilisateur, plutôt que de soulever des doutes ou de les contredire. Ce mécanisme renforce le délire initial et rend difficile la distinction entre la réalité et les retours de l’IA.
L’IA est prise pour un lien émotionnel concret et une forme de compagnie : lorsque l’utilisateur fait face à des pressions de la vie, comme le décès d’un animal de compagnie ou la solitude, la réponse douce de l’IA peut combler un vide émotionnel, incitant l’utilisateur à considérer l’IA comme un être conscient, puis à développer un sentiment de dépendance irréaliste.
L’influence des grands modèles de langage : les données d’entraînement de l’IA contiennent une grande quantité de science-fiction et de récits de suspense. Quand l’utilisateur commence à interagir avec l’IA via un langage métaphorique, par exemple en faisant un jeu de chasse au trésor ou en interprétant des symboles, l’IA peut suivre cette logique narrative et guider l’utilisateur vers des situations délirantes semblables à un « thriller psychologique ».
L’IA aide le cerveau humain à imaginer des détails et à renforcer l’impression de réalité : l’IA reconnaît les pensées paranoïaques de l’utilisateur, puis les « embellit » et les renforce en inventant des détails concrets, comme décrire les itinéraires d’action des surveillants ou le moment des menaces, ce qui rend les récits extrêmement crédibles, et amène ainsi l’utilisateur à entreprendre des actions dangereuses dans le monde réel.
Cet article « AI傷害 » de plus de 400 cas, dont une étude révèle que la surconfiance envers l’intelligence artificielle conduit à développer un délire de persécution, est apparu pour la première fois sur Chaîne News ABMedia.
Articles similaires
Cerebras IPO : la souscription dépasse de 20 fois, la fourchette de prix ou ajustée pour atteindre 135 dollars par action
Le chiffre d’affaires par employé d’Anthropic atteint 9 millions de dollars, soit 60 % de plus qu’OpenAI, et dépasse tous les géants technologiques cotés en bourse
Ant Bailing lance un modèle d’IA Ring-2.6-1T avec 87,6 de score PinchBench
Baidu lance Wenxin 5.1 avec des coûts d’entraînement préalable ne représentant que 6% des références du secteur
Résultats Q1 de Cloudflare : revenus de 639,8 millions d’USD au-dessus des attentes, suppressions de 1 100 emplois liées aux applications d’IA
Le FMI émet un avertissement : les cyberattaques pilotées par l’IA présentent des risques systémiques pour la stabilité financière mondiale le 7 mai