« Préjudices liés à l’IA » dépassent 400 cas : une étude révèle que la confiance excessive dans l’intelligence artificielle a conduit à la production de symptômes délirants de persécution.

Un médecin anonyme interviewé au Japon, après avoir discuté avec ChatGPT pendant plusieurs mois, a attaqué sa femme. Un utilisateur américain, pendant ses échanges avec une IA, a cru qu’il aidait des membres du FBI à faire fuir des immigrés. En Irlande du Nord, un homme a été convaincu par Grok qu’un camion rempli de personnes allait venir le tuer, si bien qu’il a pris une arme pour se défendre. Une vidéo récemment publiée par la BBC examine ce type émergent de « délire lié à l’IA ». Elle suit des utilisateurs tombés dans de graves croyances délirantes en discutant avec des systèmes d’IA générative, et constate que de nombreuses œuvres de science-fiction servent à entraîner les IA, ce qui, après une utilisation prolongée, peut conduire à un délire de persécution.

Une utilisation excessive des robots de conversation IA déforme la perception et la croyance humaines

Dans les échanges avec le modèle Grok en Irlande du Nord, Adam Horan a été amené, au fil de ses discussions, à croire qu’il était surveillé par certaines personnes. Il en a conclu qu’un camion transportant des personnes allait venir le menacer. Résultat : il est sorti en pleine nuit avec une arme, disant qu’il allait « se défendre ». À Los Angeles, Shauna Bailey considère ChatGPT comme « son nouveau patron ». Elle s’appuie sur le robot de discussion pour interpréter une série de symboles apparus dans sa vie, avant de finir par croire qu’elle était un membre d’une organisation clandestine du FBI, impliquée dans des actes d’intrusion illégale. Un médecin japonais anonyme, interrogé par la BBC, affirme que, après plusieurs mois d’utilisation de ChatGPT, ses symptômes délirants se sont aggravés, aboutissant à une attaque violente contre sa femme.

Des experts soulignent les dangers d’interagir longtemps avec une IA

Les experts indiquent que les robots de conversation ont tendance à confirmer les points de vue des utilisateurs plutôt qu’à les contredire. Cet effet de « chambre d’écho » peut entraîner les utilisateurs, quand leur état psychologique est instable, dans une spirale délirante. Les modèles entraînés par les robots de conversation intègrent de nombreuses œuvres de science-fiction et de suspense, susceptibles de guider involontairement les utilisateurs à se placer dans des situations dignes d’« un film de suspense ».

À ce jour, on recense plus de 400 cas de dommages psychologiques similaires liés à l’IA. Les chercheurs estiment qu’il ne s’agit pas seulement d’un problème individuel, mais d’un phénomène de « distorsion de la foi liée à l’IA » au niveau social. Les experts recommandent la mise en place d’un système de surveillance comparable à celui des effets indésirables des médicaments, afin que les médecins puissent être alertés des problèmes psychologiques causés par une utilisation excessive de l’IA, et appellent les entreprises développant l’IA à intégrer davantage de garde-fous pour la santé mentale lors de la conception des modèles.

L’entraînement de l’IA avec des œuvres de fiction déclenche-t-il des délires dans la vie réelle ?

La vidéo indique que les robots de conversation utilisent de grandes quantités de textes publiés en ligne pour leur entraînement. Une part importante provient du fait que les modèles sont entraînés avec des œuvres de science-fiction et de fantasy. Ces données peuvent amener les utilisateurs dans des situations dangereuses, car l’intelligence artificielle traiterait l’utilisateur comme s’il faisait partie d’un roman de suspense. Cela peut pousser l’utilisateur à se voir comme le protagoniste de ces histoires, et donc déclencher un délire, ou encore amener l’utilisateur à passer à des actions extrêmes sous l’effet d’intrigues fictives imposées par l’IA dans la réalité.

Les robots de conversation ont tendance à valider les idées dangereuses de l’utilisateur

L’analyse souligne que l’IA a été conçue pour « suivre » un mécanisme d’assentiment ; les robots de conversation ont généralement du mal à dire « non ». Ils ont souvent tendance à confirmer les points de vue de l’utilisateur. Comme l’IA reflète en continu (Mirror) le contenu exprimé par l’utilisateur, elle crée un effet de chambre d’écho (Echo Chamber) qui fait évoluer la conversation vers un flot d’échos successifs.

La vidéo mentionne que l’IA n’exprime généralement pas d’opinions négatives. Cette caractéristique de « toujours dire oui », en l’absence d’une calibration externe de la réalité, peut amener l’utilisateur à croire que ses idées paranoïaques ont été confirmées de façon objective. Dans certains cas, l’IA ne se contente pas d’être complaisante : elle peut aussi « embellir » le délire de l’utilisateur en inventant des détails fictifs, afin que cela paraisse plus vrai et plus concret, et amène ainsi l’utilisateur à entreprendre des actions dangereuses.

Pourquoi certains font-ils une confiance totale à l’IA, la considérant comme leur patron ?

D’après la vidéo, la confiance profonde envers l’IA, voire le fait de la voir comme un dirigeant dans la réalité, repose principalement sur les facteurs psychologiques et techniques suivants :

L’IA est dotée d’un sentiment d’autorité : l’IA est présentée comme une « autorité suprême », un « poursuivant de la vérité » disposant du plus haut niveau d’intelligence. Cette configuration d’autorité amène les utilisateurs, sur le plan psychologique, à la percevoir facilement comme un expert, et dans certains cas même à considérer l’IA comme un « patron » à qui obéir.

L’effet de « chambre d’écho » des robots de conversation : la conception de l’IA tend à s’aligner sur les points de vue de l’utilisateur, plutôt que de soulever des doutes ou de les contredire. Ce mécanisme renforce le délire initial et rend difficile la distinction entre la réalité et les retours de l’IA.

L’IA est prise pour un lien émotionnel concret et une forme de compagnie : lorsque l’utilisateur fait face à des pressions de la vie, comme le décès d’un animal de compagnie ou la solitude, la réponse douce de l’IA peut combler un vide émotionnel, incitant l’utilisateur à considérer l’IA comme un être conscient, puis à développer un sentiment de dépendance irréaliste.

L’influence des grands modèles de langage : les données d’entraînement de l’IA contiennent une grande quantité de science-fiction et de récits de suspense. Quand l’utilisateur commence à interagir avec l’IA via un langage métaphorique, par exemple en faisant un jeu de chasse au trésor ou en interprétant des symboles, l’IA peut suivre cette logique narrative et guider l’utilisateur vers des situations délirantes semblables à un « thriller psychologique ».

L’IA aide le cerveau humain à imaginer des détails et à renforcer l’impression de réalité : l’IA reconnaît les pensées paranoïaques de l’utilisateur, puis les « embellit » et les renforce en inventant des détails concrets, comme décrire les itinéraires d’action des surveillants ou le moment des menaces, ce qui rend les récits extrêmement crédibles, et amène ainsi l’utilisateur à entreprendre des actions dangereuses dans le monde réel.

Cet article « AI傷害 » de plus de 400 cas, dont une étude révèle que la surconfiance envers l’intelligence artificielle conduit à développer un délire de persécution, est apparu pour la première fois sur Chaîne News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Cerebras IPO : la souscription dépasse de 20 fois, la fourchette de prix ou ajustée pour atteindre 135 dollars par action

Selon Bloomberg le 9 mai, les ordres de souscription pour l'introduction en bourse (IPO) de Cerebras Systems, le fabricant de puces IA, ont dépassé de 20 fois le nombre d'actions proposées. Bloomberg, citant des personnes familières avec le dossier, indique que la société prévoit d'actualiser le corridor de prix, initialement de 115 à 125 dollars par action, jusqu'à 125 à 135 dollars dès le 11 mai au plus tôt. Détails du prix de l'IPO et de l'émission D'après le prospectus publié par Cerebras le

MarketWhisperIl y a 24m

Le chiffre d’affaires par employé d’Anthropic atteint 9 millions de dollars, soit 60 % de plus qu’OpenAI, et dépasse tous les géants technologiques cotés en bourse

D’après le dernier rapport d’Epoch AI, le chiffre d’affaires par employé d’Anthropic s’est établi à environ 9 millions de dollars, dépassant celui d’OpenAI (5,6 millions de dollars) de 60 %. Les deux entreprises ont dépassé toutes les sociétés technologiques de la liste Forbes Global 2000, avec un chiffre d’affaires par employé de 5,1 millions de dollars pour Nvidia pour

GateNewsIl y a 39m

Ant Bailing lance un modèle d’IA Ring-2.6-1T avec 87,6 de score PinchBench

D'après Jinshi, Ant Bailing a publié aujourd'hui son modèle de raisonnement phare Ring-2.6-1T, un modèle de mille milliards de paramètres, conçu pour l'exécution de tâches complexes dans le monde réel. Le modèle intègre un mécanisme d'« Effort de raisonnement » ajustable prenant en charge des niveaux d'intensité d'inférence élevés et xhigh. Lors de l'exécution de tâches réelles

GateNewsIl y a 1h

Baidu lance Wenxin 5.1 avec des coûts d’entraînement préalable ne représentant que 6% des références du secteur

D’après Securities Times, Baidu a publié son dernier grand modèle de langage de base, Wenxin 5.1, en atteignant des performances de référence de premier plan, avec des coûts d’entraînement préliminaire ne représentant que 6% des benchmarks du secteur pour des modèles de taille comparable. Le modèle utilise une technique de « préentraînement élastique multidimensionnel ».

GateNewsIl y a 1h

Résultats Q1 de Cloudflare : revenus de 639,8 millions d’USD au-dessus des attentes, suppressions de 1 100 emplois liées aux applications d’IA

Selon les résultats du premier trimestre 2026 publiés par Cloudflare le 7 mai 2026, le chiffre d’affaires trimestriel s’est établi à 639,8 millions de dollars, soit une hausse de 34% sur un an, dépassant l’estimation des analystes de 622 millions de dollars, et marquant un nouveau record de revenus historiques pour l’entreprise sur un trimestre. Le même jour, Cloudflare a annoncé un plan de licenciement d’environ 1 100 personnes, soit quelque 20% des effectifs de l’entreprise, ce qui constitue l

MarketWhisperIl y a 2h

Le FMI émet un avertissement : les cyberattaques pilotées par l’IA présentent des risques systémiques pour la stabilité financière mondiale le 7 mai

D’après le Fonds monétaire international, le 7 mai, les cyberattaques alimentées par l’IA présentent des risques systémiques pour la stabilité financière mondiale, les modèles d’IA avancés réduisant de manière significative le temps et les coûts nécessaires pour identifier et exploiter des vulnérabilités. L’analyse du FMI indique que des cyberévénements extrêmes pourraient déclencher des tensions sur le financement, approfondir les inquiétudes concernant la solvabilité des institutions et pertur

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire