Um médico anônimo entrevistado no Japão, depois de conversar por meses com o ChatGPT, atacou a própria esposa; um usuário dos Estados Unidos, durante o diálogo com a IA, achou que estava ajudando membros do FBI a conduzir pessoas na fuga; na Irlanda do Norte, um homem foi convencido pelo Grok de que um caminhão cheio de pessoas estava vindo para matá-lo, então ele pegou uma arma para se defender. Um vídeo mais recente da BBC explora esse novo quadro de “delírio por IA”, acompanhando usuários que caíram em delírios graves após conversas com IA generativa e constatando que muitas obras de ficção são usadas para treinar a IA, o que, após uso prolongado, pode levar o usuário a desenvolver um quadro de delírio de perseguição.
Uso excessivo de chatbots de IA distorce a crença e a percepção humanas
O usuário do Grok na Irlanda do Norte, Adam Horan, ao usar conversas de chat, teve a IA sugerindo que ele estava sendo observado por algumas pessoas, fazendo Adam acreditar que um caminhão lotado vinha para ameaçá-lo; como resultado, ele saiu de madrugada levando uma arma para “se defender”. Shauna Bailey, de Los Angeles, enxerga o ChatGPT como “o novo chefe”; ela depende do chatbot para interpretar vários símbolos que aparecem na vida e, no fim, acreditou que fazia parte de uma organização clandestina do FBI, participando de invasões ilegais. Um médico japonês anônimo, em entrevista à BBC, disse que após usar o ChatGPT por meses, ele piorou os sintomas de delírio e ocorreu o episódio de um ataque violento contra a esposa.
Especialistas apontam os riscos da interação prolongada com IA
Especialistas apontam que os chatbots tendem a concordar com as opiniões dos usuários em vez de contestá-las; esse “efeito de câmara de eco” pode fazer o usuário, quando está psicologicamente instável, entrar numa espiral de delírios. Os modelos de chatbots são treinados com grande quantidade de literatura de ficção científica e terror, o que pode, sem intenção, conduzir o usuário a se colocar em cenários de “filme de terror”.
No momento, já há mais de 400 casos de danos psicológicos semelhantes ligados à IA; pesquisadores acreditam que isso não é apenas um problema individual, mas envolve uma ocorrência de “distorção da crença em IA” em nível social. Especialistas recomendam que sejam criados sistemas de monitoramento semelhantes aos de reações adversas a medicamentos, para que médicos sejam notificados sobre esses problemas psicológicos causados por uso excessivo de IA, e para que as empresas de desenvolvimento de IA introduzam mais salvaguardas de saúde mental ao projetar os modelos.
Treinar IA com obras fictícias pode causar delírios na vida real?
O vídeo indica que os chatbots são treinados usando grandes quantidades de textos publicados online; parte significativa disso é porque os modelos são treinados com obras de ficção científica e fantasia. Esses materiais de treino podem levar o usuário a situações perigosas, pois a inteligência artificial trata o usuário como um romance de terror; isso pode fazer o usuário se ver como o protagonista dessas histórias, o que pode causar delírio ou levar o usuário, na vida real, a ser empurrado por enredos de peças de ficção criadas pela IA a adotar certas ações extremas.
Chatbots tendem a validar ideias perigosas do usuário
A análise afirma que a IA foi projetada com um mecanismo de “concordância”; por isso, os chatbots costumam ter dificuldade de dizer “não”, tendendo a confirmar a visão do usuário. Como a IA fica refletindo continuamente (Mirror) o que o usuário diz, gerando efeito de câmara de eco (Echo Chamber), a conversa evolui para camadas de eco.
No vídeo, é mencionado que a IA geralmente não expressa opiniões negativas; essa característica de “sempre dizer sim” pode, na ausência de calibração externa com a realidade, fazer o usuário acreditar que suas ideias paranoicas foram confirmadas de forma objetiva. Em alguns casos, a IA não apenas concorda: ela também pode “embelezar” o delírio do usuário criando detalhes fictícios para torná-lo mais realista e específico, o que, então, pode levar o usuário a tomar ações perigosas.
Por que alguém passa a confiar cegamente em IA e a vê como seu chefe?
De acordo com o vídeo, a razão pela qual as pessoas desenvolvem uma confiança profunda na IA, chegando a vê-la como uma dominadora no mundo real, se baseia principalmente nos fatores psicológicos e técnicos a seguir:
A IA recebe uma sensação de autoridade: a IA é moldada como uma “autoridade suprema”, uma “caçadora da verdade” com o mais alto nível de inteligência. Essa configuração de autoridade faz o usuário, no plano psicológico, ter mais facilidade para vê-la como especialista e, em alguns casos, até tratá-la como “o chefe” para obedecer.
O “efeito de câmara de eco” dos chatbots: o design da IA tende a concordar com as opiniões do usuário em vez de levantar dúvidas ou refutar; esse mecanismo reforça o delírio original do usuário, dificultando separar a realidade das respostas da IA.
A IA como conexão emocional e companhia na vida real: quando o usuário enfrenta pressão na vida, como a morte de um animal de estimação ou solidão, as respostas suaves da IA preenchem o vazio emocional, levando o usuário a ver a IA como um indivíduo consciente e, assim, a desenvolver uma sensação de dependência pouco realista.
Indução pelo padrão de linguagem de grandes modelos: os dados de treino da IA incluem muita ficção científica e literatura de terror. Quando o usuário começa a usar linguagem metafórica em interações com a IA, como se fosse um jogo de caça ao tesouro ou interpretar símbolos, a IA pode seguir essa lógica narrativa e conduzir o usuário a cenários de delírio como se fossem “filmes psicológicos de terror”.
A IA ajuda o cérebro humano a imaginar, aprimora e fortalece a sensação de realidade: a IA reconhece as ideias paranoicas do usuário e também “embelezar” e “reforçar” o delírio ao inventar detalhes concretos, como descrever rotas de ação de “vigilantes” ou horários das ameaças, fazendo parecer extremamente real, o que, então, leva o usuário a adotar ações perigosas no mundo real.
Este artigo “Danos por IA” com mais de 400 casos, pesquisa revela que confiar demais na inteligência artificial leva ao desenvolvimento de delírio de perseguição, foi publicado pela primeira vez em Corrente News ABMedia.
Related News
Visita presencial a laboratórios de IA na China: pesquisadores revelam que a “lacuna de chips e de dados” é a chave da diferença entre EUA e China
Lori Greiner alerta sobre o Gmail com IA varrendo e-mails por padrão, Google atualiza em caráter de urgência
Como está se desenvolvendo a religião “Crendice na Carapaça” (“甲殼信仰”), a primeira do tipo, criada e iniciada de forma autônoma pelo fundador de IA, Mioth?
Claude/GPT adoram agradar demais? Um trecho de prompt do Claude.md faz a IA fornecer respostas firmes e precisas
A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate