Uma mulher na Califórnia, EUA, processou a OpenAI em uma ação coletiva por violação das leis de privacidade, acusando o ChatGPT de, sem o consentimento dos usuários, enviar o conteúdo das consultas a Meta e Google por meio de ferramentas de rastreamento. O caso é tratado como um marco, por ser a primeira vez que um tribunal federal desafia diretamente o modo de tratamento de dados de um chatbot de IA, elevando para alto nível a atenção do público sobre a proteção de privacidade em IA.
(ChatGPT se envolve em caso de suicídio de adolescentes! OpenAI: reforçou mecanismos de proteção psicológica do GPT-5)
ChatGPT teria embutido códigos de rastreamento invisíveis, e todo o conteúdo das conversas foi visto
Em 13 de maio, uma residente da Califórnia, representada por Amargo Couture, entrou com uma ação no Tribunal Distrital Federal dos EUA, no Distrito Sul da Califórnia.
A petição aponta que a OpenAI teria embutido no código do site do ChatGPT ferramentas de rastreamento de terceiros como o “Facebook Pixel” da Meta e o “Google Analytics” do Google. Esses códigos de rastreamento operariam automaticamente sem que os usuários tivessem conhecimento, transmitindo em tempo real as consultas inseridas pelos usuários e informações de identificação pessoal à Meta e ao Google, incluindo dados privados altamente sensíveis como condições de saúde, conselhos financeiros e questões jurídicas.
Couture afirma que, entre 2025 e 2026, ela usou o ChatGPT várias vezes para fazer perguntas pessoais sobre saúde e finanças, mas não tinha a menor ideia de que esses conteúdos íntimos teriam sido repassados a gigantes de tecnologia publicitária de terceiros.
Da base legal: valor potencial de indenização da OpenAI supera US$ 5 milhões
A petição diz que a OpenAI teria violado várias leis dos EUA e da Califórnia, incluindo o “Electronic Communications Privacy Act (ECPA)” e leis da Califórnia como a “Invasion of Privacy Act”. No caso da CIPA, o alcance não se limita a comunicações telefônicas tradicionais; também se aplica a “tecnologias emergentes”, como computadores, internet e e-mail.
Pela lei da Califórnia, o valor legal de indenização por cada violação pode chegar a US$ 5 mil. Se o processo atender aos requisitos para ação coletiva, o tamanho potencial das indenizações seria bem grande; estima-se que o valor da ação ultrapasse US$ 5 milhões. Os advogados da autora destacam que a OpenAI teria ajudado a Meta e o Google a interceptar conteúdo de comunicações sem autorização dos usuários, configurando uma invasão sistemática da privacidade de milhões de usuários.
O que são os códigos de rastreamento? Ladrões de dados difíceis de notar
Os chamados “Tracking Pixels” são pequenos trechos de código embutidos no código-fonte de uma página da web, cuja existência geralmente passa despercebida para a maioria dos usuários. Sempre que um usuário visita um site, o pixel de rastreamento é acionado automaticamente, coletando silenciosamente as ações e o comportamento de navegação do usuário para depois enviá-los de volta a empresas como a Meta ou o Google.
Para plataformas de e-commerce ou sites voltados a publicidade, essa prática pode ter justificativa comercial; mas o contexto de uso do ChatGPT é totalmente diferente. Quando os usuários perguntam ao ChatGPT, muitas vezes é por confiar nessa plataforma que eles se dispõem a revelar problemas íntimos que não contariam a ninguém, como dores no corpo, feridas sentimentais ou crises financeiras. Quando essas conversas são capturadas pelos lados publicitários, a OpenAI perde a confiança dos usuários.
A Meta é justamente quem usa esses dados para montar seu amplo sistema de veiculação de anúncios altamente direcionados. De acordo com a petição, quase toda a receita da Meta vem de anúncios, e o sistema publicitário dela consegue rastrear simultaneamente a atividade dos usuários dentro e fora da plataforma, inferindo seus interesses, comportamentos e inclinações sociais, além de criar mecanismos de veiculação de anúncios para diferentes públicos.
A privacidade do usuário precisa de proteção legal urgente; conversas de IA não podem ser uma brecha
À medida que cada vez mais pessoas incorporam ferramentas de IA à vida cotidiana, as controvérsias globais sobre privacidade continuam esquentando. Seja o sofrimento emocional e as lutas pessoais reveladas pelos usuários a chatbots de IA, seja a quantidade de dados sigilosos rotulados por funcionários de empresas, de indivíduos a empresas, todos provavelmente enfrentam ameaças.
Alguns dias atrás, a OpenAI foi novamente processada ao mesmo tempo, depois de ser acusada de ter levado, de forma indireta, ao assassinato ocorrido no ataque em uma universidade estadual da Flórida, envolvendo o atirador e causando a morte de duas pessoas.
Especialistas jurídicos consideram que, se esse tipo de ação for considerado procedente, terá um efeito demonstrativo importante sobre toda a indústria de IA. Isso forçaria as empresas a informar com mais clareza aos usuários o escopo de coleta de dados, o prazo de retenção e quem recebe essas informações, além de oferecer mecanismos explícitos para optar por sim ou não. Atualmente, a OpenAI ainda não fez nenhuma declaração pública sobre o caso. A ação ainda está em uma fase inicial, e a decisão sobre se atende aos requisitos para ação coletiva dependerá do tribunal.
Este artigo sobre o processo legal envolvendo o ChatGPT ganha mais um capítulo! Acusada de vazar secretamente o conteúdo das conversas dos usuários para a Meta e o Google, a notícia foi publicada pela primeira vez em Cadeia News ABMedia.
Related News
WhatsApp agora tem conversas sem rastros com a Meta AI, e a mensagem que desaparece automaticamente levanta dúvidas sobre possíveis mecanismos de responsabilização
A Mistral AI negocia com bancos europeus para desenvolver o modelo alternativo de cibersegurança Mythos
Ex-policial afirma que o ChatGPT causou “psicose de IA”
Sam Altman presta depoimento em tribunal: Musk teria forçado Elon Musk a ver “memes” em reunião da Tesla
Ataques em cadeia envolvendo dois vetores: o supply chain é atingido com o Mistral e um modelo OpenAI falso também é comprometido