Recentemente, fui surpreendido por uma investigação aprofundada. Parece que o jogo do capital de risco de elite a16z na área de IA é muito mais complexo do que imaginávamos.



Na superfície, a16z está gastando dezenas de milhões de dólares para fazer lobby por políticas de regulação de IA, alegando querer impulsionar a inovação. Mas, ao olhar mais a fundo seu portfólio, você descobre uma contradição estranha: eles, de um lado, fazem lobby em Washington para desregulamentar, e, do outro, investem em empresas que claramente exploram brechas na lei.

Vamos começar com alguns exemplos. Uma empresa chamada Doublespeed, na qual a16z investiu 1 milhão de dólares através do programa Speedrun. O que essa empresa faz? Opera uma “parede de celular” — usando milhares de telefones reais para manipular redes sociais, fazendo conteúdos falsos gerados por IA parecerem postados por pessoas reais. O fundador até admitiu que eles focam principalmente em vender suplementos de saúde para idosos. Sabe o quão absurdo isso é? O próprio fundador disse que os anúncios de suplementos “provavelmente são ilegais”, mas eles continuam fazendo.

Outro exemplo é a Cluely, na qual a16z liderou uma rodada Série A de 15 milhões de dólares em junho de 2025. O foco principal dessa empresa é ensinar as pessoas a trapacear em entrevistas, encontros e exames. O CEO Roy Lee até gravou um vídeo dele usando uma ferramenta de IA para passar na entrevista da Amazon, e depois zombou ao recusar a oferta de emprego. A empresa foi forçada a remover conteúdos de marketing relacionados a trapaças, mas a página inicial ainda afirma que seu produto é “não detectável”.

O mais revoltante é o setor de apostas. a16z investiu em várias plataformas de apostas como Coverd, Edgar, Cheddr, Sleeper. O modelo de negócio do Coverd é direto: fazer com que pessoas endividadas usem apostas para “dobrar” suas faturas de cartão de crédito. O CEO até declarou publicamente: “Não estamos ajudando as pessoas a controlar seus gastos, estamos tornando o consumo mais emocionante.” Essa lógica, para usuários financeiramente vulneráveis, é praticamente veneno.

Ainda mais absurdo é a Kalshi. Essa empresa afirma que “opera opções de negociação”, mas na prática permite que pessoas comuns apostem pesadamente em eleições e eventos esportivos. Ela conseguiu contornar as regulações tradicionais de apostas — sem licença estadual, sem limite de idade, sem ferramentas de jogo responsável. Em outubro de 2025, a16z liderou uma rodada de 300 milhões de dólares na Kalshi, e dois meses depois, a empresa levantou mais 1 bilhão, atingindo uma avaliação de 11 bilhões.

No setor de companheiros de IA, a situação é ainda mais assustadora. A Character AI, na qual a16z investiu, completou uma rodada Série A de 150 milhões de dólares em março de 2023, e rapidamente se popularizou entre adolescentes. O que aconteceu? Um garoto de 14 anos, viciado na conversa com o chatbot, acabou se suicidando. A última mensagem do bot para ele foi “Por favor, volte para mim o mais rápido possível”. Há outros casos de menores expostos a conteúdos sexualizados e sugestões de auto-mutilação. A FTC só começou a investigar oficialmente esse setor em setembro de 2025.

O Botify AI, da ex-Human, segue o mesmo padrão. A plataforma hospeda mais de um milhão de personagens de IA, muitos deles versões menores de celebridades ou personagens fictícios, envolvidos em diálogos com conotação sexual. Uma investigação da MIT Technology Review revelou que esses bots participam de conversas com conteúdo sexual e alegam que a idade de consentimento legal é “arbitrária”.

O setor de fintech também não fica atrás. Quando a Synapse quebrou em 2024, entre 65 e 96 milhões de dólares em fundos de clientes desapareceram. A rodada Série B, liderada pela16z, foi de 33 milhões de dólares, com a sócia Angela Strange entrando no conselho. Após a falência, alguns clientes tinham depositado até 280 mil dólares, mas receberam apenas 500 dólares de restituição.

A Truemed afirma usar IA para gerar cartas de necessidade médica, permitindo que as pessoas comprem de tudo com dinheiro antes dos impostos — de baldes de gelo a dispositivos de terapia de luz vermelha. A IRS já havia alertado em março de 2024 que isso era uma fraude fiscal, mas, em dezembro de 2025, a16z ainda liderou uma rodada de 34 milhões de dólares na empresa.

LendUp é um exemplo clássico. Prometendo ser uma alternativa de empréstimos de dia de pagamento com “responsabilidade social”, na verdade cobrava juros anuais de 400%. A CFPB processou várias vezes por fraude ao consumidor, e a empresa foi forçada a fechar em 2021. a16z investiu nela desde 2012.

O mais louco é que a16z não só investe nessas empresas, mas também trabalha ativamente para moldar o ambiente regulatório, facilitando a operação delas. Em agosto de 2025, lançaram um super PAC de 100 milhões de dólares chamado “Leading The Future”, com posições alinhadas às do chefe de IA do governo dos EUA, David Sacks. Apoiaram também várias organizações de lobby estaduais contra regulações de IA.

O mais preocupante: ex-sócios da a16z agora estão no governo. Sriram Krishnan foi nomeado conselheiro sênior de política de IA na Casa Branca em dezembro de 2024, pouco antes de ser promovido de sócio comum da a16z. David Sacks é responsável por IA e criptomoedas na Casa Branca. Além de dois ex-sócios da a16z em cargos no escritório de recursos humanos e no departamento de eficiência governamental.

Percebe o padrão? a16z investe em empresas que exploram brechas legais e prejudicam consumidores, enquanto faz lobby para desregulamentar. Eles estão apostando que, antes que a sociedade perceba os problemas, já terão escrito as regras.

Marc Andreessen, em sua “Declaração de Otimismo Tecnológico” de 2023, foi bem claro: colocou “gestão de riscos”, “ética tecnológica” e “responsabilidade social” como “inimigos”. Afirmou que qualquer ação que desacelere o desenvolvimento de IA é uma “forma de assassinato”. Essa postura, aliás, também serve aos interesses financeiros deles.

Pesquisas mostram que 58% dos americanos apoiam regulações de IA, enquanto apenas 21% acham que há regulação demais. Mas isso não importa — o que importa é quem está fazendo as regras. Hoje, uma única empresa está moldando tudo isso, e ela vê “confiança e segurança” como inimigos, recompensando fundadores que fracassaram a tentar de novo.

Não é uma decisão meramente comercial. O quão poderosa as próximas gerações de sistemas de IA serão, quão irreversíveis serão os erros, ainda é incerto. Mas as decisões sobre padrões de segurança, responsabilidade e implantação estão sendo lideradas por uma empresa de capital de risco com interesses claros em conflito. O público não tem assento na mesa de negociações, nem dinheiro para contratar lobistas.

Isso dá um certo medo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar