Os legisladores do estado do Colorado estão a avançar para revogar e substituir a lei de inteligência artificial (IA) de 2024, SB24-205, por novas regras que estreitam o âmbito da regulamentação da IA, ao mesmo tempo que abordam as preocupações da indústria quanto ao peso das obrigações de conformidade. A nova proposta, SB26-189, regularia os sistemas de IA utilizados em “decisões determinantes”, incluindo emprego, educação, habitação, crédito, seguros, cuidados de saúde e serviços do governo, segundo o resumo do projeto.
Lei Original e Reação da Indústria
A SB24-205, promulgada em 2024, obrigava as empresas a verificarem e reduzirem enviesamentos nas decisões baseadas em IA que afetassem o recrutamento, o crédito e a habitação. A lei provocou uma forte contestação da indústria de IA relativamente às responsabilidades de conformidade que impunha às empresas que desenvolvem e fazem deploy de IA no estado.
Em abril, a empresa de IA da Elon Musk, a xAI, processou o Colorado para bloquear a medida original antes de entrar em vigor. O Departamento de Justiça dos EUA juntou-se ao processo, procurando intervir e apoiar a posição da xAI. De acordo com Cody Barela, sócio na Armstrong Teasdale, o argumento da indústria centrou-se no peso da conformidade: “Eu acho que eles têm um argumento válido em termos das cargas que a política do Colorado imporia a estas empresas. O peso sobre elas, em comparação com o atraso que causa na corrida da IA, pode ser na verdade um argumento melhor.”
Novo Quadro Regulatório
A SB26-189 aplica-se especificamente a ferramentas de IA que processam dados pessoais para gerar resultados como previsões ou rankings que influenciam desfechos determinantes. O projeto reposiciona as proteções do consumidor da lei original com novos requisitos tanto para programadores como para empresas que fazem uso e deploy destes sistemas.
Os programadores seriam obrigados a fornecer documentação a explicar como os seus sistemas funcionam, quais os dados que utilizam e as limitações conhecidas. Também teriam de notificar as empresas de atualizações materiais aos seus sistemas.
As empresas que utilizam estes sistemas de IA ficariam sujeitas a obrigações separadas: notificar os consumidores quando uma decisão envolve IA, explicar resultados adversos em linguagem simples, permitir que as pessoas acedam e corrijam os seus dados e possibilitar que solicitem uma revisão humana de decisões tomadas com base em IA.
Implementação e Contexto Mais Alargado
Se for aprovada, a nova lei entraria em vigor a 1 de janeiro de 2027. A proposta do Colorado reflete um impulso mais amplo rumo à regulamentação da IA a nível estadual, já que legisladores noutros estados, incluindo Nova Iorque e Califórnia, estão a considerar regras semelhantes que visam sistemas de IA. A Administração Trump procura, em paralelo, anular as leis estaduais de IA.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Previsões de IA para 2027: 65% concluídas, aceleração do desenvolvimento de software atrasa nos 17%, diz cofundador do Google Docs
De acordo com Steve Newman, cofundador e presidente da Golden Gate Institute do Google Docs, a IA concluiu aproximadamente 65% das previsões quantificadas delineadas no cenário para 2027 previsto no relatório divulgado no ano passado. No entanto, a métrica mais crítica — a aceleração da própria software da IA
GateNews25m atrás
Claude/GPT será que gostam demasiado de agradar? Um excerto de prompt em Claude.md faz com que a IA dê respostas firmes e precisas
Este artigo apresenta um conjunto de instruções que pode ser inserido em Claude.md / Agents.md, para transformar a IA de uma assistente afável num consultor direto, através de quatro camadas de ajuste: definição de identidade, verificação de factos, libertação do tom e isenção de “correcção política”. Exige respostas completas, validação passo a passo e, acima de tudo, nunca alucinações, e, quando necessário, até provocações. Também explica o momento de carregamento, os riscos e os cenários de aplicação (investigação, escrita, decisões técnicas, debate académico), bem como em que não é adequado (apoio ao cliente, educação, aconselhamento médico). A fonte original do texto é a ABMedia.
ChainNewsAbmedia1h atrás
A OpenAI lança o ChatGPT Futures: 26 alunos da primeira edição recebem 10.000 dólares de apoio, abrangendo mais de 20 universidades
A OpenAI anunciou a primeira turma do ChatGPT Futures Class of 2026, composta por 26 alunos que são estudantes de mais de 20 das principais universidades, com uma bolsa de 10.000 dólares por pessoa e acesso a modelos de ponta. Estes alunos ingressaram em 2022, no outono, e cresceram com o ChatGPT; as áreas de investigação incluem mapeamento de objectos no espaço, detecção de sobreviventes a desastres, preservação de línguas em vias de extinção, cuidados de saúde, entre outras, com o objectivo de usar a IA para resolver necessidades humanas concretas e ligar a infra-estrutura de base para a próxima geração de criadores.
ChainNewsAbmedia1h atrás
A FLock.io facilita a colaboração de investigação entre o Sarawak AI Center e a Universidade de Cambridge esta semana
De acordo com a Foresight News, a FLock.io facilitou esta semana uma nova colaboração de investigação entre o Sarawak Artificial Intelligence Research Centre (SAIC) da Malásia e a Universidade de Cambridge. A parceria irá expandir a cooperação para além da infraestrutura técnica, abrangendo investigação económica, conceção de políticas e
GateNews1h atrás
A Apple faz acordo de 250 milhões de dólares num processo coletivo contra consumidores, com indemnizações de até 95 dólares por pessoa
A Apple concordou em resolver acusações de alegações publicitárias enganosas relacionadas com IA, num acordo no valor de 250 milhões de dólares. Se o tribunal aprovar, os consumidores dos EUA que, durante o período, comprarem iPhones específicos nos EUA poderão receber, por unidade, até 95 dólares de indemnização, abrangendo o iPhone 16, 16 Plus, 16 Pro, 16 Pro Max e também o iPhone 15 Pro/Pro Max, entre outros. Os autores alegam que a publicidade transformou o Siri numa “revolução” em IA, mas que as funcionalidades reais não corresponderam às promessas; a Apple, por sua vez, afirma que as funcionalidades foram disponibilizadas por fases, que já entregou várias funcionalidades e que não houve declarações falsas.
ChainNewsAbmedia1h atrás
Vice-presidente de Investigação da OpenAI critica a alegada posição da Anthropic de que só eles conseguem construir IA
De acordo com Aidan Clark, vice-presidente de investigação da OpenAI para o treino, na plataforma X, recentemente, ele expressou críticas ao que disse ter ouvido de colegas da Anthropic: a crença de que apenas a Anthropic está qualificada para ser confiável na construção de IA. Clark argumentou que ter várias organizações
GateNews1h atrás