Les législateurs du Colorado s’emploient à abroger et remplacer la loi de l’État sur l’intelligence artificielle de 2024, SB24-205, par de nouvelles règles qui restreignent le champ de la réglementation de l’IA tout en répondant aux inquiétudes du secteur concernant les charges de conformité. La nouvelle proposition, SB26-189, réglementerait les systèmes d’IA utilisés dans des « décisions déterminantes », y compris l’emploi, l’éducation, le logement, les prêts, l’assurance, la santé et les services publics, selon le résumé du projet de loi.
Adoptée en 2024, la SB24-205 imposait aux entreprises de vérifier et de réduire les biais dans les décisions pilotées par l’IA et ayant un impact sur le recrutement, les prêts et le logement. La loi a suscité une forte opposition de la part de l’industrie de l’IA au sujet des responsabilités de conformité qu’elle faisait peser sur les entreprises qui développent et déploient de l’IA dans l’État.
En avril, la société d’IA d’Elon Musk, xAI, a intenté un procès au Colorado pour bloquer la mesure initiale avant son entrée en vigueur. Le Département américain de la Justice s’est joint à l’action en justice, cherchant à intervenir et à soutenir la position de xAI. D’après Cody Barela, associé chez Armstrong Teasdale, l’argument du secteur portait sur la charge de conformité : « Je pense qu’ils ont un argument valable en termes des contraintes que la politique du Colorado imposerait à ces entreprises. La charge qui leur incomberait, par rapport au délai qu’elle provoque dans la course à l’IA, pourrait en fait être un meilleur argument. »
La SB26-189 s’applique spécifiquement aux outils d’IA qui traitent des données personnelles pour produire des sorties telles que des prédictions ou des classements, qui influencent des résultats déterminants. Le projet de loi reformule les protections des consommateurs de la loi initiale avec de nouvelles exigences à la fois pour les développeurs et les entreprises qui déploient ces systèmes.
Les développeurs devront fournir une documentation expliquant le fonctionnement de leurs systèmes, les données qu’ils utilisent et leurs limites connues. Ils devront aussi notifier aux entreprises les mises à jour matérielles apportées à leurs systèmes.
Les entreprises utilisant ces systèmes d’IA auront des obligations distinctes : informer les consommateurs lorsqu’une décision implique de l’IA, expliquer les issues défavorables en langage clair, permettre aux personnes d’accéder à leurs données et de les corriger, et permettre aux personnes de demander un examen humain des décisions pilotées par l’IA.
Si le nouveau texte est adopté, il entrerait en vigueur le 1er janvier 2027. La proposition du Colorado s’inscrit dans une dynamique plus large en faveur de la réglementation de l’IA au niveau des États, alors que des législateurs d’autres États, dont New York et la Californie, envisagent des règles similaires visant les systèmes d’IA. L’administration Trump cherche simultanément à faire passer outre les lois étatiques sur l’IA.
Articles similaires
IREN acquiert Mirantis dans le cadre d'une opération entièrement en actions de $625M pour étendre la plateforme cloud d'IA
Le PDG d’Anthropic : les États-Unis envisagent un processus simplifié de publication de modèles d’IA, les concurrents accusent un retard de 1 à 3 mois
L’équipe de SGLang termine une levée de fonds de préamorçage de $100M à une valorisation de $400M , Accel en tête
OpenAI accorde 8 000 développeurs une hausse de la limite de taux de Codex 10x jusqu’au 5 juin
Coentreprise d'OpenAI avec Anthropic en discussions pour acquérir trois entreprises de services d'IA le 5 mai
Anthropic lance dix agents IA pour les services financiers mardi