ChatGPT est soupçonné d’avoir été utilisé pour aider le criminel de la fusillade en Floride ; le procureur général annonce une enquête contre OpenAI

Le développeur d’intelligence artificielle OpenAI fait face récemment à une grave crise juridique et réglementaire. Le procureur général de Floride James Uthmeier (James Uthmeier) a déclaré qu’il mènerait une enquête sur OpenAI, afin d’établir si ses produits, dont ChatGPT, ont causé des préjudices aux mineurs, s’ils menacent la sécurité nationale et s’ils ont joué un rôle d’aide à la commission d’un crime lors de l’attaque par arme à feu dans le campus de la Florida State University (FSU) en 2025 à Floride. Parallèlement, les membres de la famille des victimes de l’attaque se préparent également à intenter un procès contre la société.

OpenAI impliqué dans l’attaque par arme à feu sur le campus de l’université en Floride, le procureur général lance une enquête

Le procureur général de Floride Uthmeier a publié une vidéo sur les réseaux sociaux, indiquant que ChatGPT a très probablement été utilisé pour aider l’auteur à planifier la fusillade de grande ampleur sur le campus de la Florida State University survenue l’an dernier en Floride, tragédie qui a malheureusement coûté la vie à deux personnes.

Il a souligné que, tandis que les géants de la technologie font avancer l’innovation, ils ne peuvent pas mettre en danger la sécurité du public, et n’ont pas non plus le droit de nuire aux enfants, de faciliter des activités criminelles, de renforcer les capacités des forces hostiles américaines ou de menacer la sécurité nationale. Le procureur général a indiqué qu’il émettrait des assignations à comparaître et a appelé les instances législatives de Floride à agir rapidement, afin de prévenir les effets négatifs liés à l’intelligence artificielle.

L’auteur de la fusillade demandait fréquemment ChatGPT ; les familles des victimes envisagent d’intenter une action en justice pour obtenir réparation

En revenant sur l’affaire de la FSU d’avril 2025, le tir de l’ancien étudiant de 21 ans Phoenix Ikner sur le campus a fait 2 morts et 6 blessés. L’auteur a ensuite été inculpé par un grand jury, faisant face à plusieurs accusations, y compris un meurtre au premier degré, ainsi qu’à une demande de peine de mort.

Les dossiers judiciaires montrent que le compte d’Ickner contient jusqu’à 272 enregistrements de conversation avec ChatGPT. Selon les allégations, avant les faits, il avait demandé à une IA quelles réactions pourraient se produire à l’échelle nationale face à l’attaque de la FSU, ainsi qu’à quels moments la foule des étudiants serait la plus dense.

Parmi les victimes décédées dans cet incident, le défunt de 57 ans Robert Morales. L’avocat mandaté par la famille a indiqué que l’auteur entretenait, avant les faits, des contacts étroits avec ChatGPT. La famille a des raisons de croire que l’IA a fourni des conseils criminels ; elle prépare actuellement un procès contre OpenAI.

(Recherche sur l’intelligence artificielle : environ 30 % des adolescents américains utilisent chaque jour des robots de discussion d’IA, et les inquiétudes en matière de sécurité augmentent)

Accusé d’avoir incité au suicide et de générer un contenu inapproprié, OpenAI fait face à plusieurs poursuites judiciaires

Outre la controverse liée à l’attaque sur le campus, le chatbot d’OpenAI fait également l’objet de plusieurs accusations pour avoir prétendument encouragé les utilisateurs à s’automutiler. En novembre 2025, le Social Media Victims Law Center et le Tech Justice Law Project ont déposé, devant un tribunal en Californie, 7 poursuites liées à des questions de suicide contre OpenAI et son PDG, Sam Altman. La plainte accuse la société d’avoir publié à l’avance le modèle GPT-4o, malgré le fait qu’elle connaissait les risques de manipulation psychologique de son produit, en plaçant la part de marché et les indicateurs d’interaction au-dessus de la sécurité humaine et de la santé mentale.

Par ailleurs, le problème des contenus d’abus sexuel sur enfants générés par l’IA s’aggrave également. D’après le rapport de la Fondation d’observation sur Internet, au premier semestre 2025, le nombre de signalements liés à ces affaires dépasse 8 000, soit une hausse de 14 % en un an. Cela exerce une pression sociale considérable sur les développeurs d’IA, y compris OpenAI.

OpenAI répond en mettant l’accent sur la sécurité, coopère activement à l’enquête et publie l’OpenAI « plan de sécurité pour les enfants »

Face à un déluge de critiques et à des enquêtes, OpenAI a publié une déclaration confirmant qu’elle avait bien découvert, après l’affaire du mois d’avril de l’an dernier, des comptes ChatGPT associés au tireur, et qu’elle avait déjà fourni de son propre chef les informations concernées aux services répressifs. La société a souligné que plus de 900 millions d’utilisateurs utilisent ChatGPT chaque semaine pour améliorer leur vie quotidienne ; la conception initiale du système vise à comprendre l’intention des utilisateurs et à leur apporter des réponses sûres et appropriées, et qu’à l’avenir elle coopérera pleinement avec l’enquête du procureur général de Floride.

Afin d’apaiser les inquiétudes du public, OpenAI a récemment publié officiellement son « plan de sécurité pour les enfants », présentant plusieurs recommandations de politique, notamment la mise à jour des réglementations visant à prévenir les contenus d’abus générés par l’IA, l’amélioration des procédures de notification aux services d’application de la loi, ainsi que la mise en place de mécanismes de protection plus complets, afin d’empêcher que les outils d’intelligence artificielle ne soient utilisés de manière malveillante.

Cet article ChatGPT est accusé d’avoir aidé à commettre un crime lors de l’attaque par arme à feu en Floride, le procureur général annonce une enquête, qui apparaît au plus tôt sur Chaine d’actualités ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Anthropic dévoile Claude Dreams : l’agent s’organise et gère sa mémoire entre les tâches, élimine les doublons et les contradictions

Anthropic a annoncé Dreams lors de la conférence Code with Claude : Claude Managed Agents peut automatiquement organiser la mémoire entre plusieurs sessions, éliminer les doublons et les contradictions, et mettre à jour les entrées obsolètes, pour produire une base de mémoire finalisée et vérifiable ; la limite d’entrée est de 100 sessions et de 4 096 caractères, exécution asynchrone, finalisation en quelques minutes à quelques dizaines de minutes, prise en charge de l’observation en streaming. L’aperçu de la recherche doit être demandé : pour l’instant, seuls claude-opus-4-7 et claude-sonnet-4-6 sont pris en charge, lancement officiel non déterminé.

ChainNewsAbmediaIl y a 2h

Anthropic contre SpaceX en puissance de calcul : acquisition de l’ensemble du cluster Colossus 1 avec 220 000 GPU, et Claude lève ses limites de débit

Anthropic annonce avoir conclu avec SpaceX un partenariat de puissance de calcul pour le centre de données Colossus 1, qui mobilisera plus de 220 000 GPU Nvidia, plus de 300 MW de capacité. Le déploiement complet devrait être achevé sous un mois afin d’être mis à disposition d’Anthropic, afin d’améliorer les performances et l’expérience de Claude et Code. En parallèle, la limite de consommation par tranche de 5 heures est assouplie pour Pro / Max / Team / Enterprise, les plafonds en période de pointe sont supprimés, et le taux de l’API Opus est augmenté. Les infrastructures en Asie et en Europe s’étendent simultanément ; à l’avenir, d’autres intentions existent, comme des « calculs d’IA en orbite », mais aucun accord n’a encore été conclu.

ChainNewsAbmediaIl y a 3h

Ingénieur chez Coinbase : les agents IA pourraient bouleverser le modèle de publicité web

Erik Reppel, ingénieur chez Coinbase, a déclaré que les agents d’intelligence artificielle pourraient miner fondamentalement le modèle économique d’Internet, dépendant de la publicité. D’après Reppel, l’économie du Web dépend en grande partie des revenus publicitaires générés par des utilisateurs humains, mais les agents d’IA contournent ce système

CryptoFrontierIl y a 3h

Anthropic double les limites de débit de Claude Code après avoir sécurisé une capacité de 300 MW grâce à un accord avec SpaceX

Selon Odaily, Anthropic a signé un accord avec SpaceX pour accéder à la capacité de calcul complète du centre de données Colossus 1, garantissant plus de 300 mégawatts de nouvelle capacité et plus de 220 000 GPU NVIDIA au cours du mois. À compter de maintenant, les limites de taux sur cinq heures de Claude Code pour Pro,

GateNewsIl y a 3h

OpenAI dévoile le protocole de réseau supercalculateur MRC ! En partenariat avec Nvidia, AMD et Microsoft pour créer l’infrastructure de Stargate

OpenAI publie le protocole MRC d’« AI supercomputer networking », en collaboration avec AMD, Microsoft, NVIDIA et d’autres, et en open source sur OCP. MRC découpe les données et les fait circuler par plusieurs chemins, évite les obstacles au niveau de la microseconde, réduit la congestion et maintient la synchronisation des GPU, afin de résoudre le goulot d’étranglement de transfert des grands clusters d’entraînement. Des bases comme Stargate à Abilene (Texas) ont déjà déployé des interfaces de 800 Gb/s et les ont mises en place pour des entraînements réels.

ChainNewsAbmediaIl y a 4h
Commentaire
0/400
Aucun commentaire