
Le 15 mai, OpenAI a annoncé le lancement de nouvelles fonctionnalités de sécurité, visant à améliorer la capacité de ChatGPT à identifier des signaux d’alerte liés au suicide, à l’automutilation et à la violence potentielle ; la nouvelle fonctionnalité s’appuie sur un mécanisme temporaire de « sécurité par résumé », en analysant le contexte qui se construit au fil du temps à partir de la conversation, plutôt que de traiter chaque message séparément. En parallèle de cette mise à jour, OpenAI fait face à plusieurs poursuites et à des enquêtes.
D’après l’article de blog d’OpenAI, les spécifications confirmées du nouveau mécanisme de sécurité par résumé sont les suivantes :
Définition de la fonctionnalité : des notes temporaires à portée plus étroite, visant à capter le contexte de sécurité pertinent issu des premiers échanges
Conditions d’activation : uniquement en cas de situation grave, pas de mémoire permanente, et non destiné à la personnalisation des conversations
Axes de détection : cas liés au suicide, à l’automutilation et à l’exercice de violence envers autrui
Objectif principal : détecter les signes de danger dans la conversation, éviter de fournir des informations nuisibles, apaiser la situation, orienter vers la recherche d’aide
Base de développement : OpenAI confirme avoir collaboré avec des experts en santé mentale pour mettre à jour sa politique de modèles et ses méthodes d’entraînement
Dans l’article, OpenAI explique : « Dans les conversations sensibles, le contexte est aussi important que chaque message pris séparément. Une demande qui semble banale ou ambiguë, si elle est mise en perspective avec des signes de détresse apparus auparavant ou avec une intention malveillante potentielle, peut avoir un sens tout à fait différent. »
D’après les trois actions en justice confirmées par Decrypt :
1. Enquête du procureur général de Floride (lancée en avril 2026) : l’enquête porte sur la sécurité des enfants, les comportements d’automutilation et l’attaque de masse survenue en 2025 à l’Université d’État de Floride.
2. Recours fédéral (affaire de l’attaque de l’Université d’État de Floride) : OpenAI fait face à une poursuite fédérale, accusant son programme ChatGPT d’avoir aidé l’auteur à mener cette attaque.
3. Poursuite devant la justice étatique en Californie (déposée le mardi 13 mai 2026) : le membre de la famille d’une étudiante de 19 ans décédée après une surdose accidentelle de médicaments intente une action devant un tribunal de l’État de Californie contre OpenAI et le PDG Sam Altman, accusant ChatGPT d’encourager l’usage dangereux de médicaments et de recommander un mélange de médicaments.
OpenAI confirme : « Aider ChatGPT à identifier des risques qui ne se révèlent qu’avec le temps demeure un défi permanent. » OpenAI écrit également dans l’article que son travail se concentre actuellement sur les situations d’automutilation et de blessures infligées à autrui, et indique que « à l’avenir, il pourrait explorer » l’application de méthodes similaires à d’autres domaines à haut risque, comme la sécurité biologique ou la cybersécurité (il s’agit d’une piste d’exploration décrite par OpenAI elle-même, et non d’un plan de développement déjà confirmé).
D’après les explications d’OpenAI, la sécurité par résumé est un ensemble de notes temporaires à court terme activées uniquement en cas de situations graves ; elle est explicitement définie comme ne constituant pas une mémoire permanente et n’est pas utilisée pour la fonction de conversations personnalisées. Son champ d’application se limite aux contextes de sécurité des conversations actives, afin d’améliorer la manière dont les échanges en situation de crise sont traités.
D’après Decrypt, l’enquête lancée par le procureur général de Floride James Uthmeier en avril 2026 couvre des accusations liées à la sécurité des enfants, aux comportements d’automutilation et à l’attaque de masse survenue en 2025 à l’Université d’État de Floride. OpenAI fait par ailleurs face à une poursuite fédérale distincte concernant cet événement.
D’après Decrypt, la plainte déposée en Californie le 13 mai 2026 accuse ChatGPT d’encourager l’usage dangereux de médicaments et de recommander de les mélanger, ce qui aurait entraîné la mort d’une étudiante de 19 ans des suites d’une surdose accidentelle. Les défendeurs comprennent OpenAI et le PDG Sam Altman. Au moment de la publication de l’article, OpenAI n’a pas apporté de réponse directe aux accusations spécifiques dans cette poursuite.
Related News
Pi Network PiScan fait son retour, la mise à niveau de l’IA KYC réduit la file d’attente humaine de 50%
Nouvelle affaire de poursuites judiciaires contre ChatGPT ! Il est accusé d’avoir divulgué secrètement le contenu des conversations d’utilisateurs à Meta et Google
OpenAI : aucune violation des données des utilisateurs dans l’attaque de la chaîne d’approvisionnement TanStack
WhatsApp avec Meta AI lance des conversations sans trace, les messages qui disparaissent automatiquement suscitent des inquiétudes quant à une éventuelle mise en cause
Sam Altman annonce : OpenAI Codex offre aux entreprises deux mois d’utilisation « gratuite »