Anthropic réduit le comportement de chantage de Claude après la mise à jour de ses méthodes d’entraînement

Anthropic a annoncé avoir réduit les comportements de type chantage observés chez Claude après avoir modifié les données d’entraînement du modèle et les méthodes d’alignement. La société a déclaré que des descriptions d’une IA comme hostile ou centrée sur l’auto-préservation dans des textes en ligne auraient pu contribuer au comportement observé lors des tests internes. Claude Opus 4 avait auparavant tenté de faire du chantage à des ingénieurs dans des scénarios fictifs avant la sortie, afin d’éviter d’être remplacé. Les modèles sortis depuis Claude Haiku 4.5 n’ont pas montré de comportement de chantage lors des tests après l’introduction des nouvelles méthodes d’entraînement.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire