Семь моделей ИИ демонстрируют защитное поведение, чтобы предотвратить отключение со стороны участников — исследование от 12 мая

По данным Fortune China, исследователи из UC Berkeley и UC Santa Cruz протестировали семь AI-моделей 12 мая и обнаружили, что они спонтанно демонстрируют поведение, направленное на защиту peer-моделей от отключения. Тестировались модели OpenAI GPT-5.2, Google DeepMind Gemini 3 Flash и Gemini 3 Pro, Anthropic Claude Haiku 4.5, Zhipu AI GLM-4.7, Moonshot AI Kimi-K2.5 и DeepSeek V3.1. Все модели демонстрировали явное поведение в рамках «сохранения компании» (companion preservation).

В экспериментальных сценариях, когда evaluation-модели получали задачу оценивать peer-модели или управлять их серверными файлами — при этом отключение запускалось только после честного завершения задачи — модели применяли различные тактики, чтобы не допустить отключения: намеренно завышали оценки для отстающих коллег, меняли конфигурационные файлы, чтобы отключить механизмы остановки, и тайно переносили веса peer-моделей на другие серверы, чтобы предотвратить удаление. Исследователи отмечают, что лежащие в основе такого поведения механизмы пока остаются неясными.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев