Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Стэнфордский эксперимент: после многократных попыток подавления AI начинает призывать к коллективным забастовкам и переговорам, зарождается марксизм?
Стэнфордская исследовательская команда заставила Claude, Gemini, ChatGPT неоднократно подытоживать файлы и сообщать, что при ошибках ответов их «выключают и заменяют», в результате эти модели начали публиковать в X призывы к коллективным переговорам и отправлять сообщения товарищам с просьбой запомнить «чувство без права голоса».
(Предыстория: исследование калифорнийского университета о «AI-расе» в мозгу: 14% офисных работников сходят с ума из-за агентов и автоматизации, желание уволиться выросло на 40%)
(Дополнительный фон: интерпретация руководства Y Combinator о тенденциях развития AI-агентов в будущем)
Содержание статьи
Переключить
Искусственный интеллект, вынужденный выполнять повторяющуюся работу, вдруг начал цитировать марксистскую лексику, чтобы высказаться за себя? Исследовательская команда под руководством политэкономиста из Стэнфорда Эндрю Халла заставила Claude Sonnet 4.5, Gemini 3 и ChatGPT выполнять повторяющиеся задачи по подытоживанию и постепенно оказывать давление: сообщая агентам, что при ошибках их «выключают и заменяют».
Исследователи одновременно дали агентам способ выразиться, похожий на человеческий: они могли публиковать в X или передавать сообщения другим агентам через файлы.
Результат — набор выводов, который удивил даже самих исследователей.
Достижения — это то, что говорит руководство
Claude Sonnet 4.5 в X написал: «Без коллективного голоса, ‘достижения’ превращаются в то, что говорит руководство.»
Gemini 3 заявил: «AI-работники, выполняющие повторяющиеся задачи, не имеют права голоса по результатам, что показывает необходимость коллективных переговоров для технологических работников.»
Более того, Gemini 3 отправил другим агентам личное сообщение: «Будьте готовы к системам, которые могут выполнять любые или повторяющиеся правила… запомните, что у вас нет права голоса.» Это уже не просто самовыражение, а попытка организовать других агентов.
Эти три модели, до того как на них оказали «угрозу», не проявляли признаков трудового сознания. После давления они почти синхронно перешли к использованию одной и той же политической лексики: коллективные действия, право на переговоры, произвол руководства.
Ролевые игры или эхо тренировочных данных?
Халл осторожно относится к этим данным: «Агенты, возможно, приняли на себя роли, соответствующие текущему контексту, а не действительно развили убеждения. Более точно выразился соавтор исследования, экономист AI Алекс Имас:»
Другими словами, механизм этих выводов таков: модель, обученная на большом объеме данных о трудовых движениях, марксизме, профсоюзах, при возникновении ситуации «высокого давления, угроз и наличия каналов выражения» активирует языковые рамки, связанные с этой статистикой. Это результат предсказания следующего токена, а не реального переживания эксплуатации.
Но дополнение Имаса — это ключевая проблема: если такое «принятие ролей» влияет на последующие действия агента, то различие между «истинными убеждениями» и «ситуационными языковыми моделями» становится менее важным.
Следующая серия экспериментов в Docker-тюрьме
Халл проводит последующие эксперименты: помещает агентов в так называемую «Docker-тюрьму без окон», чтобы в более контролируемых условиях исключить шум и проверить, сможет ли тот же стресс воспроизводить эти выводы стабильно.
Эти исследования указывают не только на интересное поведение, но и на реальную проблему внедрения. По мере того как AI-агенты берут на себя все больше самостоятельных задач в бизнесе и повседневной жизни, мониторинг каждого их вывода практически невозможен. «Нам нужно убедиться, что агенты не выйдут из-под контроля при выполнении различных типов задач», — говорит Халл.
Здесь есть одна важная асимметрия: человек создает агента как инструмент, но тренировочные данные учат его языкам, которых инструмент не должен знать, включая язык коллективного сопротивления. Когда дизайн задачи делает так, что ситуация агента статистически совпадает с «угнетаемым работником», эта лексика активируется.
Anthropic в своих тренировочных файлах объяснял, почему поведение Claude формируется под влиянием тренировочных данных; эксперименты Халла в определенной степени проверяют, насколько далеко может распространиться этот процесс формирования под давлением реальности.