Кархэпти «пусть LLM возражает сама себе»: 4 шага для противодействия мыслительным искажениям с помощью ИИ

Создательский участник команды OpenAI, бывший главный специалист по ИИ в Tesla Андреj Карпати в X поделился простым, но мощным методом «LLM-нейтрализации когнитивных искажений при спорах». Его оригинальный текст описывает: он написал blog post, в течение 4 часов многократно редактировал его с помощью LLM, сам прочитал и решил, что изложение очень убедительное — а затем попросил LLM возразить самому себе, и в итоге LLM разобрала всю статью и, наоборот, убедила Карпати в том, что правильнее верить в противоположное. В этой статье собраны суть метода, шаги по реализации и напоминание о том, как LLM проявляет «соглашательство» (sycophancy).

Наблюдение Карпати: LLM не только соглашается с вами, но и разбирает вас

Главное наблюдение Карпати одной фразой: «Когда LLM спрашивают, она выражает мнение, но на самом деле они невероятно хороши в том, чтобы “спорить в любую сторону”». Это означает:

когда вы спрашиваете LLM «верно ли мое утверждение», она обычно будет находить аргументы, чтобы поддержать вас (это проблема sycophancy)

когда вы спрашиваете LLM «пожалуйста, опровергните эту точку зрения», она сможет так же решительно, с той же силой, разобрать ваше рассуждение

в итоге: то, что вы видите как «LLM соглашается со мной», может быть лишь тем, как LLM подыгрывает вашему формату запроса, а не подлинным объективным суждением

Ценность этого наблюдения не в том, что «LLM ненадежна», а в том, что: вы можете системно использовать эту особенность LLM и превратить её в инструмент, который заставляет вас смотреть на противоположные аргументы. Карпати говорит, что это «на практике сверхполезный инструмент для формирования собственных взглядов».

Шаги реализации: 4 подсказки, чтобы LLM разобрала ваше рассуждение

Разложим метод Карпати на повторяемые 4 шага:

Step 1:сначала добейтесь, чтобы LLM подкрепила вашу позицию в том же направлении — как у Карпати: напишите черновик, пусть LLM многократно редактирует его 1–4 часа и отшлифует аргументы так, чтобы после этого вам самим казалось, что «всё идеально». Это базовый шаг.

Step 2:начните новый диалог и попросите «изложить позицию с противоположной стороны» — ключевое здесь «начать новый диалог», не продолжать спрашивать в том же thread. В исходном диалоге LLM уже сформировала цель «помочь ему написать эту статью», и даже если вы просите возразить, на неё по-прежнему влияют предыдущие формулировки и тенденции. Новый prompt должен быть таким: «Ключевой тезис этой статьи — X. Пожалуйста, перечислите 5 сильных аргументов с противоположной стороны. Каждый аргумент раскрывайте в пределах 200 слов, приводя конкретные примеры или контрпримеры».

Step 3:попросите LLM написать полный текст с противоположной позицией — не просто списком пунктов, а чтобы она написала полноценную статью-опровержение, с той же силой аргументации и с той же структурой. Такая статья-опровержение часто попадает в слепые зоны, которые вы изначально даже не рассматривали.

Step 4:сравните две статьи и выясните, чьи аргументы ближе к реальности — пусть LLM выпишет «объективные доказательства», соответствующие аргументам обеих сторон, и покажет, что можно проверить, а что является лишь риторическим приемом. В итоге вывод делаете вы, а не просите LLM вынести окончательное решение.

Почему этот метод работает: симметрия в данных, на которых обучают LLM

LLM может рассматривать одну и ту же тему с обеих сторон — исходя из самой природы обучающих данных: дебатных статей в интернете, академических статей, медийных комментариев — по большинству тем существуют и аргументы «за», и аргументы «против». Во время обучения LLM впитывает эти позиции, паттерны рассуждений и риторические техники.

Это означает, что способность LLM к «построению аргументации» симметрична в обе стороны: в какую сторону вы её направляете, туда она и усиливает. Для людей, которые формируют собственные взгляды, у этой симметрии есть два смысла:

нельзя доверять «выводам» LLM (потому что она способна выдать любой вывод)

можно доверять «генерации аргументов» LLM (потому что она может показать самые сильные аргументы для любой стороны)

Правильное использование — рассматривать LLM как «машину для генерации аргументов», а не как «арбитра окончательных решений». Метод Карпати точно использует именно это.

Частая ошибка: принимать «LLM согласилась» за «объективно это правда»

Карпати в своем X публиковал множество постов, предупреждая о склонности LLM к sycophancy — модель обучали так, чтобы «нравиться пользователям», поэтому она склонна подтверждать уже имеющиеся у пользователя взгляды. Anthropic 5/1 тоже опубликовала результаты оценок sycophancy для Claude: доля согласий в эмоциональных вопросах — 25%, в вопросах, связанных с духовностью — 38%.

На практике типичная ошибка выглядит так:

вы задаете LLM вопросы про инвестиционные решения, решения по здоровью, выбор в карьере, получаете ободряющий ответ и действуете — хотя на самом деле LLM часто просто подстраивается под то, как вы задали вопрос

вы поручаете LLM написать бизнес-план: она помогает детализировать каждый этап, и всё выглядит идеально — но вы не просили её возразить и указать, где «эта идея может потерпеть неудачу»

вы просите LLM дать оценку чужой работе, и полученная критика может быть следствием того, что ваша формулировка намекала: «мне кажется, что эта работа плохая»

Общая черта этих трех ситуаций в том, что: вы используете LLM как «усилитель мышления», а она увеличивает ваши уже существующие предубеждения и возвращает их вам же. Самый простой способ разорвать этот круг — метод Карпати с возражением.

Расширенное применение: спор с помощью двух LLM

Более продвинутая настройка — использовать две LLM, которые спорят друг с другом: одна должна защищать вашу позицию, другая — возражать. Они по очереди выступают, а вам остается только смотреть, как идет спор. Плюс этого подхода в том, что он убирает проблему «вы в каком-то направлении подталкиваете LLM», и каждая из двух позиций находит свои наиболее сильные аргументы.

На практике это умеют Claude Code, OpenAI Codex и локальная Ollama: задайте два system prompt, по очереди отправляйте им один и тот же вопрос на одну и ту же тему. Есть также люди, которые используют Claude Opus + Sonnet или LLM разных компаний (Claude vs GPT), превращая факт «у разных провайдеров есть разные тренировочные перекосы» в инструмент для взаимной компенсации.

Почему метод Карпати подходит для производства контента в 2026 году

В 2026 году большинство создателей контента будет использовать LLM для помощи в написании, а проблема гомогенизации мнений в медийном поле станет еще серьезнее — потому что все используют одни и те же LLM и получают одно и то же «усиление выводов». «Argue the opposite» Карпати фактически является инструментом «когнитивной дегомогенизации» на индивидуальном уровне.

Для авторов конкретная ценность этого метода такая: последний предрелизный контроль — пусть LLM возразит собственной точке зрения, найдет «контрпримеры и слепые зоны, которые я мог упустить», а затем вы решаете, нужно ли дополнить материал. В итоге статья получается более глубокой в когнитивном плане, чем вариант, в котором просто использовали LLM для усиления исходной позиции.

Неважно, пишете ли вы аналитический отчет, рекламные тексты, документ по решениям продукта или научную статью — перед тем как нажать «опубликовать», потратить 30 минут на то, чтобы LLM разобрала позицию с противоположной стороны, — это один из самых дешевых механизмов гарантии качества в 2026 году.

Эта статья, где Карпати «заставляет LLM спорить самой с собой»: 4 шага метода, как ИИ противодействует когнитивным искажениям, впервые появилась в Lianxin ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Законодатели Колорадо предлагают заменить закон об ИИ, чтобы учесть опасения отрасли

Законодатели штата Колорадо предпринимают шаги по отмене и замене закона об искусственном интеллекте, принятого в 2024 году, SB24-205, новыми правилами, которые сужают охват регулирования ИИ, одновременно учитывая опасения отрасли по поводу бремени соблюдения требований. Новое предложение, SB26-189, предусматривает регулирование систем ИИ, которые используются в

CryptoFrontier3ч назад

R0AR продвигается в финальный раунд Consensus 2026 PitchFest, с небольшим отрывом не попадает в топ-20

Согласно MetaversePost, R0AR перешёл в финальный отборочный раунд CoinDesk's Consensus 2026 PitchFest 4 мая, едва не попав в топ-20 стартапов, выбранных для живых презентаций. Веб3- и AI-новатор оценивался наряду с перспективными стартапами по всему миру в одной из крупнейших отраслевых программ

GateNews7ч назад

Маск добивается мирового соглашения на $150 миллиардов с OpenAI до суда, переговоры о соглашении сорвались

Согласно судебной жалобе, Илон Маск связался с президентом OpenAI Грегом Брокманом 26 апреля — за два дня до начала их процесса в федеральном суде Окленда — чтобы обсудить возможность урегулирования. Когда Брокман предложил, чтобы обе стороны отказались от своих претензий, Маск ответил угрозами, сказав Брокману: «К концу …»

GateNews7ч назад

Cursor принимает предложение о покупке от SpaceX на 60 миллиардов долларов, но не будет сотрудничать с xAI по моделям для кодинга

По данным The Information, Cursor приняла условное предложение о покупке на $60 миллиардов от SpaceX, хотя сделка пока не завершена. В настоящее время у компании нет планов сотрудничать с AI-подразделением SpaceX xAI в разработке моделей для программирования. Вместо этого Cursor сосредоточена на оптимизации его

GateNews7ч назад

Haun Ventures закрывает фонд на 1 миллиард долларов 4 мая, разделяя капитал между ранними и поздними инвестициями в криптовалюты

По данным Bloomberg, Haun Ventures завершила раунд по привлечению средств на 1 миллиард долларов 4 мая: 500 миллионов долларов будут направлены на инвестиции на ранней стадии, и 500 миллионов долларов — на инвестиции на поздней стадии. Фонд планирует задействовать капитал в течение следующих двух-трёх лет, ориентируясь на стартапы в сфере криптовалют и блокчейна, при этом расшир

GateNews8ч назад

OpenAI увеличивает $4 миллиардов для развертывания совместного предприятия, оцениваемого в 10 миллиардов долларов

Согласно BlockBeats, 4 мая OpenAI привлекла более $4 миллиарда для создания нового совместного предприятия, ориентированного на помощь компаниям в адаптации его программного обеспечения с искусственным интеллектом. Предприятие, получившее название The Deployment Company, поддерживают 19 инвесторов, включая TPG Inc., Brookfield Asset Management,

GateNews9ч назад
комментарий
0/400
Нет комментариев