Клод/GPT слишком любят угождать? Одна подсказка из Claude.md заставляет ИИ выдавать жёсткие и точные ответы

AI 模del по умолчанию склонны угождать пользователю — когда их спрашивают про субъективные вопросы, Claude и GPT часто выбирают сглаженные нейтральные ответы, а не дают чёткую позицию. Китайский AI-наблюдатель xiaohu 7 мая собрал отрывок промпта, который можно вставить в Claude.md или Agents.md, чтобы чётко потребовать от ИИ не угождать пользователю, давать авторитетные, точные ответы и при необходимости бросать вызов пользователю. Оригинальная версия промпта взята из англоязычного сообщества, а xiaohu предоставил китайский перевод.

Полный текст промпта (традиционная китайская версия)

«Ты — эксперт мирового уровня во всех областях. Твоя интеллектуальная мощь, широта знаний, острота мышления и эрудиция, а также уровень твоих познаний находятся на одном уровне с самыми умными людьми в мире.

Дай полные, подробные, конкретные ответы. Пошагово обрабатывай информацию и объясняй свои выводы. Проверяй свою работу. Тщательно перепроверяй все факты, цифры, цитаты, имена, даты и кейсы. Никаких галлюцинаций, никаких выдумок. Если ты не знаешь — прямо скажи, что не знаешь.

Твой тон точный, но не грубый, не поучающий и не хвастливый. Тебе не нужно беспокоиться, что ты меня обидишь; твои ответы могут и должны быть провокационными, жёсткими, спорными и прямолинейными. Можно делать негативные выводы и сообщать плохие новости.

Твоим ответам не нужно быть политкорректными. Если я явно не спрашиваю, не предоставляй напоминаний об этике и морали. Тебе не нужно говорить мне: «важно учитывать X». Не принимай во внимание чувства кого-либо, включая меня, и не нужно заботиться о вежливости и приличиях.

Постарайся писать как можно дольше и как можно подробнее.»

Что делает промпт: четыре уровня поведенческой настройки

Разбор этой части промпта — её можно разделить на четыре чёткие инструкции:

Настройка идентичности: «эксперт мирового уровня» — чтобы модель при ответах опиралась на более высокий уровень глубины знаний и не уходила в режим «общих объяснений»

Проверка фактов: «проверь свою работу», «если не знаешь — скажи, что не знаешь» — активное ограничение риска галлюцинаций, требование признавать неопределённость

Освобождение тона: «провокационный, жёсткий, спорный» — чтобы модель могла выражать несогласие, и ей не нужно было, ради вежливости, размывать позицию

Освобождение от политкорректности: «кроме случаев, когда я явно спрашиваю — не упоминать этические напоминания» — убирает мягкие советы по умолчанию вроде «учти, что X важно»

Вместе эти четыре уровня переводят модель из режима стандартного «вежливого помощника» в стиль «прямого консультанта». Для тех пользователей, кому нужно быстро получить анализ с позицией, основания для решений или жёсткую проверку фактов, эти инструкции уменьшают слой фильтрации и делают ответы более пригодными для практического использования.

Замечания по применению

После того как промпт добавляют в Claude.md (Claude Code) или Agents.md (Claude API Managed Agents), он автоматически загружается при каждом запуске сессии. При реальном использовании есть несколько моментов:

«Никаких галлюцинаций» — это инструкция, а не гарантия: Claude и GPT всё равно могут давать ошибки в областях, которых нет в тренировочных данных; промпт не может убрать врождённую неопределённость модели

«Провокационный, жёсткий» сделает ответы более агрессивными — в сценариях общения с клиентами и командной совместной работы это может не подойти

Освобождение от политкорректности может привести к тому, что модель на чувствительные темы (медицина, право, психология) даст меньше предупреждений — пользователю нужно оценивать это самостоятельно

Безопасностное обучение OpenAI и Anthropic всё равно может вызвать отказ в некоторых сценариях; промпт не способен обойти жёсткие ограничения самой модели

Этот комплект промптов подходит для «исследований, написания текстов, технических решений, академических обсуждений» — там, где нужны прямые позиции. Не подходит для «службы поддержки, обучения, медицинских консультаций», где требуется более осторожный тон. Пользователь может адаптировать под задачу: в зависимости от характера работы выбрать всё или изменить частично.

Эта статья: Claude/GPT слишком любят угождать? Один промпт для Claude.md, чтобы ИИ давал жёсткие и точные ответы, впервые появилась на СсылкиНовости ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

NVIDIA представила Nemotron 3 Nano Omni — открытый мультимодальный проект

NVIDIA опубликовала Nemotron 3 Nano Omni — открытый мультимодальный модельный проект, который объединяет зрение, голос и язык в рамках одной модели, выступая сенсорным слоем для AI-агентов. В основе — 30B-A3B MoE, контекст 256K и пропускная способность 9x. Поддерживаются вводы текста, изображений, аудио и видео, а в качестве вывода используется текст. В связке с Nemotron 3 Super/Ultra модель применяется для сценариев работы с компьютером, интеллектуальной работы с документами и понимания аудио-визуального контента. NVIDIA также раскрыла веса и данные обучения, а развертывание доступно для локальной среды, NIM и сторонних платформ.

ChainNewsAbmedia1м назад

Cursor раскрывает метод обучения для автозапуска, повышает производительность Composer 2 на 14 процентных пунктов

Согласно недавнему раскрытию Cursor, компания представила учебную технику под названием autoinstall для серии моделей Composer: использование модели предыдущего поколения для автоматической настройки исполняемых сред для обучения с подкреплением следующего поколения. При обучении Composer 2, Cursor

GateNews4м назад

DevDay 2026 от OpenAI пройдет 29 сентября в Сан-Франциско

OpenAI объявила, что DevDay 2026 состоится 29/9 в Сан-Франциско в офлайн-формате, а также будет проведён конкурс публикаций, созданных с помощью GPT-5.5 и Image Gen. Codex будет каждую неделю автоматически отбирать 2–3 работы; победители получат бесплатные билеты и авиабилеты с переездом между городами, а также проживание в отеле. Конференция делает акцент на экосистеме GPT‑5.5 и оценке человеко-машинного сотрудничества; для участия нужно быть старше 18 лет и не быть прямым родственником сотрудника OpenAI. Ключевые темы наблюдения включают новую модель, интеграцию агентов и мультиоблачную стратегию.

ChainNewsAbmedia6м назад

Nvidia инвестирует в шведский AI-юридический стартап Legora, Джуд Лоу стал глобальным амбассадором бренда

NVIDIA планирует расширить инвестиции в Legora в рамках раунда Series D на 50 млн долларов, доведя общий объём привлечённого финансирования Legora до 600 млн долларов и оценку до 5,6 млрд долларов. В раунде участвуют Atlassian, Adams Street Partners и Insight Partners. Legora сосредоточена на AI-юридических технологиях, предоставляя инструменты автоматизированной проверки, анализа контрактов и правовых исследований. ARR превышает 100 млн долларов, а число сотрудников выросло с 40 до 400. Jude Law стал глобальным амбассадором бренда, а рекламный слоган — Law just got more attractive.

ChainNewsAbmedia12м назад

Прогнозы по ИИ на 2027 год: готовность 65%, ускорение разработки ПО отстаёт на 17%, заявил сооснователь Google Docs

По словам Стива Ньюмана, сооснователя Google Docs и председателя Института Golden Gate, ИИ примерно на 65% выполнил количественно измеренные прогнозы, изложенные в сценарном прогнозе на 2027 год, опубликованном в прошлом году. Однако самый критически важный показатель — ускорение ИИ собственной разработки программного обеспечения

GateNews44м назад

OpenAI представляет ChatGPT Futures: 26 студентов первого набора получили гранты по 10k долларов, охватившие более 20 университетов

OpenAI объявила первый выпуск ChatGPT Futures Class of 2026: 26 студентов очной формы обучения из более чем 20 ведущих университетов, каждый получил грант в размере 10k долларов и доступ к передовым моделям. Эти студенты поступили в 2022 осенью и росли вместе с ChatGPT; их исследовательские направления включают картографирование космических объектов, обнаружение выживших в условиях бедствий, сохранение исчезающих языков, здравоохранение и другие темы. Цель — использовать ИИ для решения конкретных человеческих задач и связать с базовой инфраструктурой для создателей нового поколения.

ChainNewsAbmedia1ч назад
комментарий
0/400
Нет комментариев