Сообщение Gate News, 29 апреля — исследователи OpenAI Сэбастьен Бьюбек и Эрнест Рю заявляют, что системы ИИ смогут выполнять большую часть человеческой исследовательской работы в течение двух лет, представляя математику как четкий показатель прогресса ИИ. В отличие от расплывчатых тестов производительности, математические задачи дают точную верификацию: ответы либо правильные, либо неправильные, не оставляя места для двусмысленности.
Бьюбек отметил, что истинное мышление ИИ требует способности выдерживать длинные цепочки рассуждений. Одна ошибка в многошаговом аргументе рушит все доказательство, делая обнаружение и исправление ошибок по ходу процесса главной целью для продвинутых моделей. Внутренние лаборатории OpenAI уже сгенерировали более десяти полностью новых теорем, пригодных для публикации в ведущих журналах по комбинаторике, демонстрируя, что ИИ теперь создает действительно оригинальные, прорывные работы, выходя за рамки простого комбинирования уже существующих статей.
Однако устойчивые научные прорывы требуют постоянного сосредоточения на протяжении недель тестирования. Текущие системы все еще нуждаются в строгом человеческом надзоре, чтобы направлять и проверять каждую смену курса. Бьюбек использует выражение “время для достижения AGI” (AGI time), чтобы измерить, как долго модель может независимо имитировать человеческое мышление; текущие системы работают примерно от нескольких дней до одной недели, а цель индустрии — недели или месяцы, чтобы обеспечить автономную работу в таких областях, как биология.
Долговременная память критически важна для этого будущего. Обычные окна чата ограничивают глубину — сложные математические доказательства часто превышают 50 страниц — тогда как репозитории кода показывают, как расширенные сессии работы позволяют вести более глубокое решение задач. По мере того как ИИ получает больше независимости и памяти, человеческая экспертиза становится более ценной, а не менее. Работникам нужно сохранять глубокие базовые знания, чтобы оспаривать и верифицировать ответы машины, а организациям потребуются новые автоматизированные фильтры и системы репутации, чтобы поддерживать доверие в условиях потока научных исследований, дополненных ИИ.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Anthropic ведёт переговоры о покупке чипов для вычислений у британского стартапа Fractile при оценке в $1 млрд+
По данным Beating, Anthropic ведёт переговоры о покупке чипов для инференса у лондонского стартапа Fractile, который пытается привлечь более $100 миллионов финансирования при оценке, превышающей $1 миллиард. Fractile, основанный в конце 2022 года, использует архитектуру на базе SRAM, чтобы снизить энергопотребление при инференсе и
GateNews18м назад
OpenClaw выпускает v2026.5.2 с миграцией плагинов с npm на ClawHub, более 200 исправлений ошибок
По данным Beating, open-source персональный ИИ-ассистент OpenClaw выпустил v2026.5.2 3 мая — крупное обновление технического обслуживания. Основное изменение заключается в миграции системы плагинов с npm на самописную дистрибуционную платформу ClawHub. Обновление включает более 200 исправлений ошибок и добавляет t
GateNews37м назад
Член совета Федеральной резервной системы Боуман: регуляторам необходимо продумать, как реагировать на новые технологии вроде Anthropic Mythos
PANews, 2 мая: член Совета управляющих ФРС Боуман заявил, что регулирующим органам необходимо продумать, как наилучшим образом регулировать такие новые технологии, как Mythos от Anthropic. «С одной стороны, эти возможности позволяют компаниям устранять уязвимости, которые они выявляют сами, тем самым повышая кибербезопасность», — сказал Боуман. «Но с другой стороны, если технология будет использована злоумышленниками, ее можно будет применять для выявления и эксплуатации слабых мест». Anthropic, оценивая меры защиты от этой мощной новой технологии, уже ограничила выпуск своего последнего ИИ-модели. Этот же фактор побудил официальных лиц администрации Трампа начать рассматривать вероятность кибератак, которые могут создать угрозу финансовой стабильности.
GateNews1ч назад
Ханчжоуский суд запретил увольнения только за счёт ИИ и поддержал работника после 40% снижения зарплаты 28 апреля
По данным Bloomberg, 28 апреля Ханчжоуский промежуточный народный суд вынес решение о том, что работодатели не могут увольнять работников или сокращать им зарплату только потому, что ИИ автоматизировал их должности. Суд поддержал выплату компенсации работнику, чья зарплата была сокращена на 40%, а также его уволили после отказа от перевода на другую должность, когда ИИ
GateNews1ч назад
Последний судебный прецедент китайского суда: законные основания для сокращений персонала из‑за ИИ-автоматизации отсутствуют
Согласно последнему решению суда Ханчжоу, компании увольняют, понижают в должности или существенно уменьшают зарплату под предлогом внедрения таких технологий, как ИИ, и это является незаконным; простого технологического прогресса недостаточно, чтобы приравнять это к предусмотренному законом сокращению штата. В этом деле сотрудника понизили в должности из-за автоматизации и его зарплата сократилась до 40%. Суд в итоге поддержал выплату компенсации, что показывает: при продвижении автоматизации нужно действовать в рамках закона и обеспечивать профессиональную трансформацию и переподготовку.
ChainNewsAbmedia1ч назад
Хоскинсон обсуждает роль Midnight в экосистеме Cardano в выпуске The Breakdown
Чарльз Хоскинсон, основатель Cardano и сооснователь Ethereum, появился в качестве гостя в выпуске 701 подкаста «The Breakdown», который ведёт Дэвид Гокхштейн, чтобы обсудить проект Midnight, проблемы с пользовательским опытом в криптовалюте и его видение будущего блокчейна. Во время интервью Хоскинсон
CryptoFrontier8ч назад