Google DeepMind AI со-математик достиг 47,9% на FrontierMath Tier 4, обогнав GPT-5.5 Pro, и решил 3 ранее неразрешимые задачи

Google DeepMind выпустила ИИ со-математика — многoагентного исследовательского помощника по математике, достигнув 47,9% точности в бенчмарке FrontierMath Tier 4, превзойдя предыдущий рекорд GPT-5.5 Pro (39,6%) от 9 мая. Система решила 23 из 48 задач, включая 3, которые до этого не смогли решить ни одна из предыдущих моделей. Построенная на Gemini 3.1 Pro архитектура использует иерархический дизайн: агент-координатор проекта распределяет задачи между субагентами, отвечающими за извлечение литературы, кодирование и рассуждения; перед подачей несколько агентов-ревьюеров валидируют доказательства.

Epoch AI провела слепое тестирование, не позволяя команде DeepMind видеть задачи, при этом на каждый вопрос отводилось по 48 часов вычислений. В реальном применении математик Марк Лакенби использовал систему, чтобы разрешить открытую гипотезу из Kourovka Notebook, демонстрируя ее практическую исследовательскую ценность. Сейчас система доступна ограниченному числу математиков в рамках бета-тестирования.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев