Обсуждение просочившегося разговора о механизме предварительного допроса по ИИ в Белом доме; на следующий день заявление Хассетта было опровергнуто официальными лицами

白宮AI預審機制討論

Директор Национального экономического совета (NEC) при Белом доме Кевин Хассетт в интервью Fox Business от 7 мая заявил, что администрация Трампа обсуждает возможность потребовать через указ AI-модели проходить проверку безопасности правительства до их публичного выпуска, и провёл аналогию с тем, как FDA утверждает лекарства до выхода на рынок. Однако, как сообщила Politico 8 мая, высокопоставленные чиновники Белого дома затем заявили, что это высказывание было «вырвано из контекста».

Ход событий: «Нью-Йорк Таймс» доводит до публичности противоречия в политике Белого дома

4 мая 2026 года The New York Times сообщила, что Белый дом обсуждает создание механизма предварительной проверки перед публикацией AI-моделей, тогда это охарактеризовали как «рассматривается». 7 мая 2026 года Кевин Хассетт в интервью Fox Business публично заявил: «Мы изучаем, можно ли через административный приказ потребовать, чтобы AI, который в будущем может породить уязвимости, поступал в использование только после того, как докажет свою безопасность — как лекарства у FDA».

Поздно вечером 7 мая 2026 года глава аппарата Белого дома Сьюзи Уилс в посте на платформе X написала, что правительство «не должно определять победителей и проигравших», и заявила, что внедрение безопасного развертывания мощных технологий должны продвигать «выдающиеся инновааторы США, а не бюрократические структуры». Согласно записи в её официальном аккаунте, этот пост был четвёртым опубликованным с момента создания аккаунта Уилс.

По данным Politico со ссылкой на троих осведомлённых источников, получивших анонимность, Белый дом обсуждает идею привлечения разведсообщества для предварительной оценки AI-моделей до их публичного выпуска. Один из чиновников правительства США в материале заявил, что одна из целей — «дать разведке возможность сначала изучить и использовать эти инструменты, прежде чем Россия и Китай и другие оппоненты поймут новые возможности».

Задействованные структуры и рамки политики

CAISI расширяет соглашение о добровольных проверках безопасности

Центр стандартов и инноваций в области AI (CAISI) при Министерстве торговли на этой неделе объявил, что заключил соглашения об оценке безопасности AI с Google DeepMind, Microsoft и xAI, а охват расширен на OpenAI и Anthropic, которые были включены ранее. Добровольная рамка оценок CAISI действует с 2024 года.

Замминистра обороны публично поддерживает механизм предварительной оценки

Заместитель министра обороны Эмил Майкл 8 мая 2026 года на AI-конференции в Вашингтоне публично поддержал предварительную правительственную оценку AI-моделей до их публичного выпуска, а в своём выступлении привёл в качестве примера систему Mythos от Anthropic, заявив, что соответствующие модели «рано или поздно появятся», и правительству необходим механизм реагирования.

Политический контекст администрации Трампа и Anthropic

Согласно сообщению Politico, министр обороны Пит Хегсетт в марте 2026 года включил Anthropic в список рисков под предлогом рисков для цепочек поставок и запретил использование её моделей для контрактов Министерства обороны. После этого Трамп отдельно потребовал от федеральных ведомств в течение шести месяцев прекратить использование продуктов Anthropic. Параллельно с этим, в прошлом месяце Anthropic раскрыла, что её AI-система Mythos обладает мощными возможностями поиска уязвимостей в программном обеспечении, выходя за рамки порога безопасности для публичного выпуска; после этого несколько федеральных ведомств подали заявки на подключение. 8 мая 2026 года OpenAI объявила о ограниченном превью нового инструмента GPT-5.5-Cyber, который позволяет обнаруживать и исправлять сетевые уязвимости.

Позиция индустрии против механизма обязательной проверки

Председатель Фонда информационных технологий и инноваций (ITIF) Дэниел Кастро в материале Politico заявил: «Если до выхода на рынок можно отказать в одобрении, это станет большой проблемой для любой компании. Если один конкурент получил одобрение, а другой — нет, разрыв в допуске на рынок на недели или месяцы окажет огромное влияние». Среди спонсоров ITIF — Anthropic, Microsoft и Meta.

В том же материале один высокопоставленный чиновник Белого дома заявил: «Да, есть один-два человека, которые очень увлечены правительственным регулированием, но они — меньшинство». Чиновник согласился на анонимность, сославшись на необходимость описывать чувствительные обсуждения политики.

Часто задаваемые вопросы

Когда и где Кевин Хассетт сделал заявления об AI-предоценке?

Согласно сообщению Politico, Кевин Хассетт 7 мая 2026 года в интервью Fox Business публично заявил, что правительство рассматривает указ, который потребует от AI-моделей проходить проверку безопасности правительства до публикации, и провёл аналогию с процессом одобрения лекарств FDA.

На чём основано отрицание высказываний Хассетта со стороны Белого дома?

Согласно сообщению Politico от 8 мая 2026 года, высокопоставленные чиновники Белого дома заявили, что высказывание Хассетта «слегка вырвано из контекста», а направление политики Белого дома — строить партнёрства с компаниями, а не продвигать государственное регулирование. Сьюзи Уилс, глава аппарата Белого дома, в отдельном посте также подтвердила, что правительство не вмешивается в выбор на рынке.

Какие новые соглашения по оценке безопасности AI добавил CAISI на этой неделе?

Согласно заявлению CAISI на этой неделе, добавленные соглашения охватывают Google DeepMind, Microsoft и xAI, а также уже охваченные ранее OpenAI и Anthropic; добровольная рамка оценок действует с 2024 года.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

SoftBank сообщает о финансовых результатах за весь год, поскольку инвесторы ставят под сомнение план финансирования US$60B OpenAI

Как сообщило Bloomberg, SoftBank Group отчиталась о прибыли за весь год по итогам года, завершившегося в марте, на фоне того, что инвесторы оценивают, как компания будет финансировать запланированные инвестиции в OpenAI на 60 миллиардов долларов. Компания получила чистую прибыль примерно 3,3 триллиона иен (20,8 миллиарда долларов) за финансовый год, чему способствовало

GateNews4м назад

Вакансии для ИИ-специалистов выросли на 50% по мере того, как «война за таланты» в Азии меняет занятость

Дисрупция ИИ-талантов по всей Азии Количество вакансий, связанных с ИИ, выросло на 50% год к году, даже несмотря на то, что более широкий рынок труда остается на прежнем уровне, заявил Питер Битос, главный коммерческий директор Seek, который в недавнем эпизоде подкаста рассказал о том, как меняется трудоустройство

CryptoFrontier14м назад

Ю Вэньхао, бывший исследователь ИИ в Tencent, присоединился к OpenAI в качестве исследователя по AGI в прошлом месяце

Согласно Beating, Юй Венхао, бывший старший исследователь сеаттлской лаборатории Tencent AI, в прошлом месяце присоединился к OpenAI в качестве исследователя по AGI. Он подтвердил в LinkedIn, что будет участвовать в формировании ИИ-моделей следующего поколения и в развитии AGI. Ю получил докторскую степень по информатике в

GateNews30м назад

Anthropic рассматривает летний сбор 50 миллиардов долларов, предоценка перед сделкой около 900 миллиардов

Согласно сообщению британской газеты Financial Times от 8 мая, разработчик Claude, компания Anthropic, рассматривает запуск нового раунда финансирования предстоящим летом: планируется привлечь около 50 миллиардов долларов, а оценка компании до сделки составляет примерно 900B долларов; после завершения раунда оценка может приблизиться к 1 триллиону долларов. Financial Times со ссылкой на пятерых осведомленных источников сообщает, что переговоры по сделке все еще находятся на ранней стадии: Anthropic пока не приняла ни одну из предложенных ставок, а завершить финансирование планируется в течение двух месяцев.

MarketWhisper1ч назад

Акции SanDisk взлетели на 430% на фоне спроса на AI-хранилища

SanDisk, американский производитель флэш-памяти и SSD, выделившийся из Western Digital в прошлом году, закрылся на отметке $1 409,98 6 мая, при этом акции выросли почти на 430% с начала года, поскольку инвесторы делают ставку на растущий спрос на серверное хранилище для ИИ — сообщила Chosun Daily. Долгосрочные контракты на поставки обеспечивают выручку Компания

CryptoFrontier1ч назад

Руководители Microsoft сомневались в OpenAI в 2017–2018 годах, вложили $1B , чтобы предотвратить переход в Amazon

По судебным материалам, которые отслеживает Beating News, письма более чем от десятка руководителей Microsoft, включая генерального директора Сатью Наделлу, показали, что в период с 2017 по 2018 год внутри компании существовали сомнения в отношении OpenAI до её инвестиции в размере 1 миллиарда долларов. Наделла консультировался с коллегами по поводу поддержки OpenAI на сумму $300

GateNews1ч назад
комментарий
0/400
Нет комментариев