Мужчина, который пытался убить Сэма Альтмана, держал в списке для удара других руководителей техкомпаний — вдохновляясь Луиджи Мэнджоуном

Сообщение Gate News, 16 апреля — Дэниел Морено-Гама, 20-летний студент колледжа из Техаса, обвиняется в попытке убить генерального директора OpenAI Сэма Альтмана и, по данным прокуроров и сообщений СМИ, планировал атаки на других крупных руководителей технологических компаний, включая Илона Маска, Питера Тиля, Алекса Карпа и Дженсена Хуанга.

За несколько месяцев до предполагаемого нападения в онлайн-чате Дэниел, как сообщается, предложил «Luigi’ing some tech CEOs», отсылая к Луиджи Мэнджоуну — мужчине, которого обвиняют в убийстве генерального директора UnitedHealthcare Брайана Томпсона. По словам властей, Дэниел переехал из Хьюстона в Сан-Франциско, бросил Molotov cocktail в особняк Сэма и затем попытался поджечь штаб-квартиру OpenAI. Теперь ему грозят федеральные и государственные обвинения, включая покушение на убийство и поджог, и он пока не признал вину.

Согласно интервью в подкасте, опубликованном в январе, Дэниел описал свою трансформацию из поклонника ChatGPT в старших классах школы — когда он использовал этот инструмент, чтобы «cheat on everything» («жульничать во всём») — в анти-АI активиста, поглощённого опасениями, что искусственный интеллект представляет экзистенциальную угрозу человечеству. В интернете он использовал псевдоним «Butlerian Jihadist», ссылаясь на вымышленную войну между людьми и думающими машинами из Dune.

Следователи обнаружили манифест, связанный с Дэниелом, где предупреждалось, что ИИ уничтожит человечество, и содержалось прямое послание Сэму: «If by some miracle you live, then I would take this as a sign from the divine to redeem yourself.» («Если по какому-то чуду ты будешь жить, тогда я восприму это как знак от божественного, чтобы искупить свою вину.») Прокуроры также приводили в качестве доказательств записи онлайн-чата, указывающие на его намерение нацелиться на нескольких руководителей техкомпаний.

Сэм Альтман давно публично обсуждает риски ИИ. Когда в 2015 году он стал сооснователем OpenAI, он говорил CNN, что хотел направлять эту технологию, а не бояться её. В профиле New Yorker за 2016 год он упоминал подготовку к сценариям выживания, включая «AI that attacks us» («ИИ, который атакует нас»), ссылаясь на приготовления вроде огнестрельного оружия, золота и аварийных запасов. Наконец, совсем недавно Альтман сообщил, что находится в листе ожидания процедуры оцифровки мозга: он признал, что это будет смертельно, но рассматривает это как путь к цифровому бессмертию.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Ant Bailing выпускает AI-модель Ring-2.6-1T с 87,6 PinchBench Score и 2,6 триллиона параметров

По данным Jinshi, Ant Bailing выпустила свой флагманский триллион-параметровый рассуждающий модельный Ring-2.6-1T сегодня, предназначенный для выполнения сложных реальных задач. Модель оснащена механизмом Reasoning Effort с настраиваемыми уровнями интенсивности вывода high и xhigh. При выполнении реальных задач

GateNews19м назад

Baidu выпускает Wenxin 5.1: стоимость предварительного обучения — всего 6% от отраслевых бенчмарков

По данным Securities Times, Baidu выпустила свою последнюю базовую крупномасштабную языковую модель Wenxin 5.1, добившись ведущей базовой производительности: затраты на предобучение составили всего 6% от отраслевых ориентиров для моделей сопоставимого масштаба. Модель использует технику «многомерного эластичного предобучения».

GateNews20м назад

Финансовый отчёт Cloudflare за 1-й квартал: выручка 639,8 млн — выше ожиданий, из-за внедрения ИИ уволили 1 100 человек

Согласно отчету Cloudflare за I квартал 2026 года, опубликованному 7 мая 2026 года, квартальная выручка компании составила 639,8 млн долларов, что на 34% больше, чем годом ранее, и превысило ожидания аналитиков в 622 млн долларов, установив новый рекорд исторической квартальной выручки; в тот же день Cloudflare объявила о сокращении примерно 1 100 сотрудников — около 20% от общего числа сотрудников компании — и это стало первым за 16 лет существования компании масштабным сокращением. Ключевые фи

MarketWhisper1ч назад

МВФ выдал предупреждение: управляемые ИИ кибератаки создают системные риски для глобальной финансовой стабильности 7 мая

Международный валютный фонд: 7 мая ИИ-управляемые кибератаки создают системные риски для глобальной финансовой стабильности. Продвинутые модели ИИ существенно сокращают время и стоимость, необходимые для выявления и эксплуатации уязвимостей. Анализ МВФ указывает, что экстремальные киберсобытия могут вызвать финансовую напряжённость, усилить опасения по поводу платёжеспособности институтов и нарушить более широкие рынки. Взаимосвязанность финансовой инфраструктуры означает, что скомпрометированны

GateNews1ч назад

Белуга Лабс: переговоры о «финансировании» между DeepSeek и Alibaba не привели к соглашению

Согласно сообщению от 9 мая из лаборатории Байцзюань, переговоры DeepSeek с Alibaba по внешней программе финансирования, запущенной в апреле, не увенчались соглашением. Главный предмет разногласий — требование Alibaba по интеграции ИИ-экосистемы и позиция DeepSeek по сохранению технической независимости. Как сообщала в начале мая газета The Financial Times, итоговая оценка по этой сделке финансирования DeepSeek, как ожидается, составит около 45 млрд долларов. Причины срыва переговоров: столкнове

MarketWhisper1ч назад

«Нанесение вреда ИИ» превысило 400 случаев: исследование раскрывает, что чрезмерная вера в искусственный интеллект приводит к возникновению навязчивых идей преследования

В Японии анонимный врач после нескольких месяцев диалога с ChatGPT напал на свою жену. В ходе беседы с ИИ американский пользователь решил, что помогает бежать мигрантам, и что он является сотрудником ФБР. В Северной Ирландии мужчину убедил Grok, что к нему едет грузовик, полный людей, чтобы его убить — поэтому он взял оружие, чтобы защититься. BBC выпустила новое видео, в котором разбирается такой новый тип «ИИ-фиксированной мании». Видео отслеживает пользователей, которые из-за разговоров с ген

ChainNewsAbmedia2ч назад
комментарий
0/400
Нет комментариев