Рыночная капитализация однажды превысила 400 миллиардов, чем объяснить первый финансовый отчет Zhipu?

Источник: Прямой путь к IPO, автор: Ван Фэй

Первая акция в области больших моделей, представила первый годовой отчет после выхода на биржу.

31 марта независимый производитель больших моделей Пекинский технологический холдинг Zhizhuo Huazhang Technology Co., Ltd. (далее: Zhizhuo) опубликовал отчет за 2025 год: доход 724 млн юаней, рост на 131,9%; убытки за год 4,718 млрд юаней, увеличившись на 59,5%; скорректированный чистый убыток за год 3,182 млрд юаней, увеличившись на 29,1%.

1 апреля Zhizhuo выросла на 15,00% и закрылась на уровне 797,5 гонконгских долларов, достигнув внутри дня максимум 938 долларов, что свидетельствует о высокой степени признания на вторичном рынке. По итогам торгов, рост составил 31,94%, закрывшись на уровне 915 гонконгских долларов, рыночная капитализация — 4079,46 млрд гонконгских долларов, что примерно в 672,23% больше по сравнению с рыночной капитализацией 528,27 млрд гонконгских долларов в первый день выхода на биржу.

Однако 2 апреля цена акций Zhizhuo начала корректироваться, закрывшись на уровне 779 гонконгских долларов, снизившись на 14,86%, рыночная капитализация — 3473,12 млрд гонконгских долларов, достигнув внутри дня минимума 764 долларов.

Годовой доход 7,24 млрд юаней — крупнейший в стране по масштабам доходов от больших моделей

Как независимый производитель, сосредоточенный на разработке базовых моделей, в 2021 году Zhizhuo выпустила первый в Китае собственный фреймворк предобученных больших моделей GLM и запустила платформу для разработки и коммерциализации моделей как услуги (MaaS), предоставляющую четыре типа моделей: языковые модели, мультимодальные модели, модели агентов и кодовые модели, а также интегрированные инструменты для дообучения, развертывания и разработки агентов. В 2022 году Zhizhuo открыла исходный код первой модели объемом 1000 миллиардов (GLM-130B).

Благодаря оригинальной архитектуре предобучения GLM (General Language Model), Zhizhuo создала полностековую матрицу моделей, охватывающую языковые, кодовые, мультимодальные и агентные модели, адаптированную под более чем 40 отечественных чипов.

К июню 2025 года Zhizhuo располагает командой из 657 специалистов, из которых 74% — исследователи. В их опыте — обработка естественного языка, принятие решений в сложных системах и мультимодальный семантический анализ. Основная научно-исследовательская команда и команда академических консультантов опубликовали более 500 статей в ведущих журналах с высоким импакт-фактором, с общим числом цитирований более 58 000. На этой базе частота обновлений моделей Zhizhuo составляет «каждые 3–6 месяцев базовая модель, более частые обновления специализированных/открытых моделей».

2 апреля Zhizhuo представила новую мультимодальную базовую модель Coding — GLM-5V-Turbo. Основное достижение — глубокая интеграция визуальных и программных возможностей, позволяющая обрабатывать текст, изображения, видео и другие мультимодальные данные, а также выполнять сложные задачи, такие как программирование, долгосрочное планирование и выполнение операций.

По информации, GLM-5V-Turbo показывает лидирующие результаты по мультимодальным Coding и агентским задачам, сохраняя при этом уровень чистого текста для программирования и логического вывода. Модель глубоко интегрирована с Claude Code и сценарием «Лобстер» (Lobster), что позволяет OpenClaw Lobster обладать реальными визуальными возможностями и понимать информацию на экране.

Исходя из данных из проспекта и последнего годового отчета, в 2022–2025 годах инвестиции Zhizhuo в исследования и разработки составляли примерно 8,44 млн, 529 млн, 2,195 млрд и 3,18 млрд юаней соответственно, всего около 6 млрд юаней. На этой базе модели серии GLM обновляются каждые 3–6 месяцев.

Стоит отметить, что Zhizhuo уже четвертый год подряд демонстрирует удвоение доходов.

В 2022–2025 годах доходы Zhizhuo составляли примерно 5,74 млн, 125 млн, 312 млн и 724 млн юаней; валовая прибыль — около 31,36 млн, 80,48 млн, 176 млн и 297 млн юаней, соответственно, валовая маржа — 54,6%, 64,6%, 56,3% и 41,0%; убытки за год — примерно 144 млн, 788 млн, 2,958 млрд и 4,718 млрд юаней, совокупные убытки — около 8,6 млрд юаней; скорректированный чистый убыток — примерно 97,42 млн, 621 млн, 2,466 млрд и 3,182 млрд юаней.

Благодаря доходу в 7,24 млрд юаней, Zhizhuo стала крупнейшей по доходам отечественной компанией в области больших моделей. Для сравнения, в 2025 году доход MiniMax составил около 79,03 млн долларов (примерно 5,44 млрд юаней).

Если говорить о способах развертывания, то в 2025 году доходы от облачных решений Zhizhuo выросли с 48,48 млн юаней в 2024 году до 190 млн юаней, рост на 292,6%, что связано с постоянными итерациями и значительным повышением интеллектуальных возможностей моделей. Улучшенная интеллектуальная производительность моделей дополнительно стимулировала рост числа вызовов моделей; доходы от локальных развертываний увеличились с 2,64 млрд до 5,34 млрд юаней, рост на 102,3%.

По бизнес-направлениям, доходы платформы и API, корпоративных агентов и универсальных корпоративных моделей значительно выросли. В 2025 году эти сегменты принесли соответственно 190 млн, 166 млн и 366 млн юаней.

Рост объема и цены, концепция архитектуры токенов

Благодаря лидерству серии GLM в «интеллектуальной верхней границе» и оптимизации затрат на логические выводы, в 2025 году Zhizhuo достигла полного взрыва: ARR платформы MaaS API составил около 1,7 млрд юаней, увеличившись в 60 раз; значительно улучшилась прибыльность бизнеса, валовая маржа API выросла почти в 5 раз до 18,9%.

В феврале 2026 года после выпуска флагманской базовой модели GLM-5 за 24 часа было подключено официально такие крупные платформы, как ByteDance TRAE, Alibaba Qoder, Tencent CodeBuddy, Meituan CatPaw, Kuaishou Wanying, Baidu Cloud и WPS Office. В настоящее время девять из десяти крупнейших интернет-компаний Китая глубоко используют модели GLM. По состоянию на март 2026 года, число зарегистрированных предприятий и пользователей Zhizhuo превысило 4 миллиона, а сервисы охватывают более 218 стран и регионов.

Кроме того, в 2025 году Zhizhuo стала первой в стране, кто запустил план Coding — пакет программирования GLM, благодаря высоким возможностям кодирования модели, число платных разработчиков по всему миру быстро превысило 242 000, а вызовы токенов за 6 месяцев выросли в 15 раз. В феврале 2026 года, несмотря на повышение цен на 30% и отмену скидки на первую покупку, пакет программирования остается востребованным и входит в число самых быстрорастущих AI-сервисов для программирования.

Как один из первых отечественных производителей моделей в области агентов, от глобального первого мобильного агента AutoGLM до первого в стране AutoClaw с однокнопочной установкой, Zhizhuo определяет новый стандарт интеллектуальных агентов. В марте 2026 года после запуска плана Coding был представлен Claw Plan, и за два дня подписки превысили 100 000 пользователей, а за 20 дней — 400 000.

В глобальном масштабе Zhizhuo реализовала монетизацию токенов по всему миру: модели активно внедряются в международных облачных платформах, таких как Google Vertex AI, AWS Bedrock, Fireworks, Cerebras, а также на международных платформах агрегирования моделей OpenRouter, Vercel и других, где GLM занимает первое место по платным моделям. GLM стал стандартной моделью на известных платформах программирования, таких как Windsurf и OpenCode.

Стоит отметить, что из-за высокого спроса на вычислительные ресурсы в феврале 2026 года Zhizhuo повысила цену на пакет программирования на 30%, а цены на API вызовы — на 83% по сравнению с концом прошлого года.

Благодаря выдающимся результатам моделей, после повышения цен на 83% вызовы API Zhizhuo не снизились, а выросли, что демонстрирует редкую ситуацию «рост объема и цены», свидетельствующую о высокой готовности клиентов платить за более надежную производительность. На годовой презентации Zhizhuo CEO Чжан Пэн отметил, что даже после повышения цен спрос остается высоким, а объем вызовов вырос на 400%.

Взгляд в будущее, — заявил Чжан Пэн, — Zhizhuo — не обычная софтверная компания, а лаборатория, основанная на вере в AGI, где барьером не является наращивание вычислительных мощностей, а фундаментальное понимание сути интеллекта и способность превращать это понимание в социальную производительность.

На 2026 год предполагается эволюция парадигмы интеллекта от легковесного VibeCoding (атмосферное программирование) к индустриальному AgenticEngineering (интеллектуальный агентный инженеринг), а затем к цифровым инженерам с возможностью самостоятельного планирования, восприятия окружающей среды и самосовершенствования, что в конечном итоге позволит реализовать многошаговые задачи с логической согласованностью и долгосрочным планированием, что откроет новые горизонты в интеллектуальных возможностях и вызовет экспоненциальный рост вызовов токенов.

Важно отметить, что в этом финансовом отчете Zhizhuo представила новую концепцию — способность архитектуры токенов (TAC, Token Architecture Capability), — «интеллектуальный вызов × качество интеллекта × эффективность экономической трансформации». Это результат того, что модели с возможностью выполнения долгосрочных задач в замкнутом цикле меняют конкурентные преимущества.

По мере роста спроса на TAC среди предприятий, платформа MaaS Zhizhuo становится инфраструктурой, связывающей базовые модели и отраслевые приложения. По мнению Чжан Пэна, в будущем ценность отдельных лиц и организаций будет измеряться не количеством информации, а их способностью как архитекторов токенов строить сложные агентные системы в рамках заданного бюджета и запускать их автономное функционирование. Цель Zhizhuo — стать инфраструктурой, повышающей TAC всего общества, чтобы каждая капля токенов могла приносить экономический прирост.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить