нейропоток
Обзоры моделей

OpenAI суперприложение ChatGPT Codex: GPT-5.4 и субагенты

OpenAI суперприложение ChatGPT Codex: разбираю GPT-5.4 mini/nano, субагентную архитектуру, покупку Astral и что это значит для разработчиков.

Павел·11 мин чтения
OpenAI суперприложение ChatGPT Codex: GPT-5.4 и субагенты
Поделиться:TelegramVK

Три дня. Три анонса. OpenAI суперприложение ChatGPT Codex, новые модели GPT-5.4 mini и nano, покупка Astral — компании за Python-инфраструктурой. Каждая новость по отдельности — ну окей, обновление. Но вместе они складываются в картину, которую я хочу разобрать.

Потому что это не просто «выкатили модель поменьше». Это разворот стратегии. OpenAI перестаёт быть компанией, которая продаёт доступ к одной умной модели, и начинает строить экосистему. С субагентами, своим IDE, Python-тулингом и десктопным приложением, которое объединяет всё в одном окне.

Пойдём по порядку. Ну, насколько тут вообще возможен порядок.

Три новости за три дня: что произошло

17 марта. OpenAI анонсирует GPT-5.4 mini и GPT-5.4 nano. Маленькие модели с субагентной архитектурой. Mini стоит $0.75 за миллион входных токенов, nano — $0.20. Для контекста: полная GPT-5.4 стоит в разы дороже.

18 марта. Фиджи Симо, глава приложений в OpenAI, представляет концепцию суперприложения: ChatGPT, Codex и Atlas (их браузер) объединяются в одно десктопное приложение. Мобильную версию пока не трогают.

19 марта. OpenAI покупает Astral — компанию, которая делает uv (менеджер пакетов Python с 126 миллионами скачиваний в месяц), Ruff (линтер) и ty (проверка типов). Три самых популярных Python-инструмента переходят под крыло OpenAI.

Каждая новость логично вытекает из предыдущей. Субагентные модели нужны для суперприложения. Суперприложение нужно для разработчиков. Разработчикам нужны Python-инструменты. Цепочка.

GPT-5.4 mini и nano: субагенты вместо одной большой модели

Вот что мне реально интересно. GPT-5.4 mini — не просто «GPT-5.4, но поменьше и подешевле». Архитектура другая.

Обычная модель работает так: запрос пришёл, модель думает, ответ ушёл. Одна модель, один процесс. GPT-5.4 mini работает иначе: она разбивает задачу на подзадачи и делегирует их субагентам. Один субагент ищет информацию, другой пишет код, третий проверяет результат. Координатор собирает всё в финальный ответ.

Звучит знакомо? Если вы пробовали построить команду AI-агентов через skills в Claude Code — принцип тот же. Только здесь это зашито в саму модель, а не настраивается руками.

Цифры по SWE-Bench Pro: GPT-5.4 mini набирает 54.4%. Полная GPT-5.4 — 57.7%. Разница в три процентных пункта, а стоимость в разы ниже. На OSWorld Verified — 72.1%. Контекст — 400K токенов. Скорость — 2x быстрее, чем GPT-5 mini предыдущего поколения.

GPT-5.4 nano ещё интереснее по экономике: $0.20 за миллион входных токенов, $1.25 за выходные. SWE-Bench Pro — 52.4%. Пока только через API, в ChatGPT его нет.

Инфо

В Codex GPT-5.4 mini занимает 30% квоты от полной GPT-5.4. То есть за ту же подписку можно гонять в три с лишним раза больше запросов. Для рутинных задач — рефакторинг, тесты, код-ревью — mini хватает с запасом.

Субагентная архитектура — это по сути контекст инжиниринг как системный подход, встроенный в модель. Модель сама решает, какой контекст нужен какому субагенту, сама координирует их работу. Не ты пишешь системный промпт для каждого агента — модель делает это за тебя.

Честно — звучит красиво. На практике я пока заметил, что субагенты иногда дублируют работу друг друга. Один ищет информацию, другой ищет ту же информацию другим путём. Координатор не всегда ловит это. Плюс latency: когда модель разбивает задачу на пять подзадач, каждая добавляет время. Простой вопрос «переименуй переменную» не должен проходить через оркестратор и двух субагентов — но иногда проходит.

Для бета-версии архитектуры — нормально. У Claude аналогичная штука с tool use тоже не сразу стала стабильной. Но если OpenAI не научит координатор отличать тривиальные задачи от сложных, субагентная архитектура будет мешать чаще, чем помогать.

Суперприложение: зачем объединять ChatGPT, Codex и Atlas

Фиджи Симо — человек, который до OpenAI руководил Instacart и работал в Meta. Её зона в OpenAI — пользовательские продукты. И первое, что она делает — объединяет всё в одно окно.

ChatGPT для разговоров. Codex для кода. Atlas — AI-браузер, который умеет ходить по вебу и выполнять задачи. Три продукта, один десктопный клиент.

Зачем? Потому что переключение между вкладками — это потеря контекста. Спросил ChatGPT про архитектуру, переключился в Codex написать код, потом в браузер проверить документацию. Три контекста, три разных сессии. Суперприложение обещает общий контекст: ChatGPT знает, что ты кодишь в Codex, Codex знает, что ты гуглил в Atlas.

По цифрам: Codex уже перевалил за 2 миллиона активных пользователей в неделю (WAU). С января 2026 года пользовательская база выросла в 3 раза, а нагрузка — в 5 раз. Рост дикий. И это без суперприложения — просто Codex как отдельный продукт. Нагрузка растёт быстрее, чем аудитория — люди не просто пробуют, а переносят туда реальную работу.

Если у вас получалось собрать SaaS-проект целиком на AI-кодинге, то представьте: вместо Claude Code в терминале + ChatGPT в браузере + документация в ещё одной вкладке — одно приложение с общим контекстом. Для вайб-кодинга это может быть серьёзный апгрейд.

Но. Мобильное приложение ChatGPT суперприложением не становится. Только десктоп. Это логично — кодить с телефона никто не будет. Но для обычных пользователей, которые сидят в ChatGPT с телефона, ничего не меняется.

Внимание

Суперприложение пока в бете и доступно не всем. Если у вас нет доступа — это нормально. OpenAI раскатывает постепенно, начиная с Plus и Pro подписчиков. Сроки общего доступа не объявлены.

Astral, uv, Ruff — зачем OpenAI покупает Python-инфраструктуру

Вот этот ход меня удивил больше всего.

Astral — маленькая компания. Делает три инструмента: uv (менеджер пакетов для Python, написан на Rust, 126 миллионов скачиваний в месяц), Ruff (линтер, тоже на Rust, по скорости убивает всё остальное) и ty (проверка типов Python, пока в бете). Это самые популярные Python-инструменты на планете.

И OpenAI их покупает. Не для того чтобы зарабатывать на менеджере пакетов — там зарабатывать не на чем. А для того чтобы контролировать инфраструктуру, на которой работает AI-разработка.

Логика такая. Codex генерирует Python-код. Код нужно запускать, тестировать, линтить, управлять зависимостями. Сейчас для этого используются uv, Ruff и куча других инструментов. Если всё это встроено в суперприложение — пользователь вообще не выходит из экосистемы OpenAI.

Это как Apple покупает Beats. Не ради наушников — ради контроля над пользовательским опытом от начала до конца.

Разработчики Python-комьюнити, понятное дело, напряглись. uv и Ruff — open source. Останутся ли они open source после покупки? OpenAI говорит «да». Но «говорит» и «гарантирует» — две разных штуки. Чарли Марш, создатель Astral, перешёл в OpenAI и обещает, что ничего не изменится. Посмотрим.

Для справки: uv заменяет pip, pip-tools, pipenv, poetry и virtualenv. Одна утилита вместо пяти. 126 миллионов скачиваний в месяц — это не «популярный инструмент», это фундамент, на котором стоят сотни тысяч проектов. Кто контролирует фундамент — контролирует экосистему.

Почему OpenAI строит суперприложение именно сейчас

OpenAI суперприложение ChatGPT Codex — это ответ на рост конкурентов в сегменте инструментов для разработчиков. Anthropic с Claude Code и MCP, Google с Gemini Code Assist показали, что экосистема вокруг модели важнее самой модели. OpenAI объединяет чат, кодинг и браузер в один десктопный клиент, чтобы удержать разработчиков в своей экосистеме.

Контекст, без которого всё вышеописанное выглядит как просто обновление продуктовой линейки. Но это не обновление. Это реакция.

Claude Code от Anthropic за последние месяцы показал, что IDE-интеграция + агентный подход = рост. Серьёзный рост. OpenAI видит, как разработчики переходят на Claude Code и Cursor, и отвечает: ладно, мы тоже можем в инструменты для разработчиков. И не просто «тоже можем», а «купим инфраструктуру и завернём в суперприложение».

Фиджи Симо пришла в OpenAI не просто так. Её наняли, потому что у OpenAI была проблема: лучшая модель на рынке, но продуктовая обвязка отстаёт от конкурентов. ChatGPT — чат. Codex — отдельный продукт. API — отдельный продукт. Всё разрозненное.

Anthropic собрал Claude Code + Claude для Desktop + MCP (протокол для подключения инструментов) — и получил связную экосистему. OpenAI смотрит на это и строит свою версию. Но не через протоколы — через покупки и интеграцию.

Два подхода. Anthropic: открытый протокол (MCP), подключай что хочешь. OpenAI: купим всё и встроим. Это не новый сценарий — Android vs iOS, Linux vs macOS, та же развилка. Открытая экосистема обычно побеждает по охвату, закрытая — по качеству интеграции. Время покажет, какой подход сработает в AI. Мне ближе Anthropic — но у OpenAI больше денег, и покупать инфраструктуру они умеют лучше всех.

GPT-5.4 mini vs Claude Haiku и Gemini Flash: кто выигрывает

Ладно, к цифрам. Без таблицы обзор моделей — не обзор.

МодельInput $/1MOutput $/1MSWE-BenchКонтекстСкорость
GPT-5.4 mini$0.75$4.5054.4% (Pro)400K2x vs GPT-5 mini
GPT-5.4 nano$0.20$1.2552.4% (Pro)
Gemini 3 Flash$0.50$3.0078% (Verified)
Gemini 3.1 Flash Lite$0.25$1.50381 tok/sec
Claude Haiku 4.5$1.00$5.0073.3% (Verified)

Сразу оговорка: SWE-Bench Pro и SWE-Bench Verified — разные бенчмарки, прямое сравнение некорректно. Pro сложнее. Но даже с учётом этого, GPT-5.4 mini не лидер по качеству кодинга в своей ценовой категории.

Gemini 3 Flash дешевле ($0.50 vs $0.75 за вход) и набирает 78% на SWE-Bench Verified. Claude Haiku 4.5 дороже ($1.00), но 73.3% на том же бенчмарке. GPT-5.4 nano за $0.20 — самый дешёвый, но и результат скромнее.

Где GPT-5.4 mini выигрывает — контекст в 400K токенов и субагентная архитектура. Для задач, где нужно работать с большой кодовой базой и координировать несколько подзадач, субагенты дают преимущество. Для простого «напиши функцию» — Gemini Flash дешевле и, судя по бенчмаркам, не хуже.

По управлению reasoning tokens — GPT-5.4 mini тратит их экономнее за счёт делегирования субагентам. Вместо того чтобы одна модель думала долго, несколько субагентов думают параллельно и коротко. На бумаге — эффективнее. На практике — зависит от задачи.

Совет

Для API-пользователей: GPT-5.4 nano за $0.20/1M input — убийственная цена для классификации, роутинга, простых extractions. Не для кодинга, не для сложных рассуждений. Но для задач уровня «определи тональность» или «извлеки JSON из текста» — дешевле варианта нет.

Что многоагентные AI системы 2026 года меняют для разработчиков

Если вы разработчик и используете AI-инструменты — вот что меняется конкретно.

Codex становится серьёзнее. 2 миллиона пользователей в неделю, 5x рост нагрузки, интеграция в суперприложение. OpenAI вкладывает в Codex столько ресурсов, сколько раньше тратила только на ChatGPT. Если вы ещё не пробовали Codex — стоит попробовать. Особенно теперь, когда GPT-5.4 mini даёт 3x больше запросов за ту же квоту.

Python-тулинг останется бесплатным (пока). uv и Ruff под Apache 2.0 / MIT. OpenAI обещает не менять лицензию. Но зависимость от одной компании растёт. Если вы строите CI/CD на uv — вероятно, ничего не изменится. Но если OpenAI через год решит сделать uv Pro с платными фичами — не удивляйтесь.

Субагенты — новая парадигма. Вместо одного большого промпта — система из нескольких специализированных агентов. Это работает уже сейчас: кто писал гайд по вайб-кодингу, знает, что разделение задач на мелкие промпты даёт лучший результат, чем один монолитный запрос. GPT-5.4 mini автоматизирует этот подход на уровне модели.

Конкуренция обостряется. Google с Gemini 3 Flash, Anthropic с Claude Haiku 4.5, теперь OpenAI с GPT-5.4 mini. Цены на inference падают каждый квартал. Год назад GPT-4 mini стоил в несколько раз дороже, чем сейчас GPT-5.4 mini при лучшем качестве. Для разработчиков это хорошо — выбор шире, стоимость ниже. Для стартапов, которые строят бизнес вокруг одного провайдера — риск. Переключиться с OpenAI на Google или Anthropic становится всё проще, и провайдеры это знают. Отсюда гонка не только по моделям, но и по инструментам.

Для обычных пользователей

Если вы не разработчик и просто пользуетесь ChatGPT — тут всё проще.

На десктопе чат и браузер объединятся в одно окно. Попросил ChatGPT найти что-то в интернете — он сам открывает Atlas, ходит по ссылкам, заполняет формы, приносит результат. Без ваших переключений между вкладками.

GPT-5.4 mini в ChatGPT — это в основном про скорость. Для обычных вопросов разница с полной моделью минимальна, а ответ прилетает вдвое быстрее. Приятно, но не прорыв.

С телефона ничего не меняется. Суперприложение — только десктоп. Кодить с телефона никто не будет, но и обычным пользователям на мобилке пока ничего нового не досталось.

Про nano: в ChatGPT его не будет. Это чисто API-модель. Если вы встраиваете AI в свой продукт — nano заменит классификаторы и простые пайплайны, которые раньше делали на GPT-3.5 Turbo. Для остальных nano не существует.


Честно — я ожидал от GPT-5.4 mini больше по бенчмаркам. 54.4% SWE-Bench Pro при наличии Gemini 3 Flash с 78% на Verified — не впечатляет. Да, разные бенчмарки, прямое сравнение не совсем честное. Но пользователю, который выбирает модель для кодинга, это неважно — ему нужен результат, а не методологические оговорки. Субагентная архитектура — классная идея, но пока сырая: дублирование работы между агентами, не всегда предсказуемое поведение, иногда необъяснимо долгий ответ на простой вопрос.

А вот стратегия в целом — впечатляет. OpenAI за три дня показала: мы не просто модели делаем, мы строим платформу. Суперприложение + субагенты + Python-инфраструктура — это попытка стать для AI-разработки тем, чем стала Apple для мобильной. Закрытая экосистема, где всё работает вместе.

Получится ли? Не знаю. Открытый подход Anthropic с MCP мне нравится больше. Mistral Forge для обучения моделей идёт в сторону enterprise-кастомизации — тоже интересный путь. Рынок большой, места хватит.

Но одно точно: 2026-й — год, когда AI-компании перестали продавать модели и начали продавать инструменты. И это, по-моему, правильный сдвиг. Модели становятся commodity — разница между ними сужается с каждым кварталом. Инструменты и экосистема — вот где настоящая конкуренция. OpenAI это поняла, пусть и позже, чем хотелось бы.