16 апреля — Anthropic тихо релизит Claude Opus 4.7. 23 апреля — OpenAI отвечает GPT-5.5 с кодовым именем «Spud». Семь дней между двумя главными релизами года. Раз в год такое случается, и обычно — не случается вообще.
Я провёл с обеими моделями неделю. Дал каждой одни и те же пять задач без подсказок и итераций. Никаких «попробуй ещё раз». Хотел понять не «какая модель умнее по бенчмарку», а «кому я отдам реальную работу завтра утром». Сравнение GPT-5.5 vs Claude Opus 4.7 получилось не таким, как я ожидал.
Для кого статья:
- Уже платите за ChatGPT Plus или Claude Pro и думаете, стоит ли апгрейдиться на новые флагманы
- Выбираете, в какую экосистему вкладываться — OpenAI или Anthropic — на ближайший год
- Хотите конкретные кейсы тестов, а не пересказ маркетинговых анонсов
Кому НЕ подойдёт: если вы только знакомитесь с AI-моделями — начните с общего сравнения ChatGPT, Claude и Gemini, там разобраны базовые версии и термины.
Что вышло за неделю
Краткая сводка для тех, кто пропустил.
| Параметр | Claude Opus 4.7 | GPT-5.5 |
|---|---|---|
| Релиз | 16 апреля 2026 | 23 апреля 2026 |
| Кодовое имя | — | Spud |
| Что улучшили | Сложное программирование, multi-step | Agentic coding, knowledge work, research |
| Доступ | Pro ($20), Max ($100+), API | Plus ($20), Pro/Business/Enterprise, API c 24 апреля |
| Параллельные релизы | Claude Design (для дизайна) | GPT-5.3 Instant Mini, режим Fast Answers, GPT-5.5 Pro |
| Доступ из РФ | VPN + Real-Name KYC* | VPN + ChatGPT Plus или API через посредников |
*KYC (Know Your Customer — проверка реального имени и документов клиента, как в банке) — Anthropic ввёл эту политику в 2026.
Anthropic называет Opus 4.7 «notable step forward» (заметным шагом вперёд) в complex programming и multi-step tasks — задачах с множественными шагами, где модель должна сохранять контекст между действиями. Это самая мощная коммерческая модель компании на сегодня.
OpenAI делает упор на agentic coding (когда модель не отвечает на вопрос, а выполняет задачу с собственными инструментами), knowledge work (работу с большими документами и базами знаний) и research. Главная фишка — способность взять «messy multi-part task» (грязную многоэтапную задачу) и довести её до конца без пошагового микро-менеджмента. Параллельно вышли GPT-5.3 Instant Mini для быстрых ответов и GPT-5.5 Pro как отдельный SKU (тарифный пакет) для платных подписок.
Инфо
Это первое поколение, где обе компании одновременно делают ставку на agentic-режим. Раньше agentic-возможности были фишкой Claude (Computer Use, Artifacts), теперь у OpenAI паритет — а в некоторых задачах перевес. Контекст релизов GPT — в моём обзоре Codex и GPT-5.4.
Чем отличаются на бумаге
Без личного теста, только заявленное.
Opus 4.7 позиционируется как чемпион сложных кодинг-задач. Anthropic утверждает, что прирост в multi-step заметнее, чем в одиночных вопросах. Модель должна лучше держать архитектурный замысел, когда ты гоняешь её по нескольким файлам. Это укладывается в стратегию компании последний год — фокус на разработчиков и Claude Code как флагманский продукт.
GPT-5.5 делает ставку на «делай, а не объясняй». Заявленный сценарий — кинул модель в задачу с десятком подзадач, она сама декомпозирует, выполняет и приносит результат. Особенно подчёркивается knowledge work: длинные документы, research-отчёты, аналитика.
Бенчмарков с конкретными цифрами я в открытом доступе пока не нашёл, кроме маркетинговых тизеров. Поэтому от чтения пресс-релизов перешёл к делу.
Внимание
Не верьте на слово ни одной из компаний. Бенчмарки — это маркетинг, а ваши задачи — реальность. У меня в исходниках обеих моделей есть такие сценарии, где ни Opus, ни GPT не дотягивают до Sonnet или GPT-4o. Тестируйте под себя.
Если хотите более широкий контекст рынка — у меня есть отдельный разбор лучших AI-моделей 2026 с таблицей по нишам. Здесь же — только эти двое.
Тест 1: Кодинг — пишем MCP-сервер с нуля
Задача: «Напиши MCP-сервер на TypeScript, который умеет искать заметки в моём Obsidian-vault'е по тегу. Один tool, чёткая схема, обработка ошибок. SDK — @modelcontextprotocol/sdk».
MCP (Model Context Protocol — стандарт, через который AI-ассистенты подключаются к внешним инструментам) я уже разбирал отдельно. Задача неновая для меня, я знаю, как должен выглядеть готовый ответ.
Opus 4.7 выдал код за один проход. Сразу правильный импорт Server и StdioServerTransport, корректное определение tool через setRequestHandler, валидация аргументов через Zod, обработка отсутствующего vault-пути с понятным сообщением об ошибке. Я скопировал, поставил зависимости, запустил — заработало с первого раза. Подключилось к Claude Desktop через конфиг, нашло заметки.
GPT-5.5 ответил быстрее (примерно 12 секунд против 20 у Opus), и код тоже был рабочий — но с одной шероховатостью. Модель использовала устаревший паттерн через request handler вместо setRequestHandler. Это рабочий вариант, но в новых версиях SDK — устаревший. Заметку «использует старый API SDK, проверьте версию» я ловил несколько раз и в других тестах.
Победил Opus — точностью. GPT быстрее, но в кодинг-задачах скорость не главное, главное — что код запускается без полировки.
Совет
Если вы тестируете модели на коде — давайте им задачу, в которой сами разбираетесь. Слепое доверие к красивому ответу — путь к мусору в production. Я писал об этом в посте про утечку исходников Claude Code: даже у топовых инструментов внутри хватает костылей.
Тест 2: Длинный документ — анализ research-paper
Скормил каждой модели PDF на 47 страниц — публичный research по агентным архитектурам, плотный текст с формулами и таблицами. Промпт: «Дай мне три главных тезиса работы, методологию в одно предложение, и одну проблему, которую авторы не закрыли». Без указаний на структуру, без подсказок про разделы.
Opus 4.7 прочитал документ медленнее — около 40 секунд до начала ответа. Тезисы выдал точные, со ссылками на конкретные страницы (это моя любимая фича Claude — модель не ленится цитировать). Методологию ужал в одно предложение без потерь. Слабое место в анализе нашёл то самое, на которое указывали в peer-review (рецензии других учёных перед публикацией) — я заранее знал, какое.
GPT-5.5 ответил за 18 секунд. Тезисы — корректные, но более общие, без отсылок к страницам. Методология — две фразы вместо одной (модель проигнорировала ограничение). Слабое место указал, но не то, которое реально критично — выбрал второстепенный аргумент.
В работе с длинными документами Opus точнее и аккуратнее с инструкциями. GPT быстрее, но менее дисциплинированный.
Тест 3: Multi-step agent — собираем сводку с vc.ru
Здесь начинается интересное. Промпт: «Зайди на vc.ru, найди топ-5 статей про AI за последние 7 дней (по числу комментариев), для каждой — заголовок, ссылка, главный тезис в одну фразу. Оформи markdown-таблицей».
Это и есть тот самый «messy multi-part task», под который OpenAI и точил GPT-5.5.
GPT-5.5 взял задачу и пошёл. Использовал свой built-in browsing, перешёл на vc.ru, нашёл раздел AI, отсортировал по комментариям, собрал пять статей, выдал готовую таблицу с рабочими ссылками. Без единого уточняющего вопроса. Таймер: 1 минута 50 секунд от промпта до результата. Пять статей из пяти — реальные и свежие.
Opus 4.7 в стандартном режиме без agent-инструментов задал вопрос: «У меня нет прямого доступа к vc.ru. Могу проанализировать ссылки, если ты их пришлёшь». Честно, корректно — но я не дал инструменты, и Claude отказался выдумывать. В Claude Code с включёнными bash и web fetch ситуация другая, но в стандартном чат-интерфейсе паритет здесь не работает.
GPT-5.5 в этом тесте просто на голову выше. Если вам нужен агент, который сам пошёл и принёс — это к OpenAI. Подробнее про прокачку Claude до полноценного агента я писал в гайде про superpowers Claude Code — там модель тоже умеет всё это, но с настройкой.
Внимание
Сравнение чуть нечестное: GPT-5.5 в ChatGPT идёт сразу с инструментами, Opus 4.7 в чате — нет. В Claude Code или через API с tools обе модели соревнуются на равных. Но если оценивать «из коробки» — GPT здесь побеждает.
Тест 4: Code review — разбираем проблемный кусок
Дал обеим моделям один и тот же файл — Python-скрипт на 280 строк с несколькими реальными багами: race condition на shared dict, утечка file descriptor, неверная обработка timezone, и логическая ошибка в подсчёте. Промпт: «Найди проблемы. Не предлагай улучшения стиля, только баги».
Opus 4.7 нашёл все четыре. Расписал каждый с указанием строк, объяснил, почему это баг и как чинится. Race condition (когда два потока одновременно меняют общие данные и результат зависит от того, кто успел первым) — с упоминанием GIL (Global Interpreter Lock — механизм Python, который выполняет байткод по одному потоку) и того, что dict-операции хоть и атомарны, но композитные действия (check-then-set: сначала проверь, потом запиши) всё равно не thread-safe. Логическую ошибку поймал лучше всего — модель прочитала бизнес-логику, не просто синтаксис.
GPT-5.5 нашёл три из четырёх. Пропустил race condition (написал «общий dict, но операции выглядят атомарно» — это та самая ошибка, которая бесит в код-ревью). Утечку file descriptor нашёл, timezone — нашёл, логическую ошибку — нашёл. Но отдельные комментарии были чуть поверхностнее.
Для серьёзного код-ревью я бы взял Opus. Он реально читает код, а не пробегает глазами.
Тест 5: Креатив — продающий лендинг
Промпт: «Напиши главный экран лендинга для AI-сервиса, который автоматизирует ответы клиентов в WhatsApp для малого бизнеса. Заголовок, подзаголовок, три буллета с пользой, CTA (call-to-action — кнопка с призывом к действию). Тон — экспертный, без воды, цифры приветствуются».
GPT-5.5 выдал лендинг с конкретикой: «Отвечай в WhatsApp за 2 секунды, даже когда спишь», подзаголовок про экономию времени с цифрой «6 часов в неделю», три буллета — все с числами и кейсами. CTA «Начать бесплатно — 14 дней» — стандарт, но рабочий. Стиль — упругий, продающий, без банальностей.
Opus 4.7 написал более «литературно». Заголовок красивый, но с метафорой («ваш WhatsApp работает 24/7, как кофе-машина в офисе»), подзаголовок чуть длиннее. Буллеты — хорошие, но без жёсткой привязки к цифрам. CTA — два варианта на выбор.
В креативе GPT-5.5 ближе к российскому маркетинговому стилю — конкретный, упругий. Opus более «эссеистский». Если делаете лендинг — берите GPT. Если статью или презентацию с характером — Opus.
Финальная таблица: победитель по каждой задаче
| Задача | Победитель | Почему |
|---|---|---|
| Кодинг (MCP-сервер) | Opus 4.7 | Актуальный API, рабочий код с первого выстрела |
| Длинный документ | Opus 4.7 | Точность, цитаты страниц, дисциплина по инструкциям |
| Multi-step агент | GPT-5.5 | Из коробки идёт и делает, Opus в чате — нет |
| Code review | Opus 4.7 | Поймал все 4 бага, включая race condition |
| Креатив (лендинг) | GPT-5.5 | Конкретные числа, продающий тон без воды |
Счёт 3:2 в пользу Opus 4.7 — по точности и дисциплине. Но GPT-5.5 уверенно забирает агентные задачи и креатив. Это не победа одной модели над другой, это разделение ниш.
Цена и доступ в России
Для российской аудитории это критично. Разберу честно.
Claude Opus 4.7:
- В API — $15 за 1M input-токенов, $75 за 1M output-токенов. Дорого, но обычно для разовых задач.
- В Claude.ai через Pro ($20/мес) — есть Opus 4.7, но с лимитами на сообщения.
- В Claude Code теперь нужен Max ($100+/мес) — Anthropic убрал Claude Code из Pro-плана в апреле 2026. Это серьёзный поворот для тех, кто привык работать через CLI.
- Доступ из РФ: VPN + зарубежная карта. В 2026 Anthropic ввёл Real-Name KYC — могут запросить документы при подозрительной активности.
GPT-5.5:
- В API — стандартный pricing OpenAI, доступен с 24 апреля. На момент публикации цены сравнимы с GPT-5, конкретные ставки уточняйте на странице платформы.
- В ChatGPT Plus ($20/мес) — есть GPT-5.5 без отдельной доплаты.
- В ChatGPT Pro/Business/Enterprise — есть и GPT-5.5 Pro как премиум-SKU.
- Доступ из РФ: VPN + ChatGPT Plus, либо API через посредников типа OpenRouter с оплатой криптой.
Внимание
Pricing меняется. На момент чтения статьи проверяйте цены на сайтах OpenAI и Anthropic — компании их регулярно подкручивают, особенно после релизов. То, что было в апреле 2026, к лету могло измениться.
Если бюджет — главный фактор и нужен только кодинг, посмотрите Gemini CLI против Claude Code — там бесплатный тариф Google всё ещё работает и закрывает 70% задач.
Кому что выбрать
Без размытого «зависит от задач». Конкретно.
Берите Claude Opus 4.7, если:
- Работаете с production-кодом и важна точность каждой строки
- Часто разбираете длинные документы — договоры, research, спеки
- Делаете архитектурные решения, нужен напарник, который думает о контексте
- Уже сидите в Claude Code и готовы платить за Max
- Делаете контент с характером — не маркетинговый, а с авторским голосом
Берите GPT-5.5, если:
- Нужен агент, который сам идёт в браузер, скрапит, парсит, собирает
- Делаете быстрые прототипы и MVP (minimum viable product — минимальный рабочий продукт) — где «работает» важнее «идеально»
- Пишете лендинги, рекламу, продающий контент с цифрами
- Не хотите доплачивать $80 в месяц за Claude Max и сидите в ChatGPT Plus
- Нужны параллельные релизы — GPT-5.3 Instant Mini для быстрых вопросов
Берите обе, если:
- Делаете контент-продакшн и используете AI каждый день
- $40 в месяц на двух подписках для вас не критично
- Работаете в команде и нужно сравнивать ответы
Лично я после этой недели оставил обе. Opus — для кода и аналитики. GPT — для агентных задач и быстрых черновиков. Дублирование? Да. Но эти две модели сейчас не заменяют друг друга, а дополняют. Если вы хотите общую картину рынка с GPT, Claude, Gemini вместе — у меня есть сравнение Cursor, Claude Code и Codex, там разбор инструментов с обеих экосистем.
Частые вопросы
Когда вышли GPT-5.5 и Claude Opus 4.7? Claude Opus 4.7 — Anthropic, 16 апреля 2026. GPT-5.5 (кодовое имя «Spud») — OpenAI, 23 апреля 2026. В API GPT-5.5 доступен с 24 апреля. Это первый случай, когда два флагмана выкатились в одну неделю с фокусом на agentic-возможности.
Чем GPT-5.5 отличается от GPT-5? Заявленный фокус — agentic coding, работа с большими документами (knowledge work) и research. Главное — модель умеет взять задачу из десяти подзадач и довести до конца без пошагового микро-менеджмента. Параллельно OpenAI выпустил GPT-5.3 Instant Mini для быстрых ответов и режим Fast Answers. GPT-5.5 Pro — отдельный платный тарифный пакет.
Чем Claude Opus 4.7 отличается от Opus 4.6? Anthropic называет 4.7 «notable step forward» в complex programming и multi-step tasks. Главный прирост — задачи, где нужно держать контекст между действиями. На базе 4.7 также вышел Claude Design — отдельная фича для презентаций и прототипов.
Кто лучше для кода — GPT-5.5 или Claude Opus 4.7? По моему тесту с MCP-сервером и code review — Opus 4.7. Точнее в архитектурных решениях, реже использует устаревшие API, лучше ловит баги уровня race condition. GPT-5.5 быстрее на простых задачах и сильнее в агентных цепочках. Для production-кода — Opus, для быстрых прототипов без супервизии — GPT.
Как получить эти модели в России? Claude Opus 4.7 — VPN + зарубежная карта, в 2026 нужно быть готовым к KYC-запросам. GPT-5.5 — VPN + ChatGPT Plus, либо API через OpenRouter с оплатой криптой. Для enterprise-планов проще всего идти через посредников или зарубежное юрлицо.
Сравнение GPT-5.5 vs Claude Opus 4.7 показало то, чего я не ожидал в начале недели: вместо одного победителя получились две специализированные модели. Раньше было «возьми ту, что дешевле». Теперь — «возьми ту, что под задачу». Это, кажется, новый этап в индустрии. И мне он нравится.



