нейропоток
Обзоры моделейПрактик

GPT-5.5 vs Claude Opus 4.7: даю одну задачу двум новым флагманам

Anthropic выкатил Opus 4.7, через 7 дней OpenAI ответил GPT-5.5. Дал обоим 5 одинаковых задач — кодинг, агент, креатив. Кто справился лучше в 2026.

Павел·13 мин чтения
GPT-5.5 vs Claude Opus 4.7: даю одну задачу двум новым флагманам
Поделиться:TelegramVK

16 апреля — Anthropic тихо релизит Claude Opus 4.7. 23 апреля — OpenAI отвечает GPT-5.5 с кодовым именем «Spud». Семь дней между двумя главными релизами года. Раз в год такое случается, и обычно — не случается вообще.

Я провёл с обеими моделями неделю. Дал каждой одни и те же пять задач без подсказок и итераций. Никаких «попробуй ещё раз». Хотел понять не «какая модель умнее по бенчмарку», а «кому я отдам реальную работу завтра утром». Сравнение GPT-5.5 vs Claude Opus 4.7 получилось не таким, как я ожидал.

Для кого статья:

  • Уже платите за ChatGPT Plus или Claude Pro и думаете, стоит ли апгрейдиться на новые флагманы
  • Выбираете, в какую экосистему вкладываться — OpenAI или Anthropic — на ближайший год
  • Хотите конкретные кейсы тестов, а не пересказ маркетинговых анонсов

Кому НЕ подойдёт: если вы только знакомитесь с AI-моделями — начните с общего сравнения ChatGPT, Claude и Gemini, там разобраны базовые версии и термины.

Что вышло за неделю

Краткая сводка для тех, кто пропустил.

ПараметрClaude Opus 4.7GPT-5.5
Релиз16 апреля 202623 апреля 2026
Кодовое имяSpud
Что улучшилиСложное программирование, multi-stepAgentic coding, knowledge work, research
ДоступPro ($20), Max ($100+), APIPlus ($20), Pro/Business/Enterprise, API c 24 апреля
Параллельные релизыClaude Design (для дизайна)GPT-5.3 Instant Mini, режим Fast Answers, GPT-5.5 Pro
Доступ из РФVPN + Real-Name KYC*VPN + ChatGPT Plus или API через посредников

*KYC (Know Your Customer — проверка реального имени и документов клиента, как в банке) — Anthropic ввёл эту политику в 2026.

Anthropic называет Opus 4.7 «notable step forward» (заметным шагом вперёд) в complex programming и multi-step tasks — задачах с множественными шагами, где модель должна сохранять контекст между действиями. Это самая мощная коммерческая модель компании на сегодня.

OpenAI делает упор на agentic coding (когда модель не отвечает на вопрос, а выполняет задачу с собственными инструментами), knowledge work (работу с большими документами и базами знаний) и research. Главная фишка — способность взять «messy multi-part task» (грязную многоэтапную задачу) и довести её до конца без пошагового микро-менеджмента. Параллельно вышли GPT-5.3 Instant Mini для быстрых ответов и GPT-5.5 Pro как отдельный SKU (тарифный пакет) для платных подписок.

Инфо

Это первое поколение, где обе компании одновременно делают ставку на agentic-режим. Раньше agentic-возможности были фишкой Claude (Computer Use, Artifacts), теперь у OpenAI паритет — а в некоторых задачах перевес. Контекст релизов GPT — в моём обзоре Codex и GPT-5.4.

Чем отличаются на бумаге

Без личного теста, только заявленное.

Opus 4.7 позиционируется как чемпион сложных кодинг-задач. Anthropic утверждает, что прирост в multi-step заметнее, чем в одиночных вопросах. Модель должна лучше держать архитектурный замысел, когда ты гоняешь её по нескольким файлам. Это укладывается в стратегию компании последний год — фокус на разработчиков и Claude Code как флагманский продукт.

GPT-5.5 делает ставку на «делай, а не объясняй». Заявленный сценарий — кинул модель в задачу с десятком подзадач, она сама декомпозирует, выполняет и приносит результат. Особенно подчёркивается knowledge work: длинные документы, research-отчёты, аналитика.

Бенчмарков с конкретными цифрами я в открытом доступе пока не нашёл, кроме маркетинговых тизеров. Поэтому от чтения пресс-релизов перешёл к делу.

Внимание

Не верьте на слово ни одной из компаний. Бенчмарки — это маркетинг, а ваши задачи — реальность. У меня в исходниках обеих моделей есть такие сценарии, где ни Opus, ни GPT не дотягивают до Sonnet или GPT-4o. Тестируйте под себя.

Если хотите более широкий контекст рынка — у меня есть отдельный разбор лучших AI-моделей 2026 с таблицей по нишам. Здесь же — только эти двое.

Тест 1: Кодинг — пишем MCP-сервер с нуля

Задача: «Напиши MCP-сервер на TypeScript, который умеет искать заметки в моём Obsidian-vault'е по тегу. Один tool, чёткая схема, обработка ошибок. SDK — @modelcontextprotocol/sdk».

MCP (Model Context Protocol — стандарт, через который AI-ассистенты подключаются к внешним инструментам) я уже разбирал отдельно. Задача неновая для меня, я знаю, как должен выглядеть готовый ответ.

Opus 4.7 выдал код за один проход. Сразу правильный импорт Server и StdioServerTransport, корректное определение tool через setRequestHandler, валидация аргументов через Zod, обработка отсутствующего vault-пути с понятным сообщением об ошибке. Я скопировал, поставил зависимости, запустил — заработало с первого раза. Подключилось к Claude Desktop через конфиг, нашло заметки.

GPT-5.5 ответил быстрее (примерно 12 секунд против 20 у Opus), и код тоже был рабочий — но с одной шероховатостью. Модель использовала устаревший паттерн через request handler вместо setRequestHandler. Это рабочий вариант, но в новых версиях SDK — устаревший. Заметку «использует старый API SDK, проверьте версию» я ловил несколько раз и в других тестах.

Победил Opus — точностью. GPT быстрее, но в кодинг-задачах скорость не главное, главное — что код запускается без полировки.

Совет

Если вы тестируете модели на коде — давайте им задачу, в которой сами разбираетесь. Слепое доверие к красивому ответу — путь к мусору в production. Я писал об этом в посте про утечку исходников Claude Code: даже у топовых инструментов внутри хватает костылей.

Тест 2: Длинный документ — анализ research-paper

Скормил каждой модели PDF на 47 страниц — публичный research по агентным архитектурам, плотный текст с формулами и таблицами. Промпт: «Дай мне три главных тезиса работы, методологию в одно предложение, и одну проблему, которую авторы не закрыли». Без указаний на структуру, без подсказок про разделы.

Opus 4.7 прочитал документ медленнее — около 40 секунд до начала ответа. Тезисы выдал точные, со ссылками на конкретные страницы (это моя любимая фича Claude — модель не ленится цитировать). Методологию ужал в одно предложение без потерь. Слабое место в анализе нашёл то самое, на которое указывали в peer-review (рецензии других учёных перед публикацией) — я заранее знал, какое.

GPT-5.5 ответил за 18 секунд. Тезисы — корректные, но более общие, без отсылок к страницам. Методология — две фразы вместо одной (модель проигнорировала ограничение). Слабое место указал, но не то, которое реально критично — выбрал второстепенный аргумент.

В работе с длинными документами Opus точнее и аккуратнее с инструкциями. GPT быстрее, но менее дисциплинированный.

Тест 3: Multi-step agent — собираем сводку с vc.ru

Здесь начинается интересное. Промпт: «Зайди на vc.ru, найди топ-5 статей про AI за последние 7 дней (по числу комментариев), для каждой — заголовок, ссылка, главный тезис в одну фразу. Оформи markdown-таблицей».

Это и есть тот самый «messy multi-part task», под который OpenAI и точил GPT-5.5.

GPT-5.5 взял задачу и пошёл. Использовал свой built-in browsing, перешёл на vc.ru, нашёл раздел AI, отсортировал по комментариям, собрал пять статей, выдал готовую таблицу с рабочими ссылками. Без единого уточняющего вопроса. Таймер: 1 минута 50 секунд от промпта до результата. Пять статей из пяти — реальные и свежие.

Opus 4.7 в стандартном режиме без agent-инструментов задал вопрос: «У меня нет прямого доступа к vc.ru. Могу проанализировать ссылки, если ты их пришлёшь». Честно, корректно — но я не дал инструменты, и Claude отказался выдумывать. В Claude Code с включёнными bash и web fetch ситуация другая, но в стандартном чат-интерфейсе паритет здесь не работает.

GPT-5.5 в этом тесте просто на голову выше. Если вам нужен агент, который сам пошёл и принёс — это к OpenAI. Подробнее про прокачку Claude до полноценного агента я писал в гайде про superpowers Claude Code — там модель тоже умеет всё это, но с настройкой.

Внимание

Сравнение чуть нечестное: GPT-5.5 в ChatGPT идёт сразу с инструментами, Opus 4.7 в чате — нет. В Claude Code или через API с tools обе модели соревнуются на равных. Но если оценивать «из коробки» — GPT здесь побеждает.

Тест 4: Code review — разбираем проблемный кусок

Дал обеим моделям один и тот же файл — Python-скрипт на 280 строк с несколькими реальными багами: race condition на shared dict, утечка file descriptor, неверная обработка timezone, и логическая ошибка в подсчёте. Промпт: «Найди проблемы. Не предлагай улучшения стиля, только баги».

Opus 4.7 нашёл все четыре. Расписал каждый с указанием строк, объяснил, почему это баг и как чинится. Race condition (когда два потока одновременно меняют общие данные и результат зависит от того, кто успел первым) — с упоминанием GIL (Global Interpreter Lock — механизм Python, который выполняет байткод по одному потоку) и того, что dict-операции хоть и атомарны, но композитные действия (check-then-set: сначала проверь, потом запиши) всё равно не thread-safe. Логическую ошибку поймал лучше всего — модель прочитала бизнес-логику, не просто синтаксис.

GPT-5.5 нашёл три из четырёх. Пропустил race condition (написал «общий dict, но операции выглядят атомарно» — это та самая ошибка, которая бесит в код-ревью). Утечку file descriptor нашёл, timezone — нашёл, логическую ошибку — нашёл. Но отдельные комментарии были чуть поверхностнее.

Для серьёзного код-ревью я бы взял Opus. Он реально читает код, а не пробегает глазами.

Тест 5: Креатив — продающий лендинг

Промпт: «Напиши главный экран лендинга для AI-сервиса, который автоматизирует ответы клиентов в WhatsApp для малого бизнеса. Заголовок, подзаголовок, три буллета с пользой, CTA (call-to-action — кнопка с призывом к действию). Тон — экспертный, без воды, цифры приветствуются».

GPT-5.5 выдал лендинг с конкретикой: «Отвечай в WhatsApp за 2 секунды, даже когда спишь», подзаголовок про экономию времени с цифрой «6 часов в неделю», три буллета — все с числами и кейсами. CTA «Начать бесплатно — 14 дней» — стандарт, но рабочий. Стиль — упругий, продающий, без банальностей.

Opus 4.7 написал более «литературно». Заголовок красивый, но с метафорой («ваш WhatsApp работает 24/7, как кофе-машина в офисе»), подзаголовок чуть длиннее. Буллеты — хорошие, но без жёсткой привязки к цифрам. CTA — два варианта на выбор.

В креативе GPT-5.5 ближе к российскому маркетинговому стилю — конкретный, упругий. Opus более «эссеистский». Если делаете лендинг — берите GPT. Если статью или презентацию с характером — Opus.

Финальная таблица: победитель по каждой задаче

ЗадачаПобедительПочему
Кодинг (MCP-сервер)Opus 4.7Актуальный API, рабочий код с первого выстрела
Длинный документOpus 4.7Точность, цитаты страниц, дисциплина по инструкциям
Multi-step агентGPT-5.5Из коробки идёт и делает, Opus в чате — нет
Code reviewOpus 4.7Поймал все 4 бага, включая race condition
Креатив (лендинг)GPT-5.5Конкретные числа, продающий тон без воды

Счёт 3:2 в пользу Opus 4.7 — по точности и дисциплине. Но GPT-5.5 уверенно забирает агентные задачи и креатив. Это не победа одной модели над другой, это разделение ниш.

Цена и доступ в России

Для российской аудитории это критично. Разберу честно.

Claude Opus 4.7:

  • В API — $15 за 1M input-токенов, $75 за 1M output-токенов. Дорого, но обычно для разовых задач.
  • В Claude.ai через Pro ($20/мес) — есть Opus 4.7, но с лимитами на сообщения.
  • В Claude Code теперь нужен Max ($100+/мес) — Anthropic убрал Claude Code из Pro-плана в апреле 2026. Это серьёзный поворот для тех, кто привык работать через CLI.
  • Доступ из РФ: VPN + зарубежная карта. В 2026 Anthropic ввёл Real-Name KYC — могут запросить документы при подозрительной активности.

GPT-5.5:

  • В API — стандартный pricing OpenAI, доступен с 24 апреля. На момент публикации цены сравнимы с GPT-5, конкретные ставки уточняйте на странице платформы.
  • В ChatGPT Plus ($20/мес) — есть GPT-5.5 без отдельной доплаты.
  • В ChatGPT Pro/Business/Enterprise — есть и GPT-5.5 Pro как премиум-SKU.
  • Доступ из РФ: VPN + ChatGPT Plus, либо API через посредников типа OpenRouter с оплатой криптой.

Внимание

Pricing меняется. На момент чтения статьи проверяйте цены на сайтах OpenAI и Anthropic — компании их регулярно подкручивают, особенно после релизов. То, что было в апреле 2026, к лету могло измениться.

Если бюджет — главный фактор и нужен только кодинг, посмотрите Gemini CLI против Claude Code — там бесплатный тариф Google всё ещё работает и закрывает 70% задач.

Кому что выбрать

Без размытого «зависит от задач». Конкретно.

Берите Claude Opus 4.7, если:

  • Работаете с production-кодом и важна точность каждой строки
  • Часто разбираете длинные документы — договоры, research, спеки
  • Делаете архитектурные решения, нужен напарник, который думает о контексте
  • Уже сидите в Claude Code и готовы платить за Max
  • Делаете контент с характером — не маркетинговый, а с авторским голосом

Берите GPT-5.5, если:

  • Нужен агент, который сам идёт в браузер, скрапит, парсит, собирает
  • Делаете быстрые прототипы и MVP (minimum viable product — минимальный рабочий продукт) — где «работает» важнее «идеально»
  • Пишете лендинги, рекламу, продающий контент с цифрами
  • Не хотите доплачивать $80 в месяц за Claude Max и сидите в ChatGPT Plus
  • Нужны параллельные релизы — GPT-5.3 Instant Mini для быстрых вопросов

Берите обе, если:

  • Делаете контент-продакшн и используете AI каждый день
  • $40 в месяц на двух подписках для вас не критично
  • Работаете в команде и нужно сравнивать ответы

Лично я после этой недели оставил обе. Opus — для кода и аналитики. GPT — для агентных задач и быстрых черновиков. Дублирование? Да. Но эти две модели сейчас не заменяют друг друга, а дополняют. Если вы хотите общую картину рынка с GPT, Claude, Gemini вместе — у меня есть сравнение Cursor, Claude Code и Codex, там разбор инструментов с обеих экосистем.

Частые вопросы

Когда вышли GPT-5.5 и Claude Opus 4.7? Claude Opus 4.7 — Anthropic, 16 апреля 2026. GPT-5.5 (кодовое имя «Spud») — OpenAI, 23 апреля 2026. В API GPT-5.5 доступен с 24 апреля. Это первый случай, когда два флагмана выкатились в одну неделю с фокусом на agentic-возможности.

Чем GPT-5.5 отличается от GPT-5? Заявленный фокус — agentic coding, работа с большими документами (knowledge work) и research. Главное — модель умеет взять задачу из десяти подзадач и довести до конца без пошагового микро-менеджмента. Параллельно OpenAI выпустил GPT-5.3 Instant Mini для быстрых ответов и режим Fast Answers. GPT-5.5 Pro — отдельный платный тарифный пакет.

Чем Claude Opus 4.7 отличается от Opus 4.6? Anthropic называет 4.7 «notable step forward» в complex programming и multi-step tasks. Главный прирост — задачи, где нужно держать контекст между действиями. На базе 4.7 также вышел Claude Design — отдельная фича для презентаций и прототипов.

Кто лучше для кода — GPT-5.5 или Claude Opus 4.7? По моему тесту с MCP-сервером и code review — Opus 4.7. Точнее в архитектурных решениях, реже использует устаревшие API, лучше ловит баги уровня race condition. GPT-5.5 быстрее на простых задачах и сильнее в агентных цепочках. Для production-кода — Opus, для быстрых прототипов без супервизии — GPT.

Как получить эти модели в России? Claude Opus 4.7 — VPN + зарубежная карта, в 2026 нужно быть готовым к KYC-запросам. GPT-5.5 — VPN + ChatGPT Plus, либо API через OpenRouter с оплатой криптой. Для enterprise-планов проще всего идти через посредников или зарубежное юрлицо.


Сравнение GPT-5.5 vs Claude Opus 4.7 показало то, чего я не ожидал в начале недели: вместо одного победителя получились две специализированные модели. Раньше было «возьми ту, что дешевле». Теперь — «возьми ту, что под задачу». Это, кажется, новый этап в индустрии. И мне он нравится.