нейропоток
ГайдыНачинающий

Что такое токены в нейросети: объясняю просто и зачем это знать

Токены — это не слова и не буквы. Объясняю что это такое, почему ChatGPT иногда путает счёт, лимиты контекста и как сэкономить на API.

Павел·5 мин чтения
Что такое токены в нейросети: объясняю просто и зачем это знать
Поделиться:TelegramVK

Если вы хоть раз читали про ChatGPT или Claude, наверняка встречали слово «токены». «128K токенов контекста», «цена $0.003 за 1000 токенов», «не хватает токенов». Что это такое — обычно никто не объясняет.

Я сам путался в начале. Токен — это слово? Буква? Непонятный технический термин? Разберём.

После этой статьи вы поймёте: что такое токены, почему это важно для использования AI и как это влияет на вас.

Токен — это не слово и не буква

Токен — это кусочек текста. Примерно 4 символа на английском, около 2-3 символов на русском. Но не всегда.

Нейросеть не читает текст как вы. Она видит текст как последовательность токенов — небольших фрагментов. Слово «привет» — это один токен. Слово «автоматизация» — может быть два токена. «ChatGPT» — один. «нейропоток» — возможно два.

Почему такое разбиение? Технические причины: так модель эффективнее обрабатывает текст. На практике вам не нужно знать конкретное разбиение — достаточно понимать порядок цифр.

Простое правило для оценки:

  • 1000 слов текста ≈ 1200-1500 токенов на русском
  • 1000 слов ≈ 700-900 токенов на английском
  • Один токен ≈ 4 символа на английском, 3 символа на русском

Русский текст «дороже» в токенах, чем английский — это нужно учитывать при работе с платными API.

Почему ChatGPT иногда путает счёт

Отсюда растут корни некоторых странных ошибок AI. Классический пример: «Сколько букв R в слове "strawberry"?». Многие модели ошибались и отвечали «2» вместо «3».

Причина: модель не «читает» буквы одну за другой. Она видит токены — «st», «raw», «berry». Попытка посчитать конкретные буквы требует «спуститься» на уровень ниже токенов, что для модели нетривиально.

Это ограничение, о котором полезно знать: нейросети плохо считают конкретные символы и буквы. Не потому что «глупые» — а потому что работают с токенами, а не с символами.

Контекстное окно: почему разговор «забывается»

Контекстное окно (context window) — это максимальное количество токенов, которое модель может «удерживать» за один раз. Всё, что влезает в контекстное окно — модель видит и помнит. Всё что не влезает — не видит.

Примеры контекстных окон у разных моделей:

  • GPT-3.5: 16K токенов
  • GPT-4o: 128K токенов
  • Claude 3.5 Sonnet: 200K токенов
  • Gemini 1.5 Pro: 1M токенов (миллион!)

128K токенов — это примерно 100-150 страниц текста. Этого хватает для большинства задач.

Если вы ведёте очень длинный разговор с ChatGPT и чувствуете что модель «забыла» что было в начале — скорее всего контекст переполнился. Старые сообщения вытесняются новыми.

Инфо

Модели с большим контекстным окном не обязательно лучше. Большой контекст — это дороже и медленнее. Для большинства задач 8K-32K токенов более чем достаточно.

Токены и деньги: как это работает в платных API

API (Application Programming Interface) — это способ подключиться к нейросети из своей программы или сервиса. Когда разработчики создают приложения на базе ChatGPT — они платят по токенам.

Цены примерные (меняются):

  • GPT-4o: $0.003 за 1000 входящих токенов, $0.010 за 1000 исходящих
  • Claude Sonnet: $0.003/$0.015 за 1000 токенов
  • Gemini Flash: $0.000075 за 1000 токенов (в 40 раз дешевле!)

Для обычных пользователей с подпиской ChatGPT Plus ($20/мес) — токены не считаются явно. Есть мягкие лимиты на сообщения в час, но не счётчик токенов.

Токены важны если:

  • Вы используете API напрямую (разработчики)
  • Создаёте AI-приложения через такие сервисы как Dify, n8n
  • Хотите понять почему ваш запрос к API дорого стоит

Как сэкономить токены (практические советы)

Используйте более дешёвые модели для простых задач. Исправить грамматику в коротком тексте — не нужен GPT-4. Gemini Flash или GPT-3.5 справятся в 40 раз дешевле.

Не дублируйте контекст. Если отправляете один и тот же системный промпт при каждом запросе — каждый раз платите за эти токены. Сократите промпт.

Разбивайте большие задачи. Если нужно обработать длинный документ — режьте на части и обрабатывайте последовательно, а не всё сразу.

Чистите контекст при смене темы. В интерфейсах типа ChatGPT — начинайте новый чат при переходе к новой задаче. Иначе накопленный контекст расходует лимиты.

Токены vs символы vs слова: шпаргалка

Для ориентировки:

ЕдиницаПримерный размер
1 токен (английский)~4 символа
1 токен (русский)~3 символа
1 токен (код)~3-4 символа
100 токенов~75 английских слов
100 токенов~55 русских слов
1000 токенов~750 слов (EN) / ~550 слов (RU)
1M токенов~750K слов ≈ 10 романов

Итог

Токены — это просто единица измерения текста для нейросетей. Примерно 4 символа на английском, 3 на русском. Модель видит текст через эту призму.

Что из этого практически важно:

  • Русский текст дороже в токенах, чем английский
  • Длинные разговоры могут «переполнить» контекст — модель забудет начало
  • Если пользуетесь API — считайте токены, они влияют на стоимость

Для обычного пользователя с подпиской ChatGPT или Claude — можно об этом особо не думать. Но понимание механики помогает объяснить странное поведение AI и правильно с ним работать.

Следующий шаг — почитайте как написать промпт, который работает. Там про то, как правильно ставить задачу нейросети.