Релиз DeepSeek-V3.2: и что тут вообще есть интересного для SEO
Про релиз
Китайская команда DeepSeek выпустила новую модель. По открытым бенчмаркам она в среднем идет ноздря в ноздрю с ТИР-1 моделями вроде GPT-5, Gemini-3 Pro и Claude 4.5 Sonnet в зависимости от конкретной задачи.
Но конечно команда выбирает удобные бенчмарки для релиза, плюс где-то может дообучить модель на конкретные бенчмарки, но так делают вообще все.
Но стоит она: около $0.03 за 1M входящих токенов при cache-hit (наличие кэша данных), $0.28 при cache-miss и ~$0.42 за 1M выходящих токенов.
Для сравнения, Gemini 3 Pro: от $2 за 1M input и от $12 за 1M output.
Но самое важное, на мой взгляд — это обновленный механизм внимания DeepSeek Sparse Attention (DSA). Он позволяет сильно экономить ресурсы на работе с текстом, работать с большим контекстом и лучше решать задачи поискового агента.
Что такое механизм внимания
Механизм внимания — это один из ключевых элементов архитектуры трансформеров (GPT, BERT и т.п.). Он позволяет модели понимать взаимосвязь токенов внутри текста.
Проблема классического внимания в том, что на каждом шаге оно связывает каждый токен с каждым другим. Сложность растет квадратично: чем длиннее текст, тем дороже его считать.
Плюс: модель может учитывать не только последние соседние токены, а весь контекст текста. Минус: это ресурсоёмко и дорого.
В чем прогресс DSA
В модели появляется условный «молниеносный индексатор», который быстро сканирует весь контекст и определяет наиболее релевантные фрагменты текста под задачу.
После этого полное внимание считается только по этим фрагментам, а воду модель почти не трогает.
Разница на пальцах. Представьте: вам дали маркер, учебник по предмету и задачку.
В первом случае вы смотрите на задачу и сами листаете учебник, пытаясь понять, что вам нужно, а что нет. Вы тратите ресурсы, чтобы изучить всё и связать всё со всем. Даже если часть информации не нужна силы уже ушли на ее обработку.
Во втором случае приходит старшекурсник, который за годы учебы научится выделять только важное, берет маркер и выделяет те фрагменты, которые нужны для решения. Теперь вы тратите ресурсы только на нужные куски текста и не расходуете их на остальное.
Оба подхода в конце работают только с важной информацией, но второй подход экономит ресурсы.
Лирическое отступление. Решение проблемы ресурсов важная задача для поисковых систем. Где-то было видео у Яндекса в +- год выхода Yati, где они рассказывали, что обучали быстрые модели сжимать контент страниц до важного, чтобы уже более тяжелые модели направлять на меньший объем контента.
Плюс эту модель специально обучали на задачах поискового агента, где она училась оценивать релевантность документов.
Что даст на практике для SEO
Здесь я бы выделил главное: стало дешевле решать задачи извлечения важной информации из больших объемов текста.
Сюда попадают:
- задачи текстового анализа;
- поисковые задачи;
- сбор данных со страниц (сущности, характеристики, FAQ, условия и т.п.);
- проведение дешевых ресерчей.
- и так далее.
Это можно было бы сделать тем же Gemini 3, но в разы дороже на выходе.