Разбор раздела 4.3. книги «Введение в Промптоведение» из тома «DrMax: Доказательное SEO 2026»
Поступает огромное число отзывов о книге и некоторые интересные вопросы. Вот, например, в нашем SEO чате задали вопрос, а как же в действительности работает подбор сущностей и салиентных терминов и насколько достоверно всё это.
Мне, как автору, крайне приятны такие глубокие вопросы — ибо товарищ не просто прочитал книгу, а глубоко вникает в саму сущность работы.
Итак, важно понимать следующее:
Работа с LLM (ChatGPT, Claude и др.) — это симуляция, а не прямой SQL-запрос в базу данных Google Knowledge Graph (KG). И да, риск «галлюцинаций» или смешения региональной лексики (РФ/РБ/КЗ) существует.
Однако:
- Google Knowledge Graph — это не просто список фактов, это векторное пространство, где понятия (сущности) связаны друг с другом математической близостью. LLM (Large Language Models) обучались на тех же массивах данных (весь интернет), что индексирует Google. Поэтому, когда LLM говорит, что для сущности «Литиевый аккумулятор» Salient Term (значимый термин) — это «анод», она делает это не потому, что прочитала одну статью в Казахстане, а потому что в миллионах документов эти слова имеют сильнейшую векторную связь. Мы используем промпт не для того, чтобы «хакнуть» закрытый API Google, а чтобы воссоздать семантическую карту, которая с вероятностью 90-95% совпадает с «мнением» Google.
- Проблема региональности (РФ vs СНГ). Опасение нашего читателя: AI может подтянуть термины, специфичные для другого региона.
Для технических и информационных ниш (как в примере с инверторами или кофемашинами) физика и терминология одинаковы в Москве, Минске и Нью-Йорке. «Группа E61» везде останется «Группой E61». Даже у негров в Нигерии эти сущности и салиентные термины будут те же, что и в РФ и в Казахстане. И это подавляющее большинство сущностей!
Однако для коммерческих или юридических ниш (например, «Банкротство физлиц») разница колоссальная. Именно поэтому мы должны в таких случаях «заземлять» промпт.
Я 100500 раз говорил, в том числе и на телеконференциях, что промпту надо скармливать входные данные. Пишете про «Банкротство физлиц» — скармливаете нормативную литературу с последними обновлениями того региона, который вам нужен. Пишете про «красные сапоги» — скармливаете промпту документацию на сапоги, обзоры, инструкции, фотографии, видео обзоры.
Можно использовать и гибридные методы, как предложил наш читатель: «Возможно подход с построением Graph использовать семантику?» Почему нет.
Берем ваше сырое семантическое ядро (из KeyCollector, Ahrefs, Wordstat) и структурируем промптом его по логике Knowledge Graph.
Можно и другой способ использовать, чтобы избежать «галлюцинаций» и получить данные строго под ваш регион. Вместо того чтобы просить AI придумать сущности, скормите ему ТОП-10 конкурентов или выгрузку ключей.
В любом случае — чем больший массив проверенных данных вы дадите на входе промпту — тем будет лучше и точней результат.
Как проверить корректность
Если вы не доверяете ответу AI (что профессионально правильно), вот два способа проверить результат «Разведки»:
- Google NLP API Demo: Возьмите текст, который сгенерировал AI (или текст конкурента), и вставьте его в Google Cloud Natural Language API Demo (прокрутите пониже на странице и там окошко будет «Try the API» и рядом кнопка Анализа). Вкладка «Entities» покажет как Google видит этот текст. Вы увидите Salience Score (важность термина). Если AI в промпте предложил термины, которые Google API помечает высоким Salience — значит, модель сработала верно.
- Поиск по Викиданным (Wikidata): Knowledge Graph во многом строится на базе Wikidata (и подобных проектов). Если AI выделил сущность, поищите в Гугле с site:wikidata.org. Если такая статья есть — сущность 100% валидна.
Лично я использую метод скармливания исходных данных.
Моя новая книга:
DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144
Циклы промптоведения тут: https://t.me/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://t.me/DrMaxSEOCasts