Разбор статьи «How to optimize for ChatGPT»
В комментариях (нашем чате) скинули ссылку на статью про оптимизацию под Чат ГПТ. Если вам интересно мное мнение по ней, то собрал все факты из статьи и прокоментировал их.
Мнение сугубо мое и не претендует на окончательную достоверность!!!
Итак:
- Ссылающиеся домены — главный фактор авторитета
Фиг там. У LLM нет прямого «счётчика ссылок». Модель обращается к обучающей выборке и косвенным сигналам авторитетности, основанным на большом корпусе данных, где связь с данными по трафику, видимости и качеству контента сильнее, чем слепое количество ссылок. То есть 50 трафиковых ссылок уработают 100500 ссылающихся нерелевантных доменов.
- LLMs.txt файлы неэффективны для цитирования
Это верно
- Трафик сайта коррелирует с цитированиями
Ранжирование и трафик. например, с яндекса, накрученный ПФ, никак не улучшает видимость в LLM
- Домашняя страница должна привлекать трафик.
Вполне вероятно.
- Упоминания на Quora и Reddit повышают цитирование
Для ЧатГПТ однозначно. Ибо оно обучено именно на них. А не на умных книжках Льва Толстого.
- Контент от 1,900 слов лучше коротких статей.
Качество гораздо важнее длины. Два абзаца высокого качества лучше, чем 5,000 слов воды.
- Структура текста (120–180 слов между заголовками) критична.
Вполне возможно. Но у меня иные цифры и иные представления о структуре контента.
- FAQ-секции помогают цитированию
FAQ иногда полезны для пользователей и помогают выделить ключевые вопросы, но сами по себе не повышают цитирование без другого контекста авторитета. То есть тупо пихая FAQ на страницы говносайта — ничего не добьешся.
- Свежесть контента (обновления за 3 месяца) важна.
Для отдельных тематик — аж критична. Для других (например медицина) — не особо.
- Общие заголовки лучше ключевых слов в URLs
В URL мы должны показать какие сущности закрывает контент, а ключи — это один из частных примеров. То есть LLM ищет контекст и релевантность, а не точные совпадения ключевых слов.
- Профили на платформах отзывов (Trustpilot, G2) важны.
Частично верно. И вообще, по умолчанию, такие профили нужно развивать. Для гугла дают буст.
- Core Web Vitals (скорость загрузки) влияют на цитирование.
Частично да. Но буста не дает никакого. Может просто плюнуть бот LLM на сайт и не обойти его.
- FAQ schema markup слаб, обычная структура лучше.
LLM вообще не видит микроразметку. Они используют безопасное извлечение данных, где пререендер отдает LLM готовый текст (безопасный), а не HTML страницу. Я летом это выяснял с некоторыми LLM, когда не мог понять, почему они так криво анализируют структуру HTML по URL.
- Доменный авторитет (DT > 90) даёт 4x больше цитирований
Херня. От пузомерок никак не зависит. LLM ничего не знают о выдуманных пузомерках, равно как и гугл.
Как то так )))
DICE.expert:
Статья предлагает интересный взгляд на оптимизацию контента для ChatGPT, подчеркивая важность качества и структуры текста, что может быть полезно для SEO-специалистов и контент-маркетологов.