«Да вообще пофигу на этот ваш фактчекинг! Я делаю контент для машины, а не для людей.»
— продолжаем мы слышать раз за разом на конференциях и в чатиках.
Мы понимаем такой подход. Но даже с ним проклятые алгоритмы не дают раздышаться и спокойно погенерить контент без этих всяких редакторов
1. Алгоритмы Google стараются ориентироваться на поведение пользователей
Да, где-то можно услышать об отдельных кейсах, где текст был «оптимизирован под машину, а не под человека, и всё равно залетел».
Но это — живая материя, которая постоянно допиливается. И HCU, и SpamBrain, и E-E-A-T. У всех этих инструментов одна цель — сделать поиск лучше для человека. Для этого им нужно:
- Проверять смысловую релевантность и достоверность
- Смотреть на поведение пользователей
- Оценивать доверие к сайту. Факты тут — ключевая вещь
В теории, конечно, переоптимизированный текст может провисеть в топе какое-то время. До первого апдейта.
Но если хотите устойчивости — придётся проверять каждую цифру.
2. Достоверный контент лучше интегрируется в AI-результаты
AI-модели ранжируют источники по уровню доверия. При обнаружении противоречий, устаревшей или очевидно недостоверной информации они:
- исключают такой сайт из выдачи
- занижают его приоритет для будущих выборок
- возьмут сайт конкурента с более точной информацией
3. Репутационные риски
Понимаем — сайтам-однодневкам на них в целом всё равно. Но, если вы делайте сайт-обзорник, где важен бренд и чтобы люди раз за разом возвращались именно к вам за информацией, думаю, не следует объяснять, чем грозит пренебрежение фактами.
Есть ещё один аргумент — лучшие практики мейджоров. Крупные афф-проекты заказывают у нас апдейты обзоров брендов и бонусов с периодичностью 3/6/12 месяцев
А у вас бывало, что тексты с устаревшими данными залетали на топовые позиции Google?
— нет, это фантастика
— да. И что вы мне сделаете?
— я Google, и мои предпочтения — чистый рандом