Почему новые сайты выходят в топ-20, а через 1–4 месяца дружно падают
Привет, Лиза! … (тут длинные описания, оставлю главное). У меня 10 сайтов под локальные услуги и несколько других проектов. Все они сначала индексируются, выходят в топ-20–50, держатся 1–4 месяца и затем резко проседают или вылетают. Технически всё идеально, контент нормальный, ссылок нет. Что изменилось в Google? Почему так происходит? Я занимаюсь SEO уже около 15 лет, но лет 5 был в стороне от активной практики.
Это не фильтр и не ошибка.
Вы наблюдаете модель, которую Google внедрил массово и системно. И под неё сегодня попадают почти все новые сайты без внешней «жизненности».
1. Первые 30–90 дней — это не рост, а испытательный срок
Google поднимает новый сайт в диапазон топ-20–50 не потому, что считает его сильным, а потому что ему нужно собрать поведенческий профиль.
Алгоритм оценивает:
— как ведут себя первые пользователи,
— появляется ли хоть какое-то внешнее упоминание,
— кто возвращается,
— есть ли локальные признаки существования бизнеса,
— ведёт ли себя сайт как живой объект.
И пока данных мало, Google даёт позиции «авансом», чтобы получить статистику.
Это и есть эффект honeymoon period.
2. Через 1–4 месяца происходит финальная переоценка «жизнеспособности домена»
Вот здесь и появляется падение, если у сайта нет:
— внешнего доверия,
— хотя бы минимального ссылочного,
— локальных подтверждений,
— окружения (соцсигналы, мини-упоминания),
— микрообновлений.
Контент и техническая чистота не являются доказательством того, что сайт существует в реальности.
А Google сейчас ранжирует не страницы — а субъекты. Если сайт выглядит как объект без контекста → он уходит вниз.
3. Ваши проекты триггерят «локальную недостоверность»
Это ключевой момент, который сильно изменился за последние 3–5 лет.
Google проверяет:
— совпадают ли контакты,
— подтверждена ли география,
— есть ли минимальные следы офлайн-присутствия,
— существует ли бренд как локальная сущность,
— нет ли сети однотипных страниц в разных городах.
Если видит поддомены с одинаковыми шаблонами под разные города без внешних подтверждений — система понижает их автоматически.
Это не фильтр — это новая логика ранжирования локальных сайтов.
4. Сайты без ссылок в 2024–2025 держатся только в двух случаях
Когда они дают реальную уникальную ценность.
Когда вокруг них есть движение: соцсигналы, микрообновления, хотя бы минимальный внешний шум.
У ваших сайтов нет ни того, ни другого.
Поэтому они падают синхронно — ровно по графику переоценки.
5. Почему так же упали интернет-магазин и сервис позиций
Потому что это не история про нишу.
Это история про новые сайты как класс.
Google изменил модель доверия:
— сайт без ссылок,
— без окружения,
— без истории,
— без внешних подтверждений,
— без микрообновлений —
не считается жизнеспособным объектом.
Он может подняться временно, но не удержится.
6. Что именно изменилось в алгоритмах
Если в двух строках:
1) Google ранжирует не контент, а «жизнь сайта».
Статика = подозрительность.
2) Алгоритм ищет внешние подтверждения существования бренда.
Без них доверие не формируется.
3) Техничка перестала быть ранжирующим фактором.
Она обязательна, но не влияет на итог.
Вот почему вы сделали всё «правильно», но получили одинаковый провал.
7. Что можно сделать, чтобы сайты перестали падать
Три шага, которые меняют ситуацию:
1) Хотя бы немного ссылок
5–10 аккуратных ссылок на проект — достаточно, чтобы пройти проверку доверия.
2) Локальные сигналы
Каталоги, карты, микрогруппы, чаты.
Не массово — точечно.
3) Движение
Микрообновления раз в 7–10 дней, слабые социальные упоминания, небольшой фон переходов.
После этого сайты перестают «улетать» и начинают держаться.