png
к ленте
#53

Почему падают позиции сайта

Ноябрь'17

Ранжирование сайтов — процесс динамический. Алгоритмы поисковых систем не стоят на месте и развиваются с каждым днем. Соответственно и позиции сайта не могут оставаться постоянно на одном и том же месте. Если вы заметили снижение трафика и падение позиций, прежде всего необходимо проверить следующее:

  • Кабинеты для вебмастеров Яндекс и Google. В случае получения санкций в них могут быть отображены оповещения, указывающие на причину пессимизации.
  • Индексация целевых страниц. Одна из самых общих и частых причин — выпадение целевой страницы из индекса поисковых систем. Необходимо установить причину (многие из них даны ниже), и устранить ее, после чего вновь добавить страницу на индексацию.
  • Сохраненные копии целевых страниц. На какое-то время целевые страницы сайта могли отличаться, например выводились неверные мета-теги, заголовки или контент. Именно в этот момент они были переиндексированы поисковыми роботами. Проверка сохраненной копии может помочь в определении данной проблемы.
  • Взлом сайта. Если ваш сайт оказался взломан, то может быть много причин, объясняющих падение позиций: от создания «левых» страниц и размещения ссылок до удаления целевых страниц. Также бывает, что владельцы сайта сами могут установить плагины, негативно влияющие на восприятие сайта поисковыми системами.
  • Файл robots.txt. Кто-то мог закрыть от индексации весь сайт полностью или отдельные страницы. Например, когда сайт переносили с площадки разработки. Также в нем могли неверно указать главное зеркало или допустить ошибки при обновлении правил, вследствие чего в индекс попали ненужные страницы. Надо проверить Файл robots.txt.
  • Дублирование страниц или контента страниц. Это могло случиться в результате некорректно проведенных технических работ.
  • Актуальность пострадавших страниц сайта. Выводятся ли на них именно те заголовки, мета-теги и описание, которые были до падения? Возможно, кто-то их изменил или они стали некорректно выводиться вследствие технических ошибок.
  • Корректность кодов ответа. Все целевые страницы должны отдавать код 200. Если они стали отдавать, например, код 404 или 301, то могли довольно быстро вылететь из индекса, а сайт, в свою очередь, потерять трафик и позиции.
  • Теги <meta name="robots" /> и <link rel="canonical" /> у целевых страниц. В них могут содержаться запрещающие индексацию правила или указание на другую каноническую страницу.
  • Недавний переезд на https или другой домен. Возможно, переезд был выполнен некорректно, из-за чего и пострадали позиции и поисковый трафик сайта. Правильный процесс переезда описан в нашей статье «Переход с http на https без потери трафика».
  • Проблемы хостинга. Возможно, хостинг-провайдер задержал проведение своих профилактических работ или вообще случился форс-мажор, вследствие чего сайт не работал долгое время. Также рекомендуется проверить, не изменилась ли скорость загрузки сайта и ответа сервера.
  • Крупные обновления поисковых алгоритмов. Необходимо проверить, не было ли анонсов от поисковых систем о выходе новых алгоритмов и фильтров или обновлении существующих. Если есть подозрения, что сайт не соответствует новым требованиям поисковиков, необходимо провести более глубокую аналитику в этом направлении.

Если ни одна из проверок не дала очевидного ответа, необходимо проводить глубокую аналитику: анализ контента, конкурентов, юзабилити сайта, внешней ссылочной массы, анализ коммерческих и поведенческих факторов. Вполне возможно, что сайт стал просто хуже конкурентов по каким-либо параметрам. В таком случае, необходимо проводить работы по его улучшению и развитию.