• Главная
  • Блог
  • Чек-лист. Что проверять на сайте каждый день, чтобы внезапно не потерять трафик

Чек-лист. Что проверять на сайте каждый день, чтобы внезапно не потерять трафик

  • 3 мин.

Чтобы трафик на сайте внезапно упал, достаточно случайно удалить одну страницу или не заметить баг. Причем трафик снизится не сразу, а через неделю-другую. Потом понадобится еще неделя на поиск ошибки и еще месяц на то, чтобы трафик восстановился.

К примеру, на этом сайте слетели заголовки <title>, красным старые значения, зеленым — новые:

Фото

Программисты не увидели ошибку, и на следующей неделе трафик снизился:

Фото

Рассказываем, как ловить такие ошибки на следующий день и не жертвовать трафиком.

Как действовать

Мы ежедневно мониторим все продвигаемые страницы сайтов с помощью собственного скрипта. Он сравнивает страницы с их версией накануне и отправляет сводную информацию оптимизатору.

Оптимизатор просматривает изменения. Если они могут привести к потере трафика, он  связывается с программистом и тут же устраняет проблемы. Так мы успеваем поймать ошибки до того, как трафик начал падать.

К примеру, здесь клиент удалил с сайта пятьсот товаров. Из-за этого частично пропал контент на разных страницах:

Фото

На следующий день наш мониторинг показал проблему:

Фото

Для проверки мы используем свой софт. Но недавно подобная функция появилась в Яндекс.Вебмастере — правда, она делает ограниченное число проверок. Поэтому скрипт можно разработать индивидуально для себя.

Что проверять

Каждый день скрипт проверяет изменение таких параметров:

  • robots.txt. Одна неправильная строчка в файле, и весь сайт будет закрыт для индексации поисковыми системами;
  • sitemap.xml. Карта сайта — второстепенный функционал, но она должна работать;
  • <'title'>. Это самый важный заголовок, по которому поисковик понимает, какой теме посвящена страница. Она выводится в сниппете;
  • тегов заголовков от <'H1'> до <'H6'>. Они помогают поисковику распознавать структуру контента;
  • тега <'noindex'>. Неправильное использование этого тега может закрыть от поисковика часть важного контента страницы;
  • meta-robots. Неправильная директива в этом мета-теге запрещает поисковику добавлять страницу в индекс;
  • в других тегах и метатегах;
  • размера страницы. Оптимизатор обращает внимание, если страница глобально изменилась;
  • код ответа страницы. Если в нашем скрипте ответ отличается от 200 ОК, это повод для проверки.

Такой список параметров появился не сразу. Мы добавляли в мониторинг те параметры, которые хоть раз наносили урон трафику в проектах наших клиентов.

А такой парсинг не опасен?

Когда говорим клиентам, что будем каждый день парсить по десять-двадцать страниц, мы обычно видим недовольство программистов. Они боятся, что сайт упадет из-за чрезмерной нагрузки.

Это обоснованные страхи, поэтому мы предусмотрели вопрос нагрузки:

  • меняем количество потоков и интервал между запросами, если сайт не выдерживает 5—10 потоков одновременно;
  • проверяем изменения ночью, когда нагрузка низкая. Обычно мониторинг проходит в два часа ночи;
  • при угрозе чрезмерной нагрузки сокращаем количество страниц до списка критичных.

Наш робот использует user-agent DSSpider, поэтому по логам сервера легко отделить наши запросы от чужих.

Будет полезно

    Заявка на сотрудничество









    Отправляя заявку, вы принимаете условия соглашения об обработке персональных данных