Что оптимизировать на новом сайте до старта, чтобы получить как можно больше органического трафика

Сделали дизайн, написали тексты, заверстали сайт, но совсем забыли о SEO. Спокойно, это поправимо!

Рассказываем, как быстро оптимизировать сайт. Все действия можно выполнить без навыков в SEO.

Проверить настройки сервера

Зайдите в домен, на котором вы планируете выкладывать сайт, и откройте файл robots.txt. Проверьте.

В robots.txt нет запрещающей директивы “Disallow: /”.Значит, есть разрешение на индексацию.

image18.png

Так выглядит файл robots.txt

В метатегах главной страницы нет метатега robots со значениями noindex или nofollow. Нажмите правой кнопкой мыши по главной странице сайта и зайдите в «Просмотреть код» (или CTRL+U, если работаете в Windows).

В поиске введите строку — ее не должно быть, иначе страница будет запрещена к индексации.

image27.png

Настроены редиректы.

Вот что должно быть:

http-версия на https-версию. То же самое для других вариантов написания адреса сайта — с или без WWW;

с HTTP — 301-й редирект на HTTPS.
Чтобы проверить, зайдите в панель вебмастера, введите адрес страницы, которую хотите проверить и найдите строку: «Код статуса HTTP».


image26.png
Здесь правильное значение в строке «Код статуса HTTP»

Заголовки, описания, контакты считываются поисковиками. В Яндекс.Вебмастере и Google Search Console посмотреть страницы как робот. В Яндекс.Вебмастере нажмите «Содержимое страницы», в Google Search Console — «Изучить просканированную страницу».

image1.png
image16.png
Google Search Console

Вы увидите код, как его видит поисковик. Проверьте, есть ли в нем все нужные заголовки и текст со страниц. Бывает, что текст отсутствует в коде (находится в скриптах), и тогда поисковики его не индексируют.

Поставить информативную заглушку

На домене должен лежать сайт, но пока его нет, разместите заглушку. Хорошая заглушка рассказывает посетителю, куда он попал и когда откроется сайт.


Плохая заглушка

Хорошая заглушка

Фразы из серии «Сайт находится в разработке» или «Зайдите позже»

Понятно, что это за компания и чем занимается. 

Кратко описаны товары и услуги

Есть форма сбора имейлов, чтобы потом напомнить потенциальным покупателям, что сайт открылся


Благодаря тексту на заглушке сайт будет оставаться в выдаче поисковиков и начнет копить возрастные метрики.

Настроить Яндекс.Вебмастер

Яндекс.Вебмастер показывает, что поисковик знает о сайте. Рассказываем, как всё должно быть в идеальной ситуации.

Сайт добавлен в Яндекс.Вебмастер. Тут всё просто: заходите в Вебмастер, и там есть ваш сайт.

Https-версия сайта — главное зеркало, и никакие другие домены не приклеены к сайту. Зеркало сайта — это его точная копия, но с другим адресом. Например, http://kosmetika-premium.ru и https://kosmetika-premium.ru с одинаковым контентом будут зеркалами. Сайт с https в адресе должен стать главным зеркалом. 

К примеру, у нас есть сайт http://kosmetika-premium.ru.             

Перейдите в Вебмастер в раздел «Зеркала» и введите адрес сайта. Вебмастер покажет, какой адрес — главное зеркало. Если это не сайт с https, нажмите «Добавить главное зеркало».

image34.png

Сайты перестанут считаться зеркалами, если они не возвращают одинаковый контент, — в противном случае заявка не будет обработана.

image25.png

В разделе «Диагностика сайта» нет фатальных и критичных ошибок.

image22.png


В «Безопасности и нарушениях» не выводятся проблемы.
  
В разделе «Страницы в поиске» выводятся проиндексированными страницы заглушки. Другие страницы не индексируются, в «исключенных страницах» пусто.


image14.png
Несколько изображений попали в исключенные страницы, они не индексируются. Нужно передать информацию разработчику и проверить, что происходит с сайтом

В разделе «Внешние ссылки» нет резких скачков и большого числа ссылок, о происхождении которых вам ничего неизвестно.


image12.png
image5.png
В январе 2019 года возник провал: большая часть сайтов перестала ссылаться на наш сайт. В этом случае нужно выяснить причину. Может, эти сайты закрылись или что-то еще случилось

Настроить Google Search Console

Теперь идем в консоль Гугла.

Сайт добавлен в Search Console. Заходите в консоль и проверяете, что там есть ваш сайт. 

image8.png 

В разделе «Сообщения» нет информации об ошибках. Если есть письма об ошибках, передайте их разработчику.

image11.png

В разделе «Поисковый индекс» — только страницы, которые относятся к заглушке.
В разделе «Меры, принятые вручную» нет предупреждений. Среди предупреждений может быть, например агрессивный спам.

image9.png

Проверить домен

Зайдите в Lumen и проверьте, нет ли на домене страниц, которые удалены по DMCA. Это база правообладателя, где копятся иски и жалобы. Если какой-то бренд находит в сети незаконное размещение своих материалов, он идет в Люмен и пишет жалобу.


image24.png
Введите адрес своего сайта

Результат проверки выглядят так:

image29.png
В результатах поиска — нет нашего сайта. Это значит, не будет вопросов по правам на контент

Посмотреть историю домена

В Вебархиве проверьте историю по домену, на котором планируете размещать сайт. Выберите в календаре прошлые даты и посмотрите, какой контент содержали страницы. Обратите внимание, чтобы в прошлом на этом сайте не было казино, взрослого или другого запрещенного контента.


image17.pngЕсли кликнуть на выделенные даты в календаре, увидите, как тогда выглядела страница сайта и что на ней было размещено

Проверить, что тестовые сервера закрыты от поисковиков

В robots.txt должны быть прописаны такие настройки:

image31.png

Просто скопируйте их и вставьте в свой файл:

User-agent: *
Disalow: /

В индексе поисковиков нет контента страниц сайта с других серверов

Впишите в поисковой строке такую фразу: «site: адрес сайта»

В Яндексе:


image6.png
В Google:
image4.png

Собрать сайт эмулятором поисковиков

Эмулятор поисковиков — это программа, которая имитирует поискового робота.
Эмулятор screamingfrog

Все ли нужные страницы нашлись. Вы видите в списке все страницы, которые должны видеть поисковые системы.

Нет ли бесконечных циклов сбора.

Все страницы отдают код 200 и нет 4хх (битых ссылок) или 3хх (редиректов).



В графе Status Code не должно быть ошибок с трехзначным кодом, которые начинаются на 4 или 3

Сайт не падает от парсинга в несколько потоков. Пропарсите сайт с помощью screamingfrog с двумя параметрами: количество потоков и количество URL в секунду. До десяти потоков и до двух URL сайт должен работать.


image15.png  

Нет дублей страниц. Смотрим, чтобы не было страниц с одинаковыми адресами и содержанием.

image7.png
Не должно быть страниц с одинаковыми заголовками

Title и metadescription соответствует содержимому страниц.

image7.png
В Title должно быть то, что на самой странице

После выкладки сайта

Теперь сайт можно выкладывать. Но расслабляться рано — нужна дополнительная проверка после запуска.

Скорость рендеринга основных типовых страниц в Google PageSpeed. Нужно проверить десктопную и мобильную версии.

image10.png

График должен быть в зеленой зоне или хотя бы в зоне 70-89%

image33.png
Такую картину нужно показать разработчику, чтобы он исправил ошибки и вывел мобильную версию в зеленую зону. Сейчас на сайте могут быть неоптимизированные изображения или другие ошибки

Время ответа сервера в Яндекс.Вебмастере. Оптимально — не более 500 мс.

image13.png

Адаптивность типовых страниц в Google Mobile Friendly и Яндекс.Вебмастере. В идеале в Яндексе вы должны увидеть такую картину:

image21.png

Если вы получите сообщение, что страница не адаптирована для мобильных устройств или частично загружена, нужно бить тревогу и обращаться к разработчику.

image28.png
Повод обратиться к разработчику
image32.png

Коды ответа при обращении к несуществующим страницам в Яндекс.Вебмастере. Добавьте к адресам страниц / или что-то допишите. К примеру:

Оригинальный URL:
Модифицированный URL:

По страницам с неправильными адресами должны получать статус 301 Moved Permanently или 404 Not Found.

С тестового сайта не перенеслось закрытие от поисковиков. Нет метатега robots=noindex и директивы disallow в robots.txt:


image3.png  

В первые недели после выкладки

Индексация в Вебмастере. Нужно понять, есть ли в выдаче нужные страницы и нет ли мусорных страниц: сортировок, фильтраций, utm-меток.

image23.png


Логи вебсервера: какие страницы посещают роботы — нужные или мусорные. Это txt-файл, который надо запросить у разработчика. Там есть записи посещений сайта, среди которых должны быть строки с именами Яндекса или Гугла. Стоит беспокоиться, если эти строк нет.

Переходы в Метрике и Analytics. Они должны расти.


image2.png

На этом пока всё!

Объясняет:
Юрий Дюпин

Сообщить об ошибке

Выделите текст и нажмите Ctrl+Enter, чтобы отправить сообщение