Как без навыков SEO оптимизировать новый сайт до запуска, чтобы получить как можно больше органического трафика

25 минут 08 января

Как без навыков SEO оптимизировать новый сайт до запуска, чтобы получить как можно больше органического трафика

Сделали дизайн, написали тексты, заверстали сайт, но совсем забыли о SEO. Спокойно, это поправимо! 

Рассказываем, как быстро оптимизировать сайт. Все действия можно выполнить без навыков в SEO. 

Проверить настройки сервера

Зайдите в домен, на котором вы планируете выкладывать сайт, и откройте файл robots.txt. Проверьте.

В robots.txt нет запрещающей директивы “Disallow: /”. Иначе сайт не будет индексироваться. 

1-1.png

Так выглядит файл robots.txt

В метатегах главной страницы нет метатега robots со значениями noindex или nofollow. Нажмите правой кнопкой мыши по главной странице сайта и зайдите в «Просмотреть код» (или CTRL+U, если работаете в Windows). 

В поиске введите строку <meta name="robots" content="noindex" /> — ее не должно быть, иначе страница будет запрещена к индексации.

2-2.png


Настроены редиректы. Редирект — перенаправление пользователя с одной страницы на другую:

с http-версии на https-версию. То же самое для других вариантов написания адреса сайта — с или без WWW;

с HTTP — 301-й редирект на HTTPS.

Чтобы проверить, зайдите в панель вебмастера, введите адрес страницы, которую хотите проверить и найдите строку: «Код статуса HTTP».

3-3.png

Правильное значение в строке «Код статуса HTTP»

Заголовки, описания, контакты считываются поисковиками. В Яндекс.Вебмастере и Google Search Console посмотрите страницы как их видит робот. 

В Яндекс.Вебмастере нажмите «Содержимое страницы», в Google Search Console — «Изучить просканированную страницу».

4-4.png

5-5.png

В Google Search Console нажмите «Изучить просканированную страницу»

Вы увидите код, как его видит поисковик. Проверьте, есть ли в нем все заголовки и текст, которые есть на ваших страницах. Бывает, что текст отсутствует в коде (находится в скриптах), и тогда поисковики его не индексируют. 

Поставить информативную заглушку

На домене должен лежать сайт, но пока его нет, разместите заглушку. Хорошая заглушка рассказывает посетителю, куда он попал и когда откроется сайт. 

По удачной заглушке понятно, что это за компания и чем занимается. На ней кратко описаны товары и услуги, есть форма сбора емейлов, чтобы потом напомнить потенциальным покупателям, что сайт открылся. Вот неплохой пример: 

6-6.png

Благодаря тексту на заглушке сайт будет оставаться в выдаче поисковиков и начнет копить возрастные метрики. То есть когда опубликуете сайт, у него уже будет определенный вес у поисковиков. 

Старайтесь избегать абстрактных фраз, вроде «Сайт находится в разработке» или «Зайдите позже»:

7-7.png



Настроить Яндекс.Вебмастер

Яндекс.Вебмастер показывает, что поисковик знает о сайте. 

Сайт добавлен в Яндекс.Вебмастер. Тут всё просто: заходите в Вебмастер, и там есть ваш сайт. 

Https-версия сайта — главное зеркало, и никакие другие домены не приклеены к сайту. Зеркало сайта — это его точная копия, но с другим адресом. Например, http://kosmetika-premium.ru и https://kosmetika-premium.ru с одинаковым контентом будут зеркалами. Сайт с https в адресе должен стать главным зеркалом. 

К примеру, у нас есть сайт http://kosmetika-premium.ru

  1. Перейдите в Вебмастер в раздел «Зеркала» и введите адрес сайта. Вебмастер покажет, какой адрес — главное зеркало. 

  2. Если это не сайт с https, нажмите «Добавить главное зеркало». 

8-8.png

Сайты не считаются зеркалами, если они не возвращают одинаковый контент, — тогда заявка не будет обработана. 

9-9.png


В разделе «Диагностика сайта» нет фатальных и критичных ошибок. Вам главное увидеть надпись «На данный момент проблемы на сайте отсутствуют». 

10-10.png


В разделе «Страницы в поиске» выводятся проиндексированными страницы заглушки. Другие страницы не индексируются, в «исключенных страницах» пусто.

11-11.png

Несколько изображений попали в исключенные страницы, они не индексируются. Нужно передать информацию разработчику и проверить, что происходит с сайтом

В разделе «Внешние ссылки» нет резких скачков и большого числа ссылок, о происхождении которых вам ничего неизвестно. 

12-12.png

На графике видно, что в январе 2019 года возник провал: большая часть сайтов перестала ссылаться на наш сайт. Если такое случилось, нужно выяснить причину. Например, эти сайты могли закрыться:


13-13.png

Настроить Google Search Console

Теперь идем в консоль Гугла.

Сайт добавлен в Search Console. Заходите в консоль и проверяете, что там есть ваш сайт.

14-14.png

В разделе «Сообщения» нет информации об ошибках. Если есть письма об ошибках, передайте их разработчику.

15-15.png

В разделе «Поисковый индекс» — только страницы, которые относятся к заглушке. 


В разделе «Меры, принятые вручную» нет предупреждений. Среди предупреждений может быть, например агрессивный спам.

16-16.png


Проверить домен

Зайдите в Lumen — базу правообладателей, где копятся иски и жалобы. Это база правообладателя, где копятся иски и жалобы. Если какой-то бренд находит в сети незаконное размещение своих материалов, пишет жалобу 

Проверьте, нет ли на домене страниц ваше сайта, которые удалены по DMCA. 

17-17.png

Введите адрес своего сайта

Результат проверки выглядят так:

18-18.png

В результатах поиска — нет нашего сайта. Это значит, не будет вопросов по правам на контент

Посмотреть историю домена

В Вебархиве проверьте историю по домену, на котором планируете размещать сайт. Выберите в календаре прошлые даты и посмотрите, какой контент был на страницах. Обратите внимание, чтобы в прошлом по этому адресу не было казино, взрослого или другого запрещенного контента. 


19-19.png

Если кликнуть на выделенные даты в календаре, увидите, как тогда выглядела страница сайта и что на ней было размещено


Проверить, что тестовые сервера закрыты от поисковиков

В robots.txt должны быть прописаны такие настройки: 

20-20.png

Просто скопируйте их и вставьте в свой файл:

User-agent: *

Disalow: /

В индексе поисковиков нет контента страниц сайта с других серверов 

Впишите в поисковой строке такую фразу: «site: адрес сайта»

В Яндексе:

21-21.png

В Google:

22-22.png

Собрать сайт эмулятором поисковиков

Эмулятор поисковиков — это программа, которая имитирует поискового робота. Мы используем Screamingfrog. Что проверить:



  • нашлись все нужные страницы. Вы видите в списке все страницы, которые должны видеть поисковые системы.  

  • нет бесконечных циклов сбора;

  • все страницы отдают код 200 и нет 4хх (битых ссылок) или 3хх (редиректов).

23-23.png

В графе Status Code не должно быть ошибок с трехзначным кодом, которые начинаются на 4 или 3

Сайт не падает от парсинга в несколько потоков. Пропарсите сайт с помощью screamingfrog с двумя параметрами: количество потоков и количество URL в секунду. До десяти потоков и до двух URL сайт должен работать. 

24-24.png

Нет дублей страниц. Смотрим, чтобы не было страниц с одинаковыми адресами и содержанием.

25-25 26-26.png

Не должно быть страниц с одинаковыми заголовками

Title и metadescription соответствует содержимому страниц. В Title должно быть то, что на самой странице:

25-25 26-26.png


После выкладки сайта

Теперь сайт можно выкладывать, но после запуска нужна дополнительная проверка


Скорость рендеринга основных типовых страниц в Google PageSpeed. Нужно проверить десктопную и мобильную версии.


27-27.png

График должен быть в зеленой зоне или хотя бы в зоне 70-89%. 

Такую картину нужно показать разработчику, чтобы он исправил ошибки и вывел мобильную версию в зеленую зону. Сейчас на сайте могут быть неоптимизированные изображения или другие ошибки:



28-28.png


Время ответа сервера в Яндекс.Вебмастере. Оптимально — не более 500 мс.


29-29.png


Адаптивность типовых страниц в Google Mobile Friendly и Яндекс.Вебмастере. В идеале в Яндексе вы должны увидеть такую картину:

30-30.png

Если вы получите сообщение, что страница не адаптирована для мобильных устройств или частично загружена, нужно бить тревогу и обращаться к разработчику. 


31-31.png

Повод обратиться к разработчику



32-32.png



Коды ответа при обращении к несуществующим страницам в Яндекс.Вебмастере. Добавьте к адресам страниц / или что-то допишите. К примеру:


Оригинальный URL:


Модифицированный URL:


По страницам с неправильными адресами должны получать статус 301 Moved Permanently или 404 Not Found. 


С тестового сайта не перенеслось закрытие от поисковиков. Нет метатега robots=noindex и директивы disallow в robots.txt: 


33-33.png


В первые недели после выкладки

Индексация в Вебмастере. Нужно понять, есть ли в выдаче нужные страницы и нет ли мусорных страниц: сортировок, фильтраций, utm-меток.

34-34.pngC



Логи вебсервера: какие страницы посещают роботы — нужные или мусорные. Это txt-файл, который надо запросить у разработчика. Там есть записи посещений сайта, среди которых должны быть строки с именами Яндекса или Гугла. Стоит беспокоиться, если эти строк нет. 


Переходы в Метрике и Analytics должны расти: 

35-35.png

На этом пока всё!



Объясняет:
Юрий Дюпин

Сообщить об ошибке

Выделите текст и нажмите Ctrl+Enter, чтобы отправить сообщение