Содержание
Настраиваем наш веб-ресурс. Рассмотрим некоторые технические детали, которые обязательно стоит учесть и желательно понимать зачем.
Редирект
Редирект — это перенаправление с одного интернет -адреса на другой.
Имеются веб-ресурсы у которых веред доменным именем есть WWW и есть такие у которых нет. Например, https://delajblog.ru/ ничего нет, а https://www.buro247.ru есть.
C WWW или без ?
Поэтому ваш веб-ресурс должен быть доступен только по одному варианту. можно выбрать любой, но только один! Большинство интернет ресурсов без www.
Например, https://delajblog.ru/ (здесь вы сейчас находитесь) без. Редирект настроен. Проверьте, зайдите по адресу https://delajblog.ru/ или delajblog.ru/ вы попадете на один и тот же сайт.
Т.е.обязательно настройте 301 редирект с www на без www.
(301 -это код постоянного редиректа). Нужен редирект сайта.
Я использую хостинг beget и там у них всё настроено как надо. Достаточно проверить и убедиться, самому не надо ничего делать.
Но можно и самому. Способов достаточно много. Например, редирект htaccess.
Делаем редирект с www/
На wordpress достаточно внести такой код в файл .htaccess:
RewriteCond %{HTTP_HOST} ^www.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]
В Яндекс Вебмастер и Google Webmaster указываем главное зеркало
Заходим в Яндекс Вебмастер и в разделе «Настройка индексирования» выбираем «Переезд …».
В данном случае всё настроено как надо и тут делать ничего не надо.
Заходим в Google Webmaster на конкретный блог и справа вверху жмём на шестеренку. В выпадающем меню выбираем «Настройка …» И слева выбираем необходимый вариант.
Также делаем и в админке WordPress. Слева выбираем «Настройки»—«Общие»
И соответственно прописываем домен.
Robots.txt
Важнейший файл -от него сильно зависит продвижение веб-ресурса. Он указывает поисковым роботам как следует осматривать сайт (некоторые поисковики директивы в этом файле игнорируют, например Гугл). Находится в корне сайта. Посмотреть его можно на любом сайте. Добавьте к домену robots.txt, например, https://delajblog.ru/robots.txt и вы увидите этот файл.
Для создания Robots.txt необходимо создать обычный текстовый файл с названием robots и расширением txt и вписать необходимые директивы.
Скажу, что вариантов его написания кучи и какой выбрать, тут следует разобраться.
Основные директивы файла
Disallow: показывает какие директории индексировать не следует
Т.е. поисковики должны игнорировать указанную после двоеточия директорию (страницу). Так закрываются служебные страницы для того чтобы они не попали в индекс поисковых систем.
Обязательно должен быть прописан xost (адрес сайта).
Host: delajblog.ru
Обязательно должна быть прописана карта сайта.
Sitemap: https://delajblog.ru/sitemap.xml
Где взять готовый Robots.txt? Вариантов его написания много (одни пишут только для одного поисковика, другие для нескольких, одни закрывают фиды, другие -нет и т.д.)
Обычно его просто копируют. Например, я нашел, по моему мнению, веб-ресурс на wordpress, где всё сделано правильно -скопировал его, изменил xost и Sitemap и закинул в корень сайта.
Примечание: в дальнейшем если возникает ситуация, когда поисковик проиндексировал ненужные вам страницы, то они вносятся в этот файл, например,
Disallow: /kontakty
Можно (и нужно) проверить как работает robots.txt.