SEO-настройки необходимо делать на первом этапе SEO-продвижения. Правильная настройка сайта откроет дорогу к топу любому сайту. Используйте приведенные в статье советы, чтобы оптимизировать сайт правильно.Качественное продвижение сайтов позволит работать веб-ресурсам правильно, а поисковым системам быстро индексировать содержимое его страниц.

Какие существуют SEO-настройки?
1. Файл *.htaccess.
Файл htaccess содержит настройки сайта. Например, он задает вид сайта - с тремя "w" или без них будет отображен сайт в браузере, зависит от htaccess. Это называется "задать главное зеркало сайта". Для поисковиков это не одно и то же - сайты, в адресе которых есть "www" и нет, они воспринимают как разные (даже если домен один). Поэтому важно указать зеркало в файле с расширением htaccess. В файле htaccess можно указать поисковику, что сайт с "www" и без - это одно и то же, что сайт со слешем в конце и без - тоже. Это важные SEO-настройки сайта. Файл htaccess можно отредактировать в текстовом редакторе. Он представляет собой несколько строк с командами.

2. Карта сайта.
Карта сайта - это файл sitemap.html или страница сайта со ссылками на все страницы. Карта сайта используется поисковиками, чтобы определить, какие страницы есть. Наличие такой SEO-настройки, как карта сайта, помогает ускорить индексацию. Создать карту сайта помогают плагины, онлайн-сервисы и программы. Лучше всего подключить плагин к сайту. Он будет автоматически при добавлении или удалении статьи менять карту сайта html.

3. Файл robots.
Robots - текстовый файл. По аналогии с htaccess, он состоит из текстовых команд. Обращены команды тут не к серверу, а к поисковым движкам. Робот Яндекса читает robots.txt до того, как читать сайт. Команды в файле robots бывают разными. Команда "User Agent" позволяет задать список поисковых систем, а "Host" задает главное зеркало (сайт с "www" или без). Файл robots лежит или должен лежать в корневом каталоге. В этом месте хранится еще один файл SEO-настроек - htaccess. Важной опцией данной SEO-настройки является возможность закрыть в robots некоторые страницы от индексации. Это позволит не добавлять в поиск странички авторизации и другие, не предназначенные для поиска, страницы. Делается это в строках с командой "Disallow" впереди. Важно, чтобы в поисковой выдаче не было так называемых "соплей" - страниц без текста. Если все служебные страницы будут закрыты от индексации, вы получите еще одно преимущество в поисковом продвижении.

Похожие статьи:

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *