Купить шины – очень ответственное занятие для автомобилиста. Именно от резины будут зависеть ваша безопасность на дороге. Хорошая резина у нас на сайте http://www.mobilshina.com.ua 

Вы не знаете что такое CSS здесь вы найдете все что касается современных интернет технологий.

Пора бы уже разобраться, как можно закрыть страницу от индексации и в чем смысл таких «манипуляций».

На всех без исключения сайтах есть веб-страницы, которые очень желательно закрыть от индексации. Как правило, речь идет о:

  • Служебных страницах.

  • Страницах регистрации пользователей и входа в личный кабинет.

  • Страницах корзины и оформления заказов.

  • Страницах результатов поиска.

  • Страницах пагинации.

  • Страницах фильтрации и сортировок.

Именно такие типы страниц нужно закрывать от поисковиков всеми правдами и неправдами. В некоторых случаях именно они могут стать главной причиной плохого ранжирования веб-сайта в выдаче.

ЗАКРЫВАЕМ СТРАНИЦЫ С ПОМОЩЬЮ ROBOTS.TXT.

Файл robots.txt – это своего рода инструкция для поисковиков по индексации страниц. Именно к ней обращается Google или Яндекс бот, посетив ваш сайт. В общем-то, ничего сложного здесь нет: вы просто прописываете, какие страницы нужно закрыть от индексирования. Например, если вы хотите запретить индексацию страниц поиска, принадлежащих к каталогу search, пропишите:

User-agent: *
Disallow: /search/

Есть у этого способа и свои минусы. Например, при использовании robots.txt существует риск попадания страниц во второстепенный индекс. В поисковике такие страницы будут выглядеть так:

Index Google Yandex 5

Для удаления страниц из индекса необходимо воспользоваться инструментом от Google Webmaster Tools (раздел «Удалить URL-адреса»). Не забудьте указать причину удаления страницы:

Index Google Yandex 6

Кстати, из базы Яндекса страница удаляется таким же образом – в разделе инструменты нужно будет выбрать «Удалить URL».

Вообще, файл robots.txt эффективен, когда вы хотите закрыть статические адреса. А вот для запрета индексации динамических страниц лучше всего воспользоваться мета-тегом Robots.

МЕТА-ТЕГ ROBOTS.

Если вы хотите управлять индексацией конкретной страницы, лучше всего воспользоваться мета-тегом robots. Атрибут content может иметь два значения:

  • Follow или nofollow – разрешает либо запрещает переход по ссылкам.

  • Index или noindex – разрешает либо запрещает индексацию содержания страниц.

АТРИБУТ REL=»CANONICAL».

Для тех страниц, которые состоят из похожего контента, можно прописать в блоке head тег link со следующим атрибутом: rel=canonical. Он поможет вам установить каноническую страницу и рассказать об этом поисковику.

Выводы. Не забывайте работать над внутренней оптимизацией страниц сайта. Делая это регулярно, вы сможете оказать положительное влияние на индексацию – ускорить и улучшить ее. Выявленные таким образом и закрытые от индексации странички позволят избежать пессимизации.

Добавить комментарий


Яндекс.Метрика