Мы создаем атмосферу, которая позволит вам расслабиться и забыть о страхе при виде стоматологического кресла.Заботясь о красоте своих зубов, вы заботитесь об их здоровье, поэтому стоматология метро крылатское ждет вас и готова вам помочь.

   Дублями называют идентичные документы на сайте пользователя, которые могут быть доступными через разные URL. Дубли страниц - это слабые места Joomla и любой CMS. Такие страницы не приносят вреда, пока их не проиндексирует поисковая система. Важно, отслеживать индексацию и быстро предпринимать действия по удалению этих страниц. Лучше сразу продумать структуру сайта, это поможет избежать данных ситуаций. Дубли страниц в Joomla - причины, ошибки и решения этой проблемы раскроем в данной статье.

   Главная причина появления дублей – неправильная структура веб-сайта. Заранее создав несколько категорий, можно избежать дублей страниц в будущем.
Распространенные ошибки: например, у вас есть категория "News", которая имеет подкатегории – "Politics", "Economy", и т.п., и все материалы вы относите к дочерним категориям. При создании пунктов меню только для подкатегорий, к примеру, "Politics" для материалов ссылки могут выглядеть следующим образом:
https://website.com/1-news/politics/23-material
https://website.com/politics/23-material
https://website.com/1-news/2-politics/23-material
   Это различные способы формировать url, которые будут являться лишь копиями одной страницы, т.е. так не должно быть. Поисковики также индексируют технические копии, доступные через ссылки "PDF", "Print", "Send to afriend".

   Самой распространенной причиной нахождения поисковиками дублей страниц являются расширения, устанавливаемые на веб-сайты Joomla. На главной странице новостной модуль, например, может выдать разные адреса.
   Поисковики не стараются проиндексировать веб-сайты с множеством идентичных страниц, т.к. при оптимизации страниц под необходимые ключевые слова выбирают наиболее релевантные страницы.

   Способы избавления от дублей страниц:
1. Robots.txt для Joomla
Адрес - yourwebsite.com/robots.txt. Он указывает поисковикам, как индексировать ваш веб-сайт и помогает скрыть определенные части сайта.
2. Redirect 301
Его используют при перемене адреса. Для правильной привязки нужно использовать redirect 301 в файле .htaccess. Поисковики понимают, что документ размещен по новому адресу. Так можно сохранить посещаемость и PR.
3. Мета-тег Robots
Лучше использовать для Google.
4. Удалить URL дублей вручную из панели Вебмастера
5. Тег X-Robots-Tag
   Альтернатива четвертого метода для Google.

Больше информации о веб технологиях можно узнать из нашего перечня всех статей на сайте:

Добавить комментарий


Яндекс.Метрика