Все о дублях страниц в Joomla и как с ними бороться
Дубли страниц приносят только вред сайту, так как при его индексации поисковые системы чаще всего выбирают более релевантные страницы, чем множество повторений какого-то контента.
Дублями называют идентичные документы на сайте пользователя, которые могут быть доступными через разные URL. Дубли страниц — это слабые места Joomla и любой CMS. Такие страницы не приносят вреда, пока их не проиндексирует поисковая система. Важно, отслеживать индексацию и быстро предпринимать действия по удалению этих страниц. Лучше сразу продумать структуру сайта, это поможет избежать данных ситуаций. Дубли страниц в Joomla — причины, ошибки и решения этой проблемы раскроем в данной статье.
Главная причина появления дублей – неправильная структура веб-сайта. Заранее создав несколько категорий, можно избежать дублей страниц в будущем.
Распространенные ошибки: например, у вас есть категория «News», которая имеет подкатегории – «Politics», «Economy», и т.п., и все материалы вы относите к дочерним категориям. При создании пунктов меню только для подкатегорий, к примеру, «Politics» для материалов ссылки могут выглядеть следующим образом:
https://website.com/1-news/politics/23-material
https://website.com/politics/23-material
https://website.com/1-news/2-politics/23-material
Это различные способы формировать url, которые будут являться лишь копиями одной страницы, т.е. так не должно быть. Поисковики также индексируют технические копии, доступные через ссылки «PDF», «Print», «Send to afriend».
Самой распространенной причиной нахождения поисковиками дублей страниц являются расширения, устанавливаемые на веб-сайты Joomla. На главной странице новостной модуль, например, может выдать разные адреса.
Поисковики не стараются проиндексировать веб-сайты с множеством идентичных страниц, т.к. при оптимизации страниц под необходимые ключевые слова выбирают наиболее релевантные страницы.
Способы избавления от дублей страниц:
1. Robots.txt для Joomla
Адрес — yourwebsite.com/robots.txt. Он указывает поисковикам, как индексировать ваш веб-сайт и помогает скрыть определенные части сайта.
2. Redirect 301
Его используют при перемене адреса. Для правильной привязки нужно использовать redirect 301 в файле .htaccess. Поисковики понимают, что документ размещен по новому адресу. Так можно сохранить посещаемость и PR.
3. Мета-тег Robots
Лучше использовать для Google.
4. Удалить URL дублей вручную из панели Вебмастера
5. Тег X-Robots-Tag
Альтернатива четвертого метода для Google.