Чтобы привлечь пользователей со страниц форумов и блогов в социальные сети и максимально увеличить посещаемость, вам в этом поможет создание группы Вконтакте

   Всех давно мучает вопрос откуда берется дублированный контент и как с ним бороться. Специалисты, давно работающие в сфере поисковой оптимизации, знают, как избежать появления дублированных страниц на сайте. Новички могут забыть о некоторых тонкостях, особенно рискованно доверять новичку интернет-магазин. Из-за большого числа страниц вероятность появления дубляжей повышается во много раз. Есть 9 причин, по которым на сайтах интернет-магазинов появляется дублированный контент.

   1. Многоаспектная навигация. Может приводить к тому, что одна и та же страница имеет более 100 вариантов URL из-за многочисленных комбинаций, в которых применяются параметры выбора продукта. Меры предотвращения:

  - В данном мета-теге robots атрибут noindex говорит поисковикам, что страницу индексировать не надо, follow - требует продолжать учитывать ссылки.

  - В "Инструментах для Вебмастеров" Google можно запретить индексацию URL динамических страниц.

  - тег rel=”canonical” сообщает поисковикам, что определенные URL являются подвидом или дублем других URL. Для верности лучше использовать этот канонический тег вместе с тегом robots.

   2. Дублированные товары в каталоге. Решение проблемы такое же, как выше.

   3. Иерархические URL. Если проблема дублированных страниц возникла, стоит переписать URL страниц, удалив узлы-фрагменты, наименование товара должно остаться. Можно использовать тег canonical.

   4. Страницы для поиска по каталогу часто создают дубляжи. Чтобы скрыть от поисковиков страницы поиска пригодится robots.txt. Например, нужно заблокировать страницу такого типа: /shop/catalogsearch/result/?q=testquery, в robots.txt прописывается: Disallow: /shop/catalogsearch/.

   5. Иногда международные версии интернет-магазинов запускаются еще до перевода всего контента. Во избежание пересечений дублированные страницы блокируются.

   6. Пагинация. Для решения проблемы подойдут теги rel=next и prev.

   7. Сессии ID - частый генератор дублированных страниц. Решение: остановить сессию при создании или использовать "Инструменты для Вебмастеров" (сообщить об игнорировании сессий поисковикам).

   8. Страницы для печати. Применяется тег robots для динамических страниц или закрытие каталога в robots.txt.

   9. Страницы отзывов. Решение: robots.txt, тег robots.

Больше информации о веб технологиях можно узнать из нашего перечня всех статей на сайте:

Добавить комментарий


Яндекс.Метрика