deadpool-anon

Проводя комплексный аудит сайта для клиента, в очередной раз столкнулись с вопросом — что делать если один и тот же товар присутствует в 2-3 разных категориях и при этом имеет дубли страниц с разными URL. Для этого пришлось вспомнить все возможные варианты и что бы навсегда закрыть этот вопрос — проконсультироваться с экспертами.

Дубли товаров в разных категориях

С вопросом мне помог разобраться действующий веб-аналитик и специалист по интернет-маркетингу — Вероника Ботян.

Чтобы избавиться от товаров с дублями страниц на сайте в разных категориях, можете использовать один из ниже перечисленных вариантов. Способы подойдут для любого интернет-магазина, в независимости от используемой CMS: Битрикс, Joomla, OpenCart и другие.

1. Указать главный URL через rel=”canonical”

Смысл заключается, в том что бы определить какая страница уже проиндексирована и отображается в поиске по нужному запросу. А для другой указать атрибут rel=”canonical”. Обратимся к схеме.

canonical

Указываем приоритет из двух страниц. URL-1 участвует в поиске. А URL-2 индексироваться не будет.

Достоинства:

  • простая реализация с технической стороны для любой CMS;
  • необязательно менять URL адрес посадочной страницы.

2. URL товара не зависит от категории

Смысл заключается в том, что URL адрес с товаром не имеет привязки к конкретной категории. Для наглядности посмотрим на схему.

deadpool

То есть фигурка Deadpool может находиться в двух категориях, в том числе в категории бренда и при этом иметь один URL.

Достоинства:

  • товары можно перемещать по любым категориям, не потеряв позиции в ПС;
  • короткий и удобочитаемый URL.

Минусы:

  • если в карточке товара есть навигация в виде хлебных крошек (а по хорошему она должна быть), то привязка будет только к 1 категории.

3. Запретить индексацию страницы с дублем

Этот способ аналогичен первому. Находим страницу по запросу которая занимает высшею позицию. А её клоны запрещаем индексировать. Важно: запрет страницы от индексации необходимо проводить через HTML-код на странице META NAME="ROBOTS", а не через robots.txt

Пример:

<META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">

То есть, запрещаем роботу индексировать страницу, но оставляем возможность переходить по ссылкам с данной страницы.

Как делать не надо

Последний вариант — это использование редиректов. Да, технически вариант будет работать. Но как показывает практика наличие большого количества редиректов плохо влияет на ранжирование сайта в целом. Вдобавок получите лишнюю нагрузку на сервер. Сайт должен работать естественно без различного рода перенаправлений.