Почему вместо страницы с карточкой товара, в продвижение которой вложены десятки тысяч рублей, в топе выдачи появляется страница, ведущая на каталог? Или позиции нужной ссылки не растут, хотя пользователи стороннего сайта, где она размещена за приличное вознаграждение, по ней постоянно переходят.

На первый взгляд, примеры связаны только общей тактикой продвижения – через SEO-оптимизацию. И причины низкого эффекта оптимизации в каждом из случаев свои.

Но есть одна проблема, которая объединяет и эти две ситуации, и многие другие. Имя ей – дубли страниц. Откуда они берутся и чем вредны для контентного или продающего сайта?

Топ-5 причин возникновения дублей

На самом деле это давняя «болезнь» методик поискового продвижения. Потому что источников дублей очень много:

  • ошибки разработчика при создании сайта;
  • неправильная настройка файла robots.txt;
  • публикация материалов без указания основных тегов и метатегов (они генерируются автоматически, плодя дубли);
  • ошибки или недосмотры оптимизатора;
  • технические недоработки при изменении структуры сайта.

Во всех перечисленных случаях речь может идти как о полном дубле целых страниц, так и о частичном, когда на разных страницах сайта повторяется кусок одного и того же текста. Оба варианта для органического трафика вредны.

Чем грозят дубли страниц

Конечно, нельзя сказать, что из-за дублирования информации по всему ресурсу можно потерять миллионы. Или оказаться под фильтром поисковой системы (хотя в последнее время и Google, и Яндекс буквально болеют уникальными материалами). Критических проблем или даже непоправимых ошибок повторяющийся контент не принесет.

Его главная негативная особенность состоит в том, что он «ворует» привилегии у страниц, в которые веб-мастер вкладывает деньги. Проще говоря, дубли сокращают эффект от инвестиций в поисковое продвижение. И уводят посетителей от мест, куда их пытаются привлечь.

Простой пример для наглядности:

  • Один и тот же текст, с которого начинается описание продвигаемого товара, генерируется в описание всей страницы. Его же алгоритм автоматически присваивает категории.
  • В итоге на первом месте в выдаче посетитель по соответствующему запросу (например, черный воздушный шарик) видит не полностью релевантную страницу с предложением заказать доставку именно черных воздушных шариков, а переходит в категорию резиновых изделий. Потому что именно страница с категорией – одна из двух – оказалась выше в рейтинге поисковика.
  • И еще хорошо, если шарики в категории находятся на видном месте или есть удобные фильтры, которые помогут человеку быстро найти продукцию нужного цвета. Куда хуже, когда придя по запросу, покупатель посчитает, что ему предлагают совсем не то, что он искал. И покинет страницу, не пробыв на ней даже 3 секунд. Надо говорить, что на поведенческих факторах сайта это скажется негативно?

Добавим, что при большом количестве дублей информации сканер поисковых сервисов тратит больше времени на ее проверку. И у посетителя формируется ощущение, что над сайтом особо никто не трудился. Наконец, у оптимизатора или веб-мастера, который будет призван исправить технические недочеты, уйдет на их выявление и устранение масса времени.

Что делать с дублями?

Повторяющуюся информацию нужно контролировать постоянно. Обязателен короткий аудит после любых правок, редизайна, обновления протокола, открытия для индексации новых страниц или размещении серии статей.

При выявлении дублей можно использовать одно из трех. Первый вариант – классический редирект (301) – перенаправление страниц. Подходит не для всех случаев. Второй способ – закрытие дублированных страниц от индекса (все через тот же robots). Самый быстрый вариант.

Третий – прямые команды алгоритмам поисковиков через теги в блоке <head>. В отличие от общего закрытия от индексации такие команды (не индексировать, но переходить по ссылкам или не делать со страницей ничего) сканер не сможет проигнорировать.