Чем грозит дублированный контент на сайте


Что такое дублированный контент

Страницы на сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL. Одна страница может иметь как один, так и несколько дублей.

Чёткие (точные) дубли появляются по нескольким причинам:

  1. Особенности CMS – при внесении одних изменений, контент дублируется на других страницах сайта с другим URL;
  2. Глобальные изменения на сайте – структура сайта и перенос контента;
  3. Владельцем сайта добавляет их самостоятельно, что негативно сказывается на SEO: создание ежегодных поздравлений с праздниками, одинаковый набор товаров в разных категориях с аналогичным описанием и т.д.;
  4. Страницы с www и без www.

Нечёткие (неточные) дубли:

  1. Частичное повторение текста на страницах сайта;
  2. Страницы пагинации, динамические параметры страниц.

Как дублированный контент вредит продвижению сайта

Зачем читать одно и тоже на разных страницах сайта

Поисковые системы негативно относятся как скопированному с других страниц контенту, так и собственному дублированному контенту, считая его бесполезным.

Смена релевантности страниц

Когда поисковая система не может определить более релевантную выдаче страницу, она подменяет то одну, то другую, из-за чего могут изменяться позиции из ТОП-10 в ТОП-50, например – одна страница менее релевантна, чем другая. В итоге, таких скачков поисковая система способна выкинуть страницу из индекса.

Потеря внешней ссылочной массы

Вес получает не продвигаемая страница, а дубль, например, если пользователь ставит на неё ссылку.

Потеря внутреннего ссылочного веса

Дубли частично перетягивают часть ссылочного веса с продвигаемых страниц, что также негативно сказывается на позициях и трафике.

Как проверить сайт на дублирование

Для проверки дублей текста мы пользуемся инструментом text.ru.

Зачем нужен robots.txt

Для проверки дублей страниц используется сервис seoto.me.

Зачем нужен robots.txt

Как избавиться от дублей

301-й редирект

Этот способ считается самым надежным при избавлении от лишних дублей на вашем сайте. Суть метода заключается в переадресации поискового робота со страницы-дубля на основную. Таким образом, робот проскакивает дубль и работает только с нужной страницей сайта. Со временем, после настройки 301-ого редиректа, страницы дублей склеиваются и выпадают из индекса.

Тег link rel= “canonical”

Мы указываем поисковой системе, какая страница у нас основная – предназначенная для индексации. На каждом дубле нужно вписать специальный код для поискового робота <link rel=”canonical” href=”http://www.site.ru/original-page.html”>, который будет содержать адрес основной страницы. Существуют специальные плагины, чтобы не делать подобные работы вручную.

Disallow в robots.txt

Файл robots.txt – своеобразная инструкция для поискового робота, в которой указано, какие страницы нужно индексировать, а какие нет. Для запрета индексации и борьбы с дублями используется директива Disallow. Здесь, как и при настройке 301-го редиректа, важно правильно прописать запрет.



Расскажите, была ли полезна эта статья?

Полезно (0)Не полезно (0)

Нужна помощь маркетолога? Свяжитесь с нами по телефону: 8 (499) 648-04-19 или оставьте заявку, и мы перезвоним вам в течение 5 минут.

Подпишитесь
на наш
xблог