Про дубликаты страниц

0
Про дубликаты страниц

Для поисковых систем дубликаты захламляют интернет. Они не содержат уникального контента и создают лишь дополнительную нагрузку.

К примеру, если у сайта есть 50 дубликатов каждой страницы, то этот сайт занимает у поисковой системы в 50 раз больше ресурсов, чем требуется. Все дубликаты в блоге новый SEO год я сразу закрыл файлом роботс, также можно настроить редиректы, но о них чуть позже.

Что плохого в дубликатах:

Дубликаты размывают ссылочный вес. Вместо того, чтобы увеличить вес главной страницы мы рассеем его по дубликатам.
Главной может оказаться не та копия, на которую ссылаются. Бывает так, что дубликат вытесняет уникальную страницу уже с высоким весом.
Теряется уникальность. Очевидно, что если страниц одинаковых две, то они уже не уникальные.
Из поиска может исчезнуть нужная страница, поскольку дубликаты со временем исключаются. Поисковые системы могу запросто посчитать за дубликат нашу главную продвигаемую страницу и исключить ее.
В общем и целом, вопрос с дубликатами сводится к двум пунктам:

ПС может исключить не ту страницу
Сайт с большим количеством дубликатов индексируется не полностью

Также не стоит забывать про дублирование тегов. На многих сайтах дублируются теги Description, H1, Title, Keywords. Сделать их уникальными не будет лишним. А весь дублирующийся контент нужно скрывать с помощью NOINDEX или NOFOLLOW.

Если на сайте есть анонсы, то лучше их создать из уникального контента, а не дублировать часть новости.

Как же бороться с дубликатами, два способа.

301 редирект
Robots.txt
Говоря в общем о работе с дублями, фактически мы придерживаемся следующей схемы: Удаляем дублирующийся контент — Закрываем от индекса то, что не можем удалить — Закрываем в роботсе разделы дублирующие контент. Учитывайте, что дубликаты страниц влияют на вес страницы, старайтесь всеми способами их избегать, тогда все будет отлично.

[uptolike]

LEAVE A REPLY