Дубли – это страницы с одинаковым содержимым, так как дублируют сами себя. Это очень не хорошее явление, даже если появляется по естественным причинам. Поисковые роботы плохо ранжируют одинаковые страницы. И чем таких страниц будет больше, тем больше рисков, что сайт не появится в топе выдачи.
При наличии дубликатов страниц у сайта могут быть следующие проблемы: - снижение релевантности ресурса. Обе страницы потеряют трафик и позиции;
- уменьшение уникальности контента. В результате снижается ценность всего сайта;
- происходит снижение веса URL – адресов сайта. По каждому запросу в выдачу поиска попадает только одна страница, если же таких несколько, все потеряют в весе;
- увеличение времени на индексацию. Чем больше страниц, тем больше времени потребуется поисковикам для индексации ресурса;
- попадание в бан;
- возникают сложности со сбором статистики;
- повышение времени индексации для важных документов, так как робот затрачивает ресурсы на тестирование и проверку дубликатов;
- неправильно распределяется внутренний ссылочный вес.
Дубли негативно отражаются на процессах индексации. Робот при проверке посещает каждую страницу по отдельности. В результате скорость обхода полезных страниц сильно замедляется.
Стоит отметить и влияние дубликатов на сложности в интерпретации сведений веб – аналитики. Страница из группы дублей подбирается поисковыми системами автоматически. И такой выбор может изменяться. При обновлении поисковой базы может измениться адрес страницы дубликата. В результате сбор статистики будет затруднен.
Даже небольшие ошибки негативно отражаются на сайте и мешают его
выводу в Топ 10. Из этого следует, что дубли всегда лишние и даже вредные для сайте. Поэтому важно понять, как их можно отыскать и обезвредить.
Дубли часто формируются при автоматической генерации. CMS создает ссылки не только с ЧПУ, но и с техническим адресом. Некорректные настройки ссылок могут привести к появлению ссылок с адресами, которых не существует на самом деле.