Что будет, если у сайта вроде бы разные url страниц, но при этом контент тот же? Вроде бы пара одинаковых страниц и что плохого может случится. Однако дублирующийся контент способен завести ваш сайт под фильтр поисковых систем Google и Yandex. Такие нюансы необходимо держать под контролем и знать, как с ними бороться в случае незапланированного появления.
Опасность дублей страниц доказана эмпирическим путем. Не раз поисковые алгоритмы наказывали сайты за дубликаты и понижали их в поисковой выдаче. Чтобы избежать таких проблем, предлагаем узнать варианты нахождения страниц-дубликатов и какими способами можно с ними бороться.
Как дубли страниц влияют на продвижение сайта?
- Поисковики пессимизируют посадочную страницу, падает ее релевантность и позиции;
- Позиции по запросу могут постоянно меняться, проверка позиций покажет, что приоритет отдается то одной странице, то другой;
- Проблема нескольких страниц может затронуть позиции всего сайта и привести к понижению сайта в выдаче;
- Нерационально используется краулинговый бюджет, индексируются лишние и ненужные страницы.
Типы страниц-дубликатов
- Полные дубликаты — имеет один контент и разные y. Например, если сайт доступен по https и http.
- Частичные дубликаты — часть содержания страницы дублируется, но не везде и не в полной мере. Например, описание на продуктовой карточке может быть одинаковым, а модели, фото и пр. — разным.
Откуда появляются полные дубли страниц?
- Ваша CMS сайта может автоматически генерировать четкие дубликаты страниц, например:
- Оплошности seo-специалистов, когда, например, один и тот же продукт можно найти в нескольких категориях и этот продукт имеет не один урл, а несколько.
- Ошибочная настройка 404 страниц.
Откуда появляются частичные дубли страниц?
- страницы с get-параметрами: пагинация, фильтры и сортировки;
- при смене динамических параметров контент, мета-описания, H1 остаются неизменными;
- страницы с комментариями, характеристиками товаров и отзывы.
Как искать внутренние дубли сайта?
Анализ поисковой выдачи сайта через команду site:вашсайт.ком
С помощью программ, которые устанавливаются на компьютер
Такие сервисы как:
- screaming frog
- seo spider netpeak
- xenu
сканируют весь сайт и загружают в таблицу все url. По ним вы можете проверить содержания тайтл, дескрипшн. Возможно какие-то страницы будут совпадать поймете с чем нужно работать.
Google Search Console
При поиске дублей вручную
Как бороться с дубликатами страниц сайта?
- удаление — если дубликат является статическим;
- 301 редирект — является основным методом борьбы с дублями, используется при возникновении полных дублей, типа www и без www, ошибок в иерархии урлов;
- настройка тега в robots.txt — закрывают административные страницы, личные папки и пр;
- настройка атрибута «rel=canonical» — применяются для страниц фильтрации, различных сортировок, пагинации, страниц с utm-метками.
Комментарии закрыты.