Влияние дублей на продвижение в Google

Андрей Буйлов

Автор статьи
Андрей Буйлов

Подробнее об авторе

В статье поговорим про дубли, как они влияют на продвижение в Google. Подписчик спрашивает: «Интересует ваше мнение по дублям в Google, как они влияют на продвижение сайта? Также интересно, какие есть способы удаления дублей».

Как Google относится к дублям

В целом, Google не очень любит дубли, и это особенно видно, когда начинаешь создавать какие-либо региональные версии сайтов — на поддоменах или на подпапках. Google видит, что это примерно тот же самый контент, поменялся только топоним, и страницы обычно в индекс залетают, но не ранжируются. И такое бывает по множеству ситуаций с дублированным контентом внутри сайта.

Однако не всегда поисковик также относится и к дублированному контенту с других сайтов. То есть если вы скопировали контент с другого сайта, но не один в один, а хотя бы какую-то дополнительную ценность добавили, то частенько в Google он ранжируется неплохо. Хорошим примером служат агрегаторы. Я показывал недавно в Телеграм-канале «SEO без воды» кейс, как мы запускали агрегатор, и он начал с третьего месяца набирать по 6,5 тысяч трафика в сутки именно с Google (а в Яндексе еле-еле поднимался), хотя контент там целиком взят с других проектов. То есть в этом смысле не всё так однозначно. Но внутрисайтовые дубли Google не очень уважает и выбирают всё-таки какую-то основную версию этих страниц, и туда трафик более-менее идет, а на остальные — нет.

К тому же, есть ещё эффект, который не всегда происходит, но бывает, когда два события идут рука об руку: делаются дубли внутри сайта (как правило, региональные) и через некоторое время после этого проседает основная версия. Это происходит не очень часто, но, например, на консультации несколько раз приходили ребята, у которых случилась такая история. Мы разбирали эти кейсы, и в итоге каждый раз находилась более веская причина, почему была просадка. Но тем не менее, такое случается, и многие сео-специалисты считают, что это не просто корреляция, а взаимосвязанные события. Поэтому будьте внимательнее с этим моментом. 

Таким образом, Googleа в целом не любит внутрисайтовые дубли. Да и межсайтовые тоже — если нет достаточной ценности у контента, тогда страницы частенько имеют проблемы. Но не всегда — из каждого случая есть исключения, иногда бывает, что и полные дубли ранжируются неплохо.

Как правильно удалять дубли

Если вы точно решили, что одну из версий копии ваших страниц хотите удалить, то здесь варианты разные:

  • если это какой-то раздел, который по адресу УРЛ можно выделить, то вы можете в disallow его вписать: в файле robots.txt прописать disallow и там префекс этих адресов;
  • второй вариант более надежный — поставить 301 редиректы с неосновных на основные версии дублированных страниц. Этот способ более правильный, потому что возможно на те страницы уже шел какой-то трафик, туда ходили люди, вели какие-то ссылки — и чтобы это всё не пропало, я рекомендую не закрывать, а ставить 301 редирект;
  • rel canonical. Если вы по какой-то причине 301 не можете ставить (допустим, вы пользователям всё-таки хотите эти страницы оставить), тогда в коде, в блоке <head> ставите тег rel="canonical", куда вписываете основной адрес страницы. Google обычно это уважает и придерживается, Яндекс в последние годы не очень уважает и частенько дублирующую старницу будет в поиск отдавать, но обычно это не проблема. То есть если он решил, что она достаточно ценная, чтобы включить её в поиск, то раз для него это нормально, то обычно это проблем не сулит;
  • можно закрыть более надежным способом, чем robots — с помощью метатега robots noindex либо X-Robots-Tag в HTTP заголовке.

  • Вот четыре способа, среди них я все же рекомендую ставить 301 редирект. На втором месте после 301 редиректа — canonical, на третьем — X-Robots-Tag или метатег noindex, и на четвертом — закрытие в robots.txt. Вот, пожалуй, основные способы закрытия.



    Остались вопросы? Задавайте! Мы обязательно ответим.
    Последние статьи