Мы свяжемся с вами в ближайшее время!
Вместе с ростом сайта усиливается борьба с внутренними дублями и наличием низкокачественных, с точки зрения поисковиков, страниц.
Неправильная настройка страниц пагинации обнуляет ценность этих страниц для поисковых систем, так как являются частичными или полными дублями.
В данной статье мы рассмотрим основные ошибки в настройке пагинации, а также - актуальные рабочие стратегии настройки, которые применяют крупные интернет-магазины, онлайн-порталы и доски объявлений.
В поисковой оптимизации пагинация – чуть ли не самая большая головная боль специалиста во время SEO сайтов, особенно крупных или стремительно растущих. Основная проблема – наличие дублирующихся страниц, которое приводит к тому, что сайт скатывается на “галерку” поисковой выдачи практически без шансов выбиться в дамки. На наличие таких страниц указывают дубликаты по Title и копирование текста в пределах одного ресурса.
Ищем дубликаты Title по Netpeak Spider или Comparser.
При помощи эффективных инструментов SEO-анализа Netpeak Spider или Comparser исследуем сайт и сортируем результаты по дубликатам Title.
Прорабатываем результаты, которые дублируются по тегу Title и отыскиваем URL страниц пагинации (/page/2/, /?page=2 и так далее).
Ищем дублирующиеся тексты в пределах ресурса.
Распространенная ошибка пагинации страниц – отображение одного и того же текста на всех ее страницах. Это приводит к образованию внутренних дубликатов. Выявить их можно несколькими способами:
при помощи сканирования уникальности через сервис Advego; | |
в ручном режиме: открываем каждую страницу и скрупулезно ищем повторяющиеся тексты. |
Когда ошибки на сайте определены, можно приступать к настройке. Главное, сделать это правильно, использовав наиболее эффективные методы, соответствующие актуальным требованиям поисковых систем.
Ранее prev next в SEO pagination являлись официальными сигналами для поискового бота и числились в официальной справке, наряду со справкой по использованию rel canonical в Google рекомендациях.
После обновления представители компании заявили следующее: “Мы обратили внимание, что уже ни один год не используем rel next и rel prev в операциях индексации, потому вся документация из официальной справки по этим атрибутам была удалена”.
Какая же стратегия предлагается компанией взамен удаленной? Google рекомендует специалистам размещать все позиции на одной странице, если это возможно и при этом заверяет, что проблем с индексированием разметки не будет.
«Используйте разметку. Поисковой робот Google достаточно умен, чтобы отыскать следующую страницу, сканируя ссылки на странице. И очевидные сигналы, используемые ранее, нам больше не нужны. Конечно, вы можете добавлять атрибуты next и prev по другим важными причинам, однако Google это больше не требуется», — добавили представители компании.
Официальные рекомендации Яндекс о пагинации в последние годы не менялись.
Итак, чего мы НЕ делаем при pagination SEO, чтобы не допустить ошибок:
Не закрываем все страницы в robots.txt; | |
Не устанавливаем rel="canonical" на первую страницу со всех страниц разметки. |
К слову, некоторые ресурсы приводят эти стратегии, как действенные меры борьбы с дублями страниц в поисковой оптимизации. И они совершенно правы! От дублей вы, скорее всего, избавитесь. Вот только «добру» в данном случае сопутствует «худо»: вы получите проблемы с индексацией статей или товаров. И вот почему.
В первом случае по причине сокрытия разметки в robots.txt поисковой бот посетит только первую страницу пагинации и на этом остановится. Решение закрыть от индексации страницы пагинации таким образом сведет на “нет” все усилия по оптимизации ресурса.
Во втором случае бот будет игнорировать пагинацию, так как через rel="canonical" мы установили, что последующие страницы являются копиями канонической.
Итак, мы рассмотрели главные ошибки пагинации в SEO: каноникал, next и prev, robots.txt и рассказали, как делать нельзя. Обычно на перечислении ошибок бесплатные рекомендации специалистов заканчиваются. Мол, хотите знать как НУЖНО - купите наш мудреный инфопродукт. Но мы не жадные и рабочими стратегиями настройки пагинации поделимся без-во-зме-здно.
1. |
Meta robotsНа все страницы разметки ставим тег <meta name="robots" content="noindex, follow" /> |
2. |
Добиваемся максимальной уникальности каждой страницыКаждой странице — свой title, description, и текстовое наполнение; |
3. |
Страница «Смотреть все» совместно с rel="canonical"Помимо pagination-страниц создается страница «Смотреть все», на которую помещаются все товарные позиции категории. В свою очередь, со всех pagination-страниц устанавливаем rel="canonical" делая «Смотреть все» канонической: |
Такие методы решат проблему с дублями, но исключают плохую индексация сайта и проблемы с оптимизацией.
Для того, чтобы понять, какие стратегии и с какой долей успеха работают на практике, приоткроем завесу SEO-настроек крупных онлайн-ресурсов и посмотрим какую стратегию для пагинации выбирают они:
Итак, что мы видим. Ни один сайт не использует стратегию с отображением всех товаров на странице “Все товары” или “смотреть все”. Около половины не закрывают страницы для поисковых ботов, работая над уникальностью метаданных.
Другая половина ограничивает доступ для индексирования последующих за канонической ссылкой страниц, но позволяют ботам “гулять” по ним. Они же часто используют “сигнальные” атрибуты prev и next, добиваясь лучшего индексирования на отдаленных страницах.
Отдельные сайты и вовсе приняли решение полностью ограничить возможность индексации страниц, что скорее всего отражается проблемами с индексацией товаров на них.
Рассмотрим стратегию настройки разметки страниц, которую можно считать, если не и идеальной, то уж во всяком случае действенной. Доказано на собственном опыте и путем исследования поведения крупных сайтов в Сети. Такая стратегия подойдет, в первую очередь, для пагинации интернет-магазинов, так как их владельцы наиболее заинтересованы в нормальной индексации товаров на страницах разметки.
Итак, вот список основных правил и действий.
Правило первое: забудьте о закрытии страниц в robots.txt
Иначе, проблем с индексированием страниц, на которых размещены ваши товары, не избежать. Перед началом работ по продвижению советуем проверить, закрыта ли страница от индексации при помощи robots.txt. Если да - ее нужно открыть и использовать другие методы. Какие - рассказываем далее.
Адреса страниц пагинации должны отличаться друг от друга нумерацией.
Пример:
http://site.ua/category | Адрес категории |
http://site.ua/category?page=2 | Адрес 2-й страницы |
http://site.ua/category?page=3 | Адрес 3-й страницы |
Для продвижения по SEO правильные URL в данном случае очень важны.
Действие первое: запрещаем поисковым ботам добавлять страницы от 2-й и далее в индекс, не препятствуя при этом свободному переходу бота по этим страницам. Для этого в исходном коде этих страниц добавляем строку кода в теле тега <head>. Выглядит это следующим образом:
<head> ... <meta name="robots" content="noindex, follow" /> ... </head>
Первой страницы разметки не должно существовать. Как правило она существует в качестве дубля категории. Для решения задачи мы рекомендуем настроить редирект 301 с первой страницы разметки на страницу категории.
Пример:
<strong>http://site.ua/category/<strong> | URL категории |
http://site.ua/category?page=1 | URL первой стр-цы на которой настраиваем 301 редирект на http://site.ua/category |
Итак, пагинация – это необходимый механизм организации каталогов веб-ресурса, который положительно влияет на его юзабилити. При этом, подавляющее большинство крупных сайтов предпочитают стандартную разметку с канонической ссылкой стратегии отображения View All.
Дело в том, что открытие большого количества страниц во View All сильно перегружает сайт, приводит к чрезмерно долгой загрузке и заставляет посетителей покинуть его.
Для максимально эффективной настройки пагинации, при которой поисковые боты смогут свободно переходить по страницам, но не станут включать их в индекс, мы предлагаем использовать вышеприведенную стратегию.
Она подойдет как для интернет-магазинов, так и, к примеру, для пагинации в WordPress (иногда может потребоваться установка плагина для пагинации, если в шаблоне его нет по умолчанию).
При настройке следует учитывать новые правила от Google. Рекомендации от Яндекс в последние несколько лет не менялись.
Чтобы не допустить ошибок при оптимизации страниц пагинации, рекомендуем довериться профессионалам и заказать поисковую оптимизацию сайта в интернет-агентстве M. System.
Мы свяжемся с вами в ближайшее время!
Ми зв'яжемося з вами найближчим часом!