Рассмотрим, что такое тех. аудит веб-сайта, зачем его проводят и как нам поможет анализ, сегментация и парсинг Netpeak Spider (с подробной инструкцией). Готовьтесь облегчить жизнь себе или своему оптимизатору!
Что такое технический аудит и зачем его проводить
Чтобы сайт был видим в поиске и получал поисковых трафик, он должен хорошо, быстро индексироваться и соответствовать требованиям поисковых систем. Эти две задачи решают поисковые оптимизаторы. Но прежде чем приступать к работе, им необходимо оценить текущее состояние ресурса. Для этого проводится аудит сайта: специалист анализирует его SEO-дружественность и намечает план необходимых работ. Оцениваются и контент, и коммерческие факторы, и семантика, и факторы, влияющие на юзабилити, и технические ошибки.
На последнем заострим особое внимание. Технический аудит — это задача номер один. Специалист анализирует программный код сайта и находит в нем несоответствия официальным и неофициальным требованиям поисковых систем. И именно они наиболее важны, так как при наличии критических ошибок в цифровой базе ресурса все дальнейшие усилия по раскрутке не будут иметь особого смысла.
Сайт плохо индексируется или и вовсе не попадает в выдачу. Попытки оптимизации становятся убыточными.
Грамотный анализ ресурса — это первый шаг к тому, чтобы сделать его прибыльным. Главное– доверить эту задачу людям, которые глубоко разбираются в поисковой оптимизации и умеют грамотно пользоваться инструментами SEO-анализа с максимальной пользой.
Аудит необходим:
- Сразу после запуска сайта, а также ресурсам, нетронутым рукой SEO-специалиста. Дело в том, что тех. задание для программистов на этапе разработки ресурса редко включает пункты, касающиеся поисковой дружественности. Таких всего процентов десять. В коде остальных содержатся ошибки разной степени критичности (в зависимости от движка и других нюансов), которые не позволяют эффективно продвигать ресурс.
- В случае, если сайт таки продвигался с ошибками и вы заметили, что все усилия по оптимизации и закупке ссылок не приносят толку.
- Всем, кто заказывает SEO-услуги. Аудит – подготовительный этап, который задает план всех последующих работ и позволяет рассчитать масштаб предстоящих вложений.
- Всем ресурсам после обновлений. Любые вмешательства в код, внедрение новой структуры сайта, добавление новых страниц: все это может генерировать ошибки. Их нужно находить сразу же: до того, как обновленные страницы попадут на индексацию.
Есть много программ для помощи аудитору. В этой статье мы рассмотрим ту, которой чаще пользуемся сами – Netpeak Spider.
Вкратце о программе
Итак, что такое Спайдер и чем он нам поможет? Это комплексный инструмент для быстрого SEO-аудита, обнаружения ошибок, системного анализа и парсинга сайтов с малым потреблением оперативной памяти. Программа позволяет оценить 70+ параметров каждой страницы и выяснить:
- наличие у сайта протокола HTTPS и есть ли смешанный контент;
- грамотно ли оптимизированы Title, Description и H1;
- нет ли на сайте каких-либо дубликатов;
- присутствует ли на товарных страницах микроразметка;
- нет ли на сайте 301 редиректов, бесконечных перенаправлений, цепочек, а также редиректов, ведущих на внешние сайты;
- корректно ли выставлены инструкции по индексации;
- код ответа сервера для страниц;
- прописаны ли альтернативные описания (атрибут ALT) для картинок;
- нет ли на сайте битых ссылок и битых картинок;
- нет ли ошибок в XML-карте сайта и др.
Определяетесь, какие параметры вам нужно проанализировать и задать в настройках сканирования. После чего можно приступать к работе.
Настройка и запуск сканирования
Итак, для начала необходимо скачать и установить программу для аудита сайта Нетпик на сайте.
Скачиваем программу, проходим регистрацию. На почту придет ключ. Устанавливаем программу, вводим ключ и запускаем Спайдера.
В основном меню кликаем на «Настройки».
Находим вкладку «Основные» и задаем параметры по умолчанию.
Отмечаем «Использовать парсинг HTML-данных» во вкладке “Парсинг”.
В поисковой строке прописываем элемент семантической разметки для товаров — itemtype="http://schema.org/Product".
Задаем условия для распаковки данных — «Содержит», поисковую область — «Весь исходный код».
Нажимаем “Сохранить” и закрываем меню.
Далее в основном меню Netpeak Spider открываем вкладку «Параметры» в боковой панели. Отмечаем шаблон «По умолчанию» и пункт «Парсинг».
В строке «Начальный URL» прописываем URL сканируемого сайта.
Запускаем сканирование.
Обрабатываем результаты
По завершению сканирования и обработки данных следует провести анализ результатов.
В аудит-программе Netpeak Spider есть несколько форматов отчета:
- «Дашборд», на котором визуализирована ключевая информация;
- Таблица с адресами просканированных страниц;
- Вкладка «Ошибки» с данными о всех обнаруженных технических недочетах, сегментированными по степени критичности;
- Панель «Сводка» с данными, сегментированными по определенным характеристикам.
Все параметры для сканирования, которые мы перечисляли выше, содержаться в тех или иных отчетах. Чтобы вы смогли понять, как пользоваться Netpeak Spider, предлагаем подробно рассмотреть анализ основных технических параметров по отдельности.
Дубли страниц и их элементов
Начнем с них. Данные о найденных дублях вы можете посмотреть на боковой панели меню «Ошибки». Это могут быть дублированные Title, Description, заголовки, каноникал URL и другой контент.
После обнаружения дублей поисковый оптимизатор должен выяснить, по какой причине были сгенерированы дубли. Например, заголовки и метаданные могут дублироваться у страниц пагинации каталога или блога.
Оптимизация названий и заголовков страниц
Дубли – не единственная проблема, которая может возникнуть с названиями и заголовками страниц. Так, Netpeak Spider поможет понять, на скольких страницах они неправильно прописаны. Google и Яндекс устанавливают свои границы нормы для минимальной и максимальной длины метатегов и заголовка Н1. Spider покажет, на скольких страницах эти нормы нарушены.
Проверка протокола HTTPS
После переезда на HTTPS нужно убедиться:
- Что в безопасном протоколе нет ошибок;
- Нет ссылок на HTTP;
- Нет смешанного контента – страниц на обоих протоколах в пределах одного ресурса;
- С HTTP настроен 301-й редирект.
В процессе SEO-аудита сайта в Netpeak определяется протокол всех сканируемых страниц.
Так, страницы с протоколом HTTP сведены в перечне “Ошибки” с низкой критичностью — «Не HTTPS-протокол». Также узнать количество страниц с одним и вторым протоколом можно во вкладке «Сводка».
Микроразметка
Для создания хороших сниппетов, а также для того, чтобы поисковые боты качественней сканировали контент страниц, рекомендуем применять микроразметку.
Размечать необходимо элементы карточек товаров, каталога и т.д.
Обратитесь к вкладке «Отчёты» → «Парсинг» на боковой панели и получите данные о размеченных страницах.
Редиректы
На внутренние страницы ресурса должны быть настроены исключительно 301 редиректы. Нужно зайти в «Сводку» и убедиться, что там не значатся коды 302, 306, 307 и др. А в панели “Ошибки” нет пункта «Редирект на внешний сайт».
Robots.txt и коды ответа сервера
Важнейшая задача оптимизатора – убедиться в том, нужные страницы открыты и закрыты от индексирования, а страницы выдают код ответа 200. Наличие ошибок в этих пунктах критичны и сводят на нет все иные усилия по продвижению.
Для начала смотрим, есть ли страницы, которые необходимо закрыть от индексации:
- технические страницы,
- страницы результатов поиска по сайту;
- “мусорные” страницы;
- пользовательские формы и элементы;
- страницы с фильтром и многое другое.
Данные об открытых и закрытых страницах, а также о коде ответа сервера можно увидеть в панели сводка в виде списка, и на «Дашборд», где данные опубликованы в виде кликабельных диаграмм.
Атрибут ALT у изображений
Поиск по картинкам может стать ценным источником трафика. Чтобы успешно ранжироваться в выдаче по картинкам, следует позаботиться об их оптимизации при помощи атрибута ALT.
В панели ошибок будут указаны страницы с пометкой «Изображения без атрибута ALT». Воспользуйтесь спецотчётом «Изображения без атрибута ALT» (меню «Экспорт» → «Специальные отчёты»), чтобы быстро получить информацию о том, где именно был пропущен атрибут.
Глубина вложенности и Sitemap
Один из важнейших элементов SEO-оптимизации – внедрение корректной карты сайта. В отчетах Спайдера вы можете посмотреть глубину вложенности страниц. Она не должна превышать три-четыре клика до каждой страницы.
Если нарушения есть, есть смысл скорректировать структуру ресурса и добавить в корневую директорию новую карту сайта sitemap.xml.
Чтобы убедиться в ее корректности и валидности, следует воспользоваться инструментом Спайдера «Валидатор XML Sitemap».
В строке адреса прописать адрес XML-карты, указанный в файле robots.txt и запустить сканирование.
Заключение
Итак, Netpeak Spider: что это за программа и чем она полезна? Это – главный ценный инструмент поискового оптимизатора при проведении технического аудита. Он позволяет быстро определить ошибки, мешающие продвижению ресурса. Отметим, что возможности программы этим не ограничиваются: тех. аудит — это только одна из функций. Ознакомиться со всеми возможностями Netpeak Spider вы можете на
etpeaksoftware.com/ru/spider#who-uses.