Мы свяжемся с вами в ближайшее время!
Рассмотрим, что такое тех. аудит веб-сайта, зачем его проводят и как нам поможет анализ, сегментация и парсинг Netpeak Spider (с подробной инструкцией). Готовьтесь облегчить жизнь себе или своему оптимизатору!
Чтобы сайт был видим в поиске и получал поисковых трафик, он должен хорошо, быстро индексироваться и соответствовать требованиям поисковых систем. Эти две задачи решают поисковые оптимизаторы. Но прежде чем приступать к работе, им необходимо оценить текущее состояние ресурса. Для этого проводится аудит сайта: специалист анализирует его SEO-дружественность и намечает план необходимых работ. Оцениваются и контент, и коммерческие факторы, и семантика, и факторы, влияющие на юзабилити, и технические ошибки.
На последнем заострим особое внимание. Технический аудит — это задача номер один. Специалист анализирует программный код сайта и находит в нем несоответствия официальным и неофициальным требованиям поисковых систем. И именно они наиболее важны, так как при наличии критических ошибок в цифровой базе ресурса все дальнейшие усилия по раскрутке не будут иметь особого смысла.
Сайт плохо индексируется или и вовсе не попадает в выдачу. Попытки оптимизации становятся убыточными.
Грамотный анализ ресурса — это первый шаг к тому, чтобы сделать его прибыльным. Главное– доверить эту задачу людям, которые глубоко разбираются в поисковой оптимизации и умеют грамотно пользоваться инструментами SEO-анализа с максимальной пользой.
Аудит необходим:
Есть много программ для помощи аудитору. В этой статье мы рассмотрим ту, которой чаще пользуемся сами – Netpeak Spider.
Итак, что такое Спайдер и чем он нам поможет? Это комплексный инструмент для быстрого SEO-аудита, обнаружения ошибок, системного анализа и парсинга сайтов с малым потреблением оперативной памяти. Программа позволяет оценить 70+ параметров каждой страницы и выяснить:
Определяетесь, какие параметры вам нужно проанализировать и задать в настройках сканирования. После чего можно приступать к работе.
Итак, для начала необходимо скачать и установить программу для аудита сайта Нетпик на сайте.
Скачиваем программу, проходим регистрацию. На почту придет ключ. Устанавливаем программу, вводим ключ и запускаем Спайдера.
В основном меню кликаем на «Настройки».
Находим вкладку «Основные» и задаем параметры по умолчанию.
Отмечаем «Использовать парсинг HTML-данных» во вкладке “Парсинг”.
В поисковой строке прописываем элемент семантической разметки для товаров — itemtype="http://schema.org/Product".
Задаем условия для распаковки данных — «Содержит», поисковую область — «Весь исходный код».
Нажимаем “Сохранить” и закрываем меню.
Далее в основном меню Netpeak Spider открываем вкладку «Параметры» в боковой панели. Отмечаем шаблон «По умолчанию» и пункт «Парсинг».
В строке «Начальный URL» прописываем URL сканируемого сайта.
Запускаем сканирование.
По завершению сканирования и обработки данных следует провести анализ результатов.
В аудит-программе Netpeak Spider есть несколько форматов отчета:
Все параметры для сканирования, которые мы перечисляли выше, содержаться в тех или иных отчетах. Чтобы вы смогли понять, как пользоваться Netpeak Spider, предлагаем подробно рассмотреть анализ основных технических параметров по отдельности.
Начнем с них. Данные о найденных дублях вы можете посмотреть на боковой панели меню «Ошибки». Это могут быть дублированные Title, Description, заголовки, каноникал URL и другой контент.
После обнаружения дублей поисковый оптимизатор должен выяснить, по какой причине были сгенерированы дубли. Например, заголовки и метаданные могут дублироваться у страниц пагинации каталога или блога.
Дубли – не единственная проблема, которая может возникнуть с названиями и заголовками страниц. Так, Netpeak Spider поможет понять, на скольких страницах они неправильно прописаны. Google и Яндекс устанавливают свои границы нормы для минимальной и максимальной длины метатегов и заголовка Н1. Spider покажет, на скольких страницах эти нормы нарушены.
После переезда на HTTPS нужно убедиться:
В процессе SEO-аудита сайта в Netpeak определяется протокол всех сканируемых страниц.
Так, страницы с протоколом HTTP сведены в перечне “Ошибки” с низкой критичностью — «Не HTTPS-протокол». Также узнать количество страниц с одним и вторым протоколом можно во вкладке «Сводка».
Для создания хороших сниппетов, а также для того, чтобы поисковые боты качественней сканировали контент страниц, рекомендуем применять микроразметку.
Размечать необходимо элементы карточек товаров, каталога и т.д.
Обратитесь к вкладке «Отчёты» → «Парсинг» на боковой панели и получите данные о размеченных страницах.
На внутренние страницы ресурса должны быть настроены исключительно 301 редиректы. Нужно зайти в «Сводку» и убедиться, что там не значатся коды 302, 306, 307 и др. А в панели “Ошибки” нет пункта «Редирект на внешний сайт».
Важнейшая задача оптимизатора – убедиться в том, нужные страницы открыты и закрыты от индексирования, а страницы выдают код ответа 200. Наличие ошибок в этих пунктах критичны и сводят на нет все иные усилия по продвижению.
Для начала смотрим, есть ли страницы, которые необходимо закрыть от индексации:
Данные об открытых и закрытых страницах, а также о коде ответа сервера можно увидеть в панели сводка в виде списка, и на «Дашборд», где данные опубликованы в виде кликабельных диаграмм.
Поиск по картинкам может стать ценным источником трафика. Чтобы успешно ранжироваться в выдаче по картинкам, следует позаботиться об их оптимизации при помощи атрибута ALT.
В панели ошибок будут указаны страницы с пометкой «Изображения без атрибута ALT». Воспользуйтесь спецотчётом «Изображения без атрибута ALT» (меню «Экспорт» → «Специальные отчёты»), чтобы быстро получить информацию о том, где именно был пропущен атрибут.
Один из важнейших элементов SEO-оптимизации – внедрение корректной карты сайта. В отчетах Спайдера вы можете посмотреть глубину вложенности страниц. Она не должна превышать три-четыре клика до каждой страницы.
Если нарушения есть, есть смысл скорректировать структуру ресурса и добавить в корневую директорию новую карту сайта sitemap.xml.
Чтобы убедиться в ее корректности и валидности, следует воспользоваться инструментом Спайдера «Валидатор XML Sitemap».
В строке адреса прописать адрес XML-карты, указанный в файле robots.txt и запустить сканирование.
Итак, Netpeak Spider: что это за программа и чем она полезна? Это – главный ценный инструмент поискового оптимизатора при проведении технического аудита. Он позволяет быстро определить ошибки, мешающие продвижению ресурса. Отметим, что возможности программы этим не ограничиваются: тех. аудит — это только одна из функций. Ознакомиться со всеми возможностями Netpeak Spider вы можете на сайте.
Мы свяжемся с вами в ближайшее время!
Ми зв'яжемося з вами найближчим часом!