Мы свяжемся с вами в ближайшее время!
Розглянемо, що таке тех. аудит веб-сайту, навіщо його проводять і як нам допоможе аналіз, сегментація і парсинг Netpeak Spider (з докладною інструкцією). Готуйтеся полегшити життя собі і своєму оптимізатору!
Щоб сайт був видимим в пошуку та отримував пошуковий трафік, він повинен добре, швидко індексуватися і відповідати вимогам пошукових систем. Ці два завдання вирішують пошукові оптимізатори. Але перш ніж приступати до роботи, їм необхідно оцінити поточний стан ресурсу. Для цього проводиться аудит сайту: фахівець аналізує його SEO-дружність і намічає план необхідних робіт. Оцінюються і контент, і комерційні чинники, і семантика, і фактори, що впливають на юзабіліті, і технічні помилки.
На останньому варто загострити особливу увагу. Технічний аудит - це завдання номер один. Спеціаліст аналізує програмний код сайту і знаходить в ньому невідповідності офіційним і неофіційним вимогам пошукових систем. І саме вони найбільш важливі, адже при наявності критичних помилок в цифровій базі ресурсу все подальші зусилля для розкрутки не матимуть особливого сенсу.
Сайт погано індексується або й зовсім не потрапляє в видачу. Спроби оптимізації стають збитковими.
Грамотний аналіз ресурсу - це перший крок до того, щоб зробити його прибутковим. Головне довірити цю задачу людям, які глибоко розбираються в пошукової оптимізації та вміють грамотно користуватися інструментами SEO-аналізу з максимальною користю.
Аудит необхідний:
Є багато програм для допомоги аудитору. У цій статті ми розглянемо ту, якою частіше користуємося самі - Netpeak Spider.
Отже, що таке Спайдер та чим він нам допоможе? Це комплексний інструмент для швидкого SEO-аудиту, виявлення помилок, системного аналізу і парсингу сайтів з малим споживанням оперативної пам'яті. Програма дозволяє оцінити 70+ параметрів кожної сторінки та з'ясувати:
Визначтеся, які параметри вам потрібно проаналізувати та задати в налаштуваннях сканування. Після чого можна приступати до роботи.
Отже, для початку необхідно завантажити та встановити програму для аудиту сайту Нетпік на сайті.
Скачуємо програму, проходимо реєстрацію. На пошту прийде ключ. Встановлюємо програму, вводимо ключ і запускаємо Спайдера.
В основному меню натискаємо на «Налаштування».
Знаходимо вкладку «Основні» і задаємо параметри за замовчуванням.
Відзначаємо «Використовувати парсинг HTML-даних» у вкладці "Парсинг".
У пошуковому рядку прописуємо елемент семантичної розмітки для товарів itemtype = «http://schema.org/Product».
Задаємо умови для розпакування даних - «Містить», пошукову область - «Весь вихідний код».
Натискаємо "Зберегти" і закриваємо меню.
Далі в основному меню Netpeak Spider відкриваємо вкладку «Параметри» в бічній панелі. Обираємо шаблон «За замовчуванням» і пункт «Парсинг».
У рядку «Початковий URL» прописуємо URL сайту.
Запускаємо сканування.
Після завершення сканування та обробки даних слід провести аналіз результатів.
В аудит-програмі Netpeak Spider є кілька форматів звіту:
Всі параметри для сканування, які ми перераховували вище, містяться в тих чи інших звітах. Щоб ви змогли зрозуміти, як користуватися Netpeak Spider, пропонуємо детально розглянути аналіз основних технічних параметрів окремо.
Почнемо з них. Дані про знайдені дублі ви можете подивитися на бічній панелі меню «Помилки». Це можуть бути дубльовані Title, Description, заголовки, канонікал URL і інший контент.
Після виявлення дублів пошуковий оптимізатор повинен з'ясувати, з якої причини були згенеровані дублі. Наприклад, заголовки та метадані можуть дублюватися у сторінок пагінації каталогу або блогу.
Дублі - не єдина проблема, яка може виникнути з назвами та заголовками сторінок. Так, Netpeak Spider допоможе зрозуміти, на скількох сторінках вони неправильно прописані. Google і Яндекс встановлюють свої межі норми для мінімальної та максимальної довжини метатегів і заголовка Н1. Spider покаже, на скількох сторінках ці норми порушені.
Перевірка на наявність у сайту протоколу HTTPS - один з перших пунктів в нашому чек-листі з аудиту. Це враховується, як повноцінний фактор ранжування. А HTTP-сайти відзначаються браузерами, як небезпечні.
Після переїзду на HTTPS потрібно переконатися:
В процесі SEO-аудиту сайту в Netpeak визначається протокол всіх сканованих сторінок.
Так, сторінки з протоколом HTTP зведені в переліку "Помилки" з низькою критичністю - «Не HTTPS-протокол». Також дізнатися кількість сторінок з одним і другим протоколом можна у вкладці «Зведення».
Для створення хороших сніпетів, а також для того, щоб пошукові боти якісніше сканували контент сторінок, рекомендуємо застосовувати мікророзмітки.
Розмічати необхідно елементи карток товарів, каталогу і т.д.
Зверніться до вкладки «Звіти» → «Парсинг» на бічній панелі і отримаєте дані про розмічені сторінки.
На внутрішні сторінки ресурсу повинні бути налаштовані виключно 301 редиректи. Потрібно зайти в «Зведення» і переконатися, що там не значаться коди 302, 306, 307 та ін. А в панелі "Помилки" немає пункту «Редирект на зовнішній сайт».
Найважливіше завдання оптимізатора - переконатися в тому, що потрібні сторінки відкриті та закриті від індексації, та що сторінки видають код відповіді 200. Наявність помилок в цих пунктах критичні та зводять нанівець всі інші зусилля з просування.
Для початку дивимося, чи є сторінки, які необхідно закрити від індексації:
Дані про відкриті та закриті сторінки, а також про коди відповіді сервера можна побачити в панелі зведення у вигляді списку, і на «дашборді», де дані опубліковані у вигляді клікабельних діаграм.
Пошук за картинками може стати цінним джерелом трафіку. Щоб успішно ранжуватися у видачі за картинками, слід подбати про їх оптимізацію за допомогою атрибута ALT.
В панелі помилок будуть вказані сторінки з позначкою «Зображення без атрибута ALT». Скористайтеся спецзвітом «Зображення без атрибута ALT» (меню «Експорт» → «Спеціальні звіти»), щоб швидко отримати інформацію про те, де саме був пропущений атрибут.
Один з найважливіших елементів SEO-оптимізації - впровадження коректної карти сайту. У звітах Спайдера ви можете подивитися глибину вкладеності сторінок. Вона не повинна перевищувати три-чотири кліка до кожної сторінки.
Якщо порушення є, є сенс скорегувати структуру ресурсу і додати в кореневу директорію нову карту сайту sitemap.xml.
Щоб переконатися в її коректності та валідності, слід скористатися інструментом Спайдера «Валідатор XML Sitemap».
У рядку адреси прописати адресу XML-карти, вказаний у файлі robots.txt і запустити сканування.
Отже, Netpeak Spider: що це за програма та чим вона корисна? Це - головний цінний інструмент пошукового оптимізатора при проведенні технічного аудиту. Він дозволяє швидко знайти помилки, що заважають просуванню ресурсу. Відзначимо, що можливості програми цим не обмежуються: тех. аудит - це тільки одна з функцій. Ознайомитися з усіма можливостями Netpeak Spider ви можете на
etpeaksoftware.com/ru/spider#who-uses.
Мы свяжемся с вами в ближайшее время!
Ми зв'яжемося з вами найближчим часом!