Видимость сайта на Мегаиндекс

В жёсткой конкурентной борьбе, с учётом уменьшения влияния ссылочных факторов, важно использовать максимальное количество ключей для продвижения. За счёт широкого семантического ядра получают неплохой трафик по НЧ и без ссылок. Давайте посмотрим, как спарсить или узнать ключи конкурента и использовать их в своих корыстных интересах.

В деле парсинга ключей нет ничего криминального – это не воровство контента и для успеха продвижения одних ключевых слов мало, надо грамотно оптимизировать страницу. Одному не по карману Кейколлектор, другой предпочитает работать с живыми кеями, опираясь на успех конкурента и не наступая на то, что воняет.

Давайте будем исходить из отсутствия у конкурента доступа к счётчику статистики. В качестве подопытного кролика мы возьмём boomgamer.ru – на сайте нет счётчика, проект молодой, но достаточно успешный. Задача – выбрать основное ядро запросов и потратить немного времени, но не денег.

Способ первый – простой

Самый простой вариант – это узнать видимость сайта на Мегаиндекс. На сервисе указываем регион, вставляем урл сайт и парсим. Как оказывается, простота не всегда эффективна – Мегаиндекс не даёт нам реальной картины, показывая запросы, которые легко пересчитать по пальцам одной ноги. Причина – молодость сайта и закрытая или отсутствующая статистика.

Для крупных проектов проверка видимости конкурентов работает, запросы на сервисе можно отсортировать и выгрузить в Excell для переваривания оффлайн, но узнать ключи молодого и стеснительного конкурента с закрытой статистикой сложно. Плюсы сервиса – можно узнать не просто запросы, а и увидеть сразу их частотность и успешность у конкурирующего проекта.

Сканирование конкурента софтом Netpeak Spider

Способ второй – сложный

Сложности не страшны и я включаю парсинг через софт Netpeak Spider, известного паука. Он выгружает с сайта всё:

  1. - Адреса страниц,
  2. - Заголовки,
  3. - Ответы сервера,
  4. - Уровень вложенности,
  5. - Объём контента,
  6. - Входящие и исходящие ссылки.

Собранные данные экспортируются в Excell, где можно вырезать с графы заголовки страниц и убрать из них мусор. Плюсы – быстро и эффективно, минусы – мы получаем не кликабельные заголовки, для перехода на страницу в целях изучение плотности ключа и других фишек придётся копировать урл с соседнего столбика. Уже что-то, но надо лучше.

Создание карты сайта HTML

Способ третий – умный

Самый умный способ – это создать карту сайта конкурента в формате HTML. В этом случае получаем заголовки страниц, в которых идёт ключ, а сами заголовки кликабельны, что также удобно. Для создания карты Html придётся ко двору сервис http://mysitemapgenerator.com, он запустит своего шустрого робота и закинет нам на почту полную карту с кликабельными заголовками.

Как вырезать ненужные части заголовков в Блокноте я рассказывать не буду, это проходят во втором классе средней школы. Промолчу также о конкуренции запросов (не путать с частотностью) – это куплет из другой частушки.

Останется расширить ядро ключей по НЧ (например, выгрузили заголовок розовый слон в Москве, расширьте до розовый слон с большими ушами, длинным хоботом и т д.) и изучить требования к страницам топа.

Обратите внимание – конкуренция должна быть честной, поэтому не парсите текст конкурента (результата всё равно не будет) и не сканируйте его сайт слишком часто. Сканеры создают нагрузку на сервер и так, отчасти неумышленно, можно создать конкуренту проблемы.

Комментарии   

0 #1 Евгения 13.02.2017 17:34
А как вы смотрите на умный способ - парсить семантику с помощью Серпстата? Интересует ваше мнение по поводу этого инструмента :)
Цитировать

Добавить комментарий


Защитный код
Обновить