Seo эксперименты — без селитры и тротила
В последнее время оптимизаторы нашли позабытую, но забавную игрушку, которую с переменным успехом используют для оптимизации страниц – закон Ципфа, гласящий, что в естественном тексте частота слова убывает согласно его месту в порядковом списке. Так второе слово должно встречаться в два раза реже, чем первое и т д. Закон может и имеет право на существование, но каков эффект для Seo? С этой целью и без претензий я провёл эксперимент.
Цель эксперимента
Главной целью является выявление факта положительного эффекта при оптимизации страницы с использованием графика Ципфа. Глобальных исследований проводить никто не собирался, поэтому я проанализировал всего две позиции в выдаче по конкурентному запросу «пластиковые окна» - первое и 49-ое место. Поиск верных алгоритмов ранжирования поможет правильно составить задание копирайтеру, что также можно отнести к цели эксперимента.
Результаты влияния закона
На первом месте сайт okna.ru, график которого виден на скрине 1. Оценка качества всего 67%, зато о более высокой текстовой естественности сложно и думать, ведь в такой конкурентной тематике всего
- - 9 вхождений слова «окна»
- - 6 «пластиковые»,
при этом общее количество слов 3800.
На 49-ом месте внутренняя страница korrido.ru (рисунок 2), у которого показатель призрачного качества выше некуда – 97%, то есть близок к идеалу. Что же показывает статистика?
- - 106 вхождений слова «дом»,
- - 76 «серия» и
- - 52 «окна» -
налицо спамный текст при идеальных показателях качества по теории закона Ципфа.
Итог
Итог предсказуем, как очередной рост цен после выборов в Беларуси – теория закона именно в Seo и чистом виде не работает. Так низкая оценка качества (от 50 и ниже) скорее говорит о том, что сайт спамный, но высокая никому и ничего не доказывает и требуется более детальный анализ. Возвращаясь же к заданию копирайтеру надо, как и ранее делать упор на иные критерии качества, в частности на корпус тематических слов для продвижения ВЧ-запросов, семантическую проверку и интерес информации для пользователя.
Да, чуть не забыл – проверить при сомнениях соответствие текста закону Ципфа можно тут, при этом учитывайте, что анализируется страница вместе с кодом, в том числе и в noindex.
Видео
Кое-что интересное вы узнаете из видео, на котором рассказано, откуда начали расти ноги у закона Ципфа и как этот закон использовать оптимизатору.
Внутренние факторы сайта играют всё большую роль в его продвижении, хотя и не скажу, что внешние ссылки ушли на мусорку и социальные сети – это сплошь заспамленный сигнал. В спектре внутренних факторов сайта особая роль отводится перелинковке – то есть внутренним ссылкам, к которым я, с вашего позволения, отнесу навигацию (крошки), контекстные и блочные ссылки, а также карту.
Сегодняшний пост будет кратким, как выстрел в комнате с мягкими стенами для умалишённых, но полезным тем, кому интересно распределение веса ссылок по сайту. Для этого Seo эксперимента я взял простейшую, как валенок, программу Linkascop и посчитал изменение веса в зависимости от наличия или отсутствия главного меню.
На рисунке видны три среза статистики, по которым можно увидеть изменение веса страниц после моих манипуляции с меню. Первая линия всё как есть сейчас, то есть меню включено везде и отображается и на «морде» и на всём внутряке, вторая – вывод меню отключен с полной отчаянностью по всей структуре блога Zegeberg, ну и третья – линия меню выключена только на главной странице.
Введение
Что мы видим. После того, как меню полностью скрылось с глаз долой, но осталось в доброй памяти, вес главной страницы подрос и подрос хорошо, при этом количество внутренних ссылок сократилось. Как так? А вот так – не забываем, что на передаче веса сказывается не банальное количество беков, а их собственный статический вес. Перераспределение весов по сайту без меню привело к банальному увеличению «тяжести» морды, при этом нижний уровень (НЧ) сильно не был изменён, так как материалы достаточно неплохо связаны между собой.
Третья строка контрольная, и здесь хорошо видно, что вес главной «поплыл» по причине того что уменьшилась его подпитка снизу, хотя, казалось бы, по математическому расчёту всё должно быть наоборот.
Вывод по весу главной
Отсюда вывод – если хотите увеличить вес на конкретной странице, то больше думайте о росте беков на неё, чем заботьтесь об уменьшении исходящих и считайте, считайте и пересчитывайте. Природа обманчива, квадратный электронный мозг нет. Забота о пользователе включена в режиме «по умолчанию».
В концовке пару слов о распределении и увеличении веса страниц нижнего уровня, то есть материалов, заточенных, как правило, под НЧ. Это актуально в связи с предполагающими сложностями с раскруткой ВЧ и неослабевающей жаждой трафика (заработка). Лучше всего работает схема, грубо, неумелой рукой художника (вспоминаю муки Остапа Бендера) нарисованная на втором рисунке. Смысл прост. С морды идёт вес вниз по структуре, при этом нет нигде обратных ссылок для возврата или же они сделаны с помощью скриптов. С категорий также вес никак не перераспределяется, а уходит на самое днище сайта и уже там попадает в кольцевую или ромбовидную перелинковку. Внешние ссылки в этом случае должны идти на основные НЧ.
При последнем варианте структуры главная страница выглядит по весу, как сирота на Казанском вокзале, категории скромно жмутся возле пивных ларьков, а материалы браво маршируют по Красной площади.
Демонтаж меню
Как всегда самый интересный (и простой) вариант распределения веса пришёл в голову утром, когда я оставил боковое меню на «морде» и убрал его на внутряке. Показатели программы Linkascop порадовали –
89,45 | 40,07 | 88,11,
соответственно, это чистый получаемый вес, вес с учётом перекрёстных и внешних ссылок. Зеленею от надежды и отпишусь по факту изменений.
P.S. Для справки: не пытайтесь изменять распределение веса с помощью nofollow, ибо он не для того сделан и получится, как в том крылатом выражении «ни себе, ни людям».
Роль фактора поведения пользователей в ранжировании сайта сегодня значима и с этим не спорит даже тот, кто привык не считаться ни с чём, выступая в роли этакого Seo-нигилиста, однако всё в доме Облонских не только смешалось, но и стало ужасно непросто в последнее время. Так до сих пор никто не скажет, какие параметры ПФ учитываются в большей степени, и какова их градация по отдельным тематикам, ведь недаром старик Суворов сказал – «что русскому хорошо, то немцу смерть».
Отсюда всё большим мазохизмом выглядит накрутка поведенческого фактора, о которой сегодня я и хочу поделиться мыслями, спорными с одной стороны, но основанными на банальном здравом смысле.
Критерии поведенческого фактора
Для начала посмотрим на критерии поведенческого фактора, ведь именно наиболее значимые из них и пытаются накручивать оптимизаторы, выбирая для своих чёрных делишек либо movebo.ru либо userator.ru (уважаю людей их создавших, но не верю в результат). Почему то общепринято, что низкий показатель отказов и длительная сессия на сайте это хорошо, но меня, как и одного известного киногероя терзают смутные сомнения, и я придерживаюсь мысли Суворова. Если смотреть по логике, то эти параметры ПФ действительно должны говорить о качестве сайта, но мой годовалый эксперимент доказывает обратное, заставляя сомневаться в истинном смысле бытия.
В начале становления этого блога на нём была представлена подборка справочников и софта для оптимизации работы компьютера (ну никак это не мешает заработку), кое-что из этого до сих пор доживает свой век в недрах сайта. Так вот, была у меня страница (есть и сейчас, но закрыта от индексации) о справочнике «50 полезных программ для компьютера», которая никак не продвигалась и вообще я смутно помню, как я её опубликовал.
Учитывайте нюансы:
- Поведенческие факторы работают по совокупности,
- Критерии оценки различаются для разных ниш,
- Некоторые важные ПФ не отследить напрямую.
В один прекрасный день ВЧ-запрос «полезные программы для компьютера» стал в топ-3 Яндекса и по нему пошёл трафик. Всё бы ничего, но посетители искали программы, а получили справочник, а значит, процент отказов был около 80-85% при мёртвой глубине и такой же живой длительности сессии (рис 1).
Сразу я логично подумал (тогда верил в логику), что скоро ПФ скажется и запрос уйдёт в глубины выдачи, и не будет портить мне статистику, но этого не случилось ни через месяц, ни через три и пришлось воспользоваться META и закрыть страницу от индексации. Суть проста, как армейская портянка – продвижению запроса способствовал только высокий CTR в выдаче, а все внутренние параметры ПФ были побоку. Отсюда вывод номер один – как может эффективно использоваться накрутка поведенческого фактора, когда доподлинно неизвестны критерии, по которым он влияет на ранжирование с учётом тематики и иных особенностей сайта?
Варианты накрутки
Приведённые выше в пример, сервисы по накрутке ПФ предлагают (Юзератор точно) ручную и автоматическую накрутку ботами. Про последний вариант даже объяснять не буду, а вот про ручную накрутку стоит сказать два слова. Как известно, у поисковых систем есть масса инструментов для отслеживания действий пользователя, и они прекрасно знают, какие у него юзерские интересы и предпочтения. С учётом этого, коли у юзера основной интерес домашние животные, то и его фактор посещения подобных сайтов будет цениться выше, чем тот, когда он посещает раз в два года выдачу в поиске инструкции по настройке смартфона.
Кроме этого юзеру надо заработать, а значит, он должен пройтись по накрутке, как минимум, сотни сайтов и мне кажется, что тематика их будет разной. Отсюда вывод номер два – ценность такого визита (даже если убрать другие негативные моменты) минимальна, ибо ранжировать выше сайт, который нравится тому, кому нравится всё, ПС не будет.
Суммируя вышесказанное, замечу, что в теории накрутка поведенческого фактора может давать результат, но на практике лично я не вижу вариантов при массовом подходе, при которых ПС поверять в ценность страниц исключительно на основании накрутки пользователями, не имеющими собственного тематического акцента.