Новости

Простые и эффективные способы выявления вероятности выхода запроса в ТОП

Автор Дата 07.11.2017

Превалирующая клиентов не готовы ждать отдачи от продвижения вдоволь месяцев. Поэтому быстрое получение первых результатов – одна с приоритетных задач как для SEO-агентств, так и про штатных специалистов.

Мы решаем эту задачу, делая упор в первые месяцы работы на запросах с достаточной популярностью и высокой вероятностью выхода в ТОП.

Проверим гипотезы

С целью эксперимента взяли чуть больше 100 тысяч «грязных» запросов, используя базы поисковых слов, SpyWords, Serpstat, подсказки, статистику Директа и AdWords и остальные. Спарсили запросы, соединили в одну таблицу и поставили задачу их расценить.

Существует такое понятие, как Keyword Effectiveness Index (KEI). Сие коэффициент эффективности запроса.

Что в нем обычно учитывается:

  • Наличность документов в ПС Яндекс, а именно количество фактических документов конкурентов.
  • Численность главных страниц в ПС Яндекс.
  • Вхождения в главные заголовки.
  • Ссылки.
  • тИЦы.
  • Года и так далее.

Для проверки этих и других факторов наша сестра написали скрипт, в который на вход подается:

  • формуляр запросов,
  • регион,
  • списки похожих и непохожих сайтов-конкурентов.

В свою очередь сделали возможность подать произвольные параметры доменов конкурентов: к примеру, преклонных), количество документов в индексе.

На выходе получаем:

  • Чарт похожести ТОПа. Он показывает, насколько много в ТОПе до каждому запросу сайтов, похожих на наш сайт и какое количество отличающихся
  • Медианное значение тех произвольных параметров по мнению ТОПам, которые мы подгрузили на вход.

Затем) чтоб(ы) проверить гипотезу, необходимо рассчитать корреляцию и понять, не хуже кого работает тот или иной фактор. Мы тестировали небо и земля варианты, в итоге одинаково хорошо себя показали двум корреляции:

С текущей позиции сайта. Мы берем непредвиденный сайт, не зная историю позиций, и смотрим, после каким запросам он в ТОПе. И смотрим корреляцию выросших запросов с каждым фактором.

С ростом позиций. Я берем позицию сайта год назад или полгода отступать, позицию в настоящий момент. И так же сравниваем с факторами.

Воеже иметь возможность использовать больше данных, в эксперименте наша сестра использовали корреляцию с текущей позицией.

Для оценки взяли факторы:

  • Контингент документов в ПС Яндекс [KEI]
  • Sumantra Roy KeI
  • Количество главных страниц в ПС Яндекс [KEI]
  • Ссылающиеся домены объединение LinkPad
  • Бэклинки по MI
  • Количество вхождений в заголовки в ПС Яндекс [KEI]
  • С) (малого возраста конкурентов
  • тИЦ конкурентов
  • тИЦ по похожим конкурентам
  • Majestic CF
  • Численность страниц в индексе Яндекса у конкурентов
  • Траф с органики числом MI (похожие)
  • Рейтинг Alexa
  • Похожесть

Расскажу о каждом подробнее.

Метраж документов в ПС Яндекс — это довольно интересный параметр, благодаря этому что он появился в расчете KEI от Sumantra Roy в большей мере 15 лет назад. На тот момент сие было более или менее корректно, потому почему в Google по многим запросам документов было без- так много, и цифра была адекватная.

Яндекс но на данный момент эту цифру выдает в десятках миллионов, поводу чего невозможно оценить, насколько реально конкурентный представление по этому фактору. В результате эксперимента мы получаем обратную корреляцию: нежели больше конкурирующих документов, тем лучше для нас, будто в принципе ложная история, которую никак нельзя пользоваться для оценки запросов. Формулу Sumantra Roy очень многие используют числом умолчанию. Но она неверно работает, поэтому ее требуется менять.

Вывод: Не подходит

Sumantra Roy KEI — средняя соотношение составляет практически 0%, то есть никак далеко не коррелирует с вероятностью выхода запроса.

Вывод: Не к лицу

Количество главных страниц в ПС Яндекс.

Линия трендов получай скриншоте коррелирует с точками. Точки — значения. По горизонтальной оси — сие количество главных страниц в ТОПе, по вертикали — мнение. Мы видим, что чем больше главных страниц в ТОПе — тем положение выше.

Так происходит потому, что этот консигнатор больше коррелирует с «коммерческостью» запроса. Чем более бизнесменский запрос, тем выше вероятность выхода главных страниц. Должно, продвигая коммерческий сайт, нам гораздо проще подвинуться по коммерческому запросу. Корреляция довольно сильная — достоинство 11%. Чем больше морд в ТОПе, тем даст десять очков вперед для нас. Но нам опять же сие никак не помогает, и указанный фактор мы отбрасываем.

Мнение: Не подходит

Ссылающиеся домены по LinkPad.

Средняя взаимообусловленность +5%, то есть чем больше ссылок получи конкурентов, тем хуже для нас. Все доказательно, но корреляция довольно низкая. Связано это и с тем, зачем у LinkPad сейчас слабая база, недостаточно актуальна в сравнении с другими.

Последовательность: Лучше не использовать

Бэклинки по Megaindex. Положение аналогичная, но здесь мы собирали не ссылающиеся домены, а до сей поры ссылки.

Корреляция довольно слабая — минус 4%.

Чем преимущественно ссылок для конкурентов, тем хуже для нас.

Зажим: Лучше не использовать

Вхождения в заголовки в ПС Яндекс. Средняя взаимозависимость — минус 6%. Чем больше вхождений в заголовки страниц конкурентов, тем не станет в подметки для нас. Но это уже лучше, нежели предыдущие параметры.

Возраст конкурентов. Средняя корреляция — слабое звено 11%. Чем больше возраст конкурентов, тем не выде для нас. Многие используют этот параметр и по-человечески делают.

Вывод: Можно использовать

тИЦ конкурентов. Для графике видим, что распределение по ТИЦ переставать равномерное, корреляция невысокая — минус 5%.

Чем больше ТИЦ конкурентов, тем гаже для нас.

Вывод: Лучше не использовать

тИЦ в области похожим конкурентам. В процессе исследования мы оценивали сайты конкурентов, на одно лицо и непохожие на нас. Через это получили мочь сравнивать и параметры не только по всей выборке, а всего только по похожим сайтам. В этом случае ТИЦ числом похожим сайтам показал себя заметно лучше, нежели общий ТИЦ.

Средняя корреляция составила минус 15%.

Нежели больше ТИЦ у похожих сайтов конкурентов, тем похуже для нас.

Вывод: Можно использовать

Majestic CF. Автор взяли CF и TF. ТF показал себя не очень хорошо, СF — мазово!

Средняя корреляция: минус 14%.

Чем больше СF у сайтов конкурентов, тем куда ему до для нас.

Вывод: Можно использовать

Страницы в индексе Яндекса у конкурентов.

Средняя взаимозависимость минус 14%.

Чем больше страниц в индексе конкурентов, тем похуже для нас.

Вывод: Можно использовать

Трафик с органики за Megaindex по похожим конкурентам.

По непохожим сайтам средняя взаимосвязь – слабая, по похожим – заметная, минус 11%.

Чем чище трафик с органики в индексе конкурентов, тем хуже про нас.

Вывод: Можно использовать

Рейтинг Alexa. Наш брат рассмотрели некоторые трафиковые параметры, неплохо себя показал Alexa, что для России его релевантность нам не совершенно понятна. Но в итоге параметр хорошо работает по-под оценку для Яндекса. Средняя корреляция — минус 12%. У всех сайтов отрицательная. Нежели лучше рейтинг Alexa конкурентов и выше трафик, тем поплоше для нас.

Вывод: Можно использовать

Далее я перешли к тем параметрам, которые, практически никто невыгодный использует в своей оценке.

Похожие конкуренты в ТОПе

Бери скриншоте график зависимости числа похожих документов в ТОП 20 и позиции. 

Согласно, чем больше похожих на наш сайтов, тем сверх наша позиция. Мы видим, что при большом количестве похожих сайтов на деле нет запросов ниже 20 позиции, все в ТОПе. Средняя взаимообусловленность +25%.

Это больше, чем любой из остальных параметров.

Нежели больше похожих сайтов в ТОПе, тем лучше исполнение) нас.

Вывод: Нужно использовать обязательно

Похожие конкуренты в ТОПе

Близко работает фактор по непохожим сайтам. Чем преимущественно непохожих сайтов, тем выше наша позиция. Средняя взаимозависимость минус 17%.

Чем больше непохожих сайтов в ТОПе, тем далеко кулику до петрова дня для нас.

Вывод: Нужно использовать

Рейтинг похожести.

Обратим участливость на рейтинг похожести. На скриншоте видно гидросальпинкс значений в нижней части графика там, где указатель похожести низкий и в верхней части – где он офигенный. 

Сумма параметров (кроме похожести).

Далее мы сложили все на свете значимые параметры из этого исследования, кроме похожести. Еще раз же видим, что при низкой сумме всех параметров топовые позиции неакадемично отсутствуют, преобладают низкие.

При высоком рейтинге обилие запросов в ТОПе растет. Здесь не так блистательно это видно по скоплению значений, но по видимости, если посмотреть на запросы в ТОП 10 и в соответствии с линии тренда.

Средняя корреляция — плюс 26%.

Чем повыше суммарный рейтинг по сумме параметров, тем предпочтительнее для нас.

Итоговый рейтинг

В нем мы собрали повально параметры вместе с «рейтингом похожести».

При низком итоговом рейтинге наблюдаем скопления невысоких показателей, топовые позиции растут рядом высоком суммарном рейтинге. Средняя корреляция — 35%. 

Проверим натиск работы с учетом похожести

Эта методика хорошо работает наподобие на оценку небольшой группы запросов, так и нате быструю фильтрацию списка на десятки и сотни тысяч запросов.

В тестировании использовали небольшую толику сервисов: SerpStat, SpyWords, Букварикс и Муравейник tools.

Serpstat. Числом времени затратили 4 минуты, получили 4300 запросов основных конкурентов.

Букварикс. Собрали 75 000 запросов, затратили 7 минут. Требования старались брать не нулевые, использовали фильтр через 2 и более точной частоты. 

SpyWоrds. Затратили 4 минуты, собрали 20 000 запросов.

В KeyCollector отсеяли требования с низкой частотой. Почти половина запросов отсеялась, осталось мене 55 000.

Затратили 2 минуты ручным способом. Ant. автоматический, и 1 час работал сервис.

Муравейник Tools. На доступ подали список запросов. Оценили несколько сайтов конкурентов наравне похожие/непохожие. Выгрузили итоговую таблицу.

Получили вывод в виде списка данных. Сортируя таблицу по рейтингу, да мы с тобой видим подходящие нам запросы, в ТОП 20 входит очень (нет похожих сайтов, непохожие отсутствуют. Далее мы исключаем требования с низким рейтингом. Если находим запросы с высоким рейтингом, хотя не видим здесь позиции нашего сайта, ты да я ищем причины, почему так. В большинстве случаев по сути, что на странице отсутствует эта ключевая скороговорка. Добавляем, и в большинстве случаев запрос резко вырастает.

Произведение занял 90 минут работы автомата, и только 27 минут потратили получи и распишись ручную работу. Отфильтровано 43 000 запросов по частоте, 47 000 запросов в соответствии с похожести. На выходе получили чистую семантику получи и распишись 7500 фраз. Ручная чистка без автоанализа похожести заняла бы без- меньше 5 часов (плюс такое же время автосъема частот в KeyCollector).

Отчего еще можно сделать?

Можно выгрузить список конкурентов и снарядить по нему другие параметры, которые в исследовании показали себя на правах полезные.

Для этого можно использовать A-parser, CheckTrust, RDS API и аналоги.

Просто так выглядит итоговая таблица (пока без подгрузки кластеризации):

Идеже у вас 200 запросов на продвижении, вы автоматизированный можете проверить все запросы. Но когда к вас приходит на продвижение большой интернет-магазин, у которого 20 000 запросов, не принимая во внимание подобного анализа вы будете тратить время сверху работы по запросам, которые никогда не продвинутся.

Опосля все объединяется с кластеризацией, и вы сразу видите вероятие выхода по запросу каждого кластера. Делаете упор на наиболее вероятных кластерах и получаете отдачу ото продвижения гораздо быстрее и заметнее.

Успеха вам в продвижении своих и клиентских проектов.

Источник: www.seonews.ru