Новости

BDD 2018: Как загнать сайт под фильтр без ПФ и ссылочного. Конкуренция в сложных нишах и методы защиты

Автор Дата 31.08.2018

9-11 Густа в Калининграде прошла шестая ежегодная конференция по царство безграничных возможностей-маркетингу и заработку в сети Baltic Digital Days 2018.

В рамках секции «SEO в Европе и США» Митяха Петренко (Head of SEO edu-cash.com) представил доклад «Как затуркать сайт под фильтр без ПФ и ссылочного. Соревнование в сложных нишах и методы защиты».

В ходе выступления Митрюша рассказал, как он нашел возможный способ отдать под фильтр Google даже самый трастовый сайт.

Митрюша работает в нише essay – одной из самых конкурентных ниш получи Западе. Особенностью этой ниши является то, как будто многие специалисты здесь занимаются «антимаркетингом» в сети с целью своих конкурентов. Вместо того чтобы тратить вяще времени на развитие своих проектов, они тратят его получи и распишись то, чтобы пессимизировать проекты конкурентов.

Свой содоклад спикер построил в формате истории, чтобы аудитории была видна все последовательность событий и было понятнее, почему команда совершала тетька или иные действия.

На старте работ главной задачей был пробка. На протяжении достаточно длительного времени для получения трафика использовались многие источники: SEO (продуктовые сайты, сателлиты, узконишевые сайты), контекстная рекламирование (AdWords, Facebook, Bing и т.д.), создавались review-сайты и т.д.

Так была также мысль, что НЧ-трафик дает аспидски хорошую конверсию в силу того, что он сильнее детальный и конкретный. Ведь когда девушка вводит запрашивание «купить платье», то определенное количество трафика полно явно хуже конвертить по сравнению с запросом «купить зеленое убранство 38 размера в горошек диаметром 5 см».

Порядка 15% всех поисковых запросов к Google делаются впервой. Более 400 млрд ключевых слов за 2017 годик Google считает новыми, это чуть больше 1 млрд в число. И эти запросы не имеют частотки. А это из чего явствует, что нужно получить с них трафик.

Что предприняли: ради получения НЧ-трафика сделали сетку со страницами, заточенными почти НЧ-запросы.

Сетка сайтов + НЧ-запросы = (целый) короб трафика

В сетках под НЧ-запросы главная рак головы – это контент. А еще более ранний вопрос: идеже взять столько семантики?

Было найдено следующее вотум: все запросы разделили условно на 4 типа (сие примерно 90% поисковых запросов в нише essay).

  1. Объединение типам и видам работ. Основные типы работ, так, Essay, paper, report, coursework, case study, dissertation etc.
  2. Общие требования. Например, «buy essay», «Do my homework», «Custom writing services», «Who can write essay for me» и др.
  3. Subjects. Бóльшая порция предметов собрана тут, например, Literature, Technology, Biology, Geography, Physics etc.
  4. Темы работы. «Shakespeare essay», «World war essays» etc.

Изложение шла о семантике, по которой нет частотки в популярных источниках. Числом такой семантике, вполне вероятно войти в ТОП, безграмотный прикладывая большого количества усилий.

Этапы создания сетки:

  • составление шаблона генерации внутренней структуры,
  • генерация разделов,
  • проецирование размещения внутренних ссылок,
  • генерация контента,
  • и самое базис – слив трафика.

Какие типы слива трафика больше всего распространены на сегодняшний день:

  • при достижении ТОПа сайтом установить 301,
  • клоакинг – 301 редирект для всех, кроме googlebot,
  • баннеры, когда-никогда любой клик по экрану превращается в переход возьми лендинг,
  • popup – не оставляет вариантов, кроме перехода сверху другой сайт, хуже всего конвертится, потому что же первый порыв пользователя – закрыть сайт,
  • кнопка Order – самый низкорослый CTR, но высокая конверсия и др.

Но ни Водан из этих способов не устраивал. Стояла назначение максимально конвертировать полученный трафик, сделать так, дай тебе у пользователей не было шока в момент перехода с домена в домен из-за дизайна или чего-так еще. В результате было принято решение сливать движение через iframe.

Схема работы такая: сайт, каковой выходил в ТОП, содержал один контент, а человек, заходивший держи этот дор, видел совершенно другой сайт, который-нибудь выводился поверх экрана.

В результате получили:

  • максимум трафика получи и распишись целевой ленд,
  • люди не пугались непривлекательного дизайна,
  • повысилась шанс конверсии трафика за счет UX и дизайна,
  • минимизировали невыгода трафикаа после попадания на order-form.

Пробка начал потихоньку литься и превращаться в конверсии:

Этот проверка проводился в конце осени 2017 года и фактический включение сетки произошел за 4 недели до новогодних праздников.

А 3 января например в 10:56 сайт ушел в бан.

Справившись с первым шоком, группешник стала рассматривать возможные причины:

  • жалобы конкурентов в Google,
  • DMCA (англ. Digital Millennium Copyright Act  Закон об авторском праве в цифровую эпоху),
  • некачественное ссылочное, которое могли послужить причиной конкуренты,
  • подклейка зеркала с фильтром.

Ни один изо них в итоге не подтвердился.

На следующий гемера пришло письмо от Google, где говорилось, отчего страницы сайта удалены из выдачи. И вернуть сайт в ТОП дозволяется только заменив контент (а это ~1500 страниц).

Изучив причины, обнаружили, в чем дело? этот фильтр можно получить за дублированный, сгенерированный река «нечитабельный» контент. Но дело в том, что тексты были круглый уникальными даже на момент бана сайта. Контент был написан копирайтерами, вычитан редакторами. И со 100% уверенностью не запрещается утверждать, что контент не был скопирован с какого-так другого сайта.

В такой ситуации логично предположить, что-то как раз сайт стал жертвой копирования контента. Так анализ страниц с помощью плагиат-чекеров показал, что-нибудь все страницы на 100% уникальны. Была вероятие, что плагиат-чекеры еще не обновили базу, благодаря этому начали искать фразы по запросу с оператором «» в Google. Целое оказалось идеально, сайт имел совершенно уникальный контент, аж по мнению самого Google.

Есть важный особина: когда получаешь сообщение о наложении фильтра от Google, с ним ни в коем случае не приходится вступать в спор. Во-первых, потому что ответят в лучшем случаем из-за пару недель. А во-вторых, ответ будет шаблонным, не велика птица не подскажет, что же у вас не в такой мере.

Так что следующим шагом стала проработка самых нереальных вариантов, расследование всех действий за последние полгода-год. В текущий момент команда и вспомнила про сетку с iframe. Же поверить в это было сложно, потому что конец возможные варианты касания GoogleBot`а с контентом были закрыты. Отображаемый сайт лежал в JS, а JS был закрыт всеми возможными путями, в т.ч. и в robots , и в .htaccess.

Сие было реально только:

  • если гуглбот действительно научился дешифрировать JavaScript (потому как ранее этот факт имел не более мифические подтверждения и, кроме заявления представителей Google, практически все эксперименты доказывали, что JS GoogleBot не читает другими словами же если и читает, то не корректно);
  • если только GoogleBot действительно считает robots.txt рекомендациями, а не обязательными указаниями. (Фактические подтверждения этому были, а на практике это были чаще исключения, нежели правила).

В Справке Google, уже давно было описано, ась? «инструкции robots.txt носят рекомендательный характер».

То кушать JS, который был закрыт и в robots, и в .htaccess, и вообще повсюду, все равно был прочитан. Была сделана микросетка на 250 сайтов, на каждом из которых было хоть по 30 000 страниц. Каждая страница отображала в iframe главную страницу основного домена, много должен был сливаться трафик. В результате, когда GoogleBot пришел, дьявол увидел это. Но ему дали рекомендацию далеко не индексировать содержание iframe, поэтому контент он увидел, да в индекс не добавил.

То есть Дмитрий получил фильтр вслед за дублирование своего же контента, который фактически мало-: неграмотный находится в индексе.

Что можно предположить, зная сие?

Получается, если не знать о существовании сетки, было бы демократично невозможно предположить, какой именно контент дублируется, вследствие чего что в индексе дублей сайта найти невозможно.

Словно только убрали iframe и отправили запрос на повторную проверку, фильтр ушел:

С тем чтоб убедиться, что это не ошибка и не случайность, банда Дмитрия провела эксперимент.

Чтобы обеспечить чистоту выпись, были выбраны сразу два домена, которые лежали в личной сетке, и счет повторился. Наложили санкции – пришло письмо от Google –убрали iframe – радиозапрос. Ant. ответ на проверку – через 10–14 дней вышли с-под фильтра.

Что удивительно, в момент бана основного домена все сетка продолжала находиться в индексе и приносила трафик.

Все разница между исходным кодом сайта, который видит Google и кой видит человек, в элементе div id=”preloader”. Если на сайт заходит муж (совета), а не бот, JS-обходчик видит это, запускается деятельность div id=”preloader” и загружается переменная U. В следующем JS – JQuerry – в самом низу заключение лежит продолжение с переменной U. Именно этой переменной U присваивается заваливание страницы, которую нужно показывать человеку. Чисто технически сие все. Этим и отличается основной домен, который видит Google, ото дорвея. По сути, исходный код не меняется, приставки не- используются «сильно палевные» теги.

Исходный код дорвея, который-нибудь видит бот

Исходный код с iframe

Механика исполнения:

  1. Происходит заваливание сайта.
  2. В этот момент обходчик определяет, кто пришел – бот может ли быть человек.
  3. Если бот, то JS не загружается и молодчик div id=»preloader» остается пустым.
  4. Если это реальный абонент, то происходит обращение JS и происходит загрузка функции div id=»preloader» в исходном коде.
  5. Возле загрузке div id=»preloader» происходит следующее: «Основа js»: $( document ).ready(function() {$(‘#preloader’).load(u)}).
  6. Вторая глава – подключается в другом месте. Т.е. после того как HTML загружен в div id=»preloader» запутать HTML, который указан в переменной «u».
  7. var u = «/wp-admin/{{theme_name}}/edit.php{% if query is not empty %}?query={{query}}{% endif %}»;var style = «»;var utm = «»;var prc = «»;.

Словно от этого защититься?

  1. Всеми возможными способами возбранить выкачивать свой сайт (насколько это будет как я погляжу).
  2. Запретить отображать сайт через iframe.
  3. Отслеживать автоматом самобытность контента и автоматически отправлять жалобы DMCA (англ. Digital Millennium Copyright Act  Закон об авторском праве в цифровую эпоху).
  4. Превращать внимание на скачки трафика и изменение конверсий (сайт могут клоачить, используя IP сайта).

Равно как запретить отображать сайт через iframe:

  1. Запрет iframe с подачи JavaScript
  2. Запрет iframe через заголовок X-Frame-Options

Подробнее о томишко, как это сделать.

Дмитрий Петренко заметил, что-что одной из самых больших глупостей было так, что они решили отображать основной продвигаемый в ТОП сайт нате дорвеях.

Ошибка была сделана на самом старте. Стоит было просто положить его на отдельный землевладение, закрыть от индексации и начать показывать как особый сайт. Даже если бы туда прилетел фильтр, сие не стало бы такой катастрофой. 

Еще в большей мере классных обзоров читайте здесь.

Источник: www.seonews.ru