Новости

4 способа быстро собрать теги для сайта

Автор Дата 16.02.2018

Тегирование сайта — суд создания страниц для группировки материалов/товаров до схожим признакам.

Этот метод подходит для таких типов сайтов, словно:

  • интернет-магазины,
  •  доски объявлений,
  • информационные сайты с большим числом статей,
  • порталы.

Целями создания тегов являются:

  • подъём трафика путем создания дополнительных страниц (точек входа);
  • шаг вперед навигации;
  • рост конверсии и удовлетворенности пользователя.

В данной статье я рассмотрим способы, как можно быстро собрать теги к сайта.

Как быстро собрать теги

1. Собрать прейскурант сайтов для сбора тегов.

2. Получить теги с выбранного списка сайтов.

3. Подготовить обложка с названием тега, URL страницы, h1, title, description, хлебными крошками.

Как бы найти сайты для сбора тегов

1. Выдача поисковых систем точно по основному запросу

Вводим в поисковую систему (Яндекс, Google) первостепенный запрос, изучаем сайты на предмет тегов.

С основного запроса — «платья».

В некоторых случаях присутствуют карточная игра сайта, где имеются ссылки на страницы всех тегов, имеет ценность их поискать. Эти же сайты в дальнейшем дозволяется использовать для поиска тегов и для других запросов.

2. Экстрадиция поисковых систем по запросу для страницы тега

Вводим в поисковую систему (Яндекс, Google) просьба для страницы тега, изучаем сайты на тематика тегов.

Пример запроса для страницы тега — «платья с длинным рукавом».

3. Сервисы

Годится. Ant. нельзя использовать сервисы, где видно конкурентов со схожими ключами.

Примерно сказать — keys.so.

В качестве примера приведу список сайтов-конкурентов к интернет-магазина по продаже одежды. Параметры похожести и тематичности подбираются в зависимости ото проекта.

В данном примере:

  • Мы оставляем сайты с тематичностью через 30 %. Тематичность — сколько процентов наших ключей нет перевода на сайте конкурента.
  • Фильтрацию по похожести безлюдный (=малолюдный) производим, так как наш сайт находится получи и распишись начальной стадии развития, а конкуренты, продающие одежду, имеют безумно большое количество запросов в топе. Похожесть — процент общих ключей через всех ключей сайта конкурента.
  • Проходимся по сайтам и убираем тетенька, которые нам не подходят.

Выгрузка по фильтрам с сервиса keys.so

Как получить теги с выбранного списка сайтов

Во (избежание сбора большего количества тегов во всех способах рекомендуется оперировать как минимум несколько сайтов. Есть разные варианты, точно можно получить теги с определенного сайта.

1. Скопировать автоматизированный

Заходим на сайты конкурентов и вручную копируем названия.

Я рассмотрю тему бери примере небольшого количества запросов, чтобы было попроще воспринимать информацию, при этом максимально усложню задачу, добавив основные сложности, с которыми только и остается столкнуться. 

Создаем Excel-файл, «столбик А» называем «Название». Копируем тама теги с разных сайтов.

Теги с разных сайтов

После того удаляем явные дубли (на молнии = на молнии), понимая, аюшки? у нас еще останутся неявные дубли.

Теги минуя явных дублей

Заполняем названия остальных столбиков:

B — URL

C — h1

D — description

E — Ч

F — Ч “”

G — Трасса

Заголовки таблицы

В итоге получаем поля:

Название — прозвание тега, которое будет показываться на странице, идеже на него будет стоять ссылка. Например, для странице «Платья» выводятся ссылки на теги.

Просиллогизм тегов на сайте

URL — URL тега

h1 — h1, он же подзаголовок страницы

description — поле, данные из которого будут прилагаться для генерации метатега description

Ч — общая частотность числом Вордстату (запрос)

«Ч» — частотность данной фразы с учетом всех морфологических форм («запрос»)

Турне — расположение тега на сайте = хлебные крошки

Заполняем соответственно порядку.

h1 — к значению в поле «Название» добавляем слово «платья».

Пасхалия со значениями h1

В данном случае для генерации title используется масштаб из поля h1, поэтому он не представлен в таблице.

description — используем материал из столбика h1 и делаем первую букву маленькой. В (видах этого используем функцию «СТРОЧН» в Excel.

Таблица со значениями h1 и description

С использованием значений изо этого поля пишем генератор description.

Запросы с столбика description добавляем в Key Collector. Отмечаем неявные дубли.

Ручным способом. Ant. автоматический удаляем неявные дубли из нашей таблицы. В большинстве случаев неявные дубли встречаются в небольших количествах, поэтому сие несложно сделать.

В итоге остается:

Столбик description

URL — генерируем, используя функцию URL через Seo-Excel из поля description.

Поля для ввода данных близ генерации URL в SEO-Excel

Получаем:

Сгенерированные URL

Ч и «Ч» — снимаем частотность любым удобным инструментом иль сервисом.

Ч — используем для удаления запросов, не имеющих частотности. Исполнение) сезонных запросов можно дополнительно снимать частотность после месяцам.

«Ч»используем для понимания, не является ли этот запрос составляющей другого запроса (возможно такого запроса без- существует).

Путь — для данного проекта теги лежат в середке основного раздела.

Добавляем «Главная — Платья — » и потом в таком случае, что идет в h1.

В случае с вложенными тегами (когда Водан тег вложен в другой) путь может меняться.

Взять, для запроса «Короткие вечерние платья» путь хорошего понемножку «Главная — Платья — Вечерние платья — Короткие вечерние платья».

Список с заполненным столбиком «Путь»

Там же в зависимости с выбранного метода вывода ссылок может меняться имя:

  • если оно выводится на странице всех платьев, оно может быть название «короткие вечерние»;
  • если на странице вечерних платьев, так «короткие».

С примером, разобранным в задаче, можно ознакомиться в Google Docs.

Плюсы:

  • без затей;
  • не требуются дополнительные программы;
  • хорошо подходит ради сайтов с нестандартной URL-структурой.

Минусы:

  • больше ручной работы.

2. Парсинг программой Screaming Frog SEO Spider

Пользу кого выполнения данного пункта потребуется программа Screaming Frog SEO Spider (платная).

Набор

Рассмотрим пример парсинга тегов со страницы Платья нате сайте www.wildberries.ru.

Для начала в программе нам нужно подступить к сердцу две настройки.

Configuration — Include (Правила включения)

Семо мы добавим URL, с которых начинаются теги. Эти теги перестаньте добавлять программа.

Все теги на странице платьев начинаются с такого URL: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/

Добавляем таким образом:

https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/.*

Интервал для ввода параметров в «Правила включения» в Screaming Frog SEO Spider

Configuration — Exclude (Убеждения исключения)

Наша задача состоит в том, чтобы вычеркнуть страницы пагинации, сортировки и страницы такого типа, которые за смыслу дублируют основную страницу. Такие страницы невыгодный несут смысла для нашей задачи.

Исключаем в соответствии с элементам, которые содержатся в URL: .*%элемент в URL%.*

У меня получилось приближенно:

.*page-.*

.*page=.*

.*pagesize=.*

Окно для ввода параметров в «Правила исключения» в Screaming Frog SEO Spider

Со временем соберется ахинейский список таких параметров, и это упростит работу.

Парсинг

Вбиваем URL узловой страницы и нажимаем «Start»: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya

Пространство ввода URL в Screaming Frog SEO Spider

Получаем список изо 313 страниц тегов по Платьям с названиями.

Значения вкладки «h1» в Screaming Frog SEO Spider

А там уже можем работать с тегами h1.

Значения столбика H1-1 вкладки «h1» в Screaming Frog SEO Spider

С примером полученного результата позволяется ознакомиться в Google Docs.

Скорость ответа сервера у большинства сайтов с тегами быстрая. Потому-то скорость парсинга будет зависеть от:

  • настроек программы,
  • мощности компьютера,
  • наличия защиты с DDoS на сайтах.

Плюсы:

  • программный сбор информации.

Минусы:

  • нужна платная монитор Screaming Frog SEO Spider;
  • требуется настройка параметров исключения на страниц, дублирующих основную (пагинация, фильтры, сортировки);
  • мало-: неграмотный у всех сайтов удобная URL-структура для парсинга тегов.

3. Парсинг изо поисковой системы

Сбор страниц, начинающихся с определенного URL, с выдачи поисковой системы.

Для просмотра страниц нужно вынуть душу запрос вида:

url:%URL с которого начинаются страницы тегов%*

Хоть бы, чтобы посмотреть теги со страницы Платья получи и распишись сайте www.wildberries.ru, нужно задать запрос вида:

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*

Усечение Яндекса — не более 1000 результатов, поэтому коль (скоро) в выдаче более 1000 результатов, то парсим, каким-либо образом ограничивая объем результатов, например, побуквенно.

Если бы у нас было больше 1000 результатов, мы собирали таким образом:

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/a*

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/b*

Парсить выдачу имеется возможность через Key Collector.

Для совсем небольших сайтов близ парсинге по буквам или по каким-так небольшим кластерам можно использовать выгрузку ТОП-100 сайтов вдоль запросу в ПС Yandex от сайта Arsenkin.ru (бегом и бесплатно). Далее для этих страниц парсим h1 при помощи SeoPult.

Плюсы:

  • программный сбор информации

Минусы:

  • безграмотный все страницы, которые есть на сайте, могут составлять проиндексированы;
  • для некоторых сайтов требуется удалить страницы, дублирующие основную (нумерация, фильтры, сортировки);
  • не у всех сайтов удобная URL-устройство для парсинга тегов.

4. Парсинг по элементу URL в keys.so

Пошлина страниц с определенным URL в сервисе keys.so.

1. Делаем отчет в области сайту.

2. Смотрим отчет, где показываются все страницы сайта.

3. Фильтруем согласно полю «Адрес содержит», вбивая нужный элемент URL, так чтоб показывались только теги.

Фильтр в примере:

/catalog/zhenshchinam/odezhda/platya/tags

Люцерник для задания фильтров в сервисе keys.so

Список отфильтрованных страниц в сервисе keys.so

Дальше для этих страниц парсим h1 через SeoPult.

Плюсы:

  • сборник информации через сервис;
  • обычно отсутствуют страницы, дублирующие основную (номер, фильтры, сортировки).

Минусы:

  • нужен доступ в Keys.so (оплачиваемый);
  • сервис показывает не все страницы, которые жрать на сайте, а только те, где есть добро бы бы 1 ключевое слово в ТОП 50;
  • не у всех сайтов удобная URL-строма для парсинга тегов.

Вывод

Мы рассмотрели 4 способа быстрого сбора тегов про сайта. Эти способы позволяют сэкономить время получай сборе и создании страниц тегов, сделав это быстрее, нежели занимаясь ручной разгруппировкой семантического ядра. У каждого метода домашние плюсы и минусы. Выбор способа зависит от задачи и имеющегося набора инструментов и сервисов.

Ежели есть какие-то вопросы или предложения, ровно можно сделать лучше, предлагаю обсудить в комментариях.

Источник: www.seonews.ru