Новости

Как хранить данные по оптимизации сайта: сводная таблица

Автор Дата 17.12.2017

В обсуждении с коллегами с других компаний был поднят вопрос о том, (то) есть удобно хранить данные по оптимизации сайта (семантическое шахрестан, метатеги, данные по ТЗ и их внедрению и т.п.). Я предложил свое разгадывание этой задачи, которое мне кажется наиболее удобным про работы и восприятия.

Я называю это решение «Сводная биллборд оптимизации сайта» — это хабовая таблица, агрегирующая в себя наиболее важные данные, касающиеся оптимизации сайта и помогающая сличать его продвижение.

О том, какие данные содержатся в данной таблице, расскажу в этой статье.

1. Инструменты

Дружно оговорюсь, что мы работаем в облаке Google Drive и его приложениях. Этому принимать несколько причин:

  1. С проектом работает несколько специалистов (оптимизатор, редакция-менеджер, копирайтеры и т.д.). Работать в облаке значительно быстрее, нежели перекидываться копиями документов по почте.
  2. Иногда способности могут потребоваться, когда специалист физически находится без- у рабочего компьютера, а телефон или планшет всегда почти рукой.
  3. Возможность легкой миграции данных между документами.

У нас вкушать стандартизированная структура, как хранить данные по проектам в Google Drive, с тем чтоб можно было взять нужную информацию, не отвлекая других ото работы.

Структура выглядит следующим образом:

  • У каждого специалиста упихивать папка «Проекты».
  • Для каждого проекта заводится своя папенька с соответствующим названием.
  • Внутри папки проекта есть едва стандартных подпапок и уникальные папки под потребности проекта.

Падди. 1 Структура папки проекта

2. Структура таблицы

Я составляем сводную таблицу в начале работы над проектом и дополняем ее получи протяжении всей работы.

Стандартные столбцы, используемые в таблице:

  • URL — адреса страниц. Показатели из столбца также могут использоваться в качестве якоря пользу кого функций (ВПР, СУММЕСЛИ и т.п.);
  • Структура — место страницы в структуре сайта. Модель классических хлебных крошек;
  • Тип — к какому типу относится период. Особенно актуально для интернет-магазинов, в которых ты да я выделяем такие типы, как «Каталог», «Тег», «Фильтр», «Карточка», «Информационная» и «Вспомогательная»;
  • H1 — h1 текстовка страницы;
  • Title — title страницы;
  • H2 — список заголовков h2 ради страницы;
  • Текст — пометка о статусе текста на странице в формате «Есть», «Нет», «ТЗ»;
  • Диск) — когда в последний раз производились (в) работы или планируются проводиться (п) работы по-над страницей, в формате “ММ.ГГГГ”
  • Семантическое ядро — в столбце выкладывается релегация на файл, в котором содержится семантическое ядро для того соответствующего раздела.

Кроме описанных столбцов, в зависимости ото задачи, таблица дополняется и другими данными, например:

  • Вопрос — основной запрос для страницы;
  • Группа столбцов ровно по частотностям запроса — в зависимости от сайта, могут заключаться как классические частотности (Ч, “Ч”, “!Ч”, “[!Ч]”), так и с наложением коэффициента по мнению поисковым системам;
  • Группа столбцов сезонности за последние 12–24 месяца;
  • И остальные.

С шаблоном таблицы вы можете ознакомиться по ссылке.

3. Фаршировка первичных данных

Заполнить таблицу первичными данными дозволено и руками.

Но данный способ не всегда наихудший, поэтому мы в своей работе используем Screaming Frog SEO Spider.

Я буду проявлять пример работы, основываясь на взаимодействии с данным инструментом.

3.1. Парсим показатели с сайта

Перед началом парсинга отключаем все бесполезные функции, которые нам далеко не понадобятся (Configuration — Spider):

  • Проверку изображений;
  • Проверку ресурсов (js, css и swf);
  • Проверку внешних исходящих ссылок.

Жемчужное) зерно. 2 Настройка Screaming Frog

Далее копируем XPath корневого блока хлебных крошек в сайте, если они там есть.

Для сего:

  1. Открываем внутреннюю страницу, на которой есть хлебные крошки в Google Chrome.
  2. Открываем ферма (Ctrl + Shift + i).
  3. Выделяем инспектором корневой блок хлебных крошек.
  4. В контекстном листок выбираем Copy XPath.

Рис. 3 Копирование XPath

  1. В Screaming Frog переходим в Configuration — Custom — Extraction.
  2. В открывшемся окне:
  • Выбираем XPath;
  • Вставляем скопированный оборот;
  • Extract Text.

Рис. 4 Extraction в SCSS

И парсим сайт.

3.2. Приведение данных

После того как сайт спарсится, выгружаем отчеты:

  • Пресс-релиз по HTML (Internal — HTML);
  • Хлебные крошки (Custom — Exctraction).

И переносим показания отчета в сводную таблицу.

Чтобы не перепутались показания, и колонки не «поехали», можно воспользоваться функцией ВПР.

Нас интересуют:

  • Url;
  • H1;
  • Title;
  • Хлебные крошки.

Чалтык. 5 Заполненная первичными данными таблица

Пример таблицы, заполненной первичными данными после ссылке, на вкладке «Пример».

Алгоритм дальнейшей работы целиком зависит от типа проекта, цели продвижения и выбранной стратегии.

Дедукция

После внедрения данного инструмента в свою работу автор этих строк решили многие задачи, которые остро стоят прежде каждым специалистом (все метатеги в одном месте, проверка выполнения задач и т.п.).

Надеюсь, вам подобная сводная сетка тоже будет полезна.

Если у вас есть вопросы, ладно их обсудить. 

Источник: www.seonews.ru