Новости

10 типичных ошибок в SEO на стадии создания сайта

Автор Дата 28.12.2018

SEO – машина достижения высоких позиций в поисковых системах. При грамотной реализации некто позволит получать трафик и продажи, дешевые в сравнении с другими каналами привлечения.

Полет 7 назад для того, чтобы оказаться на вершине поисковых результатов, было немерено просто купить ссылки на сайт сомнительного качества и минимально протрудиться тексты. Однако с тех пор алгоритмы поисковых систем несравнимо усложнились, и для достижения успеха необходимо детально рассчитать и доработать сайт с технической, коммерческой и контентной стороны. И тутовник нас подстерегает загвоздка.

Как правило, владельцы онлайн-бизнеса на первый взгляд заказывают сайты у веб-студий, и только потом задумываются о волюм, как именно они будут его продвигать и выжимать трафик. В результате, когда они приходят за через к SEO-студиям, выясняется, что сайт требует масштабной переделки чтобы достижения хороших позиций в результатах поиска. К этому моменту донатор уже изможден работой над сайтом, ему приставки не- хочется ничего менять, а хочется в отпуск и чтобы до сей поры хорошо работало без каких бы то ни было дальнейших исправлений. Тем сильнее что многие правки касаются невидимых частей сайта, и обязанность их приходится принимать исключительно на веру. К сожалению, поминутно итогом становятся множественные компромиссы в оптимизации, что предсказуемо плохо влияет сверху результат работ по продвижению.

Для того так чтобы такая ситуация не возникала, лучше всего привяза SEO-специалиста уже на стадии разработки. Это позволит исключить молодой сайт в индексацию сразу максимально привлекательным исполнение) поисковых систем.

Однако если по какой-ведь причине возможность привлечь SEO-агентство с самого начала разработки и следа нет, нужно постараться хотя бы избежать самых распространенных ошибок. В этой статье автор приводим 10 наиболее важных из них.

Серьезные

1) Неявка адаптивной версии сайта

Такая реализация мобильной версии, в качестве кого адаптивный дизайн, официально рекомендован компанией Google (то) есть наиболее дружественный для SEO. Адаптивную верстку необходимо предугадывать уже на стадии ТЗ на разработку. В нынешнее время 52% мирового веб-трафика генерируется мобильными устройствами, и потому-то подходящая для них версия сайта – обязательное договоренность успеха бизнеса.

2) Динамические адреса страниц

Для SEO оптимальны статические человеко-понятные адреса. Сие позволяет передать поисковой системе структуру каталога и ключевое ксенологизм, основное для категории или карточки товара. Динамические а адреса передать эту информацию не могут, а к тому а часто являются причиной появления в индексе страниц-дублей разве мусорных станиц. Рекомендуется использовать их исключительно в целях технических или служебных элементов сайта (к примеру, для того разных типов сортировок), которые требуется закрыть ото индексации.

3) Домен не на защищенном протоколе

Вона уже года три как протокол https является одним с факторов ранжирования в Google. Более того, Google Chrome отмечает сайты, которые его без- используют, как небезопасные для пользователя. Переезд для новый протокол уже после начала индексации сайта возможен, однако потребует склейки старого и нового «зеркала» сайта и вызовет качан позиций сайта. Чтобы избежать этого, рекомендуется на SSL-сертификат уже на стадии разработки.

4) Использование скриптов угоду кому) отображения ключевых элементов сайта

К сожалению, многие поисковые системы полно еще не очень хорошо умеют читать скрипты, инда Google признает, что не всегда делает сие корректно. Из-за этого очень важно не нарушить баланс между красотой и стилем сайта и его пригодностью угоду кому) продвижения. Крайне не рекомендуется использовать JavaScript в целях отображения внутренних ссылок или текста на странице. Всегда ключевые элементы сайта должны быть видимыми и типично работать даже при отключенном отображении JavaScript в браузере. Близ этом вполне допускается использовать динамические элементы про улучшения дизайна.

5) Robots.txt допускает индексацию мусорных страниц и страниц-дублей

Большое часть ненужных страниц в индексе – распространенная причина плохого ранжирования сайта. Укрыть лишние страницы можно и после релиза при помощи доработки файла robots.txt, тем не менее удаляться из выдачи они могут довольно век. Проще изначально не допускать их попадание, запретив индексацию сортировок, фильтров и других по всем вероятностям ненужных в выдаче страниц. Особенно важно проконтролировать недоступность интересах поисковых роботов личного кабинета пользователей – вы но не хотите, чтобы данные ваших клиентов попали в путы?

Пример robots.txt официального сайта Ikea

6) Дубли либо — либо низкое качество метатегов на страницах

Часто нулевой сайт, ни разу не побывавший в руках SEO-специалиста, добавляется в индексацию с временными возможно ли вообще тестовыми Title, Description и Keywords, и в итоге симпатия не занимает вообще никаких позиций. Следует нести в сердце, что теги имеют значительное влияние на позиции, особенно Title и h1. Они могут состоять сформированы по шаблону, но все равно должны непременничать строго уникальными в рамках сайта и релевантными контенту страницы, возьми которой они размещены.

Также следует помнить, почто тег Description отвечает за формирование сниппета в Google, и, сделав его цепляющим, вас сможете повысить вероятность того, что среди соседей числом выдаче пользователь выберет и кликнет именно на ваш сайт.

Keywords но мы советуем вообще удалить и забыть как чудовищный сон. Этот метатег давно ни на что же не влияет, но может принести много путаницы и сим навредить.

Некритичные, но важные

7) Отсутствие микроразметки

Микроразметка поможет вы дополнительно увеличить привлекательность сниппетов в поисковых системах, выведя тама цены, рейтинги и прочую полезную информацию. Ее неимение не является критической ошибкой, но довольно не фунт изюма сразу ее предусмотреть, особенно для ecommerce проектов, чтоб сайт индексировался сразу с максимально обогащенными сниппетами.

8) Неприбытие фавикона

Фавикон это небольшая иконка, которая отображается поперед. Ant. после названием открытой страницы в браузере, в истории браузера, в закладках, а равно как в результатах выдачи ряда поисковых систем, к примеру, Яндекса. Дьявол способствует узнаванию бренда и увеличивает привлекательность сайта в результатах поиска тех систем, аюшки? его поддерживают. Создание и размещение его требует безлюдный (=малолюдный) больше 15 минут, так что крайне рекомендуется безлюдный (=малолюдный) забывать про него.

9) Некрасивая страница 404

К сожалению, у многих сайтов период ошибки 404 входит в рейтинг наиболее посещаемых страниц, особенно все еще сайт новый и в нем не найдены еще шабаш возможные ошибки. Обратите проблему в свою пользу – пусть его страница ошибки будет привлекательна и содержит ссылки возьми наиболее популярные разделы сайта, мотивируя пользователя пролонгировать. Ant. сократить путь по сайту.

10) Отсутствие карты сайта

Дама сайта в формате xml позволит роботам быстрее обойти сайт и запустить его страницы в базу поисковых систем. Она, в качестве кого правило, генерируется средствами CMS и ее создание не занимает без) (счету ресурсов. Не забудьте включить ссылку на нее в robots.txt, на иной лад ее не смогут найти поисковые роботы. Особенно с гонором наличие карты сайта для крупных сайтов, со сложной структурой и большим числом страниц.

Передайте этот список разработчику на стадии согласования технического задания, и хотя (бы) без привлечения к работе SEO-специалиста сайт будет получай базовом уровне привлекателен для поисковых систем. 

Источник: www.seonews.ru