Легенды и мифы Google

Опубликовано:

Основная проблема интернет-маркетинга в том, что продвижение сайтов приходится основывать на предположениях, а не на точных сведениях о действующих алгоритмах поисковых систем.

Поисковые компании тщательно скрывают истинные принципы своей работы, чтобы “продвинутые” веб-мастера не могли эффективно манипулировать алгоритмами в целях недобросовестного получения преимущества в результатах поиска по запросам.

Поэтому продвижение сайта по большей части основано на догадках, сделанных в результате наблюдения за событиями, происходящими с сайтами при изменении тех или иных параметров проектов.

Мнения seo-оптимизаторов vs. утверждения сотрудников Google

Ситуация неопределенности в сфере SEO приводит к появлению множества мифов о том, как работают алгоритмы Google и какие действия необходимо предпринимать для продвижения. Создание сайтов производится тоже под алгоритмы поисковиков, чтобы улучшить продвижение, а когда проект основан на ложных предположениях – неизбежны ошибки, ведущие к снижению эффектности ресурса.

  • “Песочница”. Веб-мастера полагают, что медленное продвижение молодых проектов обусловлено тем, что Google специально придерживает новичков. На это сотрудники Google говорят, что никакой Песочницы не существует. А проблемы продвижения новых сайтов обусловлены тем, что гуглботы в течение нескольких месяцев собирают и анализируют информацию о ресурсе и из-за этого происходят колебания в ранжировании.
  • Веб-мастера постоянно говорят о фильтрах Google для выявления и понижения в ранжировании сайтов, применяющих серые методы SEO. Сотрудники Google говорят, что никаких специальных фильтров против серого SEO нет и корректнее было бы говорить о применении целого комплекса инструментов оценки качества сайтов, что в итоге и приводит к повышению или снижению позиций в выдаче.
  • О поведенческих факторах сегодня не говорит только ленивый. Так вот, сотрудники Google неоднократно заявляли, что такие события, как отказы от просмотра, малое число просмотренных страниц, короткие сессии – никак не влияют на ранжирование. И что вообще Google не предполагает использовать поведенческие факторы в поиске и ранжировании сайтов.
  • Семантическая разметка гарантирует расширенный сниппет. На самом деле на формирование сниппета влияет множество факторов и в этом процессе участвует несколько алгоритмов. Например, если сайт применяет seo-ссылки для продвижения – расширенный сниппет автоматически отключается, даже если HTML-код валидный и выполнена семантическая разметка.
  • Ошибка 404 ухудшает ранжирование. Сотрудники Google заявили, что наличие ссылок на несуществующие веб-страницы никак не влияют ранжирование. Даже если на сайте сотни и тысячи ошибок 404 – это не оказывает никакого влияния на ресурс. Дело в том, что веб постоянно меняется и исчезновение каких-либо страниц – это обычное явление, а не проблема веб-мастера.
  • Наказание за прежние нарушения. Например, сайт использовал SEO-ссылки и был за это наказан. После удаления всех seo-ссылок позиции сайта улучшились, но прежнего высокого уровня не достигли. Вроде бы Google продолжает подозревать проект в криминале. На самом деле суть в том, что ранее сайт высоко ранжировался именно из-за жирных seo-ссылок, которых теперь больше нет и ресурс занимает именно то положение в выдаче, которого реально заслуживает.
  • Закрытие seo-ссылок при помощи инструмента Disallow Links полностью удаляет цитирования с сайтов-доноров. На самом деле инструмент Disallow Links предназначен для закрытия от индексации толко тех входящих ссылок, которые невозможно уничтожить физически. А в общем плане Google требует, чтобы SEO-ссылки были сняты с доноров.

Продвижение сайтов в Казани будет происходить намного успешнее и быстрее, если администратор проекта хорошо разбирается в актуальных алгоритмах ранжирования поисковых систем и не будет планировать мероприятия по оптимизации на основании мифов и заблуждений.