Алгоритм «Баден Баден»

Алгоритм «Баден Баден» — противостояние с SEO

Яндекс вышел на новый уровень противостояния с SEO, введя новый алгоритм, понижающий позиции сайта. Якобы, по причине переоптимизированных текстов на страницах, которые созданы специально для поисковых машин (а не людей) с целью привлечения посетителей по нужным ключевым словам.

В 2015 году уже был введен похожий революционный алгоритм «Минусинск», который вызвал не меньше ажиотажа на SEO рынке. Этот алгоритм был направлен на борьбу с покупными ссылками.  В первую очередь он ударил по биржам ссылок и многим интернет-магазинам. Как только с рынка полностью исчезли дешевые ссылки, дорогие ссылки стали оказывать большее влияние на ранжирование. Это первый фактор, который заметили многие.

Сегодня не нужно массово закупать ссылки тысячами, нужно просто отслеживать качество сайтов, ссылки с которого покупаются. Это доступно с помощью многочисленного софта и делается в считанные минуты.

  • Из первого фактора вытекает – регулярный мониторинг и ротация ссылочной массы. То есть  проверка качества доноров, которое может изменяться (например, 1 раз месяц). Если Яндекс поставил «черную метку» сайту, то необходимо снимать с него ссылку и покупать другую.  Этот процесс обеспечивает качество ссылочной массы на долгосрочный период. Вывод – покупные ссылки по-прежнему работают, но только качественные и дорогие.
  • Второй и главный фактор — очень частая ротация сайтов в ТОР 10, из-за большого количества отправленных в Минусинск.    И хаотичное построение результатов выдачи, в которых трудно заметить какие-либо закономерности. То есть, мы видим, что по конкурентным запросам в ТОР 10  могут находиться новые и не совсем качественные сайты. Зачастую пользователь не находит ответа в органической выдаче и кликает в директ– это закон жанра.

Алгоритм «Баден Баден»

22 марта 2017 г. Яндекс объявил о новом предлоге для понижения позиций сайтов – алгоритм «Баден Баден».  Поисковая система поясняет, что позиции сайта понижаются, если на его страницах выявлены некачественные тексты, написанные не для людей, а для поисковой машины. Более никаких пояснений Яндекс не дает.

Какие именно параметры текста считаются «некачественными» — это секрет.  И не удивительно, так как реальные факторы пессимизации сайтов с текстами и их качеством очень слабо связаны. Нет ни одного фактора в тексте, который бы нельзя было обойти уже через месяц действия алгоритма, проанализировав закономерности. Это всего лишь текст, и его можно составить каким угодно способом, адаптировав под любые параметры.

Последствия действия алгоритма – главная цель поисковика.

Какое влияние в реальности окажет данный алгоритм предстоит выяснить, когда он полностью проявит себя.   В результате совокупности нововведенных алгоритмов, выдачу будет «штормить» еще чаще. Это значит, что еще большее количество сайтов будет уходить на «скамейку запасных» в поисках новых каналов трафика.

Если проводить аналитическую линию еще дальше, то можно предположить, что в большей степени это будет касаться продающих сайтов (интернет-магазины, услуги).  Именно они, как потенциальные рекламодатели, представляют непосредственный коммерческий интерес для поисковика. Больших информационных сайтов это тоже коснется, но в меньшей степени. Они не рассматриваются поисковиком, как рекламодатели. Все же, информационные сайты с большим трафиком тоже будут понижены в результатах поиска, и главные факторы, которыми будет руководствоваться поисковик таковы:

Главные факторы, по которым будут понижаться сайты.

  •  высокий объем SEO трафика непосредственно из Яндекса, например, более 3-5 тыс. в сутки.
  •  подавляющая суточная доля посетителей является SEO трафик (например, 80% и выше приходит из Яндекса), так же — широкий спектр SEO запросов.
  •  высокая доля новых и низкая доля старых посетителей.
  • — большое количество текстовых страниц на сайте в целом.
  • — похожесть страниц, большинство страниц содержит одинаковый объем и структуру текс

Еще, как вариант:

  •  ключевые слова заключены в один текст, а не разбросаны по разным блокам страницы, которая разграничена разметкой
  •  реальная переоптимизация большого количества страниц.

Влияние на факторы понижения позиций сайтов

  1. Высокий объем SEO трафика непосредственно из Яндекса, например, более 3-5 тыс. в сутки.                                          Влияние: Данный фактор можно исключить из поля видимости Яндекса путем отключения сервисов Яндекс-метрика и веб-мастер. Даже, если в этом случае, поисковик будет получать данные о seo трафике, то он не будет иметь представление об объемах и источниках остального трафика, так же, как и о его наличии. Поисковик так же не будет обладать информацией о поведенческих факторах посетителей.
  2. Подавляющая суточная доля посетителей – SEO трафик (например, 80% и выше из Яндекса), так же широкий спектр SEO запросов.
  3. Высокая доля новых и низкая доля старых посетителей.

Влияние: Для п.2 и 3 — то же самое, выключаем метрику и веб-мастер.

  1. Большое количество текстовых страниц на сайте в целом. Влияние: На этот фактор можно влиять путем внутренней оптимизации
  2. Большинство страниц содержит одинаковый объем и структуру текстов. Похожесть страниц. Влияние: путем внутренней оптимизации.

Таким образом, чтобы поисковик вычислил, плохой сайт или полезный, ему нужен не алгоритм с пугающим названием Баден Баден, а необходимы данные, получаемые из метрики и вебмастера Яндекса.

На все остальные факторы возможно влиять, что называется, в рабочем порядке – качественные ссылки, естественные тексты, перелинковка и т.д.

Информация о сайтах

Еще один вариант развития событий — это если поисковик начнет «расстреливать» сайты без разбора. Независимо от поведенческих факторов, показаний источников и точного количества трафика.  В таком случае ему придется вычислять сайты,  исходя из имеющейся у него информации:

  • тип и тематика сайта,
  • внутренние факторы, включая количество и качество текстов,
  • соотношение релевантных и нерелевантных страниц,
  • объем seo трафика (что сложнее, поэтому замедлит ротацию сайтов) и, собственно, все.

Абсолютно понятно, что этих данных недостаточно для представления полной картины сайта. Поисковик будет использовать лишь коррелируемые данные по общему количеству трафика. Но не в силах определить насколько сайт реально интересен посетителю. Возможно будет пользоваться старыми данными, если сайт был подключен к метрике и вебмастеру ранее. Таким образом, полученных данных не будет достаточно для контролируемой выдачи поиска в больших масштабах.

Понравилась статья? Поделиться с друзьями:
СОВЕТЫ И РЕКОМЕНДАЦИИ
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: