Алгоритм Баден-Баден

Алгоритм Баден-Баден.

Поисковая система Яндекс запустила новый алгоритм Баден-Баден. Суть данного алгоритма заключается в том, чтобы отфильтровывать сайты с переоптимизированными текстами. Подробнее о принципе работы алгоритма можно узнать тут: https://yandex.ru/blog/webmaster/baden-baden-novyy-algoritm-opredeleniya-pereoptimizirovannykh-tekstov

Надо сразу отметить, что данная статья имеет попытку анализа сложившейся ситуации и основывается только на нашем мнении и наших наблюдениях развития различных алгоритмов Яндекса и принципов работы сопутствующих технологий, основанных на перцептронных нейронных сетях (машинное самообучение, искусственный интеллект).

У многих СЕО-оптимизаторов с ведением данного алгоритма возникло много вопросов и даже подчас панических настроений. Что делать дальше? Как быть с уже давно выложенными текстами на сайтах? Почему позиции на сайтах понижаются? Как теперь оптимизировать статьи под поисковые запросы и нужно ли вообще это теперь? Вопросов много, а ответов мало или их вообще нет.

Вот мы и решили не оставаться в стороне от данной темы, и именно поэтому в данной статье излагаем свой взгляд на сложившуюся ситуацию.

Попытки применения алгоритмов борющихся с переоптимизацией (переспамом) текстов были всегда. Изначально анализ таких статей исходил из процентного соотношения количества одинаковых ключевых фраз в одном документе. Много фраз - сайт получает санкции, мало фраз – сайт может существовать нормально.

Но такой подход не отвечает современным реалиям. Сегодня в основе принципов работы поисковых систем лежит искусственный интеллект, так как именно за ним будущее поисковиков.

Так, почему же именно сейчас Яндекс запустил новый алгоритм? Ведь вроде, как и раньше, переоптимизированные тексты тоже нормально отсеивались, хоть и не все, но отсеивались. Является ли это дань времени или это жесткая необходимость для проведения каких-либо новых нововведений в развитии поисковой системы? Давай попробуем разобраться в этом вопросе вместе.

Алгоритм Яндекса Баден-Баден

Многие знают, что любой результат - это следствие различных мероприятий, выполненных до этого. И даже этот результат может быть только подготовкой к следующему этапу. Теперь, чтобы понять, почему Баден-Баден появился именно сейчас, и прояснить всю картину в целом, нам придется вернуться с тобой на некоторое время назад.

17 ноября 2009 года Яндекс применяет новый подход к ранжированию сайтов, основанный на методе машинного обучения «Матрикснет». Задача данной системы заключается в том, чтобы выдавать пользователю релевантную информацию на его поисковые запросы, исходя из его же предпочтений. Для этого Матрикснет начинает собирать данные о работе пользователей с системой. И уже на основе этого, с помощью асессоров, улучшать органическую выдачу. Отвечает за данную работу алгоритм «Снежинск».

15 декабря 2010 года в свет выходит технология «Спектр», которая позволяет существенно расширить многообразие результатов выдачи под различные, схожие по смыслу поисковые запросы. Такой подход действительно дал ощутимый толчок к развитию машинного самообучения Яндекса. Алгоритм, отвечающий за работу данной технологии, был назван «Краснодар».

12 декабря 2012 года осуществлен полный переход к персонализированной выдаче. Теперь поисковая система на основе сбора данных о прошлых действиях пользователя выдает ему результаты выдачи, основанные на его постоянных предпочтениях. Для этого применяется алгоритм «Калининград». Искусственный интеллект все больше и больше набирает свою мощь, а поиск становится все более точным для каждого пользователя сети в отдельности.

12 марта 2014 года произошло знаковое событие. В этот момент впервые были отключены ссылочные факторы для Москвы и Московской области. Эту дату можно считать началом полновесного «правления» так называемых поведенческих факторов пользователей. В дальнейшем поведенческие факторы будут только набирать обороты. На данный момент их значимость в продвижении сайтов является основной.

15 мая 2015 года настала «черная пятница» для всех СЕО-оптимизаторов и СЕО-фирм (в том числе фирм «Гигантов»), которые недобросовестно эксплуатировали покупную ссылочную массу для продвижения своих ресурсов. Алгоритм «Минусинск» спустил многих так называемых «небожителей» на землю и даже ниже, указав им их реальное место в СЕО сообществе. Поведенческие факторы еще больше стали иметь значение в продвижении и работать они стали еще лучше.

Последующие два года система отрабатывалась и улучшалась. Как можно заметить, работа с 2009 года была проведена колоссальная. Введение в работу «Матрикснета» открыла новую веху развития для Российской поисковой системы Яндекс. Применение перцептронных нейросетей стало неизбежным, и вся осуществляемая дальнейшая работа, как раз, и была связана с ними. Теперь, если сложить все этапы развития поисковика как маленькие кирпичики вместе, то можно заметить, что они имеют очень четко выстроенную взаимосвязь и представляют собой как бы фундамент для чего-то большего и технически сложного по сравнению с тем, что было до этого.

Наивно полагать, что алгоритмы создавались, исходя только из веяния времени. Такие сложные технические решения обязаны соответствовать общей стратегии развития компании, рассчитанной не на один год. Как следствие, стоило ожидать нового алгоритма. Многие гадали, что это будет, и вот 2 ноября 2016 года появился «Палех».

Как работает алгоритм Баден-Баден

Алгоритм «Палех» - совершенно новый алгоритм для поисковой системы Яндекс – настоящий прорыв отечественных информационных технологий (многие говорят, что в России ничего не могут сделать конкурентоспособного, но данный пример полностью опровергает данное утверждение). На данный момент вся программная составляющая поисковой системы Яндекс является одной из самых лучших в мире, если не самой лучшей.

Задача «Палеха» - научиться понимать заголовки страниц (тег «title») чуть ли не в прямом смысле этого слова, практически также, как это делает человек. И на основе этого показывать страницу в результатах выдачи поиска по запросам схожим по смыслу, но различным по написанию к их заголовкам.

В описании принципов работы «Палеха» на сайте «ХабрХабр» (ссылка на данный материал: habrahabr.ru/company/yandex/blog/314222/) Яндекс в конце статьи выразил свое пожелание в том, что он надеется научить систему работать не только по тегам «title», а еще и по всему тексту документа. Но для решения данной задачи есть несколько объективных проблем, которые надо будет сначала решить.

Одной из таких проблем как раз и может являться переоптимизация ключевых фраз в текстах сайтов. Давай разберем, почему это происходит.

Как можно понять из статьи, выложенной на сайте «ХабрХабр», принцип работы алгоритма заключается в анализе заголовка документа – это, по сути, есть одно текстовое предложение. Следовательно, для того, чтобы система могла нормально понимать весь документ, ее надо научить анализировать в совокупности смысл сразу нескольких таких предложений.

Сделать это очень сложно, ведь при добавлении буквально двух - трех дополнительных предложений, количество вариантов логического смысла текста в целом увеличивается не просто в арифметической, а в какой-то запредельно геометрической прогрессии. Ведь каждое новое предложение может поменять весь смысл всего документа. Слова - это не цифры, а тем более великий, могучий русский язык. В любом случае такая задача решаема, это сложно, но при высоком развитии современных технологий вполне выполнимо.

Допустим, «Палех» научился распознавать смысл трех – пяти предложений. Тогда система может анализировать смысл примерно одного абзаца статьи. Для примера возьмем первый абзац данной статьи. Проанализировав его, система поймет, что в нем говорится о новом алгоритме и то, на каких принципах он работает.

Далее, идет второй абзац. Из него система узнает, что тут рассказывается об оценке сложившейся ситуации и проводится обзор различных сопутствующих технологий.

Теперь если пользователь набирает, например, поисковый запрос «как Яндекс определяет переспам», то система знает, что первый абзац вполне релевантен, ведь в базе у нее записано: «Алгоритм Баден-Баден – переоптимизация, переспам, новый, самообучающийся, пессимизация и т.д.»

Далее проверяется второй абзац. В нем ситуация аналогичная, но только подходит уже к основной фразе «искусственный интеллект». «ИИ – перцептроны, самообучение, развитие, анализ и т.д.».

Теперь система объединяет для анализа получившиеся результаты из двух абзацев и видит, что общий информационный смысл в сумме выглядит примерно так: «Баден-Баден», «ИИ», самообучение, анализ, принцип работы и т.д.

Значит, смысловое значение соответствует поисковому запросу пользователя. Это происходит потому, что сам запрос тоже разбирается на составные части, комбинируется во всевозможных вариациях.

«Яндекс переспам» - это «алгоритм», «Баден-Баден», «перцепторонная нейронная сеть» и т.д. «Как определяет переспам» - это «анализ», «переоптимизация», «принцип работы» и т.д.

Как итог, документ по данным двум абзацам соответствует смысловому значению заданного пользователем запроса.

Если двигаться к третьему абзацу, то количество возможных вариантов смысловых значений увеличивается многократно. Ведь теперь надо проанализировать сначала сам третий абзац, далее - как он подходит по смыслу со вторым, потом - как с первым (но уже в меньшей степени, потому что, первый и третий абзацы находятся в тексте на расстоянии друг от друга), и как это все выглядит в целом.

Как можно понять, для системы очень важно, чтобы данные участки текста были четко структурированы и содержали в себе конкретный и понятный смысл. Тогда она без труда сможет понять их смысловое значение по отдельности и уже эти смысловые значения скомбинировать между собой и вывести общий смысл документа.

Но если вдруг текст будет переоптимизирован, и в каждом абзаце будут находиться схожие ключевые слова и фразы, то тогда алгоритм начнет путаться и, как вывод, смысл документу будет дан однобокий только под конкретные поисковые фразы. Широкого спектра смысловых запросов выделить не получится.

Как же решить такую проблему? Ведь не для кого не секрет, что сео-тексты как раз и написаны, с учетом узконаправленности под конкретные поисковые запросы.

Решение очевидно… Надо просто «убрать подальше» такие переоптимизированные документы. Так сказать, расчистить поле для полноценной работы алгоритма с нормальными, удобными для него статьями.

Вот тут как раз и необходим «Баден-Баден», который и займется этой тяжелой работой «чистильщика».

Баден-Баден алгоритм

Конечно, представленная информация в данном материале - это только наше мнение, и оно не может быть объективным и полностью проверенным в виду малого времени жизни самого алгоритма. Но попытку разобраться в этом нововведении Яндекса мы все же постарались сделать. Как это будет на самом деле, покажет только время. Мы приглашаем всех тех, кому интересна данная тематика к обсуждениям в нашей группе Вконтакте. Заходи, мы будем очень рады общению.

В заключении хотелось бы разобрать вопрос о том, как теперь писать статьи для сайта.

Как можно заметить из данной статьи, она претерпела некоторые изменения в форматировании написания по сравнению с предыдущими материалами. Абзацы стали заметно меньшего размера, а кластеры запросов намного компактнее и по возможности практически не пересекаются между собой. И хотя концепция кластерного продвижения полностью соответствует новым изменениям Яндекса и не противоречит ей, мы все равно несколько пересмотрели стилистику написания материала. В любом случае в нашей группе мы обязательно расскажем о том, как новые изменения поисковой системы повлияли на ранжирование нашего сайта.

Существует мнение, что сейчас для продвижения в новых условиях, так называемый LSI-копирайтинг, будет давать хороший результат. Возможно, это так и есть, но об этом способе написания текстового контента для сайта мы расскажем в следующей статье. Так что будь на связи, пей ромашковый чай и не давай задерживаться плохому настроению в своем организме.

А теперь посмотри хорошее видео для лучшего усвоения материала твоим мозгом.