Алгоритм Королев

Как работает алгоритм Королев и что теперь делать.

Когда вышла статья на нашем сайте про Алгоритм Палех, мы предполагали, что будет такой же алгоритм, но только для текстовой составляющей всей веб страницы (всего сайта) в целом, а не только для тега title. И вот прошло время, и поисковая система Яндекс объявила о выходе совершенно нового поиска следующего поколения CatBoost и вместе с ним нового алгоритма Королев.

Данный алгоритм без сомнения можно считать одной из лучших в мире, существующих на данный момент, разработок в сфере машинного поиска информации в сети Интернет.

Основные принципы его работы достаточно подробно изложены на сайте ХабрХабр по этой ссылке: https://habrahabr.ru/company/yandex/blog/336094/

При ознакомлении с данным материалом, возникает сразу несколько вопросов. Давай попробуем вместе ответить на них и прояснить ситуацию. Исходя из этого, проработать общую стратегию дальнейшего продвижения сайтов и методику написания текстов (контента) для них.

Почему при введении нового алгоритма не было очень сильных колебаний в выдаче, как при введении прошлых разработок?

Алгоритм Королев Яндекс

Тут есть два момента.

Первый. Это то, что запустили Королев задолго до того, как о нем объявили официально. И за это время он уже смог обработать большую часть документов в своей базе данных. Теперь ему не надо как Палеху проводить расчеты в режиме реального времени. Ведь все смысловые показатели документов у него уже есть и остается только сравнивать их с запросами пользователей. Как следствие, исчезла сильная «качка», которая имела место быть при Палехе.

Второй. Сейчас Королев вместе с CatBoost стоит, по сути, в начале пути, как и в свое время Матрикснет. В то время (2009 год) обновленный поиск впервые начал ориентироваться на поведение пользователей. Именно с этого момента начинается эра поведенческих факторов. Поисковая система регистрировала количество переходов по тем или иным сайтам в выдаче и, исходя из этого, проводила их ранжирование. Таким образом, собиралась информация о пользователях, их предпочтениях, примерный возраст, пол и т.д.

Впоследствии, на основе этой полученной информации, алгоритм уже знал, заинтересованный (профессиональный, «качественный») посетитель зашел на определенный сайт или нет…

Выглядело это примерно следующим образом.

Допустим, ты интересуешься автомобилями и постоянно посещаешь подобные тематические ресурсы, и в один прекрасный момент находишь в поиске новый авто-сайт. Заходишь на него и проводишь там достаточное время.

Система это фиксирует (ЯндексМетрика установленная на сайте или ЯндексБраузер) и, исходя из прошлой твоей истории, определяет, что данный посетитель имеет в своих интересах «Автотематику» и его выбору можно доверять. Как следствие, сайт получает хорошие поведенческие факторы.

Проходит время, и ты вдруг решил поискать информацию про театральные постановки… Ты также заходишь на какой-либо сайт в выдаче и также проводишь на нем достаточное время. И система это тоже фиксирует. При таком раскладе сайт, конечно, получит положительную оценку, но она будет ниже той, которую бы дала система от посетителя, постоянно посещающего театральные сайты.

Сегодня новый поиск, по сути, вернулся к истокам Матрикснета, но подход к работе у него качественно улучшился. Теперь он начинает анализировать поведенческие факторы посетителя еще до того, как он нажал на какую-либо ссылку в результатах выдачи и перехода на выбранный сайт.

Такой подход позволяет намного точнее определять предпочтения пользователей и на основе этого не только фиксировать результаты, а еще и самообучаться, чтобы впоследствии показывать другим пользователям со схожими интересами более точную выдачу.

Одной из попыток использования такого метода стал выход Яндекс.Дзена (очень интересного и перспективного сервиса, с очень непонятным на данный момент подходом в технической и социальной реализации).

Вот и получается, что особо сильных общих колебаний (штормов) при введении нового поиска и алгоритма ты практически не заметил.

Почему новые оригинальные (100% копирайт по показателям различных специализированных онлайн сервисов) статьи начали плохо индексироваться в поисковой системе Яндекс?

Новый алгоритм Королев

Тут все достаточно очевидно. Дело в том, что большинство копирайтеров при создании своих произведений используют уже имеющиеся в сети информационные документы.

Чаще всего процесс работы выглядит следующим образом.

Копирайтер собирает основные «выжимки» с популярных ресурсов по нужной ему тематике.

Далее компонует их и описывает тоже самое по смысловому значению, но только своими словами.

В результате при проверке на сторонних ресурсах (антиплагиат) ему выдается результат с хорошей уникальностью. И это действительно верно, но вот по смысловому значению поисковая система четко видит (ведь в ее базе уже куда больше обработанных документов, с которыми можно сравнивать данные показатели), что текст не уникален, а собран из уже существующих многих других.

И чем больше на сайте таких статей, тем ниже общая оценка сайта в целом. Это особенно касается так называемых «Инфосайтов», которые до недавнего времени были просто чуть ли не образцовым показателем того, как надо зарабатывать деньги на использовании в них баннеров различных рекламных сетей.

Теперь такой подход не даст хороших результатов, и это правильно!

К сожалению, иногда поисковая система делает и неверные выводы. Например, при написании текста автор решил использовать какую-либо известную цитату или часть текста из уже существующей статьи в интернете.

Это часто можно встретить в технических или юридических материалах, в которых изменение текста может существенно исказить сам смысл излагаемого. Так вот, Королев может вполне легко посчитать такой текст - плагиатом и понизить сайт в результатах органической выдачи.

Эту проблему, конечно, надо будет Яндексу решать, тем более, если они хотят продолжить свое развитие (о чем будет написано далее) как международная поисковая система.

Как теперь писать тексты, если алгоритм Королев стал таким привередливым?

Поисковый алгоритм Королев

Писать тексты надо так, чтобы самой системе было удобнее их понимать. А о том, как это делать, подробно изложено в прошлых наших материалах.

- Основа написания статей - это кластерное составление участков текста с различными вариациями значений поисковых запросов в сочетании с LSI-копирайтингом. К тому же такой подход позволяет получать релевантные динамические (изменяемымые) снипеты, что также будет влиять в положительную сторону при просмотре пользователем результатов выдачи.

- Полное отсутствие рерайта и других подходов, так или иначе копирующих материалы с других документов. Конечно, это очень трудно сделать, особенно, когда тематика копирайтеру не знакома, но это и своего рода возможность профессионалам пера проявить себя. Теперь многие подходы (сео тексты) к написанию утрачивают свою значимость, и усилий к их изложению придется тратить больше, чем до этого.

- Раскрытие новых тематических вопросов и ответов на них. Такой подход позволяет лучше указать системе, на какие тематические запросы следует показывать данный документ пользователям.

Кстати, если ты заметил, то данный материал как раз и написан на основе таких составляющих.

В нем есть и кластеры запросов, скомпонованных по смысловому значению вблизи друг от друга, а это значит, перцептронам нейросети будет гораздо проще сравнивать векторные цифровые значения.

В этой статье нет никакого рерайта или взятой со сторонних источников скопированной информации. И вся статья являет собой полезный информационный материал, в котором рассматриваются некоторые специализированные вопросы и даются на них ответы в конкретной тематической нише.

- На всем этапе продвижения, особенно на начальном, важно применение методики «Крауд маркетинга». А если это сделать через двойную воронку продаж, то можно получить на сайте хорошие поведенческие факторы.

Поисковая система начнет выводить по некоторым запросам сайт на высокие позиции, и если там посетители проявят интерес к ресурсу, то положительный результат не заставит себя долго ждать.

Что ждать от Яндекса в дальнейшем?

Новый алгоритм Яндекса Королев

Тут можно только предполагать. Но основной вектор развития вполне ясен. В скором времени Королев научится вполне точно определять смысловые значения не только русского языка, но и других различных языков. На основе этого с учетом развития систем языкового перевода он сможет сравнивать и определять предпочтения людей из различных стран мира. На основе чего его база данных (знаний) возрастет в разы и станет одной из лучших, если уже ею не стала.

Возможно, будет вестись работа над пониманием смыслового значения видеоматериалов. Например, пользователь задает запрос «Видео, в котором котята засыпают». Тогда Яндекс делает поиск не на основе того, как называется видео (оно может вообще назваться по-другому - «приколы с домашними животными»), а на основе смысла самого сюжета.

Если такой подход будет реализован, то это будет одним из самых мощных прорывов отечественной iT-индустрии, не имеющих аналогов во всем мире.

Ну и напоследок, как сказал один очень хороший и позитивный человек из компании Яндекс – «Не переживайте, наши возможности превосходят фантазии очень многих…».

Чего и мы искренне всем желаем.

Не забывай про нашу группу Вконтакте, заходи, оставляй свои комментарии и будь добрее к окружающим тебя людям.