Новый алгоритм Яндекса «Королёв»: очередной шаг в сторону человечности

Не так давно я опубликовал на блоге статью под названием «SEO умирает… и это хорошо!», в которой рассказывал о том, что новые алгоритмы Яндекса сильно изменили поисковую выдачу, сделали её более человечной. И вот – та-дам! – 22 августа на блоге yandex.ru/blog появляется статья, в которой нашему вниманию представляют новый поисковый алгоритм под названием «Королёв». На горизонте новые изменения, и они снова не могут не радовать.

Я коротко могу охарактеризовать «Королёва» так: это очередной шаг от безжизненного технарского SEO к живому и интересному контент-маркетингу. Подробнее – ниже. А еще сегодня я приведу небольшие комментарии, которые взял у некоторых SEO-оптимизаторов.

Как «Королёв» изменит SEO?

Внимание – ниже моё субъективное мнение как копирайтера-маркетолога. Я не стану погружаться в глубины нейросетей и рассуждать о скалярных суммах векторов. Моё дело – контент. Вот о нём и поговорим.

Я часто вспоминаю (раньше с содроганием, теперь – с облегчением) фразу одного SEO-оптимизатора, с которым мы работали лет эдак пять назад: «действуем по проверенной схеме: собираем много ключей, пишем под них много статей, потом закупаем много ссылок».

Так вот: «набивание» текстов ключами кануло в лету. Нет, не с приходом Королёва. Головы начали лететь еще давно. Алгоритм «Королёв» забил в крышку гроба, где покоится знаменитый SEO-бубен, очередной гвоздь, эдак в метр длиной и сантиметров 30 в диаметре. Пляски закончились, господа. Если вы все еще пытаетесь обмануть поисковых роботов хитроумными шаманскими танцами – будьте уверены, следующий гвоздь придется прямо в лоб вашему сайту.

«SEO сдохла, хвост облез» – а что осталось?

Остался качественный контент. Одно из главных достижений «Королёва», по моему мнению, — это новый скилл поисковых пауков, умение анализировать текст не по ключам, а по смыслу. Иными словами, читать его, почти как человек.

Теперь это уже не тупое пересчитывание фраз а ля «купить горох в Тагиле недорого». Машина пытается смотреть на текст глазами человека, который пришел на сайт в поисках информации. Смотреть и понимать, а насколько эта информация полезна? Насколько интересна? Помогает ли ответить на вопрос, решить проблему?

Нет? Тогда – фтопку. Не спасет ни оптимальная частота вхождений ключей, ни ТИЦ, ни PR.

Чувствуете? Его величество Качественный Контент уже отправил своих подданных по деревням – разбивать бубны о головы хитрожопых шаманов. Сейчас это не очень заметно, но со временем станет всё заметнее.

Попробую уместить свое отношение к смене парадигмы в одной фразе:

Раньше SEO-оптимизаторы думали о том, как нае-е поисковые системы. Сейчас пришло время копирайтерам и контент-менеджерам подумать о том, как принести пользу людям.

Где у «Королёва» дыры?

Какой бы умной ни была машина, она – машина. Робот, который работает по определенным алгоритмам. Мозг человека совершеннее – а значит, может обмануть робота.

Собственно, всё серое SEO (кто им не пользовался, тот пусть бросит в меня камень) построено на попытках найти такие «щели в заборе». Поисковые системы стали учитывать ключевые фразы – и ими сразу начали шпиговать тексты на сайтах. Появился ТИЦ – открылись биржи, где торгуют ссылками.

Казалось бы, «Королёв» более совершенен. Есть ли у него слабые места? Я считаю, что таких слабых места два:

  • Поисковые системы учитывают так называемые «сигналы» от пользователей. Фактически посетители сайтов, обычные люди, теперь (или в скором будущем) принимают участие в формировании поисковой выдачи. Увы, то, что интересно людям, не всегда отличается высоким качеством. Я думаю, что среди тех, кто ищет ту же медицинскую информацию, не так много профессоров медицины. А если в «Яндексе» наймут профессора, он не сможет оценить достоверность информации на каждом из миллионов сайтов. И роботы не смогут.
  • Поведенческие факторы – на мой взгляд, это более надежный критерий, чем плотность ключей и ТИЦ. Но и они, увы, фальсифицируемы. Если интернет-чичиков действует аккуратно, обман не будет распознан.

На этом, пожалуй, закончу свой монолог и передам слово более сведущим людям.

Дмитрий ДементийДмитрий Дементий, коммерческий писатель, постоянный автор блога «Текстерры».

«Королёв» — награда для дальновидных

Новый алгоритм «Яндекса» — подарок для владельцев бизнеса, администраторов сайтов, маркетологов, которые работают на перспективу. Точно так же обстоит дело с «Палехом», «Баден-Баденом» и всеми остальными существующими и будущими алгоритмами поисковых систем.

Всё просто: алгоритмы совершенствуются, пространства для манипуляции и обмана пользователей и поисковых систем становится меньше. Главным фактором успеха становится качество контента, достоверность и актуальность информации. Поиск дыр в алгоритмах уходит в прошлое.

Это стало заметно и понятно примерно в 2010 или 2011 году. Мы говорили и говорим об этом в блоге «Текстерры» с 2012года. А если кто-то не хочет слышать, то так ему и надо.

Что нужно знать и понимать владельцам сайтов в связи с появлением «Королёва»? Поиск учится понимать смыслы. Он старается определять релевантность страниц по качеству информации, содержательности публикаций, способности сайта решать проблемы пользователей.

Напичкивание текстов ключевыми словами или так называемый SEO-копирайтинг давно стал бессмысленным. За keyword stuffing можно угодить под санкции. А если пенальти удастся избежать, то трафика вы не получите. Люди ищут нормальную информацию, а не набор ключевых фраз. Поисковики помогают людям.

Нужно сосредоточиться на публикации исчерпывающей полезной информации. Чтобы полностью раскрыть тему, автору придется употребить все возможные и невозможные ключевые слова в нужных формах и с необходимой плотностью. Кстати, последний абзац — это полное руководство по LSI-копирайтингу.

После появления «Королёва» случилось LSI-обострение. Никакой LSI, никакие «околоключи» вам не нужны. Конечно, если вы копирайтер, модный термин помогает продать услуги дороже. Но владельцам и посетителям не нужен никакой LSI. Автор не сможет качественно раскрыть тему без использования нужной семантики.

Про ключевые слова нужно забыть. Сервисы типа Wordstat можно использовать для исследования информационных потребностей аудитории. Сосредоточится нужно на решении проблем пользователей, качественном информировании, глубоком погружении в тематику.

Дмитрий ГинцевичДмитрий Гинцевич, SEO-специалист, владелец блога dimokfm.ru

Пару абзацев об Алгоритме «Королев»

Привет, коллеги.

В SEO-сфере каждый новый алгоритм вызывает волну эмоций, массу обсуждений на тематических форумах. Так было и будет всегда :) Однако, НИКОГДА революции не происходит. Обновление алгоритмов – всего лишь УЛУЧШЕНИЕ выдачи.

Следовательно, нам (вебмастерам и копирайтерам) нужно улучшать свой продукт (сайты, и их основу — тексты).

«Королев», по заверению разработчиков, будет еще более умным. Он будет учитывать не только заголовки, подзаголовки, контент страницы, но и «векторы поисковых запросов».

Что делать и каковы последствия?

Особо не заморачиваться :)

Просто делать контент страницы еще лучше, выверенным, опираться на факты, проверенные источники, а не делать рерайт рерайта, вставляя в текст статьи 100500 ключевых слов. Рано или поздно такие странички будут сильно внизу выдачи, хотя сегодня они еще вполне нормально работают.

Нужно еще глубже копать СЯ, тщательно прорабатывать его, использовать LSI копирайтинг. По возможности нужно разнообразить ваш контент (хорошо работает инфографика, видео, опросы).

Считаю, что к месту будет виральный контент, тот который гуляет по социальным сетям (очевидно, что нейросеть сегодня становится умнее). Выдача во ВК, FC, Инстаграмме сильно зависит от лайков и репостов.

Ну и не забываем смотреть метрику, анализировать «плохие» страницы, их поведенческие факторы, и улучшать все это.

Вадим КабаевВадим Кабаев, SEO-оптимизатор компании Lead Spectrum

Почему и для чего Яндекс ввел алгоритм Королев? Какие были предпосылки?

Новый алгоритм Яндекса “Королёв” – логическое продолжение “Палеха”. Оба алгоритма ищут информацию по смыслу запроса, а не по ключам в тексте.

Голосовой поиск и юная аудитория увеличили долю редких запросов. Такие запросы вводятся единожды и не используются в дальнейшем. Длина запросов и случайное сочетание слов делают их неповторимыми. По ним нет статистики, под них не оптимизируют страницы.

Поиск по наличию ключей в тексте и поведению пользователей не мог дать релевантный ответ на редкие запросы. Яндексу нужен был новый инструмент для поиска.

На данный момент “Королёв” учится искать ответ на уникальные запросы, используя ассесорскую оценку и сигналы пользователей. В основе лежит метод машинного обучения CatBoost. Его уже обкатали в Яндекс.Дзен и прогнозе погоды Метиум.

Преимущество CatBoost перед Матрикснет, в том, что он дает более точные результаты и может производить оценку в нечисловой форме.

Как это повлияет на SEO и контент? Что изменится?

Говорить, что это сильно повлияет на SEO пока рано, алгоритм только учится. Первыми изменения увидят пользователи редких запросов.

Но предполагаю, что поисковики научатся объединять запросы по смыслу. Не будет необходимости писать под один интент несколько статей, оптимизированных под ключи с разной морфологией.

А ранее запущенный алгоритм “Баден-Баден” уже сейчас изменил контент, как в коммерческих, так и в информационной нишах. Ключи всё еще важны, но текст уже не является мешком для них. В целом предъявляемые требования поисковиков к качеству контента выросло.

В любом случае тренд очевиден:

  • Текст, максимально раскрывающий тему.
  • Текст, влияющий на поведение пользователя на сайте.
  • Текст, написанный для людей.
  • Стагнация дешёвого копирайтинга.
  • Рост спроса на качественных копирайтеров.

Какой шаг будет следующим, после Королёва?

  • Поиск по смыслу,
  • персонализированная выдача,
  • ранжирование выдачи на основе поведения пользователей.

Факторы говорят о движении поисковиков в одном направлении — это пертинентная выдача. Но это будет ещё нескоро.

Уважаемые читатели блога copy-info, а может быть, среди вас тоже есть специалисты, которые могут поделиться своим интересным мнением? Не стесняйтесь! пишите в комментариях!

С вами был, как всегда, копирайтер-маркетолог, Артем Кабанов.

Понравилась статья? Поделись с друзьями:
Комментариев: 2
  1. SlexPiter

    Судя по количеству задач на проверку позиций в SEOlib , сегодня все вебмастера ринулись проверять, как сказался новый алгоритм на ранжировании их сайтов.

    1. Артем Кабанов (автор)

      SEOlib — не слышал о таком сервисе, интересно...

Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: