Кто может знать, как сайту попасть в топ поисковой выдачи, лучше самих поисковых сервисов? Именно Google  и Яндекс задают базовые правила SEO-продвижения. А значит, их нововведениям всегда нужно уделять внимание и время в первую очередь.

Тем более что в последние годы оба поисковика отличились новинками как раз в плане поисковой оптимизации. У Google целых две такие новинки. Сначала сервис сделал заявку на новый уровень, продемонстрировав миру первую «умную» систему ранжирования BERT. Ее внедрение окончательно отменило старые правила SEO, опирающиеся только на количество ключевых запросов. А уже на базе нейросети появилось недавнее дополнение PEU или Page Experience Update.

Яндекс, стремясь не отставать от главного и единственного серьезного конкурента, тоже переходит на искусственный интеллект. А значит, в погоне за трафиком уже не «спрятаться» исключительно за ключевыми фразами. И особенно за высокочастотными ключевиками.

Каким должен быть сайт, чтобы понравиться новым алгоритмам каждого из поисковиков? На самом деле, глобально ничего не меняется. Как было заявлено лет 5 назад, важна не форма с ключами, а содержание с полезными фактами и советами. Собственно, на это и нужно опираться. Тогда и технические показатели «приложатся». Осталось только разобраться, на что смотреть, дабы понять, что такое «приложение» произошло.

Google и его новый алгоритм ранжирования по пользовательским факторам

Совершенно новый, пусть и не инновационный в плане миссии алгоритм Page Experience Update более удобен в плане оценки сайта на предмет соответствия требованиям. Хотя бы потому что у него есть совершенно четкие параметры – метрики Core Web Vitals. По ним будет оцениваться пользовательский опыт веб-ресурсов. Собственно, в этом анализе веб-страниц на основании поведения читателей и заключается суть концепции.

Метрик Core Web Vitals (жизненно важных показателей веб-страницы) всего 3:

  • Largest Contentful Paint, LCP;
  • First Input Delay, FID;
  • Cumulative Layout Shift, CLS.

Загрузка основного блока содержания

Первая метрика посвящена скорости загрузки страницы, точнее, ее самых крупных объектов (Largest Contentful Paint). Нормальной считается загрузка всего основного блока за 2,5 секунды. Если страница загружается дольше, значит, ее понизят в рейтинге выдачи. Весомый повод, чтобы оптимизировать вес самых «тяжелых» объектов, включая всевозможные скрипты типа виртуальных примерочных или калькуляторов.

Задержка на этапе первого входа

Параметр First Input Delay определяет период времени между переходом пользователя на страницу – первым поведенческим действием (например, открытием карточки товара) – и реакцией на него сайта. Измеряется в миллисекундах.

Оптимальным считается значение FID в 100 мс. Если отклик сайта на запрос или действие пользователя дольше, нужно проводить технический аудит. Скорее всего, за превышение этого показателя особенно наказывать сразу не будут. Но в итоговой сводной оценке это сыграет свою роль.

Визуальная стабильность

В дословном переводе Cumulative Layout Shift – это показатель совокупного изменения страницы. То есть любые переключения на ней в период, пока она открыта на экране пользователя.

Если таких переключений (де-факто скачков и сбоев) будет не больше 2 за сессию, ресурс, скорее всего, рассмотрят как привлекательный для читателя. Оптимум установлен на уровне CLS до 0,1. Это означает, что в период всей сессии может произойти всего 1 скачок (но лучше, конечно, 0).

YATI от Яндекса

Трансформеры Яндекса (так называются его поисковые сканеры с момента выхода обновлений «Палех» и «Королев») тоже меняют свои подходы. Точнее, они последовательно переходят от старых методологий оценки материала «в лоб» к новой практике предугадывания действий пользователя.

Другими словами, нейросеть компании под названием YATI по заявлениям ее разработчиков сможет ни много ни мало – предсказать, какой из сайтов выдачи хочет выбрать читатель, что за текст лучше всего ответит ему на заданный вопрос. Конечно, подстроиться под такие намерения робота, имея в распоряжении пусть и немалый, но ограниченный «необучаемым» софтом арсенал SEO, не так просто.

Хотя, как считают некоторые специалисты, секрет здесь как раз должен быть в простоте. Если страница дает полезную информацию, «умный» алгоритм выберет именно ее. Если же на ресурсе только структурированные тексты с кое-как вставленными ключевиками, попасть в топ-5 будет сложно.

Как было раньше

Если истина познается в сравнении, то сопоставив 2 модели ранжирования – классическую и принципиально новую, – можно будет понять, что дальше делать с SEO. Так, по информации экспертов, которые отслеживали вехи эволюции алгоритмов Яндекса, раньше робот просто сопоставлял запрос пользователя и содержание на странице сайта. Чем больше в них было общего, тем выше оказывался сайт в выдаче.

При этом в помощь сканеру, который при всей своей программной старательности все равно не мог понимать содержание материалов, использовались «уточняющие» инструменты оценки:

  • спамность;
  • поведенческие факторы;
  • размеры текстов;
  • наличие разметки и многие другие моменты (всего более 200 пунктов, точное количество неизвестно).

Как будет теперь

Алгоритм YATI же, построенный на базе нейросетевых технологий и получивший способность самостоятельно обучаться, сможет не анализировать, а понимать запрос пользователя. И перефразировать его, и сужать/расширять сферу, к которой относится интересующая информация, и еще много чего.

Соответственно, понимать, что конкретно показано на продвигаемых страницах, он тоже сможет. А со временем – и сопоставлять то, насколько ответ в материале коррелирует с вопросом читателя.

Понятно, что очень быстро революции не произойдет. Но со временем YATI действительно может отменить потребность в использовании ключевых фраз в текстах. Правда, эксперты уже пришли к выводу, что коснется это лишь некоторых тем. По остальным все будет работать по-прежнему (семантика, структура, быстрая загрузка, данные об авторе и т. д.).