Выскажу свои мысли об изменениях в оптимизации сайтов связанных с YATI (Yet Another Transformer with Improvements) Яндекса.
Постараюсь без воды и без особенно длинных вступлений.
- Сначала на что хотелось бы обратить внимание — это появление большого количества НКС (низко качественных страниц) в 2020 году.
С YATI это может быть взаимосвязано тем, что новый алгоритм анализирует целые участки текста (условно 10 предложений или меньше) и конечно, чтобы релевантность не склеивалась эти участки должны быть уникальными.
Комментарий из статьи на хабре:
Скорее всего от отсюда и растут корни большого числа НКС, которые наделали не мало шума среди сео-шников.
- Значимость тематической группы слов.
Так же из статьи «Тяжёлые нейросети для поиска по смыслу»
Как закономерность, с каждым обновлением нейронной сети работающей над смыслом запроса значимость контекстных слов (seo-шники их называют lsi-слова) возрастает.
Слова окружения особенно влияют на релевантность, когда они попадают в те самые пассажи контента, которые съедает YATI.
На моём сайте есть инструменты, которые помогут вам проработать страницу, улучшив её семантический охват: Поиск LSI фраз, LSI пригодность текста, Поисковые подсказки, Кластер по ключевому слову и Расширение семантики.
- Следующий момент это стримы — дополнительные контентные признаки, которые поиск Яндекса умеет ассоциировать с запросом и документом (запросный индекс, анкоры входящих ссылок и многие другие).
Стримы вновь получили высокую значимость, только теперь уже в качестве входов новых нейронных сетей.
О чём это может нам говорить?
Работаем с семантическим охватом нашего запроса не только на документах, но и в структуре ссылок (тут сразу в голову приходят «Семантические коконы», рекомендую статью от DrMax к прочтению).
Касаемо ПФ (поведенческих факторов), теперь каждое ваше действие на пути достижения цели с использованием поисковой системы Яндекса может иметь влияние на ранжирование.
Негативная сторона этого момента связана с тем, что приход YATI открыл новые двери для накрутчиков ПФ, но всё же стоит признать — закрыл старые.
- Можно ли в 2021 году использовать JavaScript для закрытия контента?
С приходом YATI сотрудник Яндекса впервые открыто заявил, что они наконец начали читать контент в JavaScript на сайтах.
По моим наблюдениям это так, но только для 1% сайтов — агрегаторов или тех, в которых весь контент находится в JavaScript.
В 99% случаев пока контент закрытый от Яндекса в JavaScript пока не попадает в индекс.
В заключении.
Поисковая выдача действительно изменилась, и на мой взгляд так же глобально, как с переходом от функционального ранжирования (BM25) к машинному обучению (Матрикснет).
Причём эти изменения выдачи больше связаны именно с подготовкой к переходу на YATI, чем с работой самой этой нейросети.
По моим наблюдениям процент, который получила YATI больше процента Палеха или Королёва.
Но значимость прежних алгоритмов всё ещё имеют большой вес и многие старые технологии оптимизации всё так же работают, но добавились новые нюансы и даже дыры в ранжировании, о которых в открытых пабликах на данный момент почти нет информации.
Всем успешных проектов!