Обновлено 22.03.2022
Соответствие результатов поиска запросу пользователя обеспечивают алгоритмы поисковых систем. Они представляют собой формулы анализа контента, с помощью которых поисковик принимает решение о месте страницы в результатах поиска.
Алгоритмы отсеивают нерелевантные страницы и сайты, на которых использованы запрещенные методы оптимизации (избыток запросов, покупные ссылки, например). Требования поисковых систем различаются — каждая имеет собственный механизм выстраивания рейтинга сайтов в выдаче.
Несмотря на постоянные обновления, поисковый алгоритм «Яндекса» продолжает совершенствоваться. Значимым обновлениям присваивается название города, среди них:
Последующие обновления, среди которых «Конаково», «Обнинск», «Краснодар», «Калининград», «Дублин», позволили индексировать страницы «ВКонтакте». Появилась программа защиты авторского контента, доработки улучшили качество выдачи. Анти-спам фильтр «Минусинск» был внедрен значительно позже. С 2019г почти не встречается на практике. Теперь поисковик пессимизирует ресурсы, злоупотребляющие покупными ссылками, низкокачественным контентом (анти-спам фильтр Баден-Баден).
YATI или Yet Another Transformer (with Improvements) — действуйщий алгоритм, и его модификация Y1
Y1. Новая версия, которая объединяет 2 000+ улучшений, которые внедрялись на протяжении нескольких месяцев. Основа: технология нейросетей-трансформеров и алгоритмы YATI и YALM. YALM — языковая модель, способная генерировать тексты в заданной стилистике.
Основные возможности: быстрые ответы (более число), поиск внутри видео, оценка сайтов и бизнесов по отзывам, визуальный поиск, повышение безопасности.
Языковые модели и ранее использовались в поиске. YALM просто более мощная версия, способная быстро обучаться и учитывать стилистику на нескольких примерах.
Поисковые алгоритмы Google дорабатывались много раз. Сначала место в выдаче зависело от числа внешних ссылок на основе показателя PageRank. В 2003 году запущен алгоритм Florida с новыми требованиями к качеству текстов — в рейтинге понизились страницы с избытком ключевиков.
Обновления Orion, Austin и Caffeine, которые появились в последующие три года, оценивают качество ресурсов на основе комплекса факторов. Главное требование системы Google — ресурс должен быть сделан для людей, а не для поисковых роботов.
Действующий алгоритм — Google BERT (Bidirectional Encoder Representations from Transformers — двунаправленная нейронная сеть кодировщик) опирается на использование нейросетей и предназначен для улучшения понимания запросов на естественном языке и стоящего за ними намерения пользователя. Он помогает поисковой системе определить значение слов с учетом контекста всего предложения. Его внедрение должно позволить поиску обучиться находить более релевантные результаты, а пользователям — задавать более естественные запросы.
Требования Yandex и Google совпадают: в обоих случаях поисковая система определяет полезность контента для пользователя и исключает из результатов опасные сайты. Но «Яндекс» открыт для вебмастеров — в официальном блоге выкладывается информация по новым требованиям и изменениям в работе системы.
Сотрудники «Паньшин Групп» готовы ответить на интересующие вопросы по созданию и продвижению web сайтов, обращайтесь!