Здравствуйте, уважаемые читатели!
Недавно я делал доклад на тему: «Ранжирование сайтов в поисковых системах». В рамках этого доклада я рассказывал коллегам об истории развития алгоритмов поисковых систем Google и Яндекс.
В сегодняшней вводной статье я хочу поделиться собранными данными о краткой истории развития алгоритмов поисковых систем Google и Яндекс.
Статья будет короткой, но, я надеюсь, интересной.
Алгоритмы поисковых систем
Само собой разумеется, что ранжирование сайтов производится с помощью специальных алгоритмов, которые разрабатываются поисковыми гигантами.
И самое грустное то, что мы ничего о них не знаем. Это настолько огромные и закрытые системы, что даже сами разработчики этих алгоритмов знают лишь незначительную область работы алгоритмов.
На деле наше знание об алгоритмах поисковых систем выглядит так:
Справа мы, пользователи, которые хотят понять, как работает алгоритм поисковой системы 🙂
Хотя мы и не знаем сами алгоритмы, мы знаем некоторую их историю и нововведения, которые вносят поисковики в свои алгоритмы.
История алгоритмов Яндекса
Как такового объявления об алгоритмах до 2008 года от Яндекса не было, поэтому считается, что первые официальные алгоритмы появились с апреля 2008 года.
Грубо говоря до 2008 алгоритмы Яндекса назывались алгоритм 1.0, 2.0…
Начиная с 2008 Яндекс запустил линейку алгоритмов, каждому из которых он присваивает названия городов.
На скриншоте ниже видны основные алгоритмы, которые внесли новые интересные особенности:
Из всех этих алгоритмов отдельно я бы выделил Снежинск за внедрение MatrixNet (машинное обучение), Краснодар за Спектр и Минусинск за борьбу с SEO-ссылками.
Из относительно новых алгоритмов:
- Владивосток, февраль 2016 – появился учет адаптивности сайта
- Палех, ноябрь 2016 — улучшение качества выдачи по редким запросам
История алгоритмов Google
Новое улучшение алгоритмов Google выходит почти каждый месяц и каждый раз все SEO-специалисты кипишат, как бы на этот раз не попасть в бан.
Всю историю алгоритмов перечислять смысла нет. Приведу лишь наиболее интересные на мой взгляд:
- Кофеин, август 2009 — начало индексации информации в интернете маленькими порциями. До этого анализировалась вся сеть, что было очень долго
- Панда, апрель 2011 – алгоритм занимается чисткой рекламных сайтов, дорвеев и т.д. Анализов сайтов на качество контента, наличие дублей и т.д. Версий данного алгоритма много и он до сих пор обновляется
- Пингвин, апрель 2012 — нацелен на борьбу с покупными ссылками. Наделал много шума, многие сайты сильно страдают от его действия
- Колибри, 2013 — теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Москве», система понимает, что под словом «места» подразумевались кафе и т.п. заведения.
- Голубь — улучшение поисковой выдаче на картах
На этом эта вводная статья заканчивается.
В следующей статье я постараюсь раскрыть тему ранжирования сайтов в поисковых системах.
До встречи в следующих статьях! 😉