История алгоритмов поисковых систем до 2017

Здравствуйте, уважаемые читатели!history-alg

Недавно я делал доклад на тему: «Ранжирование сайтов в поисковых системах». В рамках этого доклада я рассказывал коллегам об истории развития алгоритмов поисковых систем Google и Яндекс.

В сегодняшней вводной статье я хочу поделиться собранными данными о краткой истории развития алгоритмов поисковых систем Google и Яндекс.

Статья будет короткой, но, я надеюсь, интересной.

 

Алгоритмы поисковых систем

Само собой разумеется, что ранжирование сайтов производится с помощью специальных алгоритмов, которые разрабатываются поисковыми гигантами.

И самое грустное то, что мы ничего о них не знаем. Это настолько огромные и закрытые системы, что даже сами разработчики этих алгоритмов знают лишь незначительную область работы алгоритмов.

На деле наше знание об алгоритмах поисковых систем выглядит так:

other-7-12-16-1

Справа мы, пользователи, которые хотят понять, как работает алгоритм поисковой системы :)

Хотя мы и не знаем сами алгоритмы, мы знаем некоторую их историю и нововведения, которые вносят поисковики в свои алгоритмы.

 

История алгоритмов Яндекса

other-7-12-2016-3

Как такового объявления об алгоритмах до 2008 года от Яндекса не было, поэтому считается, что первые официальные алгоритмы появились с апреля 2008 года.

Грубо говоря до 2008 алгоритмы Яндекса назывались алгоритм 1.0, 2.0…

Начиная с 2008 Яндекс запустил линейку алгоритмов, каждому из которых он присваивает названия городов.

На скриншоте ниже видны основные алгоритмы, которые внесли новые интересные особенности:

other-7-12-2016-2

 

Из всех этих алгоритмов отдельно я бы выделил Снежинск за внедрение MatrixNet (машинное обучение), Краснодар за Спектр  и Минусинск за борьбу с SEO-ссылками.

Из относительно новых алгоритмов:

  • Владивосток, февраль 2016 – появился учет адаптивности сайта
  • Палех, ноябрь 2016 — улучшение качества выдачи по редким запросам

 

История алгоритмов Google

other-7-12-2016-4

Новое улучшение алгоритмов Google выходит почти каждый месяц и каждый раз все SEO-специалисты кипишат, как бы на этот раз не попасть в бан.

Всю историю алгоритмов перечислять смысла нет. Приведу лишь наиболее интересные на мой взгляд:

  • Кофеин, август 2009 — начало индексации информации в интернете маленькими порциями. До этого анализировалась вся сеть, что было очень долго
  • Панда, апрель 2011 – алгоритм занимается чисткой рекламных сайтов, дорвеев и т.д. Анализов сайтов на качество контента, наличие дублей и т.д. Версий данного алгоритма много и он до сих пор обновляется
  • Пингвин, апрель 2012 — нацелен на борьбу с покупными ссылками. Наделал много шума, многие сайты сильно страдают от его действия
  • Колибри, 2013 — теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Москве», система понимает, что под словом «места» подразумевались кафе и т.п. заведения.
  • Голубь — улучшение поисковой выдаче на картах

 

На этом эта вводная статья заканчивается.

В следующей статье я постараюсь раскрыть тему ранжирования сайтов в поисковых системах.

До встречи в следующих статьях! 😉

Наставник по HTML, CSS, JavaScript, PHP!
Ищем авторов!
Интернет-магазин редких игрушек из мира Minecraft