Как работает поиск Google? Алгоритмы Google: история развития Обновления Google: наши дни.

Как работает поиск Google? Алгоритмы Google: история развития Обновления Google: наши дни.
Как работает поиск Google? Алгоритмы Google: история развития Обновления Google: наши дни.

«Качество веб-источников традиционно оценивается с помощью внешних сигналов, таких, как гиперссылки. Мы предлагаем новый подход, в основе которого лежат внутренние сигналы, а именно корректность фактической информации, полученной из других источников. Источник, который будет иметь минимум ложных фактов, будет считаться надежным». Именно с этих слов начинается документ , опубликованный в конце февраля командой ученых-исследователей Google.

Значит ли это, что вслед за Яндексом Google намерен уменьшить влияние ссылочного фактора? Давайте разбираться с самого начала.

8 августа 2012 года Google официально запустил алгоритм семантического поиска Knowledge Graph («Граф знаний») по всему миру.

Knowledge Graph - это огромная база знаний, используемая Google для улучшения результатов поиска. Именно с этой даты концепция поиска Google сместилась в сторону семантики. Теперь вместо обработки ключевых слов алгоритмы Google пытаются понять смысл запроса. Это первый шаг к семантическому поиску, в том числе, к развитию голосового поиска Гугл.

Спустя два года Google начинает работать над созданием Knowledge Vault («Хранилища знаний») - новой, еще более обширной базы знаний, которая в перспективе заменит Knowledge Graph. Если Knowledge Graph собирает знания только из проверенных источников, вроде Википедии, то Knowledge Vault автоматически собирает и объединяет информацию со всего Интернета в единую базу знаний о мире, людях, связях и объектах.

При чем тут новый алгоритм?

В опубликованном документе сообщается, что сейчас Google никак не определяет, насколько информация на сайтах является достоверной. И если один сайт в Интернете пустит утку и, допустим, слух этот сразу подхватят другие ресурсы, ссылаясь на первоисточник, то сайт-первоисточник, скорее всего, займет достойное место в выдаче. Тем самым Google как бы косвенно способствует распространению ложной информации.

Knowledge-Based Trust - знания, основанные на доверии. Новый алгоритм будет оценивать корректность представленной на сайте информации, сравнивать ее с данными, уже имеющимися в базах знаний Google Knowledge Vault и Knowledge Graph. При этом алгоритм будет понижать в выдаче сайты, если ложных или неподтвержденных фактов будет достаточно много.

KBT vs PageRank

В документе разработчики Google представили несколько интересных экспериментов с KBT. В том числе эксперимент «КВТ против PageRank».

Разработчики сравнили KBT с традиционным PageRank. На рисунке изображены показатели КВТ и PageRank для 2000 случайно выбранных страниц. Значения обоих показателей для удобства сравнения были приведены к шкале от 0 до 1. Как оказалось, в основном значения КВТ и PageRank не коррелируют.

Разработчики более детально исследовали 2 случая, где КВТ значительно отличается от PageRank, чтобы понять, какой из алгоритмов надежнее и почему получились такие расхождения.

Исследование №1

Первый случай - низкий показатель PageRank, но высокий КВТ (нижний правый угол): чтобы понять, что именно является источником высокого КВТ, инженеры Google взяли за образец около 100 сайтов со значением КВТ около 0.9. Для каждого сайта инженеры вычленили 3 подходящих утверждения и произвольно выбрали из них 10 триплетов.

Что такое триплеты (или тройки базы знаний), лучше объяснить сразу на примере. Каждый факт состоит из субъекта, объекта и характеристики объекта. Например, Барак Обама - субъект, его гражданство - характеристика объекта, США - объект. Отсюда получаем факт: Барак Обама является гражданином США. База знаний Knowledge Vault собирает информацию о фактах с помощью аналогичных триплетов.

После этого вручную оценили каждый сайт. Из 100 сайтов 85 были признаны надежными. Однако только 20 сайтов из 85 имеют PageRank выше 0.5. Этот эксперимент доказал, что КВТ может распознать источники с надежными данными, даже если у них низкий PR.

Исследование № 2

Высокий PageRank, но низкий КВТ (верхний левый угол): инженеры Google рассмотрели 15 самых популярных сайтов, публикующих сплетни о знаменитостях. Среди них 14 имели высокий PageRank, однако для всех показатель КВТ составил меньше 50%; другими словами, они являются менее надежными, чем половина всех сайтов в Сети. Другие сайты, у которых оказался низкий КВТ - это форумы. Например, answers.yahoo.com, рассказывает о том, что Кэтрин Зета-Джонс родилась в Новой Зеландии, хотя, согласно Википедии, она родилась в Уэльсе.

Оба эксперимента показали, что KBT является достаточно надежным алгоритмом, отличным от всех традиционных (вроде PageRank) и способным выявлять сайты, публикующие непроверенные факты, а также сайты, копирующие подобный контент.

Пока сложно сказать, решит ли Google отменить ссылочное, сделав ставку на KBT, или нет. Скорее всего, если станет использвать KBT, то будут учитываться оба фактора.

Когда ждать алгоритм KBT?

Когда точно запустят алгоритм (и запустят ли вообще), пока неизвестно.

Буквально на днях Джону Мюллеру (специалисту отдела по работе с вебмастерами Google) на очередной встрече с вебмастерами в Google+ задали вопрос о том, применяется ли данный алгоритм в ранжировании (см. прямой эфир от 10 марта , 49-я минута), на что он ответил, что в штате работают много научных сотрудников, которые периодически проводят различные исследования, но это не значит, что эти разработки будут использоваться в поиске, пока это точно не более чем очередное исследование.

Инженеры Google заявляют: «Исследования показали, что наш метод может вычислить истинную достоверность источников. Мы применили его к базе данных на 2,8 миллиарда фактов, извлеченных из Интернета, и тем самым оценили достоверность 119 миллионов веб-страниц. Выборочные оценки результатов людьми подтвердили эффективность метода.
KBT обеспечивает полезный сигнал о надежности ресурса и не коррелирует с традиционными сигналами, например, с PageRank
».

Запуск KBT (если он все-таки произойдет) может стать новой эпохой во всей истории Google и, конечно, одним из важных факторов ранжирования сайтов. Но уже сейчас понятно, что алгоритм может быть применён далеко не ко всем сайтам - его действие будет распространяться лишь на ресурсы, публикующие фактический материал.

KBT - еще один сигнал, говорящий о том, что в скором времени только сайты интересные и полезные для людей будут занимать достойные места в выдаче поисковых систем. И это, безусловно, хорошо для всех.

Задумывались ли вы, как работает технология Google? Конечно, в процессе организации поисковой выдачи (SERP) задействован сложный алгоритм, основанный на множестве переменных. Но все же — сможете в простых словах объяснить принцип работы самого популярного в мире поисковика?

Чтобы разобраться в дебрях алгоритма самой сложной поисковой машины, взгляните на эту крайне полезную инфографику от quicksprout.

Вездесущие поисковые «пауки» Google заползают на некоторые веб-страницы, а затем идут дальше по ссылкам с этих страниц. Такой подход сканирования сети позволяют Google индексировать более чем 100 миллионов гигабайт информации.

Для того чтобы пользователи получали лучшие результаты выдачи, Google постоянно создает и совершенствует программы. Вот краткий список основных направлений, по которым ведется постоянная работа:

  • проверка орфографии;
  • автозаполнение;
  • поиск по синонимам;
  • общее понимание запросов;
  • живой поиск Google;
  • поисковые паттерны.

  • сколько раз на странице встречается ключевое выражение?
  • вхождение ключевого слова в Title или URL?
  • содержит ли страница синонимы ключевого выражения?
  • каков Google PageRank страницы?

Все это происходит за ⅛ секунды.

Так называемая Сеть знаний (knowledge graph) — технология, которая выдает результаты, основанные на глобальной базе данных по реальным людям, местам и связям между ними. Например: кроме сухих фактов о биографии Льва Толстого вы получите максимум интересного контента (текст/фото/видео), связанного с этой фигурой.

Удобства поисковой выдаче добавляют и сниппеты — небольшие фрагменты информации, позволяющие быстро и без необходимости перехода по ссылке понять, соответствует ли страница вашему запросу.

Прочие инструменты Google, облегчающие поиск:

Здесь комментарии излишни. Просто нажмите на иконку микрофона, и расскажите поисковой системе, что хотите найти. Но будьте аккуратны — она может ответить. :)

2. Изображения

Показывает основанные на результатах выдачи эскизы изображений.

Поиск Google позволяет задавать конкретные вопросы, и получать быстрый ответ на них.

А еще Google владеет вторым по популярности в мире поисковиком, который вы все прекрасно знаете:

Вывод

Что же сделало Google столь успешной поисковой системой? Несмотря на множество сложнейших процессов, происходящих незаметно для пользователя, Google — простой и удобный поисковик с точки зрения юзабилити. Какой бы вы ни задали вопрос, он предоставит релевантную поисковую выдачу за 1/8 секунды.

Технологии

Поиск в Google работает на основе алгоритма. Компьютеры обрабатывают данные, ища сигналы о том, что тот или иной сайт более или менее интересен и соответствует данному запросу. PageRank занимает в этом процессе большую часть, посредством которого Google и отбирает внешние ссылки, а также тексты, имеющие отношение к ним. Но Google использует также множество других сигналов для определения релевантности страницы , иначе PageRank искал бы бесконечно.

Входящим ссылкам проставляется рейтинг для различных веб-страниц. Если брать в расчет эти ссылки, то поиск дает достаточно хорошие результаты. Оттого Google и был неповторим и уникален в 1999 году, когда в результатах было меньше подобия бесконечной игры и меньше вмешательства человека.

Но сегодня все это изменилось. Алгоритм Google все больше и больше подчиняется мотивированно настроенным людям и компаниям, борющимся за него. Это как "гонка вооружений" , в которой Google проигрывает.

Еще одно событие, произошедшее на днях, играет не в пользу самого поисковика - в алгоритме от Google появились изменения, направленные на борьбу с некоторыми наиболее раздражающими загрязнителями интернета - "фермами контента", к примеру . "Гонка вооружений" продолжается.

Google настаивает на том, что он не использует напрямую запущенную недавно функцию блокировки пользователями нерелевантных результатов в браузере Chrome. Однако, когда речь заходит о том, как алгоритм работает, получается, что новое решение от Google аналогично пользовательскому запрету.

"Если взять первые несколько десятков сайтов, которые пользователи Chrome блокировали чаще всего, то 84 процента из них в новом алгоритме понижаются", - сообщают в компании.

Странное, однако, заявление. Ведь, это могло бы стать огромным стимулом для манипуляции блокировкой. Забудьте о контент-фермах, просто наймите тысячи людей, которые будут просто-напросто блокировать сайты конкурентов . Еще одна сторона "гонки вооружений".

Google же, как волшебник из страны Оз, прячется за своим могучим и таинственным алгоритмом поиска . Если хороший поиск также прост, как щелчок мыши по веб-странице, то все волшебство может испариться.

И, если, каким-то образом вы можете удалить как можно больше спама, сделав это по демографическим либо географическим показателям или даже по личным данным пользователя, то все действительно может быть достаточно неприятным. Особенно, если у Google не будет доступа к любым из этих данных. А у Facebook он будет.

Один из самых интересных экспериментов происходит уже сейчас, он касается возможности поиска по понравившимся на Facebook линкам . Результаты поиска определяются тем, что понравилось вашим друзьям на Facebook, и эти данные хранятся действительно долго.

Социальной сетью пользуются более пятисот миллионов людей, половина из которых проверяют профиль каждый день. Эти люди тратят 700 миллиардов минут на сайте и делятся тридцатью миллиардами единиц контента. Они делятся линками, и люди, чтобы проголосовать за его содержание, нажимает на кнопку "like". В целом это составляет довольно интересный эксперимент поиска c Blekko .

А теперь представьте, что Google может делать со всеми этими данными, и вы поймете, почему социальные сети сейчас так важны для него. Не "убить" Facebook, а попытаться "нейтрализовать" угрозу, чтобы следующий большой скачок в эволюции поисковика не происходил без них. В чем Google обычно плошал, так это в торговле и туризме, вот поэтому предложение от друга, к примеру, отеля в Париже, может стать в поиске результатов хорошей вещью.

Может пройти не один год, прежде чем, Facebook действительно заинтересуется поиском в полной мере. В этом бизнесе так много доходов от рекламы , что бесконечно игнорировать его также не получится. Это, собственно, и должно пугать Google больше всего.

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

В последние годы поисковая выдача сильно преобразовалась по сравнению с началом и серединой 2000 годов. Приятно видеть новые изменения, нацеленные на увеличение комфорта для пользователя. И для того чтобы в полной мере оценить сколько было проделано работы над поисковой системой мы решили собрать 34 ключевых события в истории развития Google.

Далекое прошлое

Март 1998 года . Компания Google успешно стартует вместе с Ларри Пэйджом и Сергеем Брин. Тогда же и выходит первый алгоритм ранжирования сайтов под названием PageRank.
PageRank - это величина, которая соответствует важности страницы. Расчеты весьма просты: чем больше ссылок ведут на страницу - тем выше её PageRank. Важно отметить, что вес, передаваемый страницей донором, напрямую зависит от ссылок на сам донор. Кстати, PageRank алгоритм, который работает уже почти 20 лет, хоть и в сильно измененном виде.

  • 2000 год. Запуск Google Toolbar, приложения представляющее собой панель инструментов для работы с поисковиком. Примерно в это время и появились первые беседы о SEO.
  • Декабрь 2000 года - Hilltop. Это своеобразное дополнение ПэйджРанка. Суть в том, что ссылки с релевантных по тематике сайтов значительно прибавили в весе.
  • 2001 год. Google начал разделять выдачу на коммерческие и некоммерческие запросы.
  • Февраль 2003 год - Boston. Обновление названо в честь города, в котором проходила конференция. Основное изменение: ввели ежемесячные апдейты поисковой базы.
  • Апрель 2003 года - Cassandra. Алгоритм, который первым пошатнул оптимизаторов, потому что начали наказывать за использование скрытых текстов и ссылок. С этого момента SEO, с точки зрения Google, начало «чернеть».
  • Май 2003 года - Dominic. С этого момента Google начал иначе расценивать обратные ссылки на сайт. Именно после Доминика впервые появились роботы Freshbot и Deepcrawler.
  • Июнь 2003 года - Esmeralda. Всего лишь последнее ежемесячное обновление поисковой выдачи. Каких-то серьезных изменений с выходом Эсмеральды замечено не было.
  • Июль 2003 года - Fritz. Главное изменение: с моменты выхода Фрица Google начал обновляться ежедневно!
  • Ноябрь 2003 года - Florida. Одно из очень важных обновлений, так как именно после Флориды существенная часть «зверски» оптимизированных сайтов была пессимизированна. Флорида нанесла удар по ресурсам, перенасыщенным ключевыми словами, ворованным контентом и покупным ссылочным профилем. С конца 2003 года SEO изменилось и стало более требовательным.
  • Январь 2004 года - Austin. На помощь Флориде спешит обновление Остин. Суть обновления в ужесточении борьбы с переспамленными и невидимыми текстами. Повышается требование к релевантности текста.
  • Февраль 2004 года - Brandy. Гугл начал реагировать на синонимы ключевых слов. Оптимизированные тексты стали разнообразнее, что, несомненно, украсило выдачу. Внимание, уделяемое тематичности анкорного текста увеличилось. Анализ ключевых слов изменился.

Время перемен

  • Февраль 2005 года - Allegra. Принесенные Аллегрой изменения - загадка истории. Предположительные изменения: отдельная кара за покупные ссылки. SEO продолжает чернеть.
  • Май 2005 года - Bourbon. Бурбон начал накладывать санкции на сайты с дублированным контентом, понижая их в выдаче.
  • Сентябрь 2005 года - Gilligan. Серьезных изменений Джиллиган не внес, во всяком случае заметных. Но упомянуть для исторической справки нужно - я упомянул.
  • Октябрь 2005 года - Google maps + local. Обновления, цель которых призвать предпринимателей обновлять свою контактную информацию на картах.
  • Октябрь 2005 года - Jagger. Продолжил борьбу со ссылочными манипуляциями. Теперь целью Google стали фермы ссылок, сайты, которые по доброте душевной обменивались бэклинками, и еще раз алгоритм пробежался по сомнительному ссылочному профилю.
  • Декабрь 2005 года - Big Daddy. Google предложил использовать каноникализацию, то есть выбирать наиболее подходящую страницу из потенциальных дублей. Использовать редиректы 301 и 302. Из значительных изменений - всё.
  • Ноябрь 2006 года - Supplemental Index. Расширение возможностей Google. Поисковик стал обрабатывать больше документов. Почему-то именно в этом году были замечены серьезные изменения в позицях сайтов.
  • Июнь 2007 года - Buffy. Незначительные обновления, которые не стоят вашего внимания. И ни намека на вампиров.
  • Апрель 2008 года - Dewey. Появился словно землетрясение, пошатал позиции сайтов и всё. Почему - никто не понял.
  • Август 2008 года - Google Suggest. Теперь Гугл начал выдавать выпадающие поисковые подсказки при вводе запроса в поисковую строку.
  • Февраль 2009 года - Vince. Со слов Мэтта Катса, особо ничего не произошло. Но любознательные оптимизаторы пришли к умозаключению, что ресурсы крупных брендов получили сильное преимущество.
  • Август 2009 года - Caffeine Preview. Google любезно оповестил оптимизаторов о значительных изменениях в структуре поиска, благодаря чему, отныне документы будут индексироваться значительно быстрее. В этом же году выдача стала обновляться в режиме реального времени.
  • Май 2010 года - My Day. Данное обновление порезало количество трафика с многословных запросов.
  • Июнь 2010 года - Caffeine. Вышел анонсированный ранее Кофеин. Алгоритм позволил индексировать больше страниц с большей скоростью. Теперь новые документы быстрее попадают в индекс.

Обновления Google: наши дни

  • 23 февраля 2011 года - . В День защитников Отечества вышел алгоритм Панда, некий защитник поисковый выдачи от мусора с упором на внутренние факторы. Панда масштабный, известный и нашумевший алгоритм, много раз терпел различные модернизации. То слабел, то становился сильней. Основная задача - убрать из выдачи все «некачественные сайты» вроде дорвеев и сайтов, созданных исключительно для рекламы, оставив при этом достойнейших.
  • 3 января 2012 года - Page Layout. Дополнение к Панде, анализирующее удобство просмотра документов. Цель - избавиться от навязчивой рекламы, занимающей большую часть экрана пользователя.
  • Февраль 2012 года - Venice. Обновление, которое стало учитывать региональную расположенность пользователя. Цель - показывать сайты, которые расположены к пользователю ближе других.
  • 24 апреля 2012 года - Penguin. Второй нашумевший алгоритм. Цель та же, что и у Панды, но упор идет на внешние факторы. Взял под контроль все, что связано со ссылочным профилем ресурса. Наказывает сайты либо понижая весь сайт в поиске, либо вовсе удаляя его.
  • Сентябрь 2012 года - Exact Match Domain (EMD). Редко встречающийся, но необходимый фильтр. Суть заключается в понижении низкокачественных сайтов, оптимизированных под единственный запрос, который является доменом. К примеру, сайт kupi-kartoshku.ru, где каждая страница оптимизирована под запрос «купи картошку», весьма вероятно попадет под этот фильтр.
  • Август 2013 года - Hummingbird. Сложный алгоритм. Задачей Колибри является распознавание смысла в сложных многословных запросах и подборе наиболее релевантных документов. Факторами могут служить: скрытый смысл запроса, конструкция, ваше местоположение и так далее.
  • Август 2014 года - Pigeon. В продолжение темы птиц, Голубь нацелен на предоставление в поисковой выдаче по геозависимым запросам компаний (сайтов), которые расположены ближе всего к вам. Например, если вы хотите заказать китайской лапши, Голубь подберет для вас ближайшее заведение, способное удовлетворить вашу потребность. Также в августе 2014 была объявлено, что Гугл дает небольшой плюс в ранжировании сайтам, использующим защищенный протокол типа https.
  • 21 апреля 2015 года - Mobile-friendly. Алгоритм, который отдает предпочтение отдельным страницам сайта, адаптированным под экраны мобильных устройств. Не требуют масштабирования или горизонтальной прокрутки. Одним словом, удобные для чтения с телефона/планшета. Проверить можно в Вебмастере Google.

Продолжение следует…

За последние 5 лет алгоритмы Google потерпели массу изменений. Уровень сложности подтасовки результатов поисковой выдачи колеблется между уровнями «очень сложно» и «невозможно». Поэтому единственное что остается - быть ответственным оптимизатором. Google неоднократно упоминал, что контент остается самым значимым фактором ранжирования и всегда им будет. Получается, что лучшим выходом из сложившейся ситуации является тематический трафик и продвижение очень качественными ссылками. Я рад, что занимаюсь оптимизацией именно в это время. Уверен, что в 2016 нас ждет много новых сюрпризов.

всего

Вступление

Алгоритмы Google , основа работы поисковой системы Google. Созданный Ларри Пейджем и Сергеем Брином, Google сегодня способен найти документы на двух сотнях языках и произвести обработку данных базовых форматов (Microsoft Word, PDF, Excel и т.д.). В этой статье вспомним главные этапы развития алгоритмов Google, созданных для ранжирования веб-страниц в поисковой выдаче Google.

Алгоритмы Google: история развития

1998 год . В этот год был основан поисковик Google. В то же время был создан (PR), алгоритм работы которого основывался на передаче ссылочной массы и имел два основных параметра.

  1. Чем больше количество ссылок, ведущих на ту или иную страницу, тем выше уровень Page Rank и место, занимаемое в поисковой выдаче.
  2. Чем выше уровень Page Rank ссылающихся веб-страниц, тем больше масса, передаваемая ссылками.

Официальным создателем PR является Лари Пейдж, а владельцем патента на данное изобретение – университет Стэнфорда.

Интересный факт – многие считают, что Page Rank переводится как «ранг страницы». На самом деле это словосочетание переводится как «ранг Пейджа», создатель изобретения дал ему свое имя. В дальнейшем многие поисковики переняли идею Page Rank в качестве основы, разработав собственные аналоги инструмента.

Начало века

2000 год . Компания Google представляет широкой общественности новую разработку – алгоритм под названием Hilltop , который позволяет наиболее точно рассчитать уровень PR. Данный алгоритм читает географию и степень новизны того или иного документа. После этого Google начинает оповещать веб-мастеров о том, чтобы они не оставляли ссылки на подозрительных веб-сайтах и «линко-помойках».

2001 год . В этот год компания Google регистрирует патент на алгоритм Hilltop. На этом же этапе поисковая система делит результаты поиска для некоммерческих и коммерческих запросов.

2003 год . 15.11.13 запускается новейший алгоритм Florida, который убирает из выдачи либо понижает место страниц, содержание которых перенасыщено ключевыми фразами и словами. В этот день специалисты в области SEO поняли, что новый алгоритм поисковика понижает рейтинг страниц по следующим причинам:

  • не уникальный либо низко уникальный контент;
  • высокое содержание ключевиков в заголовках и текстах;
  • ссылки неестественного вида (покупные).

2005 год . Специалисты Google впервые пробуют персонализировать поисковую выдачу, задав за основу предыдущие запросы того или иного пользователя.

2006 год . Компания запускает усовершенствованный алгоритм, базирующийся на алгоритме под названием Orion – детище студента из Израиля. Поисковая система теперь может находить совпадающие по тематике запроса веб-страницы, не содержащие ключевиков.

С этого момента Google начинает «уточнять» запросы пользователя, предлагая варианты, которые чаще всего ищут с данным словом. К примеру, пользователь набирает в поисковой строке слово «круг». Система предлагает ему такие варианты запроса, как «круг песни», «круг для купания новорожденных» и т.д.

2007 год . Этот год ознаменован запуском нового алгоритма Austin . Новинка способна учитывать уровень трастовости того или иного веб-ресурса и понижать в поисковой выдаче ресурсы с меньшим показателем трастовости. Таким образом, веб-сайты, которые не успели набрать траст.

Новое в 2009 году

2009 год . Разработчики Google внедряют в работу поисковой системы новый алгоритм Caffeine . Прошлые алгоритмы Google стали не соответствовать, возросшим производственным мощностям. Благодаря чему поисковик начинает намного чаще производить индексирование сайтов.

Во много раз ускоряется формирование страницы с результатами поисковой выдачи. Caffeine не сильно повлиял на формулу рассчёта релевантности, тем не менее стали заметны следующие изменения:

Постоянная индексация всего пространства всемирной паутины позволила поисковой выдаче Google стать гораздо динамичнее и меняться в течение дня.

Второе десятилетие нашего века

2011 год . Специалисты пополняют алгоритмы Google своим «мусорщиком». Это запуск алгоритма под названием Panda – первый серьезный чистильщик выдачи. Новый алгоритм «чистит» поисковую выдачу от «плохих» сайтов:

  • сателлитов,
  • дорвеев,
  • сайтов, содержание которых представляет собой лишь рекламу и ссылки,
  • сайтов с низкой уникальностью контента.

Создатели усовершенствованного алгоритма Мэтт Катс и Амит Сингал отмечают, что их новое детище учитывает следующие моменты:

  • Процентный показатель уникальности содержания определенной страницы и на ресурсе в целом;
  • Уровень шаблонности содержания, то есть схожесть текстов, написанных под различные ключевики;
  • Наличие стилистических, грамматических и орфографических ошибок;
  • Релевантность представленной на ресурсе рекламы к тематике размещенных текстов
  • Соответствие содержания тегов и метатегов веб-страницы к ее контенту;
  • Степень насыщенности размещенных текстов ключевиками;
  • Уровень качества исходящих и входящих ссылок;
  • Действия интернет-пользователя (длительность посещения сайта, число просмотренных веб-страниц, количество отказов и возвратов на ресурс).

Сегодня можно с уверенность отметить, что практически все современные поисковые системы учитывают данные факторы, в особенности – поведенческие. Чем интереснее контент сайта для интернет-пользователя, тем больше он проведет времени на данном ресурсе. Тем выше данный веб-сайт будет ранжироваться на странице поисковой выдачи.

Калибри

2013 год. В октябре алгоритмы Google пополнились новейшим алгоритмом «Колибри» — Hummingbird . Новшество данного алгоритма заключается в том, что он способен понимать даже скрытый смысл запросов. К примеру, если вы введете «купить что-либо около дома» Hummingbird по мет, что имеются в виду оффлайн-магазины.

А из интернет-магазинов он выберет лишь те, на сайтах которых максимально подробно описана информация об условиях доставки и их преимуществах. Помимо этого, алгоритм Hummingbird предпочитает длинные, подробные запросы. Но при этом по тем запросам, по которым Google не сможет «пофантазировать», выдача не изменилась.

И еще один важный момент – неуникальное, низкоуникальное и сгенерированное содержание теперь не работает.

В завершение всего стоит отметить, что российский Google – один из наиболее удобных вариантов работы поисковой системы.

В России Google не использует большую часть своих «карательных» санкций. Благодаря этому продвижение сайтов для данной системы в России намного проще, чем для других поисковиков.

Пингвин и Панда, что дальше

4.10. 2013 вышел алгоритм Пингвин 2.1

Как и ранее поисковик Google обращает внимание на подозрительные сайты и анкор-листы. Данное обновление алгоритма отразилось на ранние попадавшие под санкции алгоритма сайты. Затронуло 1% запросов.

19.05. 2014 год вышло обновление Панда 4.0

Самое серьёзное обновление данного поискового алгоритма. Затронуло 7.5% поисковых запросов.

24.08. 2014 год, алгоритм Голубь

Алгоритм обратил внимание на геозависимые запросы. Теперь, при получении геозависимого запроса поисковик Google дает наиболее информативные, локальные результаты поиска для пользователя.