Телефон: +7 (666) 666-66-66
Вы здесь: Главная Поисковые системы Яндекс Тенденция изменения алгоритмов Яндекса в 2007-2009 годах

Тенденция изменения алгоритмов Яндекса в 2007-2009 годах

Помимо способа получения ссылок есть также корректировки алгоритма Яндекса, которые происходили в определенные периоды времени. Для того, чтобы понимать динамику и то, куда всё стремится и к чему всё придет, нужно опять же посмотреть несколько ключевых моментов. Приведем несколько моментов, которые показывают тенденцию изменения алгоритмов ранжирования по внешним факторам поисковой машины Яндекс.

Эта статья является логическим продолжением статьи об истории изменения алгоритмов Яндекса до 2007 года.

Помимо способа получения ссылок есть также корректировки алгоритма Яндекса, которые происходили в определенные периоды времени. Для того, чтобы понимать динамику и то, куда всё стремится и к чему всё придет, нужно опять же посмотреть несколько ключевых моментов. Не будем брать такие большие диапазоны как даты начиная с 2002 года, но тем не менее приведем несколько моментов, которые напрямую относятся и показывают тенденцию изменения алгоритмов ранжирования по внешним факторам поисковой машины Яндекс.

20 декабря 2007 года — возьмем эту дату за исходную для анализа сложившейся ситуации. Это дата запуска новой поисковой платформы и обновления алгоритма ранжирования Яндекса. К чему это привело? Улучшение поиска по витальным запросам, засилье старых авторитетных сайтов в топе, пенальти за использование спамных способов наращивания ссылочной массы и термин «трастранк» применительно к ранжированию Яндекса впервые возник именно в тот период времени. И, соответственно, отсутствие в конкурентных тематиках новых сайтов, как последствие появления трастранка как величины ранжирования. С чем это связано?

Наверняка большинство читателей знает, что был достаточно большой период времени, когда новые сайты (только что появившиеся), не могли попасть по ВЧ (высокочастотным) и даже СЧ (среднечастотным) запросам в топе. Связано это было как раз с тем, что трастранк накапливается для сайтов постепенно и он был однозначно ступенчатым. То есть для того, чтобы продвинуться по тому или иному запросу, нужно было набрать определенную долю траста. Соответственно, если вы траст не набрали, то для вас часть ссылочного ранжирования не учитывается. В итоге ваш сайт не поднимается в десятку по тому или иному запросу.

Траст в том понимании, в котором он существовал, дожил аж до «Находки» и только с ее появлением он перестал существовать в жестком пошаговом формате. С появлением алгоритма «Находка» можно сказать, что любой сайт, с любой датой регистрации, можно поднять в топ по запросам любого уровня конкуренции. Правда, однозначно есть определенный ряд запросов, на который это утверждение не распространяется — например, многие ВЧ запросы, в которых топ представлен трастовыми сайтами, накопившими огромную ссылочную массу.

В период засилья трастовых сайтов в топе по ВЧ и СЧ существовала легенда, что молодые сайты блокируются по дате регистрации домена. Но можно с уверенностью сказать, что поисковая машина однозначно не смотрит на дату регистрации домена, а смотрит на дату появления сайта в индексе. Соответственно, веб мастера на тот момент регистрировали под сайты домены, имеющие определенную историю (например, присутствующие в веб-архивах). Домены подобного плана время от времени освобождаются. В то время за ними велась охота, они тут же регистрировались заново. Однако сейчас такая методика потеряла эффективность.

17 января 2008 года — обновление алгоритма ранжирования «восьмерки» — алгоритм «8 SP1». Имеем трастранк, как набор факторов, определяющих уровень доверия к сайту. Отсев и повальная неиндексация «плохих» ссылок.

5 февраля 2008 года — «гостья из прошлого» — в анкор-файле рецепиента начали отображаться ссылки с зафильтрованных и даже забаненных сайтов. На вопрос представителей SEO-сообщества Ден Расковалов дает ответ:

Сбоя нет. Осознанное изменение для улучшения ранжирования.
Ден Расковалов

Яндекс одним ударом по сути закрыл широкие возможности для анализа алгоритмов ранжирования и возможности массовой проверки на непот. После этого приходится работать вслепую, то есть покупка ссылок происходит вслепую.

18 марта 2008 года — коррекция алгоритма фильтрации для борьбы с продажными ссылками. Это была первая ласточка к тому, чтобы отказаться от платных ссылок при учете релевантности. Яндекс со своей трибуны webmaster.yandex.ru выдает сообщение:

В настоящий момент мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы: 1) сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование; 2) покупка ссылок с сайтов не могла бы привести к повышению ранга сайта-покупателя. При этом мы не гарантируем, что ранг сайтов, продающих ссылки, не понизится.
Яндекс.Вебмастер

Таким образом, на тот момент времени встала под угрозу вся тема с покупными ссылками. И апдейт, который произошел 19 марта 2008 года, подтвердил воочию это высказывание. Сайты, которые покупали ссылки на ссылочных биржах, очень сильно просели в выдаче. Но в то же самое время в ближайшие три апдейта все вернулось на свои места. То есть поисковая машина посчитала эту корректировку слишком жесткой. Итоговая выдача стала не настолько релевантной и презентативной, как этого хотелось бы Яндексу.

16 мая 2008 года — изменение алгоритма ранжирования «Магадан». В топе вновь оказываются сайты, продвигаемые продажными ссылками. Прошло то самое небольшое количество времени о котором мы говорили (с 18 марта по 16 мая) и сайты начали возвращаться на свои позиции. С внедрением алгоритма «Магадан» сайты вернулись в очень большой доле. Наравне с ними в выдаче сайты с традиционно высоким уровнем доверия. То есть имеем сочетание и внешних факторов и применительно к ним трастранка. Появилось множество мелких доработок — от обработки синонимических запросов и транслитерации до обработки запросов на старославянском.

Следует отметить, что по текущий момент времени платные ссылки работают. С внедрением алгоритма «Находка» они стали работать еще лучше (в «Магаданах» еще были проблемы).

2 июля 2008 года — изменение алгоритма ранжирования Яндекса «Магадан 2.0». Со слов разработчиков:

Сделано много улучшений в алгоритме ранжирования, например, добавлены новые факторы, учитывающие уникальность контента, классификатор порнографии, геоклассификатор запроса, классификатор коммерциализированности, и многие другие.»
Яндекс-разработчики

Совершенно ненадолго произошел отсев сайтов, прокачанных продажными ссылками. Старые сайты по-прежнему в топе. Новая тенденция на рынке — покупка старых доменов, на этот раз носящая массовый характер. Покупали сразу тысячи доменов, далее происходило их искусственное состаривание, то есть размещение на них определенного контента и наращивание естественных внешних факторов (каталожных). Соответственно, сайт получал историю — как ссылочную, так и контентную.

9 июля 2008 года — бета-версия алгоритма ранжирования «Находка». Со слов разработчиков:

Основные изменения в программе связаны с новым подходом к машинному обучению, и как следствие — отличиями в способе учета факторов ранжирования в формуле.
Яндекс-разработчики

12 сентября 2008 года — непосредственно алгоритм ранжирования «Находка». Со слов разработчиков:

Основные изменения связаны с отличиями в способе учета стоп-слов (выросло качество ранжирования по запросам со стоп-словами) и новым подходом к машинному обучению. Заметно расширен тезаурус путем автоматического анализа проиндексированного корпуса текстов. Например, в нем появились сочетания слов, которые в раздельном написании означают то же самое, что и в «склеенном» виде (теперь по запросу [авто ваз] найдутся страницы и со словом «автоваз»).
Яндекс-разработчики

Тенденция изменения алгоритма

После «Находки» в выдаче появились новые сайты, то есть был отменен тот самый ступенчатый траст. Траст перешел на более плавную форму, пропал явный перекос в сторону старых сайтов со старыми бэклинками. Серьезно уменьшено трастовое ссылочное влияние по отношению к контенту. Увеличение вклада трастовой составляющей — при продвижении определенного запроса также будет рост по его синонимам. Изменено ранжирование стоп-слов — выдача по запросам со стоп-словами отличается от выдачи без них. Снова уделяется большое внимание количеству вхождений запроса на странице. Изменение результата работы поискового колдунщика.

Итак, на сегодняшний день мы имеем: отсутствие полной фильтрации ссылочного, отсутствие массовой борьбы с сателлитами, учет «плохих» ссылок при ранжировании по НЧ (низкочастотным) запросам, зависимость вклада ссылки от связки донор-рецепиент-анкор, дискретность уровня доверия сайта, увеличенный вклад текстовой составляющей (то есть все-таки контекстная доля и ее значимость усиливает свое влияние), уменьшен вклад трастового ссылочного, снова в почете массовая покупка ссылок, и всё те же санкции за массовую продажу ссылок (которые наследуются еще с первого «Магадана» и даже более ранних периодов).

Вебмастеру на заметку

  • Интернет Хостинг Центр — действительно хороший хостинг по хорошим ценам, рекомендую
  • SeoPult — удобная покупка ссылок на автомате
  • Блогун — продвижение в блогах, заработок на блоге

Хит-парад ссылочных бирж

   Sape   
   Mainlink   
   Linkfeed   
   Propage   
   CLX