← Разработка

История борьбы Яндекса с низкосортными сайтами – АГС40

3 минуты, 40 секунд
История борьбы Яндекса с низкосортными сайтами – АГС40

Фильтр АГС был разработан программистами Яндекса для отсева некачественных сайтов. Впервые фильтр был анонсирован в 2009 году, когда для продвижения активно использовались покупные ссылки. Вскоре появились версии АГС под номером 17 и 30. Тогда по статистике каждый 4-й сайт создавался с целью заработка на биржах ссылок. Однако нововведения мало повлияли на индустрию продажи ссылок.

Чего хотели добиться разработчики АГС

Поскольку каждый третий сайт не представлял интереса для пользователей, прежде всего, стояла задача очистить индекс от таких сайтов, дабы снизить нагрузку серверов.

Также это попытка влияния на индустрию линкоторговли. Поскольку в основе алгоритмов ранжирования заложены факторы внешних ссылок, у оптимизаторов появилась возможность манипулирования результатами поисковой выдачи. Чтобы устранить данную уязвимость Яндекс постоянно работает над снижением значимости ссылок и пристально следит за причиной их появления.

Ну и о пользе для людей Яндекс тоже забывать не собирается. В результате борьбы с линкопомойками пользователи получили более качественный сервис, что немаловажно.

Как АГС повлиял на торговцев ссылками

После появления первых вариантов фильтра индекс очистился от огромного количества низкосортных ресурсов. Фильтр применялся к сайтам, которые:

— не имели уникального контента
— содержали множество исходящих ссылок и спама (гостевые книги, каталоги, некоторые форумы)
— сайты, не посвященные какой-то конкретной теме (варезники)
— сайты, перегоняющие трафик в рекламные сети и партнерские программы (дорвеи и сайты с агрессивной рекламой)

В то время как раз появляется новое понятие – сайт для людей (СДЛ). Так называли качественные ресурсы. Создавать такие сайты непросто – без опыта здесь не обойтись, да и во многих случаях вложенные средства не окупаются. Поэтому многие по-прежнему продолжали создавать низкосортные сайты, адаптировавшись под новые особенности алгоритмов.

Как АГС повлиял на биржи ссылок

Среди зарегистрированных участников на таких биржах количество вебмастеров, конечно же, преобладало. Оптимизаторов здесь намного меньше. И хоть спрос повышался довольно быстро, предложение значительно превосходило, причем в ущерб качеству. Чтобы как-то изменить ситуацию биржи ввели минимальные пороги для новичков. После появления АГС 17 и 30 качество стали оценивать по тИЦ и принимать только посещаемые площадки. Для многих был установлен минимальный порог в тИЦ 10. Также появились черные списки, представляющие собой базы некачественных сайтов.

Нововведение с АГС40 в очередной раз заставило биржи почистить свои ряды. И скорее всего в дальнейшем минимальный порог для новых участников будет повышен.

Как АГС повлиял на оптимизаторов

Конечно, с улучшением алгоритмов ранжирования стало легче искать качественных доноров для покупки ссылок. После отсева некачественных площадок остается лишь выбрать наиболее привлекательные из имеющихся. Но также стоит учесть, что каждый алгоритм может дать сбой. 

Некоторые качественные площадки тоже могут попасть под фильтр, а некачественные по какой-то причине могут быть пропущены. Но время все равно расставит все по своим местам.

Очевидно, что фильтр АГС40 (с 13 года) установит новые стандарты качественных сайтов.

P.S. нашел статью в закромах… Пусть для истории полежит.
+7
16:22
121
16:31
+4

Тогда шорох он навел. Сам как-то был в стороне от последствий, но владельцы каталог пострадали. А вот не надо было делать линко- помойки. 

16:52
+3

Яндекс постоянно шорох вебмастерам наводил

Было же много историй, когда сайт копипастер оказывался выше по позиции сайт первоисточника, а иногда первоисточник даже попадал под АГС 

16:57
+2

Чтобы скучно не было. А то расслабляются все. 

Тут конечно шутки, а вот кто с деньгами связан, не до шуток. У них инфаркт чуть не был. )

17:02
+2

Ой!  Вспомнил, у меня тогда 3 сайта улетели. 

17:34 (ред)
+2

Давненько было, ссылки исходящие  очень не любил… Борьба с сапой и др.  

21:16
+1

А наличие каталог на сайте не повлияет на Яндекс?

21:24
+1

Вот это мы и посмотрим. На данный момент качество каталога стремится к лучшему в сети…

Но Яндекс не любил каталоги, в массе своей. Большинство каталогов, создавались как помойки с бесконечными исходящими ссылками, ужасным описанием и названием сайтов. Они включали в себя ресурсы, которые просто не должны быть там. Т.к. они достаточно скверно представляли нишу (категорию размещения). Они делались для кого угодно, и с какой угодно целью, но не для людей.  Там был в массе своей один хлам. Dmoz, adre — это он любил. А как тут будет, посмотрим.

00:59
+2

Все эти АГС-ы не очень то хорошо справлялись со своими задачами. На нескольких проектах я аккуратно барыжил ссылками и никакой АГС не мог определить торговлю ссылками и соответственно фильтров не было. Но вот Минусинск 2015 — это да. Сразу все накрылось медным тазом:) Не знаю какие в настоящее время алгоритмы применяет яндекс, так как с тех пор я забил на ссылочную тему и давно не интересовался этими вопросами. Помню, что типа ссылки теперь должны быть «естественными», еще какую то муть... 

16:27
+1

Минусинск ударил сильно. Мне один сайт пришлось очень долго вытаскивать. Писал и Платону. )

Загрузка...