Фильтр – это санкция поисковой системы, которая применяется к сайту или его конкретным страницам.
Результаты «попадания под фильтр» – исключение из индекса, понижение в результатах поиска, замедление роста позиций и добавление каких-либо других понижающих коэффициентов при ранжировании. Конкретная проблема будет определяться фильтром, под который сайту не "посчастливится" попасть.
Фильтров достаточно много, и они подстерегают тех, кто не соблюдает правила игры: то есть делает то, что не нравится поисковой системе. Изначально фильтры и баны задуманы, чтобы противостоять поисковому спаму – «черным» методам оптимизации (дорвеям, автоматически и полуавтоматически создаваемым сайтам, копипасту контента и так далее). Однако «Яндекс» несовершенен, и если фильтр наложен несправедливо, нужно обязательно связываться с техподдержкой для решения проблемы.
Фильтры учитываются в предварительном ранжировании (само слово «фильтр» подразумевает предварительный отсев), то есть при формировании ограниченного списка результатов, который уже ранжируется полной формулой «Матрикснета». Поэтому даже после внедрения идеологии машинного обучения жесткие фильтры остаются актуальными и важными для всех, кто занимается поисковым продвижением.
Стоит обратить внимание, что фильтры представляют опасность как для продвигаемого сайта, так и для доноров ссылок, с помощью которых сайт продвигается. Очевидно, что если доноры попадают под фильтры, продвигаемый сайт упадет в выдаче.
Рассмотрим самые основные фильтры «Яндекса».
Жесткая санкция за неуникальный контент. Если «Яндекс» определяет, что сайт заимствует тексты и иллюстрации, его позиции очень сильно понижаются. Даже по запросу с длинной фразой из контента страницы сайт либо выдается на последних местах (далеко за пределами ТОП10), либо открывается только по ссылке «показать опущенные результаты».
До 2010 года алгоритм «Яндекса» заставлял оптимизаторов пользоваться следующим приемом: размещать на продвигаемых страницах огромные «простыни» текста с запредельным количеством вхождений ключевых слов – счет шел на десятки. Это было весьма эффективным способом продвижения по высокочастотным запросам. Однако в январе 2010-го все сайты, которые продвигались таким методом, сильно упали в выдаче, а вместо главной вышли внутренние (менее заспамленные) страницы. Эксперимент показал, что устранение переспамленности текстов приводит к возвращению страниц в ТОП. Итак, этот фильтр борется с «переоптимизированными» страницами. Пишите тексты для людей!
23 сентября 2010 года команда разработки поиска «Яндекса» заявила о внедрении дополнительного к непот-фильтру (аналогичному по функциям старому фильтру для борьбы с сайтами, созданными только для продажи ссылок) комплекса мер для ограничения возможности выйти в ТОП за счет покупки ссылок с некачественных площадок. Для тех, кто продвигался закупкой максимально дешевых ссылок с бирж, это станет проблемой – многие доноры потеряют эффективность.
Фильтры АГС-17 и АГС-30 (вторая, улучшенная версия) предназначены для борьбы с ГС, сателлитами и прочими некачественными сайтами, которые создаются автоматически или полуавтоматически с целью продажи ссылок. АГС «бьет по площадям», исключая из индекса поисковика большую часть (подавляющее большинство) страниц сайта. Продвигаемым сайтам с качественным, уникальным контентом АГС не угрожает, однако если налицо признаки «удара», следует немедленно написать в техподдержку. Остальные рекомендации – такие же, как и для непот-фильтров.
Прошли времена, когда все результаты в первой десятке выдачи могли быть заполнены сайтами одной компании. Теперь «Яндекс» весьма ловко выявляет совпадения в контактной информации, whois-данных домена и прочих моментах, указывающих на аффилированность сайтов. Один сайт останется в выдаче, а остальные будут очень сильно понижены в результатах поиска.
Новый сайт практически невозможно вывести в ТОП по высококонкурентным запросам. Этот фильтр, на наш взгляд, не является логичным и справедливым. Скорее, это недоработка и техническая слабость «Яндекса», который пока не может найти другие способы для борьбы с некачественными сайтами в выдаче. Надеемся, в скором времени политика поисковика в отношении новых сайтов изменится, но пока фильтр на молодые сайты накладывается. В связи с этим следует начинать продвижение такого ресурса по низкочастотным запросам, затем подключать среднечастотные, а вот работать с ВЧ стоит спустя минимум год после начала продвижения.