Фильтры Google: ручные и алгоритмические

Обычно никто про это не думает, пока не становится поздно. Речь идет о пессимизации сайта и других алгоритмах, направленных на удаление из поиска некачественных сайтов. В данном посте я расскажу об основных фильтрах ПС Google — за что они накладываются, как их идентифицировать, и как с ними бороться. Такую информацию обязан знать каждый оптимизатор и вебмастер.

Классификация фильтров Google

В зависимости от метода наложения фильтров, их разделяют на ручные и алгоритмические (автоматические). Если с первыми бороться не очень сложно (обычно в письме от модератора Google довольно четко указаны причины наложения), то со вторыми могут быть проблемы. В данной статье я не буду говорить про фильтры, придуманные оптимизаторами (вроде Supplementaty Results или Sandbox). Очень не хочется плодить слухи или рерайтить то, что сказано сотни раз. Давайте лучше разберемся с официальными пессимизирующими  алгоритмами Google. 

Ручные фильтры Google

Ручные санкции применяются к сайту, когда он попадает на проверку к модератору поисковой системы. Обычно это происходит в тех случаях, когда автоматический алгоритм не может определить, стоит ли накладывать санкции. Также, сайт может быть понижен вручную в случае поступления жалобы на использование черных методов SEO.

Как правило, ручные фильтры накладываются за такие нарушения:

  • низкое качество контента (копипаст, отсутствие ценности для посетителей);
  • агрессивный спам;
  • использование искусственных SEO ссылок;
  • применение дорвейных технологий;
  • черное SEO (клоакинг, переспам слов в контенте, маскировка элементов сайта).

Конечно, это не полный список, но большего нам и не надо — в Рунете наиболее часто ручные санкции применяются за ссылки и за низкокачественный контент. Проверить сайт на предмет наложения фильтра можно в Google Webmaster Tools. Для этого в меню слева необходимо выбрать «Поисковый трафик → Меры, принятые вручную». Если с сайтом все в порядке, вы увидите такое сообщение:

Ручные фильтры Google

 

Если же к ресурсу применили ручной фильтр, в данной вкладке будет отображаться соответствующая информация. Важно внимательно ознакомиться с ней и работать по устранению проблемы. Про выход из-под ручных санкций я расскажу подробнее в одной из следующих статей.

Алгоритмические фильтры Google

Здесь ситуация гораздо сложнее. На сегодняшний день существует большое количество автоматических фильтров, но наиболее серьезными из них являются Пингвин и Панда. Эти два симпатичных зверька за годы своего существования положили десятки тысяч сайтов. Идентифицировать данные фильтры сложно, ввиду того, что вебмастер не получает никаких сообщений и выводы приходится делать самому. Помочь в определении фильтра сможет бесплатный сервис от SEOlib. Сервис использует данные Google Analytics или Яндекс Метрики, накладывая на график посещаемости информацию об апдейтах фильтров.seolib

Фильтр Пингвин (Penguin)

Данный алгоритм появился на свет в апреле 2012 года. Наложение Пингвина характеризуется резким уменьшением поискового трафика из Google. Момент проседания трафика обычно совпадает с датой обновления алгоритма. Динамика посещаемости выглядит так: 

penguin

 

Среди причин попадания сайта под Penguin можно выделить следующие:

  • некачественный ссылочный профиль;
  • переспам анкор-листа;
  • дублирование контента;
  • заспамленность продажными ссылками;
  • клоакинг, дорвеи, скрытые ссылки.

Бороться с фильтром не столько сложно, сколько затратно по времени и ресурсам. Какое-то время после выхода Пингвина, выйти из-под него можно было при помощи 301-го редиректа. Сейчас данный метод не работает. Поэтому придется не убегать от проблемы, а решать ее.

Основные приемы выведения сайта из-под фильтра такие.

  1. Поиск и устранение внутренних ошибок (продажные ссылки, дубли, клоакинг и тд).
  2. Анализ ссылочного профиля, физическое удаление некачественных ссылок и/или добавление их в Disavow Tool.
  3. Наращивание качественной ссылочной массы (безанкорные и неактивные ссылки, анкорные бэклинки без точного вхождения ключей).

Каждый из данных этапов имеет свои нюансы, о них я обязательно расскажу в статье, посвященной выводу сайта из-под Пингвина. 

Фильтр Панда (Panda)

Пессимизирующий алгоритм Панда был введен в действие в феврале 2011 года. Основным его заданием было и есть устранение из поисковой выдачи сайтов с некачественным контентом. Вот основные причины, из-за которых на сайт может быть наложен данный фильтр:

  • неуникальный контент (копипаст);
  • плохие поведенческие факторы (высокий уровень отказов, небольшое время пребывания посетителя на сайте);
  • переоптимизация страниц;
  • отсутствие релевантности заголовков к контенту;
  • ошибки внутренней перелинковки (переспам анкор-листа);
  • наличие нерелевантной рекламы.

К основной группе риска можно отнести сайты, созданные для заработка — партнерки, MFA, MFS. Процесс выведения сайта из-под Panda довольно длительный. Если на сайте много страниц — придется не один месяц работать над решением всех обнаруженных проблем. и конечно же, начать стоит с комплексного аудита сайта и исправления внутренних ошибок.

 В данной статье я рассказал про общие аспекты идентификации и борьбы с фильтрами Google. Этого достаточно, чтобы понимать, чего следует остерегаться и как определить описанные фильтры. Но для выведения сайта из-под них понадобится более полная информация. Поэтому несколько следующих статей я посвящу теме фильтров Google — Пингвину и Панде.