03.05.2015

Фильтры Google: ручные и алгоритмические

Обычно никто про это не думает, пока не становится поздно. Речь идет о пессимизации сайта и других алгоритмах, направленных на удаление из поиска некачественных сайтов. В данном посте я расскажу об основных фильтрах ПС Google — за что они накладываются, как их идентифицировать, и как с ними бороться. Такую информацию обязан знать каждый оптимизатор и вебмастер.

Классификация фильтров Google

В зависимости от метода наложения фильтров, их разделяют на ручные и алгоритмические (автоматические). Если с первыми бороться не очень сложно (обычно в письме от модератора Google довольно четко указаны причины наложения), то со вторыми могут быть проблемы. В данной статье я не буду говорить про фильтры, придуманные оптимизаторами (вроде Supplementaty Results или Sandbox). Очень не хочется плодить слухи или рерайтить то, что сказано сотни раз. Давайте лучше разберемся с официальными пессимизирующими  алгоритмами Google. 

Ручные фильтры Google

Ручные санкции применяются к сайту, когда он попадает на проверку к модератору поисковой системы. Обычно это происходит в тех случаях, когда автоматический алгоритм не может определить, стоит ли накладывать санкции. Также, сайт может быть понижен вручную в случае поступления жалобы на использование черных методов SEO.

Как правило, ручные фильтры накладываются за такие нарушения:

  • низкое качество контента (копипаст, отсутствие ценности для посетителей);
  • агрессивный спам;
  • использование искусственных SEO ссылок;
  • применение дорвейных технологий;
  • черное SEO (клоакинг, переспам слов в контенте, маскировка элементов сайта).

Конечно, это не полный список, но большего нам и не надо — в Рунете наиболее часто ручные санкции применяются за ссылки и за низкокачественный контент. Проверить сайт на предмет наложения фильтра можно в Google Webmaster Tools. Для этого в меню слева необходимо выбрать «Поисковый трафик → Меры, принятые вручную». Если с сайтом все в порядке, вы увидите такое сообщение:

Ручные фильтры Google

 

Если же к ресурсу применили ручной фильтр, в данной вкладке будет отображаться соответствующая информация. Важно внимательно ознакомиться с ней и работать по устранению проблемы. Про выход из-под ручных санкций я расскажу подробнее в одной из следующих статей.

Алгоритмические фильтры Google

Здесь ситуация гораздо сложнее. На сегодняшний день существует большое количество автоматических фильтров, но наиболее серьезными из них являются Пингвин и Панда. Эти два симпатичных зверька за годы своего существования положили десятки тысяч сайтов. Идентифицировать данные фильтры сложно, ввиду того, что вебмастер не получает никаких сообщений и выводы приходится делать самому. Помочь в определении фильтра сможет бесплатный сервис от SEOlib. Сервис использует данные Google Analytics или Яндекс Метрики, накладывая на график посещаемости информацию об апдейтах фильтров.seolib

Фильтр Пингвин (Penguin)

Данный алгоритм появился на свет в апреле 2012 года. Наложение Пингвина характеризуется резким уменьшением поискового трафика из Google. Момент проседания трафика обычно совпадает с датой обновления алгоритма. Динамика посещаемости выглядит так: 

penguin

 

Среди причин попадания сайта под Penguin можно выделить следующие:

  • некачественный ссылочный профиль;
  • переспам анкор-листа;
  • дублирование контента;
  • заспамленность продажными ссылками;
  • клоакинг, дорвеи, скрытые ссылки.

Бороться с фильтром не столько сложно, сколько затратно по времени и ресурсам. Какое-то время после выхода Пингвина, выйти из-под него можно было при помощи 301-го редиректа. Сейчас данный метод не работает. Поэтому придется не убегать от проблемы, а решать ее.

Основные приемы выведения сайта из-под фильтра такие.

  1. Поиск и устранение внутренних ошибок (продажные ссылки, дубли, клоакинг и тд).
  2. Анализ ссылочного профиля, физическое удаление некачественных ссылок и/или добавление их в Disavow Tool.
  3. Наращивание качественной ссылочной массы (безанкорные и неактивные ссылки, анкорные бэклинки без точного вхождения ключей).

Каждый из данных этапов имеет свои нюансы, о них я обязательно расскажу в статье, посвященной выводу сайта из-под Пингвина. 

Фильтр Панда (Panda)

Пессимизирующий алгоритм Панда был введен в действие в феврале 2011 года. Основным его заданием было и есть устранение из поисковой выдачи сайтов с некачественным контентом. Вот основные причины, из-за которых на сайт может быть наложен данный фильтр:

  • неуникальный контент (копипаст);
  • плохие поведенческие факторы (высокий уровень отказов, небольшое время пребывания посетителя на сайте);
  • переоптимизация страниц;
  • отсутствие релевантности заголовков к контенту;
  • ошибки внутренней перелинковки (переспам анкор-листа);
  • наличие нерелевантной рекламы.

К основной группе риска можно отнести сайты, созданные для заработка — партнерки, MFA, MFS. Процесс выведения сайта из-под Panda довольно длительный. Если на сайте много страниц — придется не один месяц работать над решением всех обнаруженных проблем. и конечно же, начать стоит с комплексного аудита сайта и исправления внутренних ошибок.

 В данной статье я рассказал про общие аспекты идентификации и борьбы с фильтрами Google. Этого достаточно, чтобы понимать, чего следует остерегаться и как определить описанные фильтры. Но для выведения сайта из-под них понадобится более полная информация. Поэтому несколько следующих статей я посвящу теме фильтров Google — Пингвину и Панде.

Просмотров записи: 1120
Теги статьи:
Проблемы с продвижением? Закажите экспресс-аудит по антикризисной цене!
  • Когда ты только вначале пути, кажется, что твоему сайту это не грозит, и даже не хочется разбираться в тонкостях фильтров. Но знать о них обязательно надо, хотя бы то, что они есть. Спасибо за полезный материал.

  • Sergio

    Мне кажется, немного неправильно со стороны Гугла пессимизировать сайты, не предупреждая их об этом. Как минимум, это хоронит добрую долю интернет-ресурсов, которые готовы работать над ошибками.

    • ну так яндекс-то тоже молчит об этом, и спросить у него с каждым днем становится все сложнее и сложнее… тут логика поисковиков мне кажется такой: делай сайт не нарушая правил, ну а если нарушил — значит сам виноват 😉

  • Стараюсь соблюдать приведенные рекомендации. Контент пишу сам и обязательно проверяю на уникальность. Конечно стараюсь писать что то интересное и полезное. Больше пишу на основе своего опыта по жизни. Статья для меня весьма полезна.

    • Владимир Иванович

      У меня сложилось впечатление, что для поисковиков требуется не только уникальность текста, но и его востребованность. Но при этом не очень понятна эта формулировка: «отсутствие ценности для посетителей». Поисковик ее точно не оценит. Только по поведенческим факторам можно понять наверное

  • Владислав

    Однажды мой сайт по неопытности попал под фильтр гугла. Тогда я еще об этом не знал вообще ничего, пытался как можно быстрее продвинуться и попал явно не туда куда стремился. За пол года что я вытягивал сайт с фильтра узнал очень много. Так вот это я к тому, что об этих фильтрах знать обязательно! Чтобы в них не попадаться!

  • Интересно получается, чем больше читаю о seo , до чего дохожу самостоятельно делаю, но тем больше понимаю, что ничего не знаю. Дальше в лес — больше дров. Ну хоть кто-то может порекомендовать строго выстроенный алгоритм: 1… Поиск ключевых слов 2. Регистрация в каталог и т. д. Сейчас буду проверять, не наложены ли на сайт … Как ведут себя фильтры по отношению к сайту. А статья нужная и доступно написана. Спасибо

  • Сергей

    Есть подозрение на Пингвин по одному из ресурсов. Траф с Google был весьма неплох, порядка 400 уников в день, сейчас просел прилично, где-то до 50 уников. Не особенно уделял этому внимание, потому что Яндекс относится к этому сайту очень даже хорошо и основной поток посетителей именно с Яндекса. Сейчас озабочусь, проверю ссылочное и кое что добавлю в Disavow Tool.

  • Семен

    Не смог пройти мимо статьи! В прошлом году взялся за оптимизацию одного сайту, и только начал постигать основы СЕО, и видимо, переборщил с ссылками, точнее с их качеством. И после следующего апдейта поймал пингвина (автоматический фильтр). Позиции сразу ушли за топ 50. Долго копался и читал из-за чего это всего. Жаль что вашей статьи тогда не было, очень полезная и нужная информация для каждого, кто хоть как-то связан с СЕО.

  • Renat

    Часто анализирую сайты конкурентов и с удивлением обнаруживаю страницы сайтов с не уникальным контентом в топе. Один раз обнаружил текст, скопированный с моего сайта, слегка разбавленный картинками, но все же уникальность была ниже 50%. Все это относится к Яндексу, в топе гугл подобных примеров не замечал, но и попасть в топ гугл намного сложнее.

    • Тоже замечал подобное не раз, но здесь нужно учитывать так же количество и качество ссылок на сайт, который размещает неуникальный контент.
      Мне вот интересно, а если сделать сайт абсолютно на копипасте со ссылкой на первоисточник, закупить на него качественных ссылок и лить стабильный трафик из соц сетей, попадет ли он под фильтр. Сейчас сделал такой на бесплатном хостинге с доменом четвертого уровня, посмотрим что будет через два месяца )) Раньше это работало, а как будет сейчас неизвестно.

  • Я по незнанию всех этих «штучек» — дорвеев, ссылочного продвижения, и т.п. наивно полагала, что раз ничем таким не занимаюсь, то и фильтры меня минуют. Однако, теперь понимаю, что можно нечаянно чего-то натворить. А поиск с гугла у меня упал и давно… Озадачили вы меня…

  • Екатерина

    Вот сколько полезного узнала. Я сама за честное ведение сайта. Очень обидно, когда другие применяют всякие черные «штучки» для того, чтобы завлечь аудиторию на вой сайт. Но, думаю, это компенсируется тем, что люди заходят, видят шнягу и уходят.

  • Елена

    Спасибо за статью.Я много раз читала о фильтрах Google,но вот так развернуто первый раз.По-крайне мере все доходчиво и понятно даже не для специалиста.

  • Степан

    У Гугла честно говоря очень много фильтров, залететь под которые можно за 5 секунд. Вообще достаточно вредный поисковик. Мой основной сайт ни как не хочет воспринимать, поэтому сегодня запускаю его аналог для теста с исключением всех допущенных ошибок ранее.

  • Самое интересное, мой сайт попадал по фильтр. Я даже не поняла под какой и за что. В супорте сказали, что из-за микроразметки. Попросили все УБРАТЬ. Как так? Что я там могла «переспамить» или «переоптимизировать», если я ни ссылок не покупала, ни оптимизировала. Никто ответа на вопрос не дает и не объясняет. Путем долгого поиска удалось выяснить, что накладывали санкции на сайты, у которых стоит голосовалка «оценить материал». Обращалась к разработчику (шаблон я покупала) — устранил ошибки. Потом просто рукой махнула…