Фильтры Google: описание, причины наложения, лечение

Так же, как и у Яндекса, у Google есть свои «подарки» для некачественных сайтов. Фильтры накладываются за различные провинности, о которых пойдёт речь дальше. Они отличаются от фильтров Яндекса, но в целом принципы наложения в обоих поисковиках схожи. Рассмотрим, что за фильтры предусмотрел Гугл, как не попасть под них и как лечить сайт, если наложение уже произошло.

  • Panda. Переоптимизация, неуникальные статьи, нетематическая реклама, дубли, одинаковое мета-описание для разных страниц – вот за что можно встретиться с «Пандой». Если вы заметили падение трафика, снижение позиций страниц в выдаче, возможно, что над вашим сайтом потрудился данный зверь. Выйти из-под фильтра нелегко, потому что необходимо искать и устранять факторы, повлиявшие на его наложение.
  • Пингвин. Он наказывает за ссылки, как входящие, так и исходящие. Cсылки со спамных площадок, ссылочный обмен, сквозные линки, неравномерность ссылочной массы на страницах, высокая скорость прироста ссылок – всё это карается резким падением сайта в поиске. Решение проблемы – это «уборка» сайта от плохой ссылочной массы. Кстати, для входящих ссылок Гугл придумал инструмент, называемый Disavow links. Он позволяет отклонить некачественные входящие ссылки, чтобы они в дальнейшем не учитывались поисковиком. Найти его можно в инструментах для веб-мастеров от Google.
  • Вспомогательные результаты. Фильтр применяется к страницам с дублированным содержимым. Дубли, попавшие под данный фильтр, среди оптимизаторов называются «соплями». Следует почистить от них сайт, сделать перенаправление с них на основные страницы, и Гугл постепенно, в течение нескольких месяцев, уберёт страницы из «соплей», и сайт начнёт развиваться.
  • Bombing. Если вы покупаете ссылки с одним и тем же анкором, гугл просто перестаёт учитывать данные ссылки, останавливая рост позиций. Лечение простое: убрать линки с одним и тем же анкором и закупить другие так, чтобы анкоры были разными.
  • «Слишком много линков сразу». Это так называемый ссылочный взрыв, за который Яндекс тоже наказывает. В таком случае Гугл игнорирует закупленные ссылки. Выход один: наращивать ссылочную массу как можно более аккуратно и естественно.
  • «Песочница». Сюда попадают молодые ресурсы до 3 месяцев. Бороться с «песочницей» можно различными путями. Например, аккуратно закупить ссылок, чтобы они были естественными, качественными и не было ссылочного взрыва. Можно также перелинковать внутренние страницы.
  • Domain Name Age. Сайты с доменом до года могут плохо индексироваться. Такой фильтр необходим, чтобы не допустить искусственного поднятия ресурса в выдаче. Чтобы выйти из-под фильтра, пробуйте делать закупку ссылок с трастовых и старых сайтов или купить домен возрастом более 12 месяцев.
  • Bowling. Здесь имеет место зависть конкурентов: они начинают воровать контент, делать накрутки, ставят ссылки на сайт с ресурсов под баном и пр. Фильтр особенно коварен, если сайт молодой и имеет низкий уровень доверия у ПС. Чтобы вывести сайт из-под Bowling, придётся общаться с поддержкой Гугла.
  • Фильтр за битые ссылки. Когда обнаруживается, что на сайте огромное количество ссылок с ошибкой 404, сайт занижается в выдаче. Для лечения необходимо убрать все бесполезные ссылки, ведущие в пустоту.
  • Links. Если сайт – ссылочный донор, и у него на одной и той же странице множество исходящих линков, он понижается в выдаче, и полезное действие всех исходящих ссылок, ведущих на сайты-акцепторы, нивелируется. Если на странице линков больше, чем 25, срочно убирайте такую страницу или закрывайте, чтобы она не индексировалась.
  • Page Load Time. Слишком долгая загрузка сайта влияет на падение его в выдаче. Для снятия фильтра нужно облегчить ресурс от сложного кода и элементов, ускорить его другими методами.
  • Omitted Results. Множество дублей, некачественная перелинковка, низкая уникальность содержимого – всё это говорит Гуглу о том, что сайт стоит опустить в выдаче. Чтобы избавиться от фильтра, нужно привести ресурс в порядок и нарастить качественных ссылок.
  • Минус 30. Сайт падает в поиске на 30 позиций за клоакинг, наличие дорвеев, скрытое перенаправление через java script, ссылочный взрыв, линкопомойка. Чтобы выбраться из-под фильтра, просто уберите все эти негативные факторы.
  • Over Optimization. Слишком большое количество ключей вызывает ощутимое падение ресурса в результатах поиска. Решение – снижение плотности ключевиков в текстах сайта.
  • Дублированный контент. Хорошо защитите сайт от воровства контента, размещайте только уникальные тексты. Это позволит избежать его пессимизации в выдаче.

Как видите, важно больше обращать внимание на качество сайта, а не количество ссылок и гонку за бессмысленной «чёрной» оптимизацией. Важно нравиться людям, а не поисковым роботам. Поведенческие факторы сейчас в приоритете, и эта тенденция развивается наряду с сильно возрастающей конкуренцией между множеством сайтов.

Нравятся статьи? Подписывайтесь на рассылку!


5 комментариев

  1. А есть инфа как сейчас проверять сапплиментал в гугле?
    Старые методы типа site:saiteg.ru/& или [site:saiteg.ru] сейчас что-то дают сбой

  2. С этими фильтрами уже страшно даже мышкой по сайту водить 🙂 У самого блог в зародыше и как бы его на этой стадии не загубить.

  3. Как много разных фильтров. Наверное невозможно точно определить под фильтром (хотя бы под одним из них) сайт или нет? И еще вопрос: под фильтр попадают отдельные страницы или весь сайт?

  4. Принято считать, что поводом для наложения фильтра афиллиатов для Яндекса являются прямые признаки принадлежности сайтов одному владельцу – одинаковые контакты, одинаковые данные whois, один хостинг, похожий дизайн. Но на самом деле это уже давно не обязательно – фильтр может быть наложен и по косвенным признакам.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Получать новые комментарии по электронной почте. Вы можете подписатьсяi без комментирования.