Google Panda: 10 простых советов не попасть под фильтр

Google Panda: как обойти фильтр? 10 советов24 февраля 2011 года перевернул всю поисковую сиcтему Google буржунета. В первую очередь это коснулось США. Ранжирование сайтов претерпело серьезные перемены. Многие лишились более 50% трафика. Новый алгоритм Google Panda внес свои коррективы. 11 апреля Panda пришла в Великобританию. Это был понедельник. Многие оптимизаторы, анализировавшие выдачу за выходные, получили “приятный” сюрприз.

Что это за зверь такой? И стоит ли так боятся его русскому сегменту? Если сказать просто, то Google Panda напонминает всем известный Яндекс АГС, главная задача которого – банить низкосортные сайты, копипастные сайты и прочие ГС. Но, в отличие от Яндекса, набор параметров для фильтрации сайтов несколько больше.

Panda – не такой уж и страшный зверь в отличие от бесцеремонного АГС. Проделав ряд простых изменений на сайте, можно выйти из под фильтра. Могу сказать, что Google Panda – жесткие рекомендации SEO гуру. Будем, значит, готовится к встрече панды. Что нужно знать?

Первое, что хочу отметить, – эти рекомендации не являются одобренными экспертами Google или другими гуру SEO. Panda еще в стадии усовершенствования. И хотя уже работает версия 2.2, говорить о стабильных инструментах воздействия на нее рано. К тому же, каждый сайт имеет ряд своих параметров, которые принимают в расчет алгоритмы Google. Это значит, что одним советы могут помочь, а другим нет.

1. Ручной аудит всего сайта

Забудьте на время про всякие утилиты, софт и прочее. Сделайте скрины главной, страниц статей, архивов и т.д. Возьмите красную ручку и начните анализировать. Что можно изменить, удалить, добавить, упростить или поменять местами?

2. Чем проще тем лучше

  • Насколько удобная навигация по сайту?
  • Насколько легко добраться до глубинной страницы?
  • Дизайн должен быть простым.

3. Действительно ли Вам нужны все эти страницы?

Google однозначно заявил, что низкосортные страницы могут понизить выдачу сайта. Что это за низкосортные страницы?

  • Это страницы с копипастом.
  • Не релевантные запросам страницы или страницы, под которые явно нельзя точно подобрать никакого запроса.
  • Страницы с неверной или искаженной информацией (в новостях, событиях и прочее).
  • Страницы с большим количеством не релевантной рекламы. А это уже может ударить по русскому сегменту заработка на Sape, Trustlinks и т.д. которые размещают свои ссылки на явно не релевантных страницах. Тоже относится и продвижению сайтов через САП. Если сайт чисто под сапу, то ему все равно, что думает Panda о нем.
  • Очень много шаблонного контента, т.е. контента, который повторяется на многих страницах сайта.

4. Жадность на заработке от рекламы

Это относится к избытку объявлений на странице. Рекламные объявления должны информировать посетителей, а не навязываться им. Избыток блоков рекламы на странице – плохой показатель для панды.

5. Качество контента является ключевым

Сколько об этом твердят в последнее время в русском сегменте. Вопрос оптимизации контента все весомее. А как быть обычным пользователям, которые создают свои сайты для себя? Они ведь не в курсе всей премудрости SEO. Мы все прекрасно понимаем, что любая ПС преследует прежде всего коммерчесскую выгоду. И такие изменения прежде всего нужны для комерчесских ресурсов или близких к ним. В любом случае, контент должен быть белый.

6. META данные, описание и прочее

Бытует версия, что мета данные не оказывают уже никакого влияния на выдачу. Хм … нет доказательство, что это так. Поэтому, прописывать description и keywords все еще стоит.

7. Дублированный контент

Здесь все понятно. То ли это контент на поддоменах, то ли на самом сайте – это плохо. Страницы должны быть оригинальными.

8. Мобильная версия сайта

Жесткие меры требуют жестких изменений. К сожалению, этот пункт можно отнести к дублированному контенту. Ведь упрощенная версия сайта – это клон в какой-то мере. Поэтому, многие оптимизаторы отказались от такой версии, пока не найдут альтернативное решение. Как вариант – это гибкая работа скриптов для определения источника и корректной подстановки нужного шаблона под мобильные устройства. Минус – порождение динамических страниц.

9. Ошибки в коде

Если сайт создан вручную (сомописный движок), то могут быть ошибки в коде сайта. Google это также фиксирует. Это также относится к устаревшему коду и его элементам (в CSS и HTML). Стоит периодически анализировать код на варианты его оптимизации, сокращения и прочее. Чем легче сайт тем лучше.

10. Дизайн

Вопрос дизайна – не только визуальное представление сайта. Он влияет и на скорость загрузки страниц, и на юзабилити, и на лояльность пользователей (симпатию). Сейчас модно иметь сайты простыми в дизайне.

Нравятся статьи? Подписывайтесь на рассылку!

1 Star2 Stars3 Stars4 Stars5 Stars (Пока оценок нет)
loadingЗагрузка...
Логотип сайта

23 комментария

  1. to: СВЕТЛЫЙ
    Не путайте тёплое с мягким. Я вообще не знаю как те, кого коснулась панда, вообще до этого работали под Яндекс. У меня на многих белых проектах, где тексты пишутся чётко по сем.ядрам с последующей вычиткой, без переспама и прочей фигни, всегда найдутся страницы, которые по мнению Яндекс являются низкокачественными.
    Гугл, как и раньше хавает генерёнку, карточки товаров без текста и прочий шлак.
    Такого чтобы нормальный белый проект фильтровало — в жизни не сталкивался.
    Вот тут автор написал неплохой мануал по причинам и способам выхода. http://aweb.ua/seo-blog/kak-vyvesti-sajt-iz-pod-avtomaticheskix-sankcij-google-panda/

Добавить комментарий для Алексей Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Получать новые комментарии по электронной почте. Вы можете подписатьсяi без комментирования.

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.