Современные методы продвижения интернет-проектов в поисковых системах, полезная информация для начинающих WEB-мастеров. Обзор модулей, плагинов, компонентов, виджетов, шаблонов для создания сайтов на базе популярных CMS. Программы и сервисы для SEO.

Панда (panda) Google и с чем ее едят

0

24.02.2011 года поисковая система Google запустила абсолютно новый фильтр под названием панда (panda), основной задачей которого стало понижение сайтов в поисковой выдаче, которые не соответствуют критериям Google, что бы поспособствовало очистке выдачи от не качественных сайтов.

По другим не официальным данным, фильтр направлен был на варезники, что бы максимально их укротить и за фильтровать.

На данный же момент, фильтр понижает не только варезники, а и полноценные сдл, в связи с чем возникло много разногласий в его полноценности и адекватности. Сегодня более детально рассмотрим данный фильтр и пути выхода из под него.

Даты обновления фильтра:

  • Panda 1.0 дата обновления 24.02.2011 — в это время множество сайтов, особенно варезников попали под фильтр, их трафик сократился с десятков тысяч (некоторых и миллионов уникальных посетителей в сутки) в 8-100 раз, это привело к тому, что множество (около 7-15%) интернет сайтов были за фильтрованы и не только варезники, а и полноценные СДЛ.
  • Panda 2.0 дата обновления 11.04.2011 — изучив проблемы с первым выпуском и исправлением ошибок был запущен откат для некоторых СДЛ, но вновь новая волна сайтов попадает под фильтр, форумы переполнены сообщениями с паникой и плачем, так как их единственные источники дохода загнулись.
  • Panda 2.1 дата обновления 10.05.2011 — одна из кровавых дат, в этот период летят огромные СДЛ с тоннами контента, с трафиком до 5 000 000 уникальных посетителей в сутки, среди них Каталоги статей, информационные сми, лидеры своих тематик СДЛ и прочее.
  • Panda 2.2 дата обновления 16.06.2011 — более мелкие обновления, время от времени возвращающие некоторые сайты что попали под фильтр.
  • Panda 2.3 дата обновления 23.07.2011 — без особых изменений, но с докрутками
  • Panda 2.4 дата обновления 12.08.2011
  • Panda 2.5 дата обновления 28.09.2011
  • Panda 2.6 дата обновления 16.10.2011 — более сокращенная версия, видны повышения позиций для некоторых сайтов и менее прижим фильтром, что дает возможность терять до 8 раз трафик, а не до 100 как в изначальном.

Как же определить или попал ваш сайт под панду, большинство владельцев сайтов сразу понимают об этом, когда в указанные выше даты резко падает трафик в разы. Явление не приятное, но зато показательное и сразу же говорит о по падении сайта под фильтр.

Вторым признаком чаще всего, но не всегда является то, что по запросу в выдаче Google «site:domain.com» — главная страница сайта находиться ниже 1 страницы, но это не гарантированный показатель, так как при панде этот признак для некоторых сайтов может не работать.

Третий признак наиболее видимый, это падение морды и всех запросов что связаны с ней, в основе своей ВЧ и СЧ запросы, а так же внутренних запросов, что идут на страницы сайта, понижение от 0, в среднем по нч на 1-10 позиции, что в своей сущности и приводит к резкому падению трафика, учитывая то, что нч дают трафик лишь при топ 1-5.

По последним опытам и работе с сайтами под пандой (panda) стало известно, что трафик на фильтрованном сайте можно частично вернуть, но это больше касается внутренних страниц сайта, так как при панде очень страдает больше всего морда и лишь частично внутренние страницы. Работа по увеличению в основной выдаче страниц сайта, приводит к тому, что трафик увеличивается, а при переносе вч и сч запросов с морды на внутренние страницы, вполне возвращаем в топ, конечно с большими затратами денег и времени. Но между тем, это лучшее решение, чем полная потеря дохода.

Так же следует учесть, что хорошо двигаются внутренние страницы и прийдеться просто более тщательно проводить работу с нч запросами и внутренней структурой сайта. Та же самая перелинковка способна помочь значительно повысить позиции при панде и возвращать трафик.

Теперь поговорим о основных причинах попадания под данный фильтр:

  1. Не уникальный контент.
  2. Переоптимизированность (высокая плотность ключевых слов на странице, использование прямых вхождений в title, disc, meta, url).
  3. Бесполезный контент.
  4. Перегруженность рекламой.
  5. Плохие спамные ссылки.
  6. Схожесть внутренняя контента.

Вот эти факты являются основными и среди них внутренние наиболее важные.

Так же имеются факты относительно поведения пользователей на сайте, но относительно их еще не до конца все понятно, потому включим этот фактор в отдельный пункт.

  • Быстрый уход пользователя с страницы (особенно касается переходов пользователей в выдаче, когда пользователь искал тот или иной запрос и перешел на ваш сайт, но между тем не нашел полезной информации, закрыл его и продолжил поиск в выдаче)

Это максимально оправданный фактор, который возможен в реализации и работе.

Существуют и другие факторы, которые можно найти на различных форумах:

  • количество просматриваемых страниц на сайте;
  • время провождения на сайте;
  • повторное посещение.

Но относительно них есть сомнения, так как собирать настолько детальную информацию экономически не выгодно, и таким образом слишком сильно ударит по затратам на выдачу, а потому наиболее правдоподобнее предположить, что основной поведенческий фактор это касающийся взаимодействия выдачи и пользователя при задаче им запроса и поиска информации.

Тут так же следует упомянуть юзабилити сайта, так как именно на этот фактор можно частично им влиять и немного несправедливо к информативным сайтам, так как они могут точно содержать полезную и нужную информацию для пользователя, но по причине плохого юзабилити или же неполноценного посетителя он не находит ее.

Следует так же понимать, что даже исправив ситуацию с сайтом, он сразу же не выйдет с под фильтра, а лишь в среднем на следующий ап панды или же через 3-4 месяца, как гугл пере индексирует полностью сайт.

Как варианты выхода, это:

  1. Улучшение по средствам юзабилити использование сайтом.
  2. Удаление или же переписывание статей с целью уменьшения плотности ключевых слов и прочих проблем указанных выше.
  3. Удаление не уникального контента (но это не панацея, так как по словам гугла, структурированная не уникальная информация, но полезная для пользователей не является нарушением и поводом для фильтрации).
  4. Исправление внутреннего кода, удаление мусора и не нужных тегов.
  5. Уникализация титлов, дискрипшн и мета тегов.
  6. Работа над урлами страниц (это пока тоже спорный вопрос и обсуждается, потому не может быть стопроцентно верным).
  7. В случае схожести внутренних страниц (по типу одного смежного абзаца несущего однотипный смысл) удаление его или же переписка статей.
  8. Добавление фото и видео контента на страницы, что позволит увеличить время провождения пользователя на страницах сайта.
  9. Убрать максимально спамные ссылки.
  10. Приобрести тематический ссылки, постовые, обзоры или же статьи.

В общем успехов вам в выводе сайтов из под Панды, думаю статья была для вас интересна и полезна, потому прошу оставить комментарий если что то не понятно или же вы хотели бы дополнить статью.

Оставьте ответ

Ваш электронный адрес не будет опубликован.