Фильтр Панда и Пингвин от Гугла – основные понятия.

Есть проблемы с ранжированием, проект не растет, хотите проверить работу своих специалистов по продвижению? Закажите профессиональный аудит в Семантике

Аудит и стратегия продвижения в Семантике

Получи нашу книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подпишись на рассылку и получи книгу в подарок!

Гугл Панда – это программа-фильтр от компании Google. Его задача – отслеживание и блокировка сайтов с некачественным контентом.

Читайте также:  Куда начисляются деньги за просмотры на YouTube

Больше видео на нашем канале — изучайте интернет-маркетинг с SEMANTICA

Поисковая система Google считает своей основной функцией предоставление пользователям релевантной, интересной и полезной информации. Именно поэтому она жестко борется с черными методами продвижения, когда сайт попадает в ТОП выдачи не с помощью создания качественного и востребованного контента, а путем манипуляций поисковыми системами.

История Панды

Алгоритм Google Panda – автоматический. Первым шагом к его созданию стала оценка большого количества сайтов на соответствие требованиям, которые Google предъявляет к контенту. Проводилась она вручную силами группы тестировщиков и позволила формализовать основные факторы, влияющие на качество содержания сайтов.

Первый раз Google Panda вышел в свет в феврале 2011 года, однако в полную силу заработал в апреле. Только в течение 2011 года алгоритм обновлялся 57 раз, а затем еще 5 раз в 2012 году. Следующий 2013 год принес последнее обновление Панды с собственным номером – Panda 25, которое претерпело небольшие изменения в июне и в июле этого же года. Последняя версия алгоритма Panda 4.0, выпущенная в мае 2014, пошатнула позиции новостных агрегаторов и затронула таких гигантов, как Ebay.

На сегодняшний день алгоритм совершенствуется практически непрерывно, обновляясь каждый месяц в течение 10 дней. Даты обновлений компания не обнародует, чтобы максимально затруднить манипулирование позициями сайтов в поисковой выдаче.

Google Панда

Для тех, кто еще не слышал о таком фильтре, сделаем небольшой экскурс в историю. Он появился весной 2011 года и моментально по Сети понесся шум.

Фильтр Гугл Панда преобразил результаты поиска: многие сайты получили повышение, а довольно много — упало. Буквально за несколько апдейтов выдача была сильно изменена. Что происходит, многим было не понятно, но вскоре на блоге SEOmoz были освещены некоторые аспекты.

Гугл Панда

Вероятные причины попадания под Панду:

  • Копипаст;
  • Маленькое количество контента на странице;
  • Бесполезный материал;
  • Переоптимизированный контент;
  • Слишком большое количество рекламы на странице.

Фильтр непредсказуем, Google Панда постоянно обучается и как он поведет себя в будущем предсказать сложно. Единственное можно добавить по переоптимизированному контенту. Плотность ключевых слов не должна составлять больше 5 — 6%.

Если на сайте присутствуют страницы с плотностью более 10%, то они могут тянуть на дно весь ресурс. Главное создавайте сайт не для поисковых ботов, а для людей и проблем с Пандой не возникнет.

Другие фильтры Google

Google Domain name Age Filter

— молодой домен, на котором располагается ресурс заслуживает маленького доверия у поисковиков, поэтому сайт низко располагается в поисковой выдаче.

Google Sandbox

— это фильтр для новых ресурсов. К новым сайтам доверие отсутствует, что касается конкурентных запросов, то такие ресурсы находятся далеко в поисковой выдаче.

Читайте также:  Можно ли снять деньги с телефона. Как снять деньги с телефона: простые способы

Over Optimization Filter

— большая насыщенность сайта заголовками (тег Н), повторений ключевых фраз и жирного текста (теги b, strong).

Google’s Omitted Results Filter

— пропущенные результаты. Дублирующийся материал, мало входящих ссылок, маленькая внутренняя перелинковка страниц.

Page Load Time Filter

— долгое время загрузки, большой объем страницы, насыщенность рекламой и скриптами, страница не индексируется и как итог — понижение в поисковой выдаче.

Google Bombing

— данный фильтр накладывается, если на ресурс ведет большое количество ссылок с одним и тем же описанием.

Too many pages at once Filter

— накладывается на сайты на которых число новых страниц увеличивается не по дням, а по часам. Полезного материала сразу много не бывает.

Google -30

— применяется к ресурсам, на которых используются редиректы и дорвеи при помощи javascript. Ресурс опускается на 30-позиций в поисковой выдаче.

Требования Google Panda к сайтам

Google Panda предназначен в первую очередь для борьбы с некачественным контентом, поэтому его основные требования к сайтам основаны на качестве публикуемой информации.

  1. Сайт должен в основном содержать уникальный контент, на нем не должно быть дублированных текстов и изображений.
  2. Недопустимо использование автоматически сгенерированных текстов.
  3. Роботы поисковых систем и пользователи должны видеть одно и тоже, нельзя использовать страницы, которые видны только поисковикам и нужны исключительно для продвижения сайта.
  4. Ключевые слова каждой страницы сайта должны соответствовать ее содержанию, переспам ключевыми словами недопустим.
  5. Ссылки и реклама на страницах должны соответствовать тематике текстов и иному содержанию страницы.
  6. Запрещается применять дорвеи, скрытые ссылки или скрытый текст, целью которого является обман поисковой системы.

Алгоритм Google Панда накажет вас, если на страницах сайта содержится контент, скопированный с других ресурсов без ссылки на источник, шаблонные статьи, имеющие идентичную структуру, дублированные страницы. Попасть под фильтр Панда Гугл могут сайты, на которых тексты идут сплошной простыней, без иллюстраций, видео или инфографики, с одинаковыми метатегами на разных страницах.

Считается, что этот алгоритм мало внимания обращает на ссылки, однако он требует, чтобы ссылки в статьях непременно соответствовали их теме. То есть, в текстах про пластиковые окна не должно быть ссылок на продажу чая и т.п.

Читайте также:  Neobux / Необукс — Заработок от 10$ в день

Помимо всего описанного, Гугл Панда уделяет много внимания поведенческим факторам. Если на вашем сайте велик процент отказов, пользователи уходят с него после первой же страницы и больше не возвращаются, вы непременно попадете в поле зрения алгоритма.

Выход из фильтра

Для выхода из-под фильтра рекомендуется –

— Найти причину, для чего просмотреть, какие страницы обвалились в выдаче в первую очередь, и временно изолировать их от остального контента, убрав с них внутреннюю перелинковку на «здоровые страницы»,

— комплексно подойти к лечению пациентов, то есть не просто убрать тошноту ключей, но и одновременно нормально отформатировать контент, добавить фото, а при необходимости схемы и графики. Если материал вообще никуда не годится (копипаст), то просто заменить его оригинальным. Старайтесь при этом, чтобы сайт был в целом оригинален и узнаваем, а в достижении успехов можно будет убедиться на улучшении поведенческого фактора.

— После устранения причин можно восстановить перелинковку и смело отписываться в Google для пересмотра сайта, но не стоит этого делать на полдороги – быстрее не получится, а хуже точно сделаете!

Как спастись от санкций Google Panda

Как выявить действие Панды

Прежде чем принимать меры по выходу из-под фильтров Google Panda, убедитесь, что вы пострадали именно от его лап. Как определить, Гугл Панда стал виновником вашей проблемы, или причина в чем-то еще?

Обратите внимание на связь между обновлением алгоритма и падением трафика на сайт. Update Google Panda проводится ежемесячно, продолжается 10 дней, узнать время его проведения можно на сайте Moz.com. Если совпадение налицо, надо принимать меры.

Второй способ поймать Панду — воспользоваться специальным сервисом Barracuda. Один из сервисов этого сайта, Panguin Tool, получив доступ к информации вашего аккаунта в Google Analytics, накладывает взятый из него график на даты обновлений алгоритма и выдает ответ. Минусов у этого способа два – он не подходит тем, у кого счетчик Google Analytics стоит недавно и требует доступа к аккаунту, который в, свою очередь, позволяет добраться до денег на вашем счете в Google Analytics.

Третий способ достаточно прост, но требует времени и терпения. Вам придется проверить каждую страницу сайта. Делать это надо так:

  1. Копируете несколько предложений из текста на странице в поисковую строку Google. Достаточно взять 100-200 символов.
  2. Смотрите, появился ли ваш сайт в верхней части выдачи.
  3. Заключаете тот же отрывок в поисковой строке в кавычки и снова смотрите, есть сайт в выдаче или нет.

Если сайт появляется в выдаче только во втором случае, значит виновник ваших бед Google Panda. Запомните, что проверить придется каждую страницу.

Как выйти из-под фильтра

Для выхода из-под фильтра Панды вам придется предпринять следующее:

  1. Сделать полную ревизию содержания сайта и заменить большую часть текстов на интересные и полезные, а остальные переработать так, чтобы они стали уникальными и актуальными.
  2. Убрать избыток ключевиков из заголовков всех уровней и метатегов. Заголовки поменять на релевантные и привлекательные, сделать так, чтобы они цепляли посетителя и вызывали желание прочесть текст.
  3. Почистить сайт от нерелевантной и агрессивной рекламы, что заметно улучшит поведенческие факторы.
  4. Удалить все дубли и битые ссылки, снять выделение с ключевых слов.
  5. Проверить ссылки на страницах на соответствие содержанию страниц и заменить или убрать нерелевантные.

Эти шаги помогут вам со временем выйти из-под фильтров Панды. Однако учтите: Google Panda – автоматический алгоритм, и никакие обращения не помогут вам быстро освободиться от его санкций. Заполняйте сайт интересным уникальным контентом, не увлекайтесь размещением на нем рекламы, и вы не попадете на зуб к умному зверю Панда Гугл.

Что учитывает алгоритм Google Panda

Уникален ли контент на сайте

Алгоритм Панда, прежде всего, обращает внимание, не встречается ли на других сайтах такой же контент. Более того, он ищет не только похожие тексты на сайтах или страницах также учитываются и фрагменты текстов. Другими словами, уникальность текста определяется с помощью процентного соотношения. Допустим, если статья была скопирована полностью, значит, уникальность равна нулю. Если же скопирована часть текста, то уникальность может быть 80%, например.

Алгоритм рассчитывает уникальность как самого сайта, так и отдельной страницы, в том числе и относительно других страниц сайта. Вдобавок к этому алгоритм панда имеет на вооружении такой инструмент, как шаблонность. Другими словами, он может определить похожие страницы на разных сайтах, даже если они продвигаются с помощью различных ключевых слов.

Более того, этот алгоритм обращает внимание и на рекламу. Если на сайте, который оказывает юридические услуги, размещена реклама конкурентов, то это алгоритм фиксирует и учитывает при ранжировании сайта.

Задача поисковых систем давать пользователю ответ на его вопрос. Задача алгоритма Панда немножко спустить на землю, владельцев сайтов, цель которых только заработок. В общем, цель этого алгоритм до ужаса проста. В поисковой выдаче должны быть только уникальные, актуальные и полезные сайты. Вот пример, как создавать хороший образовательный контент.

Количество и качество ссылок (ссылочный профиль)

Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.

При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.

Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.

Поведенческие факторы

В этот показатель входит целый ряд критериев, такие как:

  • показатель отказов;
  • сколько времени проводит человек на сайте за одну сессию;
  • сколько страниц он посетил за один визит;
  • возвращается ли он на сайт и как часто;
  • сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).

Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Появление Панды.

Алгоритм Панда

Интересный факт. Хотя в интернете название алгоритма ассоциируется с этим милым зверьком, но на самом деле, имя было взято не с него. Истинный виновник появления этого алгоритма Навнет Панда (Navneet Panda). Это бывший студент из Индии, который закончил Индийский технологический институт. И затем он защитил доктора компьютерных наук в Калифорнийском Университете в Санта Барбаре (University of California Santa Barbara). Ну и затем он стал работать на Google.

Читайте также:  Реальный отзыв о том, как зарабатывать на платных опросах в интернете от 4500 рублей в месяц. Отзывов про опросы много, где правда?

Но вернемся к алгоритму. Первоначально, самая первая версия алгоритма 1.0 была запущена в работу 24 февраля 2011 года. Затем, спустя буквально пару месяцев, 11 апреля того же года, была запущена вторая версия 2.0. Затем, каждые несколько месяцев, выходили все новые обновления этого алгоритма.

В конечном итого, было выпущено 28 версий Панды. Последнее обновление было под номером 4.2 было выпущено 18 июля 2020 года. После чего, в конце 2020 года, Панда перестал быть отдельным алгоритмом и вошел в состав основного ядра поискового алгоритма.

Фильтры Яндекс и Google: Panda и Пингвин. Как снять?

  • переспам и переоптимизация;
  • афилиат фильтр;
  • за одинаковые сниппеты;
  • за агрессивную рекламу;
  • за adult-контент (сайты для взрослых);
  • фильтры за накрутку внешних факторов, в том числе ссылочный бум, санкции за низкокачественные ссылки, накрутку поведенческих факторов и т.д.

Рассмотрим симптомы и причины наложения самых распространенных фильтров от поисковых машин Яндекса и действенные рекомендации по выходу из-под санкций.

АГС новый

Симптомы: выпадение страниц из индекса, как правило, большинства, резкое уменьшение ТИЦ и других показателей сайта.

Причины: низкое качество веб-ресурса в целом, малополезный или бесполезный контент, отсутствие ценности для пользователя, создание сетей сайтов (дорвеев), сайты сателлиты.

Рекомендации: первым делом стоит написать в поддержку Яндекса, застроив внимание на реальной ценности сайта для пользователей, приложив скриншоты из Метрики и показав низкий уровень отказов (если это так и есть). В лучшем случае вам будет дан ответ, который поможет точнее выявить основную проблему.

Также можно заняться выходом из-под санкций самостоятельно. Избавьтесь от не посещаемых информационных разделов и страниц. Добавьте контакты (электронные адреса, телефоны). Повысьте содержательную составляющую контента. Он должен быть уникален, интересен и хорошо представлен. В последнем поможет правильное оформление текста, разметка списков, хедингов. Также сделайте так, чтобы выросла трастовость сайта, на ресурсе появилась активность — лайки, комментарии, твиты.

Переспам

Симптомы: падение в выдаче на 15-35 позиций, фильтр накладывается на одну или несколько страниц.

Причины: большое число ключей, избыточный объем текста на странице;

Рекомендации: измените число запросов в публикации, порой для Яндекса, как и для Гугла достаточно поменять окончание в ключевых словах и поисковая машина снимет санкции. Помогает уменьшение размеров текста или полное удаление просевших слов из текста, замена синонимами. Проанализируйте внешние ссылки и избавьтесь от спамных. Обеспечьте правильное оформление текста, используйте подзаголовки, разметку списков и т.д.

Афилиат фильтр

Симптомы: полное выпадение сайта из поиска по отдельным запросам, которые ранее были на вершине выдачи или близки к ней.

Причины: продвижение по одинаковым запросам нескольких сайтов, которые принадлежат одному владельцу.

Рекомендации: Если причина подозрений в аффилированности ошибочна, то нужно писать в суппорт, и при наличии весомых аргументов санкции снимут вручную. Если же, вы в действительности продвигаете несколько сайтов по одним ключам, то выйти из-под фильтра будет довольно сложно. Нужно сделать так, чтобы веб-ресурсы максимально отличались друг от друга. Иногда помогает перенос сайта на новую cms или новый хостинг, но лучше всего, менять домен или же официально изменить для одного из них владельца, корректировать структуру и внешний вид, контент (перечень товаров или услуг).

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

Яндекс.Метрика