Апдейты панды. Панда от Google: что новенького? Как спастись от санкций Google Panda

Многие СЕО-оптимизаторы давно уже знают о таких алгоритмах Google, как Панда, Пингвин и Колибри . Кто-то и сам пострадал от них, кому-то удалось успешно избежать их действия.

Но большинство новичков, которые стремятся раскрутить свои сайты в поисковых системах, совершенно неправильно понимают, на что конкретно направлены удары этих алгоритмов.

Есть немалая часть вебмастеров, которые вообще не учитывают их при создании сайтов. А вместе с тем, хотя разрушительное действие Панды, Пингвина и Колибри косит каждый день множество сайтов, обойти их не так уж и трудно, если правильно во всем разобраться и правильно всё сделать.

Вообще-то принципы, по которым эти алгоритмы действуют, не такие уж и новые, просто появление их позволило значительно упорядочить борьбу Гугла с не качественными (на его взгляд) сайтами, и проводить очистку выдачи более результативно.

Итак, приступим к рассмотрению.

Поисковый алгоритм Google - Панда

Самый первый из этой троицы (2011 г.), и самый, на взгляд новичков, страшный . В принципе, поисковый алгоритм Панда страшный не для самих новичков, а для их небрежного отношения к создаваемым сайтам.

Конечно, каждый вебмастер – полный хозяин своего веб-сайта, как он хочет, так его и создаёт, и тут ему никакой Гугл не указ. Однако не следует забывать, что и Гугл – полный хозяин своей выдачи, и какие сайты хочет – те в свою выдачу и пускает, а какие не хочет – не пускает. Для этого используются поисковые алгоритмы Google .

Панда явилась самым первым инструментом протеста поисковых систем против ошибок и небрежностей не только новичков, но и против разгильдяйского отношения к поисковым системам (и к своим собственным проектам в том числе) со стороны всяких «авторитетов». Дело в том, что очень многие крупные сайты, в основном коммерческие – магазины, сервисы, справочники и им подобные - допускают создание страниц с похожим контентом.

В основном это описание товаров или услуг, сходных по основным параметрам, но различающихся только некоторыми мелкими деталями, например:

  • размером;
  • цветом;
  • ценой и т. п.

Основной контент, таким образом, на таких страницах одинаковый, часто схожесть достигает 90 и больше процентов. Со временем на сайте накапливается очень большое количество страниц-клонов. Конечно, посетителям это никак не мешает, но выдача поисковых систем буквально засоряется однотипными веб-документами.

До того, как был введен алгоритм Панда , Гугл просто «склеивал» такие дубли, то есть в выдачу пускал только одну из них, а остальную помещал в категорию «дополнительные результаты». Но, как говорится, всё хорошо до поры до времени и появились новые поисковые алгоритмы google. И наступил момент, когда даже «дополнительные результаты» не могли улучшить картину.

Алгоритм Панда направлен на поиск и выявление таких веб-страниц, определение допустимого их количества и принятие мер к проектам, на которых количество таких страниц слишком чрезмерно.

Как только алгоритм Панда начал действовать в полную силу, очень многие авторитетные сайты послетали со своих «вкусных» позиций в топах выдачи, и, соответственно, очень сильно «просели» по трафику.

Конечно, владельцы этих веб-сайтов, разобравшись в причинах такой катастрофы (изучив новые алгоритмы Google), постарались как можно быстрее исправить положение, но назад на «хлебные места» вернулись далеко не все. Их места заняли более удачливые конкуренты, которые вовремя среагировали на поисковые алгоритмы google , или вообще не нарушали новоявленных правил изначально.

Алгоритм Google: Пингвин

Следующий алгоритм – Пингвин (2012 г.) – нацелен совершенно на другие сферы, и не касается сайтов непосредственно, а бьёт их только косвенно – по ссылочной массе . Многие вебмастера и даже достаточно опытные СЕО-оптимизаторы до недавнего времени очень небрежно относились к ссылкам, которые они приобретали на свои сайты с чужих веб-ресурсов. И когда было объявлено, что новый алгоритм (Пингвин) будет разбираться со ссылочным ранжированием, основная масса владельцев «авторитетных» сайтов практически не придала этому значения.

Конечно, и задолго до появления Пингвина было известно, что поисковые системы очень негативно относятся к покупным ссылкам, и всячески ведут борьбу с нарушителями. Наиболее здравомыслящие вебмастера не связывались со ссылочными биржами, и приобретали ссылки, так сказать, в частном порядке, полагая, что раз их невозможно связать с биржами, то и не последует никакого наказания.

Однако они не учли того, что многие сайты-доноры сами являлись покупателями ссылок, и большая часть их «засыпалась», когда Пингвин начал активно действовать. Естественно, все ссылки, ведущие с этих сайтов, исчезли, и «третьи» сайты попросту лишились значительной части своей ссылочной массы.

А когда сайт лишается части ссылочной массы, то, естественно, он проседает в выдаче и теряет заметную часть своего трафика.

Кто-то из не разобравшихся в ситуации владельцев посчитал это как наказание за несуществующие прегрешения. Однако в итоге оказалось, что никаким наказанием тут и не пахнет. Наказанными были те сайты, причастность к закупке ссылок которых удалось доказать. А те сайты, которые, в свою очередь, были связаны с ними ссылками, просто «оказались не в том месте и не в то время».

Таким образом мы видим, что алгоритм Колибри «накрыл» огромный сегмент выдачи Гугла, связанный с закупкой ссылок. А потому он оказался гораздо эффективнее «точечных» ударов – теперь практически все сайты интернета, которые свой трафик (и доходы вместе с ним) получают из выдачи Гугла, то есть зависят от этой поисковой системы, будут внимательно следить за своей ссылочной массой и стараться избегать получения ссылок с сайтов, насчет которых имеется хотя бы малкйшее подозрение, что они свои ссылки, в свою очередь покупают на биржах.

Кто-то, конечно, проклинает Гугл, обвиняя его в нечестной игре, но не следует забывать о том, что, во-первых, Гугл никогда не играет нечестно – этого ему не позволяют ни американская мораль, ни американские законы, а во-вторых, ничего более эффективного в борьбе против эпидемии покупных ссылок пока еще никто не изобрел.

Алгоритм Гугл: Колибри

Третий алгоритм, который очень сильно ударил по множеству сайтов – это Колибри, появившийся в 2013-м году . Против чего же направлен этот алгоритм? А направлен он, в самую первую очередь, против дорвеев и сайтов, которые используют при продвижении своих страниц так называемый ключевой спам.

Очень многие пользователи Гугла при поиске нужной информации вводят в строку поиска «упрощенные», или «неправильные» запросы, например, «трусы купить где», «отдых таиланд» или «ресторан новосибирск», а кто-то вообще допускает в запросах множество ошибок.

Конечно, Гугл «подгоняет» к таким запросам наиболее релевантные им страницы сайтов, на которых, естественно, запросы в таком «неправильном» виде не встречаются, но зато логически отвечают им более полно.

Вроде бы что тут такого? Но дело в том, что все запросы, вводимые в строку поиска, Гугл сохраняет в своей базе, а этой базой постоянно пользуются дорвейщики и производители «клоачных» сайтов. Как правило, с помощью автоматизированных средств они «затачивают» страницы своих «произведений» под такие «неправильные» запросы, и тем самым сразу же выдают себя с потрохами.

Индексирующие роботы, анализируя содержимое страниц сайтов, постоянно сверяются с ключевой базой Гугла, и если таких «неправильных» фраз на страницах слишком много, то весь сайт попадает под подозрение.

Кто-то даже упускает из виду, что Гугл обращает внимание даже на то, с какой буквы начинаются имена собственные или географические названия – с большой или с маленькой. Ну, если кто-то пишет текст и пару раз неправильно напишет имя или название, то это не страшно. Но если название городов или имена людей на всем сайте – с маленькой буквы, то это уже сигнал не совсем (или совсем не) качественного сайта.

Итог анализа алгоритмов Google

Итак, мы рассмотрели три самых главных алгоритма Гугла , которые сообща охватывают очень важные сферы создания и продвижения веб-ресурсов. Все они стоят на страже дела улучшения качества веб-контента. Конечно, есть множество умельцев, которые очень успешно обходят все эти алгоритмы и продолжают наполнять выдачу Гугла некачественными сайтами, но это уже не тот объём, который был до появления Панды, Пингвина и Колибри.

Можно ожидать, что эти алгоритмы со временем будут усовершенствоваться, будут появляться более мощные их модификации. Потому лучше всего сразу нацелиться на честную работу и не допускать досадных оплошностей, которые в итоге могут существенно навредить вашему веб-детищу, с помощью которого вы собрались покорять топы выдачи Гугла!

Гугл Панда – это программа-фильтр от компании Google. Его задача – отслеживание и блокировка сайтов с некачественным контентом.

Больше видео на нашем канале - изучайте интернет-маркетинг с SEMANTICA

Поисковая система Google считает своей основной функцией предоставление пользователям релевантной, интересной и полезной информации. Именно поэтому она жестко борется с черными методами продвижения, когда сайт попадает в ТОП выдачи не с помощью создания качественного и востребованного контента, а путем манипуляций поисковыми системами.

История Панды

Алгоритм Google Panda – автоматический. Первым шагом к его созданию стала оценка большого количества сайтов на соответствие требованиям, которые Google предъявляет к контенту. Проводилась она вручную силами группы тестировщиков и позволила формализовать основные факторы, влияющие на качество содержания сайтов.

Первый раз Google Panda вышел в свет в феврале 2011 года, однако в полную силу заработал в апреле. Только в течение 2011 года алгоритм обновлялся 57 раз, а затем еще 5 раз в 2012 году. Следующий 2013 год принес последнее обновление Панды с собственным номером – Panda 25, которое претерпело небольшие изменения в июне и в июле этого же года. Последняя версия алгоритма Panda 4.0, выпущенная в мае 2014, пошатнула позиции новостных агрегаторов и затронула таких гигантов, как Ebay.

На сегодняшний день алгоритм совершенствуется практически непрерывно, обновляясь каждый месяц в течение 10 дней. Даты обновлений компания не обнародует, чтобы максимально затруднить манипулирование позициями сайтов в поисковой выдаче.

Требования Google Panda к сайтам

Google Panda предназначен в первую очередь для борьбы с некачественным контентом, поэтому его основные требования к сайтам основаны на качестве публикуемой информации.

  1. Сайт должен в основном содержать уникальный контент, на нем не должно быть дублированных текстов и изображений.
  2. Недопустимо использование автоматически сгенерированных текстов.
  3. Роботы поисковых систем и пользователи должны видеть одно и тоже, нельзя использовать страницы, которые видны только поисковикам и нужны исключительно для продвижения сайта.
  4. Ключевые слова каждой страницы сайта должны соответствовать ее содержанию, переспам ключевыми словами недопустим.
  5. Ссылки и реклама на страницах должны соответствовать тематике текстов и иному содержанию страницы.
  6. Запрещается применять дорвеи, скрытые ссылки или скрытый текст, целью которого является обман поисковой системы.

Алгоритм Google Панда накажет вас, если на страницах сайта содержится контент, скопированный с других ресурсов без ссылки на источник, шаблонные статьи, имеющие идентичную структуру, дублированные страницы. Попасть под фильтр Панда Гугл могут сайты, на которых тексты идут сплошной простыней, без иллюстраций, видео или инфографики, с одинаковыми метатегами на разных страницах.

Считается, что этот алгоритм мало внимания обращает на ссылки, однако он требует, чтобы ссылки в статьях непременно соответствовали их теме. То есть, в текстах про пластиковые окна не должно быть ссылок на продажу чая и т.п.

Помимо всего описанного, Гугл Панда уделяет много внимания поведенческим факторам. Если на вашем сайте велик процент отказов, пользователи уходят с него после первой же страницы и больше не возвращаются, вы непременно попадете в поле зрения алгоритма.

Как спастись от санкций Google Panda

Как выявить действие Панды

Прежде чем принимать меры по выходу из-под фильтров Google Panda, убедитесь, что вы пострадали именно от его лап. Как определить, Гугл Панда стал виновником вашей проблемы, или причина в чем-то еще?

Обратите внимание на связь между обновлением алгоритма и падением трафика на сайт. Update Google Panda проводится ежемесячно, продолжается 10 дней, узнать время его проведения можно на сайте Moz.com. Если совпадение налицо, надо принимать меры.

Второй способ поймать Панду - воспользоваться специальным сервисом Barracuda. Один из сервисов этого сайта, Panguin Tool, получив доступ к информации вашего аккаунта в Google Analytics, накладывает взятый из него график на даты обновлений алгоритма и выдает ответ. Минусов у этого способа два – он не подходит тем, у кого счетчик Google Analytics стоит недавно и требует доступа к аккаунту, который в, свою очередь, позволяет добраться до денег на вашем счете в Google Analytics.

Третий способ достаточно прост, но требует времени и терпения. Вам придется проверить каждую страницу сайта. Делать это надо так:

  1. Копируете несколько предложений из текста на странице в поисковую строку Google. Достаточно взять 100-200 символов.
  2. Смотрите, появился ли ваш сайт в верхней части выдачи.
  3. Заключаете тот же отрывок в поисковой строке в кавычки и снова смотрите, есть сайт в выдаче или нет.

Если сайт появляется в выдаче только во втором случае, значит виновник ваших бед Google Panda. Запомните, что проверить придется каждую страницу.

Как выйти из-под фильтра

Для выхода из-под фильтра Панды вам придется предпринять следующее:

  1. Сделать полную ревизию содержания сайта и заменить большую часть текстов на интересные и полезные, а остальные переработать так, чтобы они стали уникальными и актуальными.
  2. Убрать избыток ключевиков из заголовков всех уровней и метатегов. Заголовки поменять на релевантные и привлекательные, сделать так, чтобы они цепляли посетителя и вызывали желание прочесть текст.
  3. Почистить сайт от нерелевантной и агрессивной рекламы, что заметно улучшит поведенческие факторы.
  4. Удалить все дубли и битые ссылки, снять выделение с ключевых слов.
  5. Проверить ссылки на страницах на соответствие содержанию страниц и заменить или убрать нерелевантные.

Эти шаги помогут вам со временем выйти из-под фильтров Панды. Однако учтите: Google Panda – автоматический алгоритм, и никакие обращения не помогут вам быстро освободиться от его санкций. Заполняйте сайт интересным уникальным контентом, не увлекайтесь размещением на нем рекламы, и вы не попадете на зуб к умному зверю Панда Гугл.

Известно, что алгоритм Google Panda представляет собой совокупность обновлений систем поиска, нацеленных на увеличение релевантности страниц в выдаче. Для этого берется во внимание около ста различных факторов. В результате анализа сайты с низким качеством контента и выраженной переоптимизацией понижаются в выдаче.

Особое внимание алгоритм «Панда» уделяет внутренним факторам, в первую очередь текстовому контенту. Рассматривается его объем, уникальность, степень заспамленности ключами и прочее. Тем самым Panda дополняет другой алгоритм Google - Penguin, отвечающий за внешние факторы ранжирования сайта.

Также во внимание берутся процент отказов, логичность структуры сайта и правильность перелинковки.

Близкого знакомства с «Пандой», конечно, лучше сторониться. Но если сайт все же попал под фильтр, важно своевременно узнать об этом. Достоверно определить этот факт невозможно, так как информация о дате выхода обновлений Google «Панды» отсутствует. Но косвенным свидетельством попадания под фильтр будет снижение числа посетителей из ПС Гугл. Стоит отметить, что фильтр накладывается на весь сайт, поэтому, выполняя работы по выводу, необходимо уделять внимание ресурсу в целом.

Как определить, что сайт под фильтром Google «Панда»?

Воспользуйтесь сервисом проверки уникальности текстов - например, WebSite Auditor, Advego Plagiatus или любым другим Вам доступным, но при этом корректным. Необходимо определить уникальность всех документов на сайте. Если большая часть контента (от 20% и более) скопирована из других источников, рекомендуем принять меры по уникализации проблемных участков.

  1. Смотрим на содержательность контента. Пользователи должны находить на странице необходимый ответ на свой вопрос. Проверку на фильтр Гугла по этому параметру также должны пройти все страницы.
    • Необходимо наполнять страницы сайта максимально информативным и развернутым контентом: текстовым, графическим, медийным. «Панда» оценивает не только текстовую релевантность, но и общее наполнение страницы.
    • Следует удалить повторяющийся контент, который не терпит алгоритм Google Panda.
  2. Нужно проверить тексты на переизбыток ключевых слов. «Панда» накладывается за переспамленность.
  3. При подготовке нового качественного контента для сайта принимайте во внимание, насколько вовлечены пользователи, на основании статистики систем аналитики Гугла.
  4. Необходимо выстаивать правильную структуру сайта с логичной перелинковкой внутренних страниц.

Как перестать быть интересным алгоритму Google Panda?

В первую очередь необходимо сделать полный аудит сайта и определить, что могло вызвать наложение фильтра. Далее можно приступать к устранению недочетов.

  1. Уделите особое внимание контенту. Объем текста должен превышать 400 символов. Чтобы избежать попадания под действие фильтра Гугла «Панда», не менее важно отредактировать текст: он должен быть содержательным, удобочитаемым и уникальным. Дубли страниц необходимо удалить. Следует также подчистить от лишних ключей сам текст, а также заголовки и метатеги. Важно, чтобы сайт был в должной мере наполнен информацией, полезной для посетителей (например, новостями, статьями, разделами «Вопрос – ответ» и прочим).
  2. Постройте правильную структуру сайта. Это ключевое требование для правильной перелинковки страниц. Также важно исправить все технические ошибки сайта.
  3. Избавьтесь от нерелевантной рекламы. Если на странице имеются агрессивные всплывающие окна, поп- и кликандеры, пусть даже и по теме, не сомневайтесь, что интерес со стороны Google «Панды» - лишь вопрос времени. Решите сами, стоит ли потенциальная выгода от такой рекламы порождаемых ею рисков.
  4. Определите работоспособность ссылок (как внешних, так и внутренних). Для этого отлично подойдет плагин Broken Link Cheker или сервис Netpeak Spider . Не помешает добавить и дополнительную навигацию.

Главное при этом - помнить, что цель алгоритма «Панда» заключается в блокировке плохого контента. Google Panda любит большое количество уникального контента. Чем его больше, тем выше вероятность, что фильтр снимут. Нужно только периодически индексировать страницы.

Это основные рекомендации, которые позволят избежать санкций со стороны Гугла. Их можно использовать в качестве базовых еще на этапе создания сайта, его наполнения и продвижения. Чем более содержательным будет веб-ресурс, тем меньше ему угрожает этот алгоритм. Соответственно, позиции в выдаче будут предельно устойчивыми.

Если сайт попал под фильтр, то до следующего апдейта он уже не сможет освободиться от влияния Google Panda. Именно поэтому лучше предупредить проблемы, чем потом их решать.

Полезно 1

мкр. Черная Речка, д.15 Россия, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: обновления Google Panda 2018


ПОДЕЛИЛИСЬ

Обновление Google Panda изменило мир SEO.

Круто если нет, но лучше прочтите эту статью, будет полезно узнать что изменилось с внедрением алгоритма Google Panda и как избежать понижения в поисковой выдаче Google.

Обновление Google Panda. Справочная информация по SEO

Ознакомьтесь для начала с инфографикой.


С чего все началось.

ДО Panda SEO чем-то стал напоминать «грязный бизнес», и сайты качественные не всегда выигрывали в ранжировании.

Поскольку все больше и больше становилось неактуальных сайтов, плагиата и сайтов с плохим содержанием, они стали превосходить число хороших в результатах поиска.

Для борьбы со спамом Google потребовалось новое обновление.

Обновление Google Panda. Что это такое и что оно дает?

Panda, вероятно, войдет в историю как один из самых известных обновлений Google.

Главной задачей Panda было улучшить работу пользователей, избавив верхние поисковые места от спам-страниц.

Новое обновление и алгоритм учитывали репутацию сайта, дизайн, скорость загрузки и пользовательский интерфейс, чтобы людям было удобнее.

Как обновление Google Panda затронуло сайты

Эффект Panda был далеко идущими — и все еще ощущаются многими сегодня.

Первоначальное обновление в 2011 году затронуло примерно 12% поисковых запросов, что означает, что 12% рейтинга в Google резко изменилось.

Особенно это ощущалось крупными контент-фермами, включая About.com, eHow, Demand Media и Yahoos Associated Content.

Более 80% сайтов, на которые негативно повлияло обновление Panda, по-прежнему справляются с убытками.

Хронология обновления Google Panda

Panda регулярно обновляется с момента ее появления в 2011 году.

Обновление происходит, когда Google просматривает все сайты в Интернете, и проверяет их на алгоритм Panda. Обновление — это фактическое изменение алгоритма Panda.

Таким образом, алгоритм Google Panda обновлялся с 24 февраля 2011 года до 17 июля 2015 года.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Как обновления Google Panda повлияли на SEO-стратегию

Последствия обновления Panda ощутил весь мир маркетинга, и ее внедрение привело к существенному сдвигу в SEO.

В основном, оптимизаторы должны теперь ориентироваться на удобство интерфейса сайта для его посетителей.

Ран ее главная цель SEO заключалась в том, чтобы контент был доступен для поисковых систем и соответствовал необходимым запросам с помощью добавления необходимых ключевых слов и построению ссылочной массы, ведущей на необходимые продвигаемые страницы.

Тепер ь же а кцент делается на пользователя, а не на алгоритмы поисковых систем .

Это акцент на качество, а не на количество.

Например, многие думали, что путь к первому месту Google — это выкладывать контент каждый день, чтобы Google постоянно его индексировал.

Но из-за Панды, если вы ведете блог просто ради того, чтоб вести, можно принести больше вреда, чем пользы. Каждая опубликованная вами статья должна быть качественной, уникальной и предоставлять читателям необходимые ответы и информацию.

Качественный контент, дизайн и полезность = заслуженный, высокий ранг.

Чтобы занять первое место, вам нужно его заслужить.

Цитата от представителя Google резюмирует: «Создатели контента не должны думать, сколько посетителей у них было в день, а скольким посетителям они помогли».

Как узнать, пострадали ли вы от обновления Google Panda

Наиболее очевидным предупреждающим знаком является внезапное падение трафика.

Если это произошло с вашим сайтом во время известного обновления алгоритма, вы, вероятно, пострадали от штрафа Panda.

Другой способ определить — посмотреть на общее качество вашего сайта. Снимите розовые очки, и ответьте себе на вопросы.

  • Являются ли ваши показатели отказов высокими?
  • Делятся ли вашим контентом и получает ли он комментарии?
  • Удобна ли навигация и ссылки?
  • Проверьте общее качество сайта. Если у вас есть сомнения, то у Google явно тоже;)

Пострадали от Панды? Как реабилитироваться

Первый шаг: не паникуйте. Вместо этого приступайте к работе.

Обновления Panda происходят примерно раз в месяц, что дает вам немного времени для работы.

Между обновлениями, если вы предпримете правильные шаги, то начнете видеть некоторые улучшения в своем рейтинге. Иногда Google повторно обновляет все ваши изменения.

Теперь к конкретике. Когда Panda наносит удар, нужно восстанавливаться через контент.

Как Panda проверяет ваш контент

Поскольку Панда только за качественный контент, это именно то, с чего вам нужно начинать.

Прежде всего, не удаляйте одним махом весь контент, даже некачественный. Лучше исправьте имеющийся и добавьте то, чего ему не хватает.

Если убрать все, можно сделать еще хуже.

Если вы сомневаетесь в качестве страницы, перейдите к своим метрикам. Страницы с высокими показателями отказов и с низким уровнем времяпрепровождения на сайте человека говорит о том, что с контентом явные проблемы.

Если вы не уверены, то

Список довольно внушительный получился))

Поэтому начните со страниц, которые в ТОПе и приносят больше всего трафика. Чтобы узнать какие именно это страницы (если еще не знаете), посмотрите аналитику (можно через Google Analytics).

Помимо собственного контента, важно следить за тем, что пишут пользователи сайта.

Не весь контент, написанный пользователями, плох, но он подчиняется тем же стандартам качества, что и любой другой контент на вашем сайте.

Обратите особое внимание на качество, если ваш сайт содержит форумы и там много комментариев.

Алгоритм рассматривает комментарии как часть вашего контента. Поэтому, если эти комментарии содержат полезную информацию в дополнение к содержанию, то это может быть хорошим дополнением к вашему сайту.

А низкокачественные комментарии могут повредить вашему сайту. Но не удаляйте комментарии полностью. Это может повредить ваш сайт с точки зрения взаимодействия с пользователем.

Каков статус обновления Google Panda сегодня?

Гугл Панда все еще жива и здорова… и продолжает развиваться.

Фактически, Panda получила повышение: в 2016 году она стала частью основного алгоритма Google.

Самое большое изменение, которое заметили большинство пользователей — это конец официальных объявлений.

Panda стала основой, потому что она больше не требует большого количества изменений.

То есть основное внимание уделяется качественному контенту и опыту пользователя.

Завершение обновления Google Panda

Panda революционизировала SEO. Для большинства изменения были к лучшему.

Сегодня принципы Panda — это общие стратегии SEO.

Поэтому, если вы их не используете, настало время уделять серьезное внимание Панде.

Думаю, статья была полезной, даже тем, кто не особо в теме SEO.