Поисковые фильтры Яндекс: диагностируем, проверяем и лечим. Что получается в остатке? Особенности работы фильтров

Приветствую вас, уважаемые посетители блога. Сегодня я расскажу вам о фильтре яндекса АГС, а также о том, как на него не нарваться.

Как вы уже знаете, поисковые системы требуют от веб-мастеров создавать только качественные сайты для людей. У каждой из поисковых систем свое понятие касательно СДЛ, однако, если вы будете пренебрегать их советами, то рано или поздно поисковые системы наложат на ваш сайт санкции или, как еще говорят, ваш сайт попадет под фильтр ПС.

Например, у Гугла один из фильтров называется Панда. Что касается Яндекса, то у него есть фильтр под названием АГС, и именно этой теме я и хотел бы посвятить данную статью, рассказав, что это за фильтр, по каким причинам ваш сайт может туда попасть и как этого избежать.

Итак, я уже сказал о том, что АГС представляет собой санкции по отношению к сайту от поисковой системы Яндекс.

Почему этот фильтр назвали именно АГС, я не знаю, но некоторые строят предположения, что фильтр создан для борьбы с ГС, поэтому и получил такое название, которое некоторые веб-мастера расшифровывают как анти-ГС.

В принципе они в чем-то правы, так как АГС действительно создан для борьбы с сайтами, которые не несут пользы для посетителей.

Принцип его работы достаточно прост – если поисковый робот посчитает, что ваш сайт не удовлетворяет определению качественного сайта для людей, то все страницы веб-сайта, которые есть в поиске, вылетят из него, и останется там только главная страница. Но бывает и такое, что в поиске может остаться немного больше страниц, например, 3-5, которые со временем также могут быть исключены из поиска.

Давайте разберемся, по каким причинам Яндекс может наложить санкции на ваш сайт? Если отвечать на этот вопрос, то список будет просто огромным, так как при определении качественного сайта Яндекс обращает внимание на многие факторы, некоторые из которых до сих пор неизвестны даже веб-мастерам. Поэтому я перечислю наиболее частые причины, по которым Яндекс может занести ваш сайт в фильтр АГС.

Неуникальный контент. Думаю, все вы знаете, что очень плохо воровать статьи с других сайтов, так вот фильтр АГС это еще одна причина, по которой вам стоит отказаться от этой затеи.

В принципе, справедливое решение, ведь каждый владелец качественного web-сайта работает над ним, вкладывает в него свою душу, так почему кто-то решил, что может пользоваться его трудами, на которые веб-мастер тратил свои силы и время?

Заспамленность ссылками. Еще одна причина, по которой ваш сайт может попасть под АГС – слишком большое количество исходящих ссылок. Совсем не важно, каково происхождение этих ссылок – продажа или спамеры, но если исходящих ссылок будет больше, чем входящих, то это очень плохой показатель для сайта.

Не качественные внешние ссылки. Как вы знаете, каждая ссылка, ведущая на ваш сайт, добавляет ему дополнительный вес. А что если ссылка будет размещена на каком-то из сайтов, находящихся под фильтром? Вполне вероятно, что АГС может навестить и вас.

Плохие поведенческие факторы. Еще как вариант, почему яндекс может зафильтровать ваш сайт. Для чего создан АГС? Правильно, для борьбы с некачественными сайтами. Так вот задумайтесь над тем, что должен подумать Яндекс, если заметит, что посетители закрывают ваш сайт, не успев его открыть? Конечно же, он сделает выводы, что ваш блог или сайт не интересен посетителям и отнесет его к ГС.

На мой взгляд, это наиболее частые причины, по которым Яндекс банит сайты, поэтому перечислять данный список я закончу и перейду к следующему вопросу.

Как проверить попал ли сайт под фильтр АГС

Если у вас уже есть собственный web-ресурс, то вам наверняка будет интересно узнать, а не попал ли он под фильтр АГС? Поэтому ниже я дам несколько рекомендаций по поводу того, как это проверить.

Раньше с АГСом была немного другая ситуация, нежели сейчас, и если почти все страницы сайта выпадали из поиска, то считалось, что сайт с большой долей вероятностью попал под АГС.

Однако сейчас Яндекс изменил свою политику относительно данного фильтра, и совсем недавно у многих сайтов, находящихся под АГС, страницы стали возвращаться в поиск, зато произошли изменения с параметром ТИЦа.

Самое низшее значение ТИЦа это 0, но если сайт под АГС, то Яндекс лишает сайт возможности получить ТИЦ, приписывая ему значение ТИЦа «не определено». Проверить это можно вбив в адресную строку адрес http://yaca.yandex.ru/yca/cy/ch/вашсайт.ру , где вместо значения вашсайт.ру нужно вписать адрес вашего сайта.

Для сравнения я нашел один сайт, на который Яндекс наложил санкции, поэтому давайте посмотрим, что нам будет выдавать. Web-сайт, на который не наложен фильтр АГС:

Сайт, на котором присутствует фильтр АГС:

Даже если у сайта, на который не наложен АГС значение ТИЦа равно нулю, то нам должно выдавать значение 0, а не «не определен». Также есть некоторые сервисы, которые определяют, находится ли сайт под АГС, но, как правило, они не могут сообщить об этом с первого дня попадания сайта под АГС и на этом им требуется время. Но тем не менее давайте их все-таки рассмотрим.

Первый сервис xtool . Интерфейс там довольно простой, поэтому расписывать его не буду. Чтобы проверить сайт на АГС, нужно в поле для адреса сайта вводим свой домен и нажимаем проверить, после чего вам выдаст много информации о сайте, и в одной из колонок будет находиться информация об АГС:

Сайт, который я ввел, действительно находится под АГС, о чем свидетельствует красный кружок. Также обратите внимание на другие две колонки, которые я выделил. На сайте очень много ссылок, которые превышают количество внешних ссылок, а это, как я говорил в причинах АГСа, очень плохо, поэтому значение заспамленность ссылками в красных кружочках.

Другой способ узнать об АГСе – воспользоваться расширением для браузера мозилла RDSBar. Если фильтр наложен на ваш сайт, то в этом инструменте это также будет отображаться:

Как не попасть под фильтр АГС

Осталось рассмотреть один из важных вопросов данной статьи – как не попасть под фильтр АГС. В принципе, я уже перечислил выше причины попадания web-сайтов под фильтр АГС, поэтому нужно просто не совершать этих ошибок. Не воруйте чужие статьи, пишите их сами.

Если у вас плохие показатели поведенческих факторов, то подумайте, каким образом можно сделать ваш сайт более привлекательным. Например, изменить дизайн или стиль написания статей, устроить конкурсы на сайте, в общем, экспериментируйте, добавляя на сайт новые интересные фишки, которые могут понравиться вашим посетителям.

Время от времени проверяйте свою ссылочную массу, удаляя не нужные ссылки с сайта или закрывая их от индексации. Ну и конечно соблюдайте элементарные правила сео-оптимизации. В общем, как говорит Платон Щукин (тех. поддержка Яндекса), работайте над своим сайтом и развивайте его, делая интересным для людей, и тогда любые фильтры и санкции вам будут не страшны.

Здравствуйте, уважаемые читатели блога сайт. В этой серии статей мы будем говорить про санкции и фильтры, которые имеет обыкновение накладывать на провинившиеся сайты поисковая система Яндекс.

Также мы рассмотрим факторы способные привести к бану и опишем фильтры, которые применяются в массовом порядке. Ну, и, конечно же, не возможно будет не сказать о том, .

Правда в рамках одной статьи охватить весь пласт информации по фильтрам мы не сможем физически, поэтому будет продолжение этой публикации . Сегодня же мы поговорим про, а также узнаем как вычислить попадание сайта под АГС и фильтры за переоптимизацию или переспам контента. Естественно, что будут описаны совокупности факторов, приводящие к наложение этих санкций, и обозначены проверенные пути выхода из под них. Надеюсь, что информация будет полезная и вы используете ее на благо своего проекта.

Виды санкций Яндекса и причины попадания сайта в бан

К сожалению, даже выполняя все приведенные ниже предписания, вы не будете на сто процентов застрахованы от пессимизации, но риск снизится существенно. По любому, понимая механизм наложения фильтра, вы сможете сами понять за что вас наказали и постараться устранить существующие недочеты. Консультации с Платоном (обычно, обезличенный человек, отвечающий вам на вопрос заданный в техподдержку Яндекса, подписывается Платон Щукин, ну, или раньше так было, по крайней мере) тоже будет проще вести, понимая принципы наложения баннов.

Итак, все фильтры Яндекса , и , можно разделить на:

  1. Предварительные фильтры — их поисковик применяет еще на этапе попадания сайтов в индекс и базовый поиск. Типичным примером может являться .
  2. Постфильтры — налагаются уже после расчета релевантности документа (ранжируемой веб-страницы)

Санкции накладываемые Яндексом можно разделить также на:

  1. Ручные
  2. Автоматические

А еще по степени и типу ущерба можно выделить:

  1. Полный бан (сайт забанен), т.е. произошло исключение всех страниц из поисковой базы. Естественно, что при этом трафик с этого поисковика прекратится полностью.
  2. Возможен фильтр в виде неучета исходящих ссылок с ресурса. Он может быть важен, например, для тех, кто планирует купить с него ссылки.
  3. Возможен и неучет входящих ссылок, что будет серьезно ухудшать ранжирование.
  4. За агресивную рекламу или имеющийся контент для взрослых вас могут ограничить в поиске (например, во втором случае показываться вы будете только при выборе пользователем, ).
  5. Пресловутый АГС, который приводит к исключению из поисковой базы части страниц ресурса (зачастую большую часть).
  6. Наказание за выявленную попытку накрутки поведенческих факторов (будем говорить подробнее чуть ниже).
  7. Еще ряд фильтров и санкций, которые накладываются после ранжирования.

Какие причины могут приводить к наложению санкций ?

  1. Тексты запросто могут приводить к наложению фильтров. Например, у меня это .
  2. За ссылки тоже могут покарать. Например, за неумелую и неумеренную работу по набору внешней ссылочной массы или за переоптимизацию при организации внутренней перелинковки.
  3. За злоупотребление рекламой, размещенной на страницах ресурса, тоже может последовать наказание.
  4. Понятно, что и какие-то попытки накруток (ПФ и т.п.) могут привести к печальным последствиям.
  5. Могут выявить ваши аффилированные сайты — созданые для продвижения услуг или товаров одной и той же компании с целью занятия как можно большего числа позиций в выдаче (по большинству поисковых запросов в выдаче будет представленного только по одному результату с одного ресурса).

За что можно получить бан в Яндексе?

Давайте начнем с самого радикального наказания Яндексом простых веб-мастеров, а именно с вещей, которые могут привести к попаданию сайта в бан (так называемое черное SEO).

  1. Скрытый текст — белым шрифтом по белому фону или использование еще каких-либо методов размещения контента, который обычные посетители не видят. Бан можно получить, например, и за использование для скрытия текста .
  2. Размещение на страницах списка ключевых слов, под которые они продвигаются. Наверное, встречали (раньше это было распространено) оформление этого списка в виде блока «Нас еще искали по запросам». Однако, могут наказать (баном или фильтром) даже за обычную перелинковку, где вы усердно ссылаетесь на другие страницы с использованием ключей (например, по стуку от конкурентов). В этом плане довольно опасно перебарщивать.
  3. Клоакинг — это когда поисковым роботам (их узнают по юзернейму, которым они представляются при заходе на сайт или Ip адресу) выдает одни контент (как правило, переоптимизированный и трудночитаемый), а посетителям совершенно другой (без лишних ключей и вполне себе лаконичный). Клоакинг активно использовался на заре становления поисковых систем, когда те еще не наказывали за спам ключами и т.п. вещи.
  4. Ссылки с картинки размером в , которую, естественно, на сайте не видно, но ссылку-то поисковик видит и учитывает. Опять же это рудимент из прошлого, который сейчас разве что только совсем дремучий вебмастер будет использовать.
  5. Контент созданный автоматически, например, в доргене (движке дорвея) или синонимайзере. Эти вещи по-прежнему активно используются, и дорвейщики умудряются до сих пор обходить препоны поисковиков. Жизнь доров не долга, но сил на их создание особо не тратится, поэтому они берут количеством и глубоким изучением меняющихся алгоритмов поисковиком и попыткой сыграть на их уязвимостях.
  6. Наличие на сайте страничек или разделов для обмена ссылками (созданных вручную или автоматически) или любых других структур, которые можно отнести к разряду линкопомоек (сотни и тысячи ссылок на разные ресурсы). Причем не важно, будут ли линки проставлены с текстовым анкором или они будут идти с баннеров или картинок. Все это прямой путь в бан Яндекса, либо (если повезет) к наложению санкций. Причем меняться ссылками можно, но они должны быть тематическими вашему ресурсы и в небольшом количестве.
  7. Размещение веб-страницы как бы вне сайта, ибо на них нет внутренних ссылок (только внешние) с вашего ресурса и . Выполнены они при этом могут быть в дизайне сайта и иметь все те же самые элементы навигации.

Если на вашем ресурсе что-то из описанного выше имеется (может быть даже и без злого умысла созданное), то.

От бана давайте перейдем к более мягким мерам наказания используемых Яндексом, а именно к фильтрам. Наличие многих из них официально подтверждены этой поисковой системой, а часть является досужим домыслом оптимизаторов, но это вовсе не говорит о том, что они не используются (помните как в ДМБ: «Ты суслика видишь? - Нет. - И я нет. А он есть!»).

Давайте перечислим фильтры Яндекса , под которые не хотелось бы никому попасть.

Фильтр АГС (17, 30 и 40) от Яндекса

АГС (антиго*носайт) — бывают разновидности с номерами 17, 30 и 40. Опасаться этого фильтра стоит прежде всего тем, кто на потоке создает ГС (сайты, созданные под поисковые системы или для продажи ссылок, но никак не на благо посетителей). Появился этот тип пессимизации в 2009 году, а его последняя модификация АГС 40 датируется концом 2013 года. Как уже понятно из названия, фильтр этот призван выкашивать из выдачи некачественные ресурсы, а его новые версии связаны с повышением его избирательности.

После его наложения в индексе Яндекса остается обычно всего несколько страниц (от одной до десятка). При этом оставшиеся в индексе страницы какой-либо дополнительной пессимизации не подвергаются (их позиции в выдаче остаются неизменными). Работает АГС, естественно, в автоматическом режиме.

Давайте рассмотрим некоторые критерии, по совокупности которых повышается вероятность попасть под фильтр АГС Яндекса :

  1. Недавно зарегистрированное доменное имя (молодой сайт)
  2. Размещение ресурса на бесплатном хостинге
  3. Использование (Joomla, WordPress, взломанная DLE и т.п.).
  4. Низкая или практически нулевая посещаемость (несколько человек в день). По существующей статистике можно сделать выводы, что если посещаемость составляет менее полусотни человек в сутки, то вероятность попадания сайта под АГС Яндекса весьма высока. А вот если посещалка перешагнет порог в три сотни уникальных посетителей, то подхватить АГС станет очень трудно выполнимой задачей. читайте в приведенной публикации.
  5. . Попав в оба эти каталога, вы сможете себе гарантировать практически неприкосновенность в отношениях с АГС. Об этом говорит анализ тех ресурсов, которые под этот фильтр угодили.
  6. Отсутствие или малое количество внешних ссылок, ведущих на этот ресурс. Для ликвидации этого пробела без допущения перегибов советую ознакомиться с материалами:
  7. Наличие форумов, блогов или досок объявлений (на том же домене или поддомене), на которые информация добавляется всеми желающими без модерации. Обычно в результате создается чудовищная спам-помойка, которая сильно дискредитирует данный ресурс.
  8. Многократное дублирование внутреннего контента (например, для получения большего числа страниц, с которых можно продавать ссылки). В WordPress это могут быть архивы меток, рубрик, временные архивы и т.п. вещи.
  9. или текстов плохого качества (низкопробный рерайт или автоматически сгенерированные тексты).
  10. Слишком агрессивная внутренняя перелинковка страниц с большими блоками внутренних ссылок. В этом плане, многие советуют быть осторожнее с такими вещами, например, как облако тегов.
  11. Присутствие признаков продажи ссылок (наличие внешних ссылок на многих страницах сайта).
  12. Наличие агрессивной рекламы типа всплывающих или выезжающих окон, а также . Уважающий себя и своих читателей ресурс, как правило, такие вещи не будет использовать.

Как вывести сайт из под АГС (17, 30, 40)?

Однако, если вы уже попали под этот вид пессимизации, то вас в первую очередь будут интересовать методы выхода из под фильтра АГС . По сути, это универсальные рекомендации, помогающие понять то, что произошло с вашим сайтом, когда вы заметили .

  1. Естественно, что начинать нужно с «письма Платону», или, другими словами, попробовать связаться с поддержкой Яндекса для выяснения причины. Ни в коем случае не качайте права, а просто объясните ситуацию и попросите совета. можете посмотреть по ссылке.
  2. Если после ответа Платона или по своем собственному разумению вы поймете, что дело в контенте (а именно в его низком качестве или переоптимизации), то ничего другого не останется, как переписать контент . Понятное дело, что будь ваш ресурс реальным ГС вы этого делать не будете в силу нецелесообразности (проще новый ГС сляпать), а вот при попадании под АГС действительно вашего детища, которое вы холите и лилеете, можно будет и напрячься.

    Правда, у меня это вылилось в пять месяцев каторжной работы по переделке четырех сотен статей, но , поэтому овчинка стоила выделки. Методику работы с текстами вы можете почерпнуть отсюда:

  3. Если вы вкупе с бесплатным движком используете еще и , который одновременно юзают еще тысячи ресурсов в сети, то имеет смысл попробовать сменить дизайн на более уникальный.
  4. Если создаваемый вами сайт позиционируется как коммерческий, то обязательно добавьте на него контактные данные (телефон, адрес офиса, схему проезда), четко обозначив какой именно организации он принадлежит. , так что... Очень многие ГС маскируются под коммерческие ресурсы, но именно отсутствие контактов их выдает. Для информационного ресурса добавьте контактный Емайл или .
  5. Попробуйте добавить на свой сайт какой-то полезный сервис. Например, стандартом для многих ресурсов коммерческой тематики является наличие калькуляторов для расчета стоимости услуг или чего еще либо. Подсмотреть это дело можно у конкурентов.
  6. Если есть подозрение, что юзабилити и навигация по сайту хромают, то не примените это поправить. А вообще, прочитайте статью про « » и сделайте для себя выводы о несоответствии вашего проекта стандартам современного SEO, чтобы АГС даже и рядом не стоял.

По сути, все приведенные выше советы по выходу из под АГС сводятся к одному: делайте сайты для людей — с нормальным дизайном, с нормальным отформатированным контентом и удобной навигацией (юзабилити). Совет простой, но на его выполнение придется потратить уйму времени (либо денег).

Санкции Яндекса за текстовое содержимое сайта (за контент)

Текстовые фильтры можно разделить на два основных типа, которые приведены и описаны ниже. Выход из под них будет несколько отличаться, но общей чертой является оптимизация контента под текущие требования SEO, а не под то, что рулило десяток лет тому назад.

Портяночный фильтр

Фильтр за переспам или портяночный, который был введен в 2010 году и никак Яндексом подтвержден не был (но принцип суслика из ДМБ тут все равно действует). Его отличительной особенностью является проседание страницы по какому-то одному запросу, в то время как другие запросы, по которым эта веб-страница ранжируется, могут остаться на своих позициях.

Методы борьбы с портяночным фильтром достаточно просты: разбавление чистых вхождений просевшего ключевого слова (фразы), уменьшение объема текста (опять же это актуально в большей степени для коммерческих, а не информационных сайтов), а также рулит (абзацы, заголовки разных уровней, списки и т.п.). То есть красочно и удобно оформленная «портянка» (даже в десятки тысяч знаков) без засилия ключей с прямым вхождением может потрясающе восприниматься посетителями и потащит запрос вверх.

Под санкции за переспам чаще всего попадают :

  1. Сильно напичканные ключевыми словами (в прямом вхождении) страницы.
  2. Тексты длиной в десятки тысяч знаков, которые никто не читает. Ключевым является именно то, что их не читают из-за пугающего размера, отсутствия форматирования и кучи выделенных ключей, вместо каких-то смысловых выделений. Читаемый текст большого объема, наоборот, может являться вполне хорошим подспорьем для продвижения (особенно информационного сайта).
  3. Кстати, именно из-за того, что лет пять-семь назад оптимизаторы писали огромные тексты для коммерческих сайтов (без особого форматирования, ибо они писались только для Яндекса и зачастую пряча их от посетителей за спойлерами или в формах без прокрутки), в которые могли легко запихнуть сотни вхождений ключа не превышая критического значения тошноты (процента вхождения ключевых слов относительно общего числа слов в тексте). Поисковики этот метод нечестной оптимизации со временем раскусили и ввели соответствующие наказания за подобную накрутку.
  4. Кто-то сравнивает тексты моих статей с портянками, но это не правильно, ибо они подпадают под это определение только лишь большими размерами. Да и не так это критично для информационного ресурса (см. википедию, хабрахарбр и другие мейнстримовые информационные ресурсы). Главная проблема длинных текстов — удержать пользователя за их прочтением, чему помогает форматирование, оформление и цепляющие подзаголовки. Ну, и содержание, конечно же, куда ж без него.

Шаги по выходу из под портяночного фильтра (за переспамм):

  1. Пишем в саппорт Яндекса (да, при этом ) о возможном наложении санкций с попыткой выяснить каких именно.
  2. Чистим тексты от переспама ключами, а также по ходу удаляем «воду» для уменьшения объема при сохранении сути. Это приведет к лучшему восприятию контента пользователями, особенно вкупе с выполнением условий из следующего пункта.
  3. Добавляем форматирование, если его не было (разбиение на абзацы по смыслу, добавление подзаголовков, списков, смысловых выделений, картинок, а также по необходимости таблиц или еще чего-то подобного). Это повысит вероятность прочтения текста и приведет к улучшению поведенческих факторов. Другими словами, делаем из портянки конфетку.
  4. Проверьте, дает ли содержимое страницы ответ на запрос пользователя в полной мере. Это условие тоже нужно соблюдать для выхода из фильтра за переспам.

Фильтр за переоптимизацию контента

Фильтр Яндекса за переоптимизацию был наложен на мой блог весной 2013 года и всю его прелесть я довольно хорошо прочувствовал на собственной шкуре. Появился же он двумя годами ранее, и его существование было официально подтверждено Яндексом. Отличительной чертой фильтра является проседание не какого-то одного запроса, а всех запросов, по которым ранжировалась (продвигалась) попавшая под фильтр веб-страница (проседают и ВЧ, и СЧ, и даже НЧ и сверх НЧ). В моем случае таких страниц было много и общая потеря трафика была трех-четырех кратной.

Ну, во-первых, понадобится полная переписка или существенная корректировка текста тех страниц, которые под этот вид санкций Яндекса угодили. Лично я переписывал все, что у меня было добавлено за первые три года существования блога. Также по ходу этого занятия желательно и убрать чрезмерное использование тегов акцентирования (b, strong, em), а еще злоупотребления ключами в подзаголовках.

Я еще и тайтлы с альтами из картинок удалил, ибо там ключей было море (это был мой первый шаг еще до переписывания контента, которым я думал по быстрому купировать проблему, но этого оказалось недостаточно, а на восстановление хотя бы альтов рука уже не поднималась в силу масштабности работы). Также я (выделял ссылки на полезные ресурсы, обновлял устаревшую информацию и удалял «воду»).

Кроме этого хочу сказать, что, который накладывается лишь только за переспам ключами. Второй из описанных санкционных инструментов накладывается не только за переспам ключами, но и за попытку подсунуть поисковику текст не совсем релевантный запросу, под который он оптимизирован. Такой текст не полностью отвечает на запрос пользователя или не отвечает на него вовсе, хотя и пресыщен нужными ключами.

Зачастую под фильтр за переоптимизацию попадает и бессмысленный контент, содержащий «воду» в океанических масштабах. Примером отсутствия ответа на запрос пользователя может быть оптимизация под коммерческий запрос какого-то товара или услуги, но без указания цен. Или попытка продвинуться по запросу со словом «отзывы», но не предоставляя этих самых отзывов на странице. Такие страницы могут попасть под фильтр Яндекса именно потому, что вы обманываете ожидания пользователя (вашего потенциального клиента).

Симптомы фильтра за переоптимизацию обычно выливаются в резкое проседание продвигаемых на данной веб-странице запросов сразу на десятки позиций вниз. В совсем запущенных случаях может наблюдаться подобное проседание не только отдельных страниц, но и всего сайта целиком (по всем продвигаемым запросам), но без смены релевантных страниц. У меня такого не было, ибо по ряду запросов после наложения фильтра позиции в выдаче Яндекса не изменились. Но шандарахнуло все равно прилично (общий поток посетителей на блог снизился в три раза).

Обобщая все выше сказанное можно дать несколько общих советов по выходу из под текстовых фильтров Яндекса :

  1. Пишем Платону Щукину (в поддержку Яндекса) для выяснения или уточнения причины снижения потока посетителей, приходящих на ваш сайт с данной поисковой системы. Опять же помните, что ничего не дается нам так дешево и не ценится так дорого, как вежливость.
  2. Чистим контент от переспама ключевыми словами (процесс может потребовать от вас приложения массы усилий в случае большого объема контента, который надо будет пересмотреть под новым углом зрения).
  3. Ставите себя не место пользователя, вводящего в поисковой строке запрос, под который вы оптимизировали данную страницу, и пытаетесь понять, дает ли она на него исчерпывающий и всеобъемлющий ответ. В ходе этого может понадобиться обновление устаревшей информации, удаление «воды» и расставление акцентов (выделений) не на ключевых словах, а на важных моментах, за которые должен цепляться взгляд пользователя. Это поможет получить странице хорошие поведенческие факторы и выйти из под фильтра за переоптизацию или переспам контента.Про рассмотренные чуть выше примеры можно сказать, что нужно будет добавить на страницы цены (либо дать на них ссылку или организовать их вывод во всплывающем окне), если этого ожидает пользователь, вводя свой запрос, или добавить отзывы, если они в запросе упоминаются. В общем, не обманывайте ожидания ваших потенциальных клиентов и они (а вкупе с ними и Яндекс) вами останутся довольны. Все как в реальной жизни.

Думаю, что на сегодня достаточно (иначе получится «портянка», а не статья). Продолжим в самое ближайшее время, не переключайтесь.

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Вывод сайта из под фильтра Google Пингвин - пошаговое руководство
Минусинск в Яндексе - за что накладывается фильтра, как проверить нахождение сайта под Минусинском и что делать
СЕО терминология, сокращения и жаргон Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт

На поисковых системах лежит огромная ответственность - предоставлять пользователям Интернета информацию, которая в полной мере удовлетворяет их запрос. Однако с течением времени, количество сайтов начало увеличиваться со скоростью геометрической прогрессии. Не все они обладают качественным и востребованным контентом, а некоторые ресурсы созданы исключительно для извлечения прибыли. В связи с этим были созданы фильтры поисковых систем, которые понижают позиции сайта при выдаче или блокируют ресурс.

Особенности работы фильтров

Прежде всего, необходимо понимать, как работают фильтры поисковых систем. В целом поисковики накладывают санкции в нескольких случаях:

  • Тексты и микроразметка. Фильтры поисковых систем срабатывают в случае, если на сайте обнаруживается большое количество спама (заспамленность текста можно проверить при помощи программ на проверку уникальности текста). Негативно сказывается на качестве ресурса излишняя оптимизация, а также избыток ключевых запросов в структуре текста (заголовки, подзаголовки и т.д.).
  • Ссылочная масса. За неестественно быстрое наращивание ссылочной массы (в частности внешней) ресурс может попасть под фильтры. Также негативно сказывается на поисковой выдаче спам в анкорах, избыточная перелинковка и манипулирование ссылками. Например, прогон или ссылочные кольца.
  • Поведенческие факторы. Под фильтры поисковых систем подпадает также накрутка и размещение на страницах невидимых элементов, с которыми взаимодействует пользователь, но не подозревает об этом. Непроститльным является перенаправление пользвателей на площадку, что не соответствует их запросу.
  • Реклама. Не последнюю роль в появлении санкций играет рекламное содержимое сайта. Рекламные объявления не должны быть навязчивыми или избыточными. Более того поисковики могут понизить в выдаче тот сайт у которого для мобильных версий «припасена» агрессивная реклама, такая как подписка или клики. Также существуют фильтры, что ограничивают деятельность сайтов, на страницах которых был замечен контент категории «18+»
  • Идентичные сниппеты. Если рядом со ссылкой в поисковой выдаче появляется одинаковая информация для отдельных ссылок одного сайта, то это может послужить причиной для наложения на сайт санкций. Подобное зачастую происходит с интернет-магазинам у которых обширный ассортимент товаров одного вида.
  • Аффилиаты. Фильтры поисковых систем крайне отрицательно относятся к группам сайтов, что принадлежат одной кампании и созданы специально для того, чтобы вывести основной ресурс в ТОП.

Для каждого этого случая созданы специальные программы-фильтры или поисковые алгоритмы, которые тщательно следят за чистотой оптимизации, предотвращая появление некачественного контента в поисковой выдаче. Каждая поисковая система обладает своими ограничителями, которые успешно справляются с этой задачей

Основные фильтры «Яндекс»

На обширном пространстве Рунета «Яндекс» был и остается основной поисковой системой. С каждым годом он ужесточает требования к сайтам и создает все новые и новые фильтры. Начинающие веб-мастера боятся попасть под жестокие санкции этого поисковика, поэтому чтобы успешно продвигать свой ресурс необходимо знать «враг в лицо», то есть иметь представление об основных фильтрах поисковой системы «Яндекс».

  • АГС «Яндекса», по отзывам интернет-маркетологов, считается самым жестким фильтром, ведь в свое время он успешно блокировал не одну сотню ресурсов. Основная его деятельность направлена на борьбу с сайтами, которые продают ссылки и повышают нелегальным образом позиции других ресурсов, хотя сами по себе не несут полезной информации.
  • «Непот-фильтр » был создан по образцу АГС. Однако его задача более узкая: блокировать только те ресурсы, которые продают ссылки. Фильтр определяет сайт, занимающийся несанкционированной деятельностью, и накладывает ограничения, которые утилизируют ссылочный вес продвигаемого ресурса.
  • «Ты последний ». Этот фильтр с незатейливым названием ориентирован только на понижение позиций сайтов с неуникальным контентом. Однако это не причина его игнорировать. Зачастую санкциям подвергаются тексты, в которых уникальность ниже 92%.
  • «Новый домен ». Это, скорее, не фильтр, а своего рода ограничение, не позволяющее только что созданному ресурсу занимать лидирующие позиции.
  • «Ты спамный ». Фильтр на отслеживание спама внимательно следит за качеством контента на сайте, и если текст переоптимизирован, то позиция ресурса падает в выдаче. Важно понимать, что обилие ключевых запросов не является гарантией того, что сайт займет хорошое место в топе. Любая информация должна быть, в первую очередь, полезной для пользователя, а уже потом соответствовать требованиям поисковых роботов. Вряд ли пользователь выявит желание просматривать простыню текста, где по нелепой "случайности" практически в каждом предложении присутствует ключевой запрос, но отсутствует необходимая информация.
  • «Аффилиат ». Яндекс внимательно следит за кампаниями, которые пытаются продвинуть свои основные ресурсы посредством создания дополнительных сайтов и перелинковки между ними. Если на таких площадках находится уникальная и полезная информация, то они будут иметь право на жизнь, но если контент создан только ради контента, то ресурс могут запросто заблокировать.
  • «Редирект ». Этот фильтр ведет активную борьбу с дорвеями, то есть с сайтами, перенаправляющими пользователей на ресурс, которого они не искали.
  • «Adult». Накладывает ограничения на ресурсы со "взрослым" контентом.
  • «Поведенческие факторы ». Фильтр отслеживает поведение пользователей, которые переходят по ссылке на сайт. Строго фиксируется количество отказов, «глубина» и длительность просмотра контента, которые считаются основными показателями полезности.
  • «Агрессивная реклама ». В последние несколько лет «Яндекс» начал вести активную борьбу с навязчивой и агрессивной рекламой, которая мешает просмотру контента.

Основные фильтры Google

После "Яндекса" в России поисковая система "Гугл" занимает второе место. Соответственно, и ее фильтры не оставляют без внимания веб-мастера. Самыми распространенными считаются:

  • «Дублированный контент ». Создан специально для наложения санкций на дублирующийся контент. Фильтр понижает позиции тех ресурсов, что размещают на своих страницах неуникальный контент, который не единожды повторяется.
  • «Sandbox ». Этот фильтр регулирует попадание сайта в топ по высокочастотным запросам, борется со спамом и сомнительным контентом.
  • «Рост ссылок ». Если у ресурса начинает быстро возрастать ссылочная масса, он понижается в выдаче.
  • «Google Bombing ». Этот фильтр накладывает санкции на ресурс, в котором переизбыток ключевых запросов в анкорах ссылок.
  • « -30 ». Такое прохладное, можно даже сказать, сибирское название, получил фильтр, который борется с многочисленным спамом. К рамкам его компетенции, помимо стандартных нежелательных рассылок, входит блокировка редиректов и дорвеев.
  • «Социтирование ». Для поисковой системы России "Гугла" важно, чтобы на ресурс ссылались сайты, близкие по тематике. Если же сайт повышает свои позиции, но на него ссылаются ресурсы, далекие от основной тематики, то начинает действовать этот фильтр.
  • «Скорость загрузки ». В отличие от "Яндекса", Google контролирует скорость загрузки. Если после перехода с поисковой системы на ресурс он медленно загружается, и это повторяется неоднократно, то сайт теряет свои позиции.
  • «Supplemental Results ». На некоторые страницы сайта, которые не несут уникальной информации или на них нет внутренних ссылок, поисковая система может наложить фильтр. При этом ресурс с основным контентом не теряет своих позиций.
  • «Обмен ссылками ». Как только началась эпопея по созданию сайтов, популярными были ресурсы по взаимному обмену ссылками. Теперь, если проект вдруг начинает активно набирать ссылочную массу, фильтр понижает его позиции.
  • «Trast Rank ». Или, проще говоря, «уровень доверия». Основная цель фильтра - определить, насколько авторитетным является проект. Соответственно, чем он авторитетнее, тем выше его позиции. На это влияют несколько факторов: качество ссылок и их общая масса, количество контента, возраст доменного имени и перелинковка между страницами ресурса.
  • «Результат+ ». Или фильтр на дополнительные результаты. Если система вдруг посчитает, что проект похож на сотни других и не несет ничего нового, то страницы сайта попадают в дополнительный индекс, а не в основной.

АГС

Выше представлены самые актуальные фильтры поисковых систем. Однако некоторые из них необходимо рассмотреть более подробно. Для начала стоит обратить внимание на самого страшного «диктатора» Рунета - АГС "Яндекса". Этот фильтр был создан специально, чтобы противостоять некачественному контенту в Сети. Это название может использоваться вмести с цифрами «17», «30» или «40», которые говорят о версиях программы.

Под санкции этого фильтра подпадают площадки, у которых имеются исходящие СЕО-ссылки. Отрицательно сказывается на позициях сайта неинтересный и неуникальный контент, из-за которого следует большое количество отказов пользователей. Дубли, дорвеи, редиректы, клоакинг. Помимо этого фильтр внимательно следит за функциональностью проектов. Если у веб-сайта некачественный дизайн или проблемы с загрузкой, то это тоже может значительно понизить его позиции.

Чтобы определить, попал проект под или нет, стоит внимательно отследить процесс индексации и уровень посещаемости. Когда фильтр начинает свое черное дело, то новые страницы не индексируются поисковой системой, а старые, которые попали под санкции, полностью выпадают из индекса.

Чтобы восстановить прежние позиции, необходимо сделать из ресурса настоящий шедевр, предназначенный для удовлетворения потребностей пользователей. Для этого необходимо подогнать технические характеристики к требованиям поисковой системы. Это значит запретить удалить СЕО-ссылки, сделать удобную навигацию, пересмотреть рекламные объявления, удалив все агрессивные медиа. Пользователи должны быстро находить информацию, которая может их заинтересовать, и эта информация должна быть качественной, новой, полезной и легкой для восприятия. Контент сайта должен постоянно пополняться новыми статьями. Только когда проект будет соответствовать требованиям поисковых систем, можно обращаться в службу поддержки "Яндекса", чтобы сняли фильтры.

«Пингвин»

Но страшны не только санкции "Яндекса", фильтрам поисковой системы Google тоже нужно уделить внимание. Если АГС следит за основными характеристиками, которые определяют качество проекта, то «Пингвин» штрафует за искусственное наращивание поведенческих факторов. Фильтр «Пингвин» был создан специально, чтобы исключить манипулятивный линкбилдинг при оптимизации веб-сайта.

Размещение спамных ссылок на форумах и блогах, приобретение обратных ссылок, переизбыток СЕО-анкоров, создание на страницах проекта невидимых ссылок - все это является причиной наложения санкций. Подпадая под фильтр «Пингвин», сайт начинает резко терять свои позиции, падает его посещаемость, а индексация происходит намного медленней, чем обычно.

Чтобы избежать печальной участи, нужно удалить все некачественные ссылки и поменять стратегию продвижения.

Очень часто площадка подвергается санкциям не одного фильтра. Вместе с «Пингвином» в гости к веб-мастеру может зайти и «Панда». Это еще один фильтр поисковой системы Google. Если на сайте публикуется материал с уникальностью ниже 90% то можно быть уверенным, что ресурс находится под двумя этими «укротителями».

«Панда»

Фильтр «Панда» отвечает за качество веб-сайта в целом. Некачественные проекты лишаются значительной доли трафика, а в некоторых случаях полностью выпадают из поиска. Качество площадок оценивается по таким характеристикам:

  • Контент. Качество содержимого определяют не только роботы, которые сканируют его на уникальность и полезность, но и асессоры - аттестаторы, выставляющие контенту независимые оценки. Помимо этого, влияет удовлетворенность пользователя информацией. Об этом говорят глубина просмотра и время, проведенное на сайте. Нельзя, чтобы информация дублировалась или была откровенно ворованной (то есть с низкой уникальностью).
  • Владельцы и пользователи. Все, что есть на сайте, и сам проект обязаны в первую очередь ориентироваться на пользователя. То есть должен быть хороший дизайн, удобный и понятный интерфейс, минимум некорректной и навязчивой рекламы. Сайт может получить пенальти, если рекламные блоки размещены вверху страницы, а само содержимое - внизу. Карается также и нечитабельность текстов.

Как и в других случаях, если сайт начинает резко терять свои позиции и трафик, а страницы выпадают из индекса, высока вероятность того, что проект попал под фильтр «Панда». Чтобы избавиться от ограничений поисковых роботов, нужно изменить стратегию оптимизации, повысить качество материалов и функциональность веб-сайта. В таком вопросе помогут следующие манипуляции:

  • Технический аудит . Необходимо убедиться, что веб-сайт нормально функционирует, хорошо грузится, отсутствуют битые ссылки.
  • Качество . Еще раз проверить материалы ресурса на предмет уникальности и качества. Все материалы, что вызывают вопросы, заменить.
  • Чистота, залог успеха . Если присутствуют страницы без контента или с маленькими абзацами текстов, их нужно убрать, дополнить или заменить. То есть необходимо провести чистку, избавившись от ненужных фрагментов деятельности веб-мастера.
  • Регулярность . Сайт должен постоянно обновляться. Хотя бы раз в неделю нужно добавлять новые публикации.

"Баден-Баден"

В 2017 году вышло обновление фильтра поисковой системы Яндекс «Баден-Баден», что вызвало небывалый ажиотаж среди веб-мастеров. Кто-то утверждал, что этот поисковый алгоритм станет применять жесткие санкции к ресурсам, на которых будет замечен хотя бы намек на спам, а кто-то спокойно твердил, что он не станет революционным толчком в СЕО-оптимизации.

Сами разработчики уверяют, что значительно улучшили алгоритм, который «наказывал» переоптимизированные страницы. Хотя все еще непонятно, стал новый "Баден-Баден" заменой привычным фильтрам или же является частью общего алгоритма. Если склоняться ко второму варианту, то веб-мастерам будет достаточно трудно определить, под какие санкции попал их ресурс.

"Баден-Баден" борется с некачественным контентом путем исключения из поиска текстов, где много ключевых запросов. Однако его действие распространяется не на весь проект, а на отдельный документ (страницу). Проще говоря, если на сайте есть один некачественный текст, то только страница, на котором он размещен, выпадет из поиска, в остальном ресурс сохранит свои позиции и основную часть трафика. Однако не стоит расслабляться. За одним фильтром может последовать множество других.

Поэтому необходимо увеличить видимость ресурса, пересмотреть все СЕО-тексты на предмет переоптимизации и удалить техники, которые скрывают СЕО-наполнение от поисковиков.

На пульсе

Требования поисковых систем одинаковы для всех площадок, одинаковым является и наказание за их невыполнение. Если проект вдруг начал терять трафик и понизился в выдаче, значит, он определенно попал под санкции поисковиков. Чтобы держать руку на пульсе, необходимо постоянно проверять поступаемый трафик, причем не только количество, но и его источники.

Поэтому каждому вебмастеру необходимо научиться управлять поисковыми фильтрами. Как включить поисковый фильтр? Это достаточно простое задание. При регистрации сайта в поисковой системе веб-мастер получает личный кабинет, в котором может следить за изменениями, которые происходят с его проектом ("Яндекс. Вебмастер" или Google Analytics). Перейдя на эту страницу, нужно открыть административную панель, выбрать интересующую вас площадку и открыть раздел «Фильтры». В большинстве случаев достаточно активировать встроенные ограничители, но для некоторых случаев необходимо создавать индивидуальные пользовательские ограничения.

Зачем это нужно? Допустим, если сайт принадлежит большой компании, то высока вероятность того, что на него ежедневно будут заходить сотрудники. А если на этой площадке есть чат или форум, на котором они могут общаться между собой, то логично предположить, что работники будут с удовольствием коротать время на веб-ресурсе фирмы. Однако они не являются целевой аудиторией. Но поисковая система фиксирует все посещения. Чтобы логично продумать стратегию оптимизации, необходимо исключить из отчетов поисковиков информацию о переходе по локальной сети фирмы пользователей. Для этой цели и существуют настраиваемые фильтры.

Проще говоря, настраиваемые веб-мастером фильтры дают возможность получить исключительно ту информацию, что будет необходима для продвижения ресурса. Это касается не только определенных IP-адресов, но переходов с конкретных каталогов, сайтов и поведенческих характеристик.

Что получается в остатке?

Фильтры поисковых систем улучшаются с каждым годом. И точно так же с каждым годом веб-мастера улучшают оптимизацию своих сайтов. При этом не все и не всегда идут длинным и безопасным путем, а нередко пытаются сократить тропу к вершине авантюрными и наказуемыми методами.

По сути, фильтры поисковиков не такие уж и страшные, они требуют вполне обыденных вещей:

  • Качественного контента.
  • Ненавязчивой рекламы.
  • Отсутствия запрещенных материалов.
  • Понятного интерфейса и грамотного продвижения, которое заключается в естественном наращивании ссылочной массы и

Естественно, такой путь долгий, потребуется около полугода, чтобы вывести веб-сайт в топ по основным ключевым запросам, но если он туда уже попал, то его позиция будет намного стабильней, чем у тех, которые заняли это место нечестным способом.

Это только в начале развития интернет-эпопеи можно было безнаказанно разбавлять скудные фрагменты текстов ключевыми запросами и быстро продвигаться в поисковой выдаче. Сейчас все изменилось. Поисковые системы акцентируют внимание на качественном наполнении ресурсов. В приоритете теперь оригинальный, авторский контент, который может дать исчерпывающий ответ на вопрос пользователя. Поэтому если нет желания становиться жертвой санкций, нужно сосредоточить основное внимание на решении именно этого вопроса, и лишь после приниматься за наращивание ссылочной массы и привлечение посетителей.

Фильтры Яндекса – основные понятия

День добрый, читатели моего блога. Те из Вас, кто постоянно читает мои статьи уже мог понять, что я часто бываю на различных СЕО форумах , общаюсь с оптимизаторами и веб мастерами, стараюсь помочь новичкам разобраться в начальных этапах освоения мира оптимизации и продвижения своих проектов. Чаще всего новички бегут за помощью тогда, когда их сайт резко падает в выдаче, уменьшается количество проиндексированных страниц или вообще он получает бан от поисковых систем. Все эти негативные последствия наступают в результате наложения различного рода фильтров и банов за нарушения правил продвижения и развития своего сайта. Ранее я уже рассказывал про фильтры Гугла , и о том, как от них уберечься. Сегодня речь пойдет о всевозможных фильтрах и наказаниях которые ваш сайт может получить от Яндекса.

Итак, фильтры Яндекса – что это такое? Под этим определением стоит понимать определенные санкции которые поисковая система накладывает на весь сайт или отдельные его страницы. Чаще всего такие санкции проявляются в понижении позиций, удалении некачественных страниц из поиска, ухудшении продвиженя сайта в ПС и других негативных влияниях. Анализируя проблему, которая возникла с вашим сайтом, можно сделать вывод, что он попал под тот или иной фильтр. В зависимости от фильтра, мы можем сделать вывод о том, как вернуть сайту былые «заслуги» и продолжить его развитие.

До того, как я перейду к анализу самых частых фильтров от Яндекса, хотелось бы отметить, что ни один сайт не попадает просто так в немилость поисковых алгоритмов. Конечно, бывают ошибки, но они настолько мизерны и быстро решаются написанием запроса в техподдержку Яндекса. Помните, что 99.9% случаев попадания под фильтр – это дело рук самих оптимизаторов, которые не придерживались рекомендаций по оптимизации сайта, и для продвижения использовали методы черного СЕО.

Рекомендуем прочитать:

Фильтр АГС – гроза всех новичков

Самым «популярным» фильтром можно считать «фильтр АГС (анти гавно сайт)». Исходя их личных наблюдений, могу сказать, что это один из самых жестких и радикальных фильтров который режет как молодые, так и уже довольно устоявшиеся сайты. Существуют два фильтра: АГС – 17, и его улучшенная версия АГС – 30. Уже из самого названия можно понять, с чем борется этот пресловутый фильтр. Основная его цель – фильтрация выдачи от некачественных сайтов, сателлитов, откровенных ГС которые созданы с нарушениями основных правил оптимизации.
Какие признаки попадания под фильтр АГС?

Как правило, фильтр бьет по страницам в выдаче, нещадно их выкидывая из поиска. При проверке вы можете обнаружить, что осталась только одна страница, чаще всего главная, или не больше 10 (главная и основные разделы). В результате этого всего резко падает трафик, проседают позиции и сайт улетает далеко за ТОП100.

Как не попасть под АГС?
Прежде всего вы должны создавать сайт для людей, писать качественные статьи. Напрочь забудьте про копипаст или синонимайзер. Поисковые роботы обучаются с каждым днем, и уже сейчас они с легкость могут распознать уникальный, грамотный и осмысленный текст.
Соблюдайте рекомендации по оформлению статей, структурированию сайта, оптимизации кода и т.д. Более детально про это я написал в своей статье «Как продвигать свой сайт – улучшаем позиции в поисковике»
Не использовать методы черного СЕО, а если у Вас сайт молодой, то также отказаться от серых способов продвижения. На многих сео форумах рекомендуют начинать ссылочное продвижение не ранее чем через 3, а в некоторых случаях и 6, месяцев после создания сайта.
Регулярно проверять сайт на наличие дубликатов, ошибок в коде и отображении страниц различными браузерами.
В общем, нужно следить за своим творением, делать его для людей, использовать только честные и не запрещенные методы продвижения. Как правило, хороший сайт АГС не трогает, но нужно понимать, что все делается автоматически и робот может допустить ошибку. Вы уверенны что сайт у Вас отличный, никаких проблем с ним не было, но после очередного апа в выдаче осталась одна страница? Тогда срочно пишите Платонам в тех. поддержку Яндекса.

Рекомендуем прочитать:

Как вывести сайт из под АГС?
Бывает так, что по незнанию или по глупости накосячили. Сайт попал под АГС. Вы можете его оставить и начать развивать новый проект. Но, чаще всего, не хочется просто так расставаться со своим творением. Тогда нужно думать как выводить сайт из под фильтра. Для начала нужно разобраться за что ж Вам дали фильтр, что именно стало той отправной точкой. Если вы знаете, что занимались копипастом, то срочно удаляйте все чужие статьи и меняйте их на оригинальные. В чем бы не была проблема, но очевиден один факт – ее нужно устранять.

Мой совет – при попадании под АГС вы должны:
1. Закрыть сайт от индексации полностью
2. Проанализировать ситуацию и найти причину фильтра
3. Исправить причину. Но не просто исправить, а сделать сайт еще лучше. Больше уникальных статей, хороший дизайн, правильная структура, оптимизировать мета теги и правильно структурировать контент.
4. После того как вы сделаете из ГС конфетку, открывает сайт для индексации
5. Прогоняем сайт по твиттеру, Я.ру, Гугл+ и другим социальным закладкам. Это даст сигнал поисковому роботу, и он быстрее зайдет на ваш сайт.
Моментального возвращения страниц и позиций ждать не стоит. Как минимум 2-3 апа подвижки если у будут, то очень слабенькие. В случае, если вы все правильно и качественно сделали, сайт может выйти из под АГС за 1-1.5 месяца.

Непот фильтр – самый старый фильтр Яндекса

Наверное, это один из самых старых фильтров которым активно пользуется Яндекс. Но по полной его действие веб мастера ощутили в конце 2010 года. Именно тогда Яндекс всех познакомил со своим новым алгоритмом и заявил, что будет активно бороться с продажей ссылок, так как считает такой вид продвижения манипуляцией выдачей. Не сильно пугайтесь, борьба идет, но пока выигрывают оптимизаторы. Если вы грамотно закупаете ссылки, умеете выбрать хорошего донора , то никакой Непот фильтр Вам не страшен.

Рекомендуем прочитать:

Теперь ближе к сути. Как работает Непот фильтр?
В основном санкции накладываются на сайты, которые усердно и в открытую торгуют ссылками, и на те сайты, которые сильно перенасыщены исходящими линками. Если сайт попадает под Непот фильтр, то ссылочные вес, который должен передавать бек линк, становится минимальным, а то и вообще сводится к нулю. В результате страдает не только донор, получивший пендаля от поисковой системы, но и оптимизатор, который разместил ссылку на таком сайте, ведь эффекта от нее не будет.

Как не попасть под Непот фильтр?
Тут все очень просто. Если вы уже и решили продавать ссылки, то делайте это аккуратно и с умом. Старайтесь на одной странице не размещать больше 3-4 ссылок. Если ссылка ведет на сайт о кулинарии, то подберите для нее близко тематическую статью, а не пихайте в первую попавшуюся.
Не занимайтесь массовой продажей ссылок. К примеру, многие загоняют свои сайты в ссылочную биржу Sape и за месяц на сайт можно набрать до 1000 ссылок. Конечно, такое резкое увеличение исходящих беков привлечет внимание робота и велика вероятность получить фильтр.
Как выйти из под фильтра?

Для того, чтоб избавиться от фильтра, нужно проанализировать беки которые вы ставили, убрать те, что ведут на откровенные ГС, подозрительные сайты, сайты с вирусами и adult темой.

Фильтр Яндекса – Ты последний

Очень странное название у фильтра, но не в этом суть. Основная цель данного алгоритма – отсеять сайты с неуникальным контентом, те сайты, которые в наглую воруют статьи с других ресурсов. Думаю, что для вас не станет открытием то, что роботы Яндекса за секунды могут определить уникальность статьи, и даже понять с какого ресурса она была стянута.

Рекомендуем прочитать:

Как работает данный фильтр?
Сайт с не уникальным контентом сильно понижается в выдаче. Его будет тяжело найти даже за пределами ТОП100. Как правило, такие сайты занимают самые последние места по разным запросам, возможно из-за этого фильтр и имеет такое название.

Как не попасть под фильтр?
Размещайте уникальные статьи, особенно если у Вас молодой ресурс. Старые, трастовые сайты иногда могут себе позволить скопировать статьи с других сайтов, но им это прощается, ведь они имеют лимит доверия со стороны поисковиков. Молодые не могут себе такого позволить. Копипаст – это реально проблема. Если не данный фильтр, то АГС можно схлопотать без проблем.

Как выйти из под фильтра?
Тут особых ухищрений нет. Удаляем скопированный текст и пишем новый, красивы, грамотно структурированный контент.