Фильтры Яндекса и Google. Фильтры гугла

Приветствую всех посетителей моего блога!

Сегодня исполняю то, что обещал. Недавно я написал статью и о том, как не попасть под действие того или иного фильтра. В той статье я обещал вам написать немного позже по той же теме, но про поисковик от Google.

Сегодня как раз подходящее время. Поэтому в этой разберем, какие санкции накладывает Google на веб-ресурсы и как не стать жертвой этих злобных фильтров.

Дело в том, что многие задаются одними и теми же вопросами. Почему так медленно развивается, и посещаемость остается на том же уровне? Я же пишу новые довольно таки часто, а результатов все нет и нет. Да, бывает и такое, ребята, причем довольно часто.

Самое опасное заключается в том, что вы сами можете не осознавать, что у вас с блогом небольшие проблемы! И со временем может случиться так, что эти проблемы перерастут из небольших в очень весомые и серьезные. И вот тогда уже точно беда! Поэтому, чтобы исключить некоторые из этих неприятностей я решил написать статью про фильтры и санкции поисковой системы Google.

Хочу отметить то, что поисковая система Яндекс более лояльна к различным недочетам и . А вот Google в большинстве своем не жалеет никакие веб-ресурсы и строго наказывает их за несоблюдение рекомендаций по созданию и продвижению сайтов.Вам не помешает узнать подробно про эти рекомендации.

Итак, сегодня в этой статье я буду говорить о фильтрах и санкциях поисковика Google.

В принципе, если вы читали мою предыдущую статью про Яндекс и его фильтры, то вам будет проще понять эту тему. Если сказать в общем, про наказания этих поисковых систем, то у них схожие требования ко всем веб-ресурсам в Интернете: создавайте полезные сайты и блоги для людей и наполняйте их уникальным контентом, который будет основным поисковым запросам пользователей. И в этом случае ваш ресурс не попадет под действие санкций и фильтров.

Однако не стоит забывать, что Google более придирчив и строг в вопросах, касающихся технической стороны по сравнению с другими поисковиками.

С момента создания своего блога и до настоящего времени при я выявил очень большое количество разных технических ошибок.

И, самое коварное заключается в том, что эти ошибки не заметны невооруженным глазом. Их можно определить только при более тщательном осмотре. А вот отлично видны все недочеты с момента создания вашего блога.

И хочу отметить, что данная ситуация отражена почти на всех блогах. 90% блогов выглядят подобным образом в глазах поисковых роботов. Вообще, если вы установили и начали заливать контент на блог, то этого более чем достаточно для того, чтобы поисковые системы обратили свое внимание на Ваш веб-ресурс.

Да и мы все тоже хотим заслуженного внимания в виде увеличения показателей своего веб-ресурса и постепенного увеличения количества посетителей. Однако поисковые системы придерживаются своего мнения насчет этого, а также используют свои методы воздействия для исправления вебмастером всех недочетов и ошибок на его сайте или блоге. И зачастую этот поисковик безжалостен к таким ресурсам и может их строго наказать.

Нужно ли вам такое внимание? Мне кажется, нет. И вот в чем кроется проблема. Зачастую эти ошибки появляются с первого дня жизни сайта или блога. Это в основном связано с системой (появлением дублей страниц или дублированных картинок), создание блога с помощью бесплатного , а также наличие всевозможных скрытых и битых ссылок, присутствие ошибок в коде, и другие недочеты, которых пруд пруди.

Ну, а внешне все смотрится отлично-просто превосходный блог. Единственное что огорчает — посещаемость который год остается на том же месте и не растет…

Но, не стоит огорчаться и грустить. Все эти недочеты и ошибки можно исправить!

Только делать это нужно очень осторожно, иначе можете наломать дров, и это приведет к непредвиденным последствиям – различным фильтрам и санкциям со стороны поисковых систем. В этом вы уже не сможете обвинить шаблон или , потому что виноваты вы сами!

Поэтому нужно всегда помнить, что поисковые системы могут наказать ваш блог как за бездействие, так и за неправильные действия.

Санкции и фильтры от Google

Ну, а теперь расскажу подробнее про каждый фильтр.

Фильтр от Google «Песочница» (Sand Box) .

Все веб-ресурсы, которые появились недавно на просторах Интернет, оказываются под действием этого фильтра.

Но не стоит страшиться этого факта, ребята. Это просто прописано в алгоритмах поисковика. Все новые сайты и блоги не способны создавать конкуренцию другим возрастным веб-ресурсам по в результатах выдачи.

Новоиспеченному молодому блогу выделяется время на становление в пределах от 3-х месяцев до одного года. В течение этого времени вы обязаны продемонстрировать поисковой системе то, что вы настроены решительно, должны досконально поработать над своим ресурсом, и навести на нем полный порядок исходя их обязательных рекомендаций.

И еще, чтобы вы знали, вместе с этим фильтром (песочницей) для ресурсах, созданных на новом домене, существует фильтр на «возраст домена». Эти веб-ресурсы достаточно медленно индексируются, а также им в меньшей степени доверяет поисковая система.

Им нужно будет хорошо постараться для того, чтобы это доверие появилось. Развивайте свой блог правильно, чтобы это произошло как можно быстрее!

Фильтр от Google «Пингвин» (Penguin) .

Это более серьезный фильтр от данного поисковика. В то время, когда он появился, достаточно большое количество веб-ресурсов просто напросто исчезли из результатов поисковой выдачи.

Этим фильтром наказываются сайты и блоги за спам. Первичная цель его создания очистка результатов выдачи от веб-ресурсов, которые оказались там незаслуженно.

Поэтому не нужно увлекаться спамом при оптимизации своих статей. Все должно быть в меру. И тогда вы не попадете под этот фильтр.

Фильтр от Google «Панда» (Panda) .

Очень жестокий фильтр, который вешается на ресурсы с некачественным контентом, а также сайты с различной в больших объемах, не соответствующей его общей . А также за переспам ключевыми запросами и дублированный контент.

Вот так Google разводит целый «зоопарк» для контроля над всеми веб-ресурсами.

Фильтр от Google «Дополнительные результаты» (Supplementary Results) .

Данный фильтр схлопочет ваш блог в том случае, если вы в срочном порядке не решите проблему дублей страниц и другого ненужного хлама на своем блоге.

Что примечательно, данный фильтр начинает действовать, если на вашем блоге имеется неуникальный контент. И если вы пишете статьи с уникальностью от 95 до 100 %, и у вас при этом имеются дубли этих страниц, то вы просто тратите свое время впустую. Уберите дубли и ваш блог начнет развиваться с новой силой.

Для того чтобы проверить есть ли у вас дубли страниц, достаточно ввести в строке поиска Google вот это:

Если вы увидели внизу строку «скрытые результаты поиска», то у вас проблемы с дублями страниц. Кликните по этой строчке. Какое количество страниц прописано вверху? 500? 1000? Вы написали столько статей на своем блоге? Если да, то это похвально, а вот если нет, то у вашего блога серьезные неприятности! Решайте эту проблему как можно скорее!

У меня тоже были проблемы с дублями страниц при выводе древовидных комментариев, и моя проблемная ситуация постепенно решается. А всё потому, что я устранил источник этой заразы. Вы тоже учтите, что на удаление из индекса Google этих дублированных страниц потребуется время, и причем немалое.

Ну, а я тоже скоро напишу статью про удаление дублированного контента на своем блоге и продемонстрирую вам свои результаты в этом направлении, чтобы не быть голословным.

Фильтр от Google «Минус тридцать» (-30) .

Данный фильтр награждает вебмастеров, которые используют «темное SEO». Он понижает на 30 пунктов в результатах выдачи и предупреждает о том, что будет хуже, если вебмастер будет продолжать в том же духе.

Проще говоря, не нужно обманывать поисковые системы, если не знаете, как это нужно делать правильно.

Фильтр от Google «Бомбёжка» (Bombing) .

Этот фильтр присваивается за то, что позиции блога по какому-либо поисковому запросу остановились.

В основном это получается из-за в большом количестве с применением одного и того же . В итоге получается большое число ссылающихся сайтов-доноров с одним анкором. Необходимо обязательно разбавлять свой анкор-лист, а не использовать один и тот же. Это грубейшая ошибка. Да вы и сами понимаете, что это выглядит вообще .

Фильтр от Google «Флорида» (Florida) .

Данный фильтр применяется к веб-ресурсам за неправильное продвижение своего ресурса, а точнее за пере оптимизацию (пере спам) ключевыми запросами в теле статей, в тегах -H6 и Title.

Еще раз это говорит о том, что во всем нужно знать меру. Оптимизируйте на здоровье, но не увлекайтесь. Не забывайте о том, что вы пишете статьи, прежде всего для людей, а уже потом для поисковых роботов.

Фильтр от Google «Неуникальный контент» (Duplicate Content) .

Этот фильтр применяется к сайтам и блогам, которые имеют неуникальный контент.

Поэтому не нужно с других ресурсов. За это вас по голове не погладят, только накажут, и стыдно потом будет. Если не умеете писать, то покупайте копирайт или рерайт. И тогда все у вас будет хорошо.

Этот фильтр, я думаю, вам понятен. Ясно, что он применятся к сайтам и блогам, на которых есть битые ссылки. Что такое битые ссылки, как их вычислить и избавиться от их присутствия, читайте в моей статье . Проверяйте время от времени свой блог на наличие этих ссылок, и будет вам счастье!

Этот фильтр придет к вам, если страниц вашего блога очень медленная. Поэтому повышайте скорость загрузки блога. Читайте мою статью и применяйте на практике. Там все подробно расписано.

Фильтр от Google «Искусственная ссылочная масса» (Reciprocal Links Filter и Link Farming Filter) .

Этот фильтр накладывается за искусственное наращивание , а также заспамленность блога мусорными ссылками и если вы бездумно и продаете ссылки.

Если вы участвуете в автоматизированных системах обмена ссылками, то вы тоже в зоне риска. Все это не есть гуд, ребята. Избавляйтесь от этого дерьма!

Фильтр от Google «Цитирование» (Co-citation Linking Filter) .

Смысл этого фильтра заключается в бездумном проставлении ссылок со своего веб-ресурса на сомнительные или подозрительные сайты и блоги. Друзья, проставляйте ссылки только на проверенные ресурсы! Не захламляйте свой блог. Если вы будите ссылаться на некачественные ресурсы, то Google и ваш блог примет за низкокачественный. Старайтесь фильтровать то, что рекомендуете своим посетителям.

Фильтр от Google «Быстрый прирост контента» (Filter Quick Simple Content) .

Он применяется к ресурсам, которые очень часто обновляются.

Этот факт очень подозрителен и намекает на автоматическую генерацию контента. Опять же повторюсь, найдите золотую середину. Ребята, будьте естественнее. Вы же не робот. Робот имеется в наличии только у поисковой системы.

Ну, вот я и описал, как обещал, все основные фильтры поисковой системы Google. Мне кажется, вы поняли, что если соблюдать эти рекомендации, то можно избежать серьезных проблем в процессе создания и продвижения своего блога. И не придется причитать потом, что Google и Яндекс вас и не любит и поэтому жизнь не имеет смысла.

Не нужно бегать с бубном возле ноутбука и вызывать дух всемогущего Google в надежде на снисхождение и увеличение посещаемости вашего детища. Нужно просто соблюдать эти истины и все.

Итак, еще раз об основных тонкостях:

— создавайте СДЛ (сайт для людей);

не тащите чужие тексты из чужих статей (друзья, это позорно и тупо. Вас поймают и навешают люлей!);

обращайте внимание на техническую сторону вопроса (скорость загрузки блога, правильный без мусора, битые ссылки и скрытые ссылки, и другой ненужный хлам);

продвигайте свой блог постепенно , шаг за шагом, не гонитесь за быстрыми результатами — они обманчивы;

мотивируйте посетителей осуществлять какие-либо действия на вашем блоге для улучшения поведенческих факторов.

Если вы еще не добавили свой блог в Google вебмастер , то прямо сейчас сделайте это. Это отличная подсказка, в которой отражены многие ошибки, имеющиеся на блоге. Он вам отлично поможет в продвижении.

Ну, а я в свою очередь хочу попрощаться с вами. Надеюсь, вам понравилась эта статья, и вы многое узнали для себя. Жду ваших комментариев. До встречи в моих новых материалах! Пока.

В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.

Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.

Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.

Чтобы не попадать под санкции, мои советы очень простые:

при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.

Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.

Если уже попали под санкции, то нужно чиститься, других советов дать сложно.

Дмитрий Севальнев ,
евангелист проекта «Пиксель Тулс»

Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.

В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.

Фильтр аффилированности - да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.

«Баден-Баден» и «Минусинск» - чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.

«Санкции за накрутку ПФ» - имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.

,
основатель агентства REMARKA

Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.

С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.

Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.

Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.

Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.

,
SEO-Аналитик в Rush Agency , руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy

Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?

Фильтры Гугла в этом году наши клиенты не получали.

В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.

Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?

Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.

Какие фильтры стали менее ощутимы?

В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.

Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?

Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.

Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.

Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.

,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su . Автор более 20 книг по продвижению сайтов.

Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:

1. Постоянное снижение доли Яндекса на рынке . Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.

2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.

3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.

Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.

Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.

Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.

Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц

Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.

Март — пять обновлений алгоритма, связанных с оценкой качества контента.

Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.

Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.

Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.

Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.

Август – критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.

Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018 , которая была выпущена весной. Ряд материалов есть на сайте drmax.su.

Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.

Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.

Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.

А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!

Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.

Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.

Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.

А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.

Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.

В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.

Всех благ.

Пишите комментарии, задавайте вопросы экспертам!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

В этом разделе опубликованы все основные фильтры поисковых систем Яндекс и Google, которые "на слуху". Хотя эти фильтры принято частично относить к Яндексу, а частично - к Google, скорее всего, в том или ином виде, большинство из них присутствует в обоих поисковых системах.

Методы борьбы со всеми фильтрами практически идентичны. Как правило, они включают в себя:
1. Активное пополнение сайта уникальным контентом.
2. Высокая частота обновления сайта. Хорошо, если сайт обновляется хотя бы раз в сутки. Рекомендуемая частота обновления сайта для выхода из под фильтров - два раза в сутки.
3. Приобретение внешних ссылок с трастовых сайтов .
4. Письма в службу поддержки поисковых систем по поводу проблем с сайтом, отправленные через панель вебмастера , и устранение причин проблем.

Существование некоторых перечисленных фильтров находится под вопросом, но в любом случае, вся приведённая ниже информация - хорошая пища для размышления. Не стоит зацикливаться на принадлежности того или иного фильтра к определенной поисковой системе, так как при раскрутке сайта нежелательно потерять трафик ни с одной из них. Поэтому информацию по фильтрам основных поисковых систем оптимизатор белого сайта должен учитывать в комплексе.

Фильтры Google

Считается, что действие фильтров поисковой системы Google в русскоязычном сегменте интернета выражено слабее, чем в англоязычном. Некоторые фильтры возможно работают только в англоязычном сегменте.

Фильтр Гугла «Пингвин»

Фильтр Гугла «Панда»

"Песочница" (sandbox)

Как правило, применяется к недавно созданным сайтам, которые появились на свет в течение последнего полугода. Благодаря этому фильтру, Google не пускает страницы с "молодых" сайтов в результаты поиска по высокочастотным запросам, хотя по низкочастотным запросам - сайт вполне может присутствовать в поисковой выдаче.

Сайт может находиться в "песочнице" довольно долго: от 3-х месяцев до нескольких лет. Существует предположение, которое основано на наблюдении за "молодыми" сайтами, что они выходят из "песочницы" в массовом порядке. Тоесть, длительность пребывания в "песочнице" определяется не в индивидуальном порядке для каждого сайта, а сразу для групп сайтов. Группировка эта происходит на основании даты создания сайта. Через некоторое время, фильтр снимается для всей группы.

Существуют признаки, по которым можно предположить, что ваш сайт находится в "песочнице":

  • Сайт проиндексирован Google и регулярно посещается поисковым роботом
  • Ваш сайт нормально находится по редким и уникальным словосочетаниям, которые содержатся в тексте страниц
  • Поиск по домену выдает правильные результаты, с правильными описаниями, заголовками и т.д.
  • Ваш сайт не виден в первой тысяче результатов поисковой выдачи по любым другим запросам, в том числе по тем, под которые он изначально был оптимизирован.

Для того, чтобы выбраться из "песочницы", необходимо, чтобы появилось как можно больше естественных ссылок на Ваш сайт.

Фильтр "Дополнительные результаты"

Если страницы сайта попали под фильтр "Дополнительные результаты", это значит, что Google счёл их "недостойными" и поместил ниже "хороших" страниц - "под индекс". В этом случае эти страницы будут выводиться в результатах поиска лишь в том случае, если "хороших" страниц не хватает. Для того, чтобы выйти из такого фильтра, как правило, достаточно нескольких входящих ссылок.

Фильтр Bombing

Применяется к сайтам, которые имеют большое количество ссылок на себя с одним и тем же анкором (текстовым содержанием ссылки). Google справедливо считает, что это не естественно, так-как текст ссылки везде одинаковый. Для того, чтобы избежать попадания в данный фильтр, при покупке ссылок, необходимо следить за тем, чтобы анкоры на каждую покупаемую ссылку были уникальными.

Фильтр Bowling – это не совсем фильтр, а обобщённое название приёмов чёрного SEO, которые могут применить конкуренты для борьбы с Вашим сайтом с целью занесения его в бан. Данный фильтр актуален для молодых сайтов с низким TrustRank`ом, для сайтов с высоким TrustRank`ом он не может быть применён.
Google утверждает, что конкуренты никак не могут повредить позициям Вашего сайта, но если Вы заподозрили в бане своего сайта происки конкурентов – подавайте заявку на включение сайта в индекс поисковой системы.

Фильтр "Возраст домена"

Этот фильтр имеет много общего с фильтром "песочница". Многие оптимизаторы считают, что чем старше домен, тем большее доверие он вызывает у поисковиков, нежели недавно появившиеся сайты. Однако молодым сайтам можно пользоваться высоким доверием поисковика и не находиться в Sandbox и всё же попасть под этот фильтр. Единственный способ избежать попадания под этот фильтр вашего сайта – "обрасти" входящими ссылками с авторитетных сайтов.

Фильтр "Дублирующийся контент"

В сети существует большое количество сайтов, которые копируют контент, ранее уже публиковавшийся на других сайтах. Google старается наказывать такие сайты и понижает их позиции в результатах поиска. Старайтесь размещать уникальный контент на своем сайте, а также следите за тем, чтобы контент Вашего сайта не копировали другие пользователи интернета. При обнаружении факта копирования информации с Вашего сайта можно пожаловаться в Google.

Фильтр -30

Этот фильтр Google применяет к тем сайтам, которые используют некорректные, так называемые черные методы SEO, дорвеи (doorway) и редиректы (redirect) с помощью JavaScript. Если подобные механизмы обнаруживаются поисковыми системами на Вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы выйти из этого фильтра, обычно, достаточно убрать такие вставки из вашего кода.

Фильтр "Опущенные результаты"

Страницы Вашего сайта могут попасть под этот фильтр и практически выпасть из результатов поиска по следующим причинам: малое количество входящих ссылок, повторяющиеся заголовки и другие meta-тэги, дублирующий контент с других сайтов, а также слабая либо вовсе отсутствующая внутренняя перелинковка страниц сайта. Поэтому старайтесь избегать всех этих причин. Уделяйте внимание написанию meta-тэгов, это очень важно и для других поисковых систем.

Фильтр "Социтирование"

Ссылающиеся на ваш ресурс сайты, Google очень тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь порносайт либо сайт очень далекой тематикой от Вашего, то Google вполне может посчитать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может повредить "тематичности" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не произошло, всегда проверяйте сайты, на которых покупаете ссылки.

Фильтр "Links"

Часто для обмена ссылками на сайте заводится одна страница (линкопомойка), на которой залинкованы "сайты-партнеры". Обмен ссылками - довольно старый способ повысить позиции сайта в результатах поисковой выдачи и не поощряется Google. В настоящее время этот способ малоэффективен, и лучше от него отказаться.

Фильтр "Много ссылок сразу"

Сайт попадает под такой фильтр, когда на него слишком быстро растет количество внешних ссылок. Это может привести к бану поисковыми системами Вашего ресурса. Чтобы этого не произошло, нужно очень аккуратно покупать ссылки, небольшими порциями и добавлять их по мере индексирования.

Фильтр "Чрезмерная оптимизация"

Под фильтр чрезмерной оптимизации обычно попадают сайты с большим количеством ключевых фраз, чрезмерной их плотностью, перенасыщенные meta-тэгами. Поэтому не стоит перебарщивать с оптимизацией страниц. Всего должно быть в меру.

Фильтр "Битые ссылки"

Когда ссылка ведет на отсутствующую страницу, то поисковой робот не может до нее добраться. И, как следствие, не может поместить ее в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта. Необходимо избегать наличия подобных ссылок на Вашем сайте.

Фильтрация страниц по времени загрузки .

Если Ваша страница имеет слишком большое время загрузки (перегружена различными эффектами либо проблемы с хостингом), поисковая система просто откажется её загружать и индексировать, в результате чего она не появится в результатах поиска.

Общий фильтр "Степень доверия" (Google Trust Rank)

Этот фильтр включает в себя все показатели, о которых было сказано выше. Называется этот фильтр "степень доверия". Этот фильтр учитывает такие факторы как:

  • Возраст сайта
  • Количество авторитетных входящих ссылок
  • Количество исходящих ссылок
  • Качество внутренней навигации (перелинковки)
    а также многие другие факторы.

Чем выше Trust Rank (TR), тем выше Ваш сайт в результатах поиска.

Фильтры Яндекса

АГС (модификации: АГС-17 и АГС-30)

Фильтр, который выкидывает из индекса Яндекса сайты, созданные для поискового спама (сателлиты), оставляя поисковой выдаче лишь 1 - 15 страниц, не зависимо от общего количества страниц сайта. Главным основанием для наложения фильтра служит некачественный контент.

Фильтр за плохую структуру сайта

Фильтр «ты - спамный»

Непот-фильтр

Фильтр, который накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. Чтобы его избежать, желательно отказаться от продажи ссылок, либо продавать их осторожно, в небольших количествах, ставить естественные ссылки.

Редирект фильтр

Фильтр накладывается на сайты, которые используют javascript редиректы, как правило - дорвеи. Попадание под этот фильтр означает бан Вашего сайта в поисковой системе. Если Вы не хотите попадать под данный фильтр – не используйте javascript редиректы, а используйте flash и ajax.

Фильтр плотности ключевых слов

Фильтр, удаляющий из индекса страницы сайта за чрезмерную концентрацию ключевых фраз и слов. Во избежание попадания сайта под этот фильтр необходимо просто писать тексты для людей, избегая явно завышенной концентрации ключевых слов.

Фильтр «Ты последний»

Фильтр накладывается на страницу, идентифицированную поисковой системой, как дубль уже существующей в индексе страницы. Для того чтобы избежать наложение этого фильтра, необходимо создавать уникальный контент, а также запрещать копирование своего контента на другие сайты.

Статьи по теме .

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу - по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Если у вас похожая ситуация, значит ваш сайт попал под фильтр Гугла. Давайте посмотрим, какие существуют фильтры поисковой системы Google, причины попадания под эти и какие есть способы вывода сайта из-под санкций.

Sandbox (песочница)

Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко - он полностью отсутствует в индексе.

Причины попадания:

В основном, фильтр касается молодых сайтов, независимо от того, как развивается ресурс. Также частой причиной бывает слишком быстрое наращивание ссылочной массы. Google воспринимает это как спам и накладывает санкции.

Способы вывода:

Способ выхода из-под фильтра достаточно прост - нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в .

Domain name age (возраст домена)

Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.

Причины попадания:

Также, как и в предыдущем случае - это молодой возраст сайта, как правило, менее 1 года.

Способы вывода:

Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ - это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.

Too many links at once (много ссылок сразу)

Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.

Причины попадания:

Фильтр накладывается за появление слишком большого количества ссылок за один раз (ссылочный взрыв). Опять же Google понимает, что разом много внешних ссылок на сайт появиться не может, поэтому накладывает штрафные санкции за покупку ссылочного.

Способы вывода:

Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.

Bombing (бомбежка)

Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.

Причины попадания:

Такой фильтр накладывается поисковиком, когда на сайт ведет много внешних ссылок с одинаковым анкором или одним текстом. Google естественно считает, что этот процесс не является натуральным.

Способы вывода:

А он всего один - нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.

Broken Links (битые ссылки)

Причины попадания:

Фильтр накладывается за большое количество ссылок, выдающих 404 ошибку. Такие ссылки вводят в ступор пользователей, а также их не может проиндексировать поисковик.

Способы вывода:

Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.

Links

Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.

Причины попадания:

Фильтр накладывает санкции за большое количество внешних ссылок, ведущих на «сайты партнеры», которые проставляют ссылку на вашу площадку.

Способы вывода:

CO-citation linking filter (социтирование)

Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.

Причины попадания:

Некачественные доноры или не соответствие тематик донора и акцептора.

Способы вывода:

Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:

  • составить список всех ссылающихся сайтов (через сервис ahrefs.com);
  • отсортировать все нетематические сайты;
  • добавить их в сервис Disavow Link (мы написали о нем отдельную ).

Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.

Page load time (время загрузки страницы)

Причины попадания:

Если скорость страниц загрузки вашего сайта имеет низкие показатели, то Google может наложить санкции и пессимизировать его в результатах выдачи.

Omitted results (опущенные результаты)

Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.

Причины попадания:

Данный фильтр накладывает санкции за дубли (в рамках сайта или дубли с других ресурсов), а также за слабую перелинковку. В результате страницы могут сильно понизиться в выдаче или вовсе выпасть из индекса.

Способы вывода:

Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.

- 30

Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.

Причины попадания:

Фильтр накладывается за следующие нарушения:

  • клоакинг;
  • дорвеи;
  • скрытый редирект.

Способы вывода:

К счастью, выйти из-под данного фильтра не сложно - нужно всего лишь устранить вышеприведенные причины.

Over optimization (переоптимизация)

В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.

Причины попадания:

Фильтр накладывается за чрезмерную оптимизацию страниц - перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок.

Способы вывода:

Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.

Panda

Фильтр от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды - это долгий и болезненный процесс.

Причины попадания:

Способы вывода:

Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами - сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.

Penguin (пингвин)

Фильтр от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.

Причины попадания:

Под санкции Пингвина можно попасть, если вы закупаете слишком большое количество ссылок за раз, если эти ссылки имеют один и тот же анкор, если ссылки являются не тематическими или вы производите обмен ссылками.

Способы вывода:

Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.

icon by Eugen Belyakoff