До обращения в наше агентство клиент продвигал свой сайт самостоятельно:

  • закупал и размещал статьи на бирже «Миралинкс»
  • закупал ссылки на бирже GoGetLinks

Санкции были наложены в марте 2013 года. Первое письмо, оповещающее об этом, клиент получил 8 марта 2013 года. Как результат, трафик с «Гугла» резко упал с 233 пользователей в сутки до минимума. Это можно видеть на скриншоте ниже (данные Яндекс.Метрики):

Меры были наложены из-за плохих внешних ссылок. О фильтре клиент узнал почти сразу же, но никаких мер по снятию некачественных ссылок не предпринимал, аргументируя это тем, что позиции и трафик с «Яндекса» устраивали, а заморачиваться с «Гуглом» не было мотивации, т.к. «Гугл» – «это все-таки дополнительный трафик». Первый запрос на перепросмотр был отправлен клиентом спустя 9 месяцев после наложения фильтра. После этого было еще три запроса на протяжении двух лет, но ни один из них результата не дал.


На вопрос, по каким критериям он отбирал некачественные ссылки, клиент ответил:

Не отбирал. Надеялся проскочить на дурачка, ничего не делал, просто писал запросы время от времени. В запросах рассказывал, о том, что сайт продвигал какой-то нехороший оптимизатор, но сейчас все хорошо – ссылки сняли и т.д. При этом ничего не снимал. Продолжал, так же как и раньше размещать статьи в «Миралинксе» и покупать ссылки в GoGetLinks для «Яндекса». Надеялся, что наступит день, и «Гугл» простит:)

Последнее его письмо было следующего содержания:

Здравствуйте! Постоянно работаю над сайтом, улучшаю его пользовательские характеристики. Каждый день добавляется материал по тематике. Изменил немного оформление. Но... Гугл так и не пускает посетителей из поиска на мой сайт. Помогите, пожалуйста-)

26 февраля 2015 года в ответ на очередной запрос клиента от «Гугла» было получено следующее уведомление (см. скриншот ниже). В нем говорится о том, что некоторые внешние ссылки все еще не соответствуют требованиям поисковой системы. В письме приведены примеры ссылок:


После этого письма клиент решил обратиться к нам.

Как мы снимали фильтр «Пингвин»

Работу над снятием фильтра мы начали в марте 2015 года – ровно 2 года спустя после наложения фильтра. Еще раз обращаем ваше внимание – сайт два года находился под фильтром, но никаких серьезных действий по этому поводу не предпринималось. К сожалению, это вполне типичная ситуация. Многие владельцы сайтов, которые пытаются продвигать свой ресурс самостоятельно, не обладая при этом должными знаниями в сфере SEO, часто недооценивают урон, который наносит бизнесу наложение фильтра и потому затягивают с принятием мер по его снятию.

Что мы сделали для того, чтобы вытащить сайт из-под фильтра

  1. Выгрузили все беклинки. Всего их было порядка 1200. Из них плохих беков мы отобрали 523.
  2. По ряду этих ссылок мы попытались связаться с вебмастерами площадок с просьбой снять ссылку. Запрос выглядел примерно так:

Добрый день! Я представляю веб-агентство «Текстерра». На данный момент мы продвигаем сайт http://superzapravka.ru/, на который наложены санкции в «Гугле» из-за некачественных внешних ссылок. На Вашем сайте размещена ссылка, ведущая на сайт нашего клиента. Пожалуйста, удалите ее, это нам очень поможет. Спасибо.

  1. Составили отчет, в котором отметили, какие меры были нами приняты и какие результаты мы получили. Документ содержал следующие графы:

– Владельцы сайтов в результате нашего обращения удалили ссылки, перечисленные ниже

– С 15 по 17 марта были отправлены запросы владельцам перечисленных ниже сайтов, ответы не получены

– С 11 по 14 марта были отправлены запросы на удаление перечисленных ниже внешних ссылок, но владельцы сайтов ответили отказом

– Владельцам следующих сайтов отправить запрос не удалось, поскольку контактные данные отсутствовали, либо были указаны неверно

– На перечисленных ниже страницах возвращается ошибка 404, ошибка доступа либо ссылка на сайт www.<ваш сайт>.ru отсутствует


  1. Далее 17 марта 2015 года этот отчет был отправлен в саппорт «Гугла» вместе с сопроводительным письмом следующего содержания:

Были отправлены письма владельцам площадок с просьбой удалить ссылки на сайт superzapravka.ru. Т.к. доступов к биржам нет, многие отвечали отказом, мотивируя это тем, что ссылки убираются только через администрацию биржи. Некоторые все же убрали ссылки в ходе общения. Имеются скриншоты переписок с владельцами площадок.

  1. В этот же день (17 марта) мы получили от «Гугла» два уведомления:


– о том, что мы успешно загрузили файл со списком тех ссылок, которые следует отклонить (523 линка), проведенному в конце 2014 года, Google уже обошел «Яндекс» по популярности на всех типах устройствах, и этот тренд продолжает сохраняться.


Поэтому, пожалуйста, не нужно его игнорировать и добровольно отказываться от мощнейшего канала привлечения высококачественного и целевого трафика. Ради вашего же бизнеса.

В прошлом посте я уже затронул тему, волнующую многих вебмастеров последние несколько недель. Это введение в действие 24 апреля 2012 года нового алгоритма Google Penguin , направленного на борьбу с веб-спамом. Если по простому, то виновных ждет казнь за переоптимизацию.

Давайте попробуем разобраться, за что сайт может попасть под новый фильтр и как уберечься от Google Penguin.

Для начала надо определить, а Пингвин ли собственно виноват. Как я уже упоминал в предыдущей статье , в апреле Гугл произвел очень много изменений, повлиявших на работу поиска. 16 апреля в поисковике произошел сбой, связанный с припаркованными доменами. 19 числа вышло очередное обновление алгоритма Panda. И, наконец, 24 апреля приплыл Пингвин.

Поэтому, если резкое падение позиций в выдаче и посещаемости произошло сразу после 24 числа, то, с большой долей вероятности, это действие нового алгоритма. Если до, то это точно не Google Penguin.

Также проверьте, нет ли у Вас уведомлений от Гугла в разделе “Сообщения ” в Google Webmaster Tools о чрезмерной спамерской активности Вашего веб-сайта. Если есть, то надо будет принять меры, для исправления указанных там ошибок.

Далее приведу свое мнение, которое сложилось после изучения информации на блогах (в том числе зарубежных) и форумах (на одном только forum.searchengines.ru более 400 страниц обсуждений). Если я не прав, поправьте.

За что наказывает новый алгоритм Google Penguin и как уберечь свой сайт?

По большому счету ничего нового. Просто Google очередной раз пытается дать понять, что для того, чтобы быть в выдаче, надо создавать “сайты для людей” и использовать для только белое SEO. Но все же нас ставят в очень жесткие рамки. Шаг вправо, шаг влево и сайт вылетит из поисковой выдачи.

А если конкретнее, то алгоритм Google Penguin может наложить санкции по следующим причинам :

1. Прежде всего, под клюв Пингвина попадают сайты, активно покупающие и продающие неестественные ссылки для повышения PageRank и искусственного воздействия на результаты поисковой выдачи. Сайты, на которые ведут ссылки с некачественных веб-ресурсов.

По словам Мэтта Каттса, не все платные ссылки являются поисковым спамом, а только те, которые направлены на манипуляции с результатами поиска и искусственное повышение PR. Коммерческие рекламные ссылки, нацеленные на продажи товаров, не запрещены, но их надо закрывать от индексации с помощью rel=”nofollow” . В то же время, достаточно всего пары не релевантных исходящих ссылок, чтобы это было расценено, как поисковый спам новым алгоритмом Гугл.

2. Замечено, что санкции применены к сайтам, в анкор листе которых подавляющее большинство точных вхождений.

Советуют разбавлять анкоры в соотношении, как минимум 50/50, а то и больше. В качестве безанкорных ссылок лучше использовать: тут, здесь, http://сайт.ru, сайт.ru, название сайта. Обязательно окружать их релевантным околоссылочным текстом, который может попасть в анкор-лист. Само собой любая ссылка должна быть релевантна документу, в котором она стоит и на который ведет.

Поэтому непонятно, какую службу теперь сослужат ссылки с профилей нетематических трастовых сайтов, форумов и каталогов. Хорошо, если их просто не будут учитывать. А если будут? Уверен, подобных ссылок у всех хватает.

3. Наличие сквозных ссылок в футере и сайдбаре с точным вхождением ключа в анкоре.

4. Неравномерное распределение входящих ссылок по страницам. Особенно, когда почти все ведут на главную, да еще и с одинаковыми анкорами. За чрезмерную внутреннюю перелинковку с использованием точных вхождений тоже могут наказать.

5. Наличие переоптимизированного контента с большой плотностью ключевых фраз и чрезмерное их выделение тегами акцентирования.

6. Наличие дублированного контента, одинаковых мета тегов и Title. Страницы, оптимизированные под одинаковые ключевые слова.

7. Использование замаскированных ссылок, скрытого текста, дорвеев, скрытой переадресации и других методов черного SEO.

Нельзя показывать поисковикам и посетителям разную информацию по одному и тому же адресу.

10. Страницы, содержащие вирусы и различные вредоносные программы.

Вот такой у меня получился список. Возможно, кто-то дополнит или, наоборот, оспорит. Высказывайтесь в комментариях.

Что делать, если упали позиции и трафик после введения в действие Google Penguin?

Прежде всего, советуют не паниковать и не делать резких движений. Например, прочитал на сайте www.seomoz.org , что худшее, что можно сделать, это резко начать удалять обратные ссылки. Даже обратные ссылки низкого качества могут быть полезны. И если активно начать сокращать все подряд бэк-ссылки, не найдя причину проблемы, рейтинг сайта может упасть еще ниже.

Надо проанализировать ситуацию и выяснить, какой именно трафик был потерян и какие действия могли привести к пессимизации сайта. Старайтесь исправить ошибки и ждите следующего обновления алгоритма.

Для тех, кто считает, что он пострадал от Пингвина незаслуженно, Гугл создал специальную форму обратной связи. Но так как новый фильтр накладывается на сайт автоматически, а не в ручном режиме, особого смысла от этих жалоб, скорее всего, не будет.

Но существует еще одна форма, где можно сообщить о сайтах, которые незаслуженно избежали наказания Пингвина. В общем, предлагается настучать на конкурентов.

Кстати, как сообщил все тот же seomoz, 11 мая было обновление Google Penguin. Так что все еще только начинается.

Заключение.

Подводя некоторые итоги, можно сделать вывод, что Гугл особенно серьезно настроен на борьбу с продажными ссылками. Причем продавать и покупать ссылки не запрещается, но они должны закрываться от индексации.

Наказывать же будут за попытки манипуляции результатами поисковой выдачи с помощью покупных ссылок. В этой связи, видимо, все большую ценность при ранжировании сайтов будут иметь социальные сигналы с Твиттер, Фейсбук и Гугл+.

Если читать между строк, то нам ясно дают понять, что получить целевой трафик на свои сайты будет гораздо проще, если отказаться от SEO в пользу Google AdWords. И Google Penguin, это очередное предупреждение. Как говорится, несите Ваши денежки… Похоже, для ссылочных бирж наступают трудные времена.

Для тех, кто продвигается под Яндекс, строго соблюдая его рекомендации к качеству сайтов, нововведения Гугла не должны вызвать серьезных проблем. Российский поисковик уже давно дал понять оптимизаторам, что он желает видеть в выдаче только СДЛ.

Вывод банален: делайте сайты для людей , а не для поисковиков, и будет Вам ТОП счастье.

А Вы как думаете, не перегибает ли палку поисковик №1 в мире? Долго ли еще протянет бизнес купли-продажи ссылок? Или покупные ссылки скоро будут бесполезны? Именем какого зверя назовут следующий алгоритм Гугла? Может это будет ? Высказывайтесь в комментариях.

До скорых встреч на страницах !

Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Фильтр Google Пингвин - это один из последних алгоритмов, которые компания использует при ранжировании сайтов в поисковой выдаче.

На сегодняшний день Google при ранжировании сайтов принимает во внимание более двух сотен факторов. Чтобы учесть их все, одного алгоритма не хватит, необходимы несколько, каждый из которых будет решать собственные задачи.

Главная задача фильтра Пингвин – выявление и блокировка сайтов, использующих нечестные методы продвижения, основным из которых является закупка ссылочной массы. Алгоритм постоянно совершенствуется и в настоящее время апдейт фильтра Google Penguin выполняется практически непрерывно.

История разработки алгоритма Пингвин

Google Penguin вышел в мир в апреле 2012 года. В течение следующих двух месяцев он дважды обновлялся, разработчики корректировали первую версию фильтров. Вторая версия алгоритма появилась почти через год, обновленный Пингвин действовал уже тоньше и учитывал не только уровень ссылочного спама, но и общий уровень страницы.

Осенью 2014 года алгоритм вновь был обновлен. Надо сказать, что в тот период он действовал таким образом, что попавшим под его фильтры сайтам приходилось после коррекции долго дожидаться выхода очередного обновления, чтобы вновь пройти проверку. Ситуация изменилась в 2016 году, после выхода Google Penguin 4.0, который действовал в режиме реального времени и обновлялся непрерывно. Последние версии алгоритма действуют предельно мягко – учитывается уровень сайта, качество страниц, а некачественные ссылки аннулируются без отправки всего сайта в бан.

За что наказывает Google Penguin

Специалисты полагают, что алгоритм Пингвин должен дополнять алгоритм Google Панда, отвечающий за проверку контента сайтов. Чтобы ваш ресурс не попал под фильтр Google Пингвин, необходимо внимательно работать с внешними ссылками на сайт и избегать того, что специалисты называют манипулированием ссылочной массой. Основными способами такого манипулирования считаются:

  • «Торговля» ссылками, когда владелец сайта за деньги или другую плату публикует на своем ресурсе ссылки на чужие сайты.
  • Явно искусственный обмен ссылками, когда сайты ссылаются друг на друга из-за сговора владельцев, а не из-за качества контента.
  • Использование на сайте большого количества текстов, в которых много «притянутых за уши» анкоров и ключевых слов.
  • Использование сервисов, которые автоматически генерируют ссылки на сайт.
  • Наличие на сайте ссылок, имеющих в анкоре прямое вхождение ключевиков.
  • Использование сквозных ссылок с анкором-ключевиком в сайдбаре и футере сайта.
  • Комментарии к материалам сайта со ссылками на спам-ресурсы.
  • Чрезмерное количество контекстной рекламы на главной странице сайта.

За применение таких недобросовестных ссылочных схем фильтр Гугла Пингвин быстро и надежно «уронит» ваш сайт на много страниц в выдаче. Более того, вам будет очень непросто вернуть занимаемые позиции, поскольку проверка сайта Google Penguin выполняется всего лишь дважды в год.

Как узнать, что Google Penguin применил санкции

В отличие от алгоритма Google , работающего только в автоматическом режиме, Пингвин используется и при ручной модерации. Если вы обнаружили резкое падение трафика, зайдите на Google Webmaster Tools, в раздел «Меры принятые вручную» и проверьте, нет ли там сообщения от модераторов.

Если письмо есть, вам останется только исправить указанные в нем недочеты и отправить запрос о новой проверке.

Однако чаще всего алгоритм срабатывает автоматически. В этом случае стоит зайти на Moz.com и проверить, не было ли недавно обновлений Пингвина. Если обновления были, значит, диагноз установлен верно, и пора приступать к «лечению» сайта. Выявить это соответствие можно также с помощью сервиса PenguinTool, с сайта Barracuda. Правда для этого вам придется дать сервису доступ к своему аккаунту в Google Analytics, чтобы он сравнил период падения трафика и время выхода нового обновления. Результат сравнения поможет понять, попали вы под фильтры Пингвина или нет.

Что делать? если Google Penguin вас поймал

Если вы попали под фильтры этого алгоритма, то самое худшее, что можно сделать – начать панически удалять все ссылки. Этим вы окончательно погубите ресурс.

Сайту, который поисковая система сочла некачественным, нужна спокойная и вдумчивая санация. Сама компания Google предлагает набрать ссылочную массу заново, не спеша, естественным путем и в основном за счет создания уникального контента.

Первое, что нужно сделать для выхода из-под фильтра – проанализировать ссылочный профиль ресурса. Вам надо будет понять, какие ссылки идут с качественных сайтов, то есть с полезных, интересных и посещаемых, а какие со спамных. Сделать это можно с помощью сервиса Majestic SEO. Ссылки на спамные сайты (внутренние ссылки) надо нейтрализовать с помощью запретов noindex и nofollow, которые закроют «плохие» ссылки от индексации и заблокируют переходы по ним. Чтобы убрать внешние ссылки, вам надо будет использовать сервис Google для отклонения ссылок. Сервис называется , внесенные в него ссылки Пингвин Google просто не учитывает.

Второй шаг – смена анкоров ссылок. Ее выполняют двумя способами. Первый состоит в том, чтобы поменять ссылку на безанкорную, но сделать это может только опытный web-мастер. Второй способ состоит в наращивании ссылочного профиля за счет появления новых безанкорных ссылок.

Третьим шагом вам надо расширить базу ссылочных доноров, то есть позаботиться о том, чтобы ссылки шли из разных источников: с форумов, из социальных сетей, из каталогов, из блогов и средств информации, вроде интернет-журналов и новостных порталов. Полная санация сайта и выведение его из-под фильтров обычно занимает 3-4 месяца.

Чтобы не попасть под фильтры Google Penguin, надо привлекать только качественные ссылки, поддерживать постоянную динамику роста ссылочного профиля и не использовать в ссылках прямые анкоры. Качественный контент и естественное наращивание ссылочной массы из разных источников защитят вас от санкций поисковой системы лучше любого специалиста.

Если вы задаетесь вопросами: как вывести сайт из под Пингвина ? Как снять ручной фильтр Google ? То, данное руководство поможет вам решить эти проблемы, вернуть позиции и посещаемость.

В поисковой системе Google существуют десятки известных фильтров, которые могут сильно повлиять на продвижение, а так же сотни, про которые мало кто знает.

Сегодня речь пойдет про самые основные и распространенные фильтры. А именно:

  1. Автоматический фильтр Google за обратные ссылки

Все они так или иначе относятся к алгоритму под названием Google Penguin, который вступил в силу более года назад и уже успел наделать много шума.

Симптомы такого фильтра

  1. обвал позиций
  2. резкий спад посещаемости сайта

На практике это выгладит таким образом:

Не совсем приятная ситуация. Особенно когда в большинстве случаев ваш основной источник привлечения посетителей поисковый трафик.

А теперь рассмотрим детально для каждого типа фильтра за обратные ссылки.

Ручной фильтр Google за искусственные входящие ссылки

Зачастую все начинается с того, что приходит сообщение в панели для Вебмастеров Google. Выглядит оно так:

В уведомлении сообщение такого характера:

Сообщения бывают разные, например:

Чтобы найти сообщения о ручном фильтре, для этого:

После того, как приходит уведомление об искусственных входящих ссылках, обычно такие последствия:

А) В течении 2-3 недель позиции сильно падают, после чего пропадает посещаемость из поиска Google

Б) Сразу вылетают позиции и посещаемость падает

Причины ручного фильтра Google

Основной сигнал, из-за которого приходит такое уведомление – это анкор ссылки и его переспам.

В примере, текст обратных ссылок на один из сайтов, который затронул фильтр. Основная причина фильтра – переспам анкором.

Еще пример :

Если посмотреть по уникальным доменам, то получается такая картина:

Использование обратных ссылок с коммерческими или другими ключевыми словами приводит к ручному фильтру, потери позиций и посещаемость.

Что же тогда делать и как быть?

Решение предельно простое – не использовать большой процент ссылок с ключевыми словами.

Пошаговая инструкция по снятию ручного фильтра Google

  1. Уведомление в Google
    Проверяем, есть ли уведомление в Google Webmaster Tools. Если есть, то переходим к следующему пункту.
  2. Запрос на пересмотр
    В первом запросе на пересмотр важно уточнить какие именно ссылки нарушают правила поиска, и спросить, что необходимо сделать для снятия ручных санкций.
  3. Получаем ответ

    В большинстве случаев в ответе указывают те ссылки, по мнению которых сайт нарушает правила поиска. Например:

    В итоге мы можем определить на какие именно ссылок обращает внимание Google и считает их спамными.

  4. Производим указанные действия

    Дальнейшие действия сильно зависят от вашего ссылочного профиля.

    Ситуация 1

    На ваш сайт стоит большое количество арендованных ссылок, и в большинстве случаев это прямые анкоры, в которых содержаться ключевые слова.

    В таком случае – необходимо :

    1. почистить ссылки с анкорами (в том числе те, которые есть в примере Гугл)
    2. переходить к следующем пункту – новый запрос на пересмотр

    Если действительно убрать большую часть таких ссылок, то ручной фильтр можно снять с одного – двух запросов.

    Ситуация 2

    В там случае – необходимо :

    1. просмотреть все обратные ссылки (можно с помощью сервисов проверки обратных ссылок, например: Ahrefs, MajesticSeo, LinkPad)
    2. составить список ссылок, которые нежелательные (основные критерии: анкор, низкое качество сайта)
    3. добавить ссылки в Disawov Tool — https://www.google.com/webmasters/tools/disavow-links-main?/
    4. подождать 1-2 недели (из практики необходимо для того, чтобы ссылки пере индексировались)
    Далее переходим к следующему пункту и отправляем запрос на пересмотр.
  5. Отправляем новый запрос на пересмотр

    В запросе на пересмотр необходимо:

    1. четко описать что вы сделали
    2. просто и понятно
    3. и уточнить, что еще необходимо сделать для снятия фильтра

    После чего, необходимо немного времени для пересмотра вашего сайта. Это может занять от пару дней до 3-4 недель.

  6. Промежуточный ответ

    В промежуточном ответе обычно содержание такого характера:

    Это уведомление от Google приходит практически сразу после отправки запроса на пересмотр.

  7. Ждем решения

    Ответ приходит обычно в течении 1-2 недель, иногда дольше, а иногда быстрее.

    В нем либо негативный ответ, например:

    Если ответ негативный , то:

    1. заново пересматриваем ссылки
    2. добавляем в Google Disawov
    3. или просто снимаем ссылки
    4. в любом случае нужно сделать действия
    5. отправляем новый запрос на пересмотр

    Но ответ после выше проделанных действий может быть и позитивный , например:

    В этом случае – поздравляю вас! Ручной фильтр Google снят.

В нашем примере – был не быстрый способ вывода сайта из под ручного фильтра Google, вот так выглядит хронология событий:

Важные моменты при самостоятельно снятии фильтра:

  1. не сдаваться
  2. делать действия (а не просто слать запросы на пересмотр)
  3. если сделать все, как выше описано, то ручной фильтр от Гугл снимется, вы вернете позиции и трафик

Вот информация, которая дополнит данный материал и поможет вам успешно снять фильтр:

  1. тематики под США
  2. Кейс — как снять ручные санкции Google с помощью Disavow Tool, вернуть позиции и посещаемость
  3. Кейс — как снять ручные санкции Google, вернуть позиции и трафик

В ручном фильтре нет ничего страшного, самое главное не поленится и сделать ряд действий, который приведет к нужному результату.

Как результат – это возвращение посещаемости на прежний уровень, например:

В данном примере рассмотрены пару сайтов, фильтры с которых снимались в разное время.

По времени снятия фильтра :

  1. рекорд за 4 дня
  2. самый долгий срок 3.5 месяца

Но в любом случае нужно действовать оперативно, а так же учитывать выше описанные моменты.

Автоматический фильтр за обратные ссылки

С автоматическим фильтром от Google – все на порядок сложнее. Так как о нем не приходит сообщение.

Важно: автоматические санкции могут сняться при официальном обновлении алгоритма Google Penguin, которое в среднем происходит раз в 2-4 месяца.

Чтобы вы не делали, до обновления алгоритма – ничего не изменится, если это автоматические санкции.

Мы не раз снимали автоматический фильтр, но не всегда все происходит быстро.

Признаки фильтра

Все тоже самое, как и с ручным, только не приходит никакого уведомления.

  1. позиции сначала проседают в – 30-50
  2. падает трафик на сайт

И потом долгое время не возвращается.

Основные причины:

  1. Прямое вхождение анкора ссылки
  2. Некачественные обратные ссылки

Пошаговое руководство по снятию автоматического фильтра

В данном случае в отличии от ручного все на порядок дольше, и сложнее.


В заключение про фильтр Google Penguin

Алгоритм был запущен в 2012 году и постоянно дорабатывается. Его основной задачей является – борьба со спамом и искусственным манипулированием результатов поиска.

Чтобы не попасть под фильтр , необходимо:

  1. не использовать прямой анкор лист сильно заметно, или не использовать вовсе
  2. привлекать качественные ссылки на сайт
  3. стараться делать акцент на продукте и его качестве, чтобы получать естественные ссылки (да, это можно делать даже в реалиях рунета)
  4. соблюдать динамику – Google любит постоянную динамику

Тогда у вас не возникнет вопросов с фильтрами и ваш трафик будет постоянно расти. Естественно если вы будете работать над:

  1. контентом сайта
  2. привлечением естественных ссылок (не покупных)

Даже если вы уже наступили на грабли и получили санкции со стороны Google, то не стоит разочаровываться – решение всегда есть.

Я надеюсь, что данное пошаговое руководство поможет решить вашу проблему – вернуть позиции и посещаемость из поисковой системы Google.

Важно: в статье рассмотрены только фильтры, связанные с алгоритмом Google Penguin и обратными ссылками.

Если у вас резко упали позиции и посещаемость, то причина может быть вовсе не в ссылках, а например, в контенте. За это отвечает алгоритм Google Панда.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Анкор - что это такое и насколько они важны в продвижении сайта Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт
СЕО терминология, сокращения и жаргон За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте
Траст сайта - что это такое, как его измерить в XTools, что на него влияет и как увеличить авторитетности своего сайта Особенности продвижения интернет-магазинов
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Контент для сайта - как наполнение уникальным и полезным контентом помогает в современном продвижении сайтов
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов




Close