Если вдруг клюнул Penguin
Эта статья предназначается вниманию всех тех пользователей, которые пострадали от нового алгоритма поисковой системы “Google”. Об этом новом алгоритме рассказала редакция издания “SearchEngineLand”, чем этот алгоритм отличается от антивируса “Panda”, а так же, как не попасть под фильтр.
Новый алгоритм, который называется “Google Penguin”, был запущен во всем мире 24 апреля 2012 года Internet-гигантом. Основной целью фильтра является необходимость бороться с “поисковым спамом”. Под понятием главных признаков “поискового спама” “Google” рассматривает излишнее заполнение странички сайта ключевыми словами, маскирование, а также присутствие на ресурсе “неестественных” исходящих ссылок. Как сообщалось изданию представителями “Google”, работа нового алгоритма будет очень активной и постоянной: полный цикл сканирования поисковой выдачи будет проходит в продолжении нескольких дней, а потом – будет запускаться новый.
Также редакторами издания “SearchEngineLand” были предупреждены web-мастера о том: “Если Вы сразу же после двадцать четвёртого апреля вдруг обнаружили значительное уменьшение своего трафика, возможно, что причиной этому стал новый алгоритм “Google Penguin”, в этом случае можем посоветовать Вам заполнять специальную форму для обратной связи от “Google” и дожидаться переиндексацию”.
Тем пользователям, которых пока ещё не постигла эта печальная участь, эксперты настоятельно советуют загодя поработать над своими сайтами и постараться удалить со своего сайта любой спам или то, что можно будет расценивать как спам. По сути эти общие принципы работы с ресурсом аналогичны тем действиям, которые раньше предпринимались web-мастерами для того, чтобы можно было избегать наказаний от фильтра “Panda”, и сводится к следующему:
- Стараться избегать наполнения ресурса большим количеством ключевых слов – это может создавать для пользователей определенные неудобства и может снижать рейтинг сайта в поисковой выдаче.
- Постарайтесь не допускать клоакинга, скрытой переадресации при помощи скриптового языка программирования “Javascript” и дорвеев
- демонстрации несовпадающих данных на основе клиентского приложения “user-agent” приведёт к тому, что ресурс может быть отнесён к мошенническим сайтам и будет сразу же удалён из индекса к поиску в “Google”.
- Старайтесь избегать дублирования информации. Если же на сайте сохраняется несколько страничек с почти одинаковой информацией, необходимо указывать предпочитаемый URL-адрес для поиска в “Google”.
- Ещё раз постарайтесь проверить все схемы для построения ссылок, ведь качество, количество и релевантность ссылок значительно влияет на рейтинг ресурса в поисковой выдаче “Google”.
Редакторами издания “SearchEngineLand” в заключение напоминается web-мастерам о том, что последнее update (обновление) алгоритма “Panda” до версии 3.5 произошло девятнадцатого апреля 2012 года. В отличии от алгоритма “Google Penguin”, обновленный алгоритм “Panda” призван бороться с целевыми страничками, которые не являясь спамом, однако могут иметь довольно низкое качество.