Google начинает охоту на ведьм
Первый алгоритм Google Panda, вышедший более двух лет назад, был создан с целью сокращения числа некачественных сайтов в поисковой выдаче. Он отсеивал сайты, содержащие бесполезный и не оригинальный контент или огромную массу беспорядочных внешних ссылок (т.н. линкфермы). Также этот алгоритм был призван бороться с ресурсами, перегруженными спамом и рекламой, не соответствующей контенту.
С начала запуска Google Panda прошло достаточно много времени, в течении которого алгоритм совершенствовался разработчиками; с частотой примерно раз в месяц регулярно выпускались апдейты. Последнее обновление (до версии 24) произошло в январе текущего года.
Как сообщают специалисты из компании Proffi-SEO, после длительного перерыва Google анонсировал изменение характера апдейтов алгоритма Panda в начале марта. Если предыдущие обновления были единичными и проводились вручную строго в назначенный день, то, теперь все последующие апдейты Panda будут осуществляться постепенно и автоматически. Официальных извещений от корпорации Google больше ждать не следует. Существенное отличие также заключается в том, что апдейты станут затрагивать поисковые запросы в гораздо меньшем объеме.
По словам экспертов, это нанесет существенный удар, как по владельцам некачественных сайтов, так и по недобросовестным оптимизаторам, использующим теневые методы раскрутки, поскольку работа алгоритма становится куда менее прозрачной.
«Теперь алгоритм Panda будет постепенно внедряться по мере автоматической перестройки его индекса. Это сильно повлияет на работу ссылочных бирж, что заставит вебмастеров искать новые методы поисковой оптимизации сайтов в обход фильтров. Сложно делать какие-то точные прогнозы, но с уверенностью можно утверждать, что в течении всего 2013 года «чистки» бирж будут проходить неоднократно. Альтернативным методом привлечения целевой аудитории на сайт, успешно применяемым нами на практике, является продвижение в блогах и социальных медиа», - сообщает источник.