Введение нового алгоритма Google Panda привело к занижению в выдаче многих сайтов. Теперь для Google важен сайт в целом. Если раньше при наличии на сайте хорошей релевантной статьи она могла оказаться в ТОП, даже если всё остальное представляло собой копипаст в три строчки, теперь же наличие некачественного контента опускает в выдаче весь сайт целиком. Для оценки качества контента Google Panda использует очень большое количество фильтров, о многих из которых мы не знаем. Одни из самых очевидных фильтров, о которых упоминают все специалисты, это фильтр в отношении копипаста, коротких текстов, перенасыщения ключами, некачественных ссылок на страницах самого сайта и беклинков, большое количество отказов и низкий показатель возвратов. Грустно то, что этот алгоритм теперь пессимизирует весь сайт, даже если далеко не весь контент низкого качества. От этого страдают даже очень серьёзные и влиятельные ресурсы. Google видит только один метод борьбы с этим явлением – своевременное и полное удаление всего некачественного контента. Оказывается, существует ещё одно средство борьбы с Google Panda, которое признают и в самой корпорации. Это вынесение некачественного контента на поддомен сайта. В результате введения Панды пострадал достаточно известный сайт Hubpages. На нем публиковалось в течение 5 лет очень большое количество статей, написанных сотнями тысяч авторов. В июне Мэтт Каттс дал совет его руководителю Полю Эдмонсону попробовать использовать поддомен, на который вынести весь некачественный контент. Hubpages последовали этому совету в конце июня, и буквально в течение 3 недель сайт полностью восстановил свой трафик с Google. По этому поводу получен официальный комментарий представителя Google. В корпорации признали, что поисковые алгоритмы видят поддомен как отдельный сайт. Вынесение на него контента, не удовлетворяющего алгоритму Google Panda, действительно может помочь вернуть позиции в выдаче.
|