Это утверждение подтвердил представитель поиска Google. В целом же, появившийся уже 6 лет назад алгоритм, был призван бороться с сайтами, которые содержали некачественный контент. С тех пор многие писали о том, что Google оценивает и структуру страниц сайта. Писали и не соглашались в том, что якобы это все субъективно, что лишь по мнению какого-то там алгоритма Google архитектура качественная или, наоборот, некачественная. И вот почти год назад Panda была интегрирована в основной функционал поиска от Google.
Джон Мюллер, отвечая на вопрос, сказал, что "если мы видим на сайте проблемы, которые, по нашему мнению, могут оказывать значимое влияние на качество ресурса в целом, то мы их учитываем. Следовательно, если у вас есть проблемы с категориями сайта, и вы можете их улучшить, то этим стоит заняться".
Но из его заявления у вопрошающих ранее по-прежнему останутся вопросы о том, а как именно алгоритм определяет качественность архитектуры сайта. Останутся и предпосылки считать несовершенство данного алгоритма, который в некоторых случаях неадекватно занижает позици сайта, считая его некачественным именно из-за этого алгоритма. А иногда не просто занижает позиции, а вообще удаляет из выдачи. И приходится что-то делать на своем сайте, пытаясь угодить не особо понятным требованиям алгоритма, ждать какое-то время до следующего апдейта и надеяться, что сайт вновь появиться в поисковой выдаче.
По существу была и есть одна пространная рекомендация без конкретики - чтобы ваш сайт не съела панда, делайте свой сайт максимально полезным, исключая "недостаточность", некачественность, неуникальность, дублированность контента
только авторизованные пользователи могут оставлять комментарии