Современные вебмастера время от времени сталкиваются с тем, что Google накладывает на их сайты специальные ручные фильтры. Чем же руководствуется при этом поисковая система, анализируя ссылочный профиль?
Безусловно, определенные детали использования Google ручных фильтров вебмастерам не раскрываются, однако в целом весь процесс использования ручных фильтров работает на относительно простых и понятных принципах. При анализе ссылочного профиля собственного сайта следует пользоваться собственной интуицией, а также базовыми математическими правилами.
Когда Google приходит на сайт и принимает решение бороться со спамом, в первую очередь, он обращает внимание на то, насколько качественными являются страницы веб-ресурса, где именно размещаются ссылки на сайте, какие анкоры в них задействованы. Если ссылочный профиль и анкоры слишком сильно отличаются друг от друга, Google оценивает его как неестественный. Важно также обращать внимание на то, насколько качественными являются сами ресурсы, на которых размещаются ссылки. Являются ли эти веб-ресурсы настоящими или же созданы только для того, чтобы поместить на их страницах ссылки для продвижения.
Алгоритм Google Penguin при наложении фильтров также пользуется определенными правилами. При этом вебмастерам стоит принимать во внимание тот факт, что фильтры Пингвина намного строже и опаснее тех, которые принято называть "ручными".
Пингвин является достаточно большим и непредсказуемым обновлением. На данный момент даже в самой корпорации Google о всех нюансах работы фильтров Пингвина знает всего несколько человек. Тем не менее, можно уверенно говорить о том, что эти алгоритмы Google создал специально для того, чтобы бороться с оптимизаторами, которые до сих пор пытаются пользоваться методами черного продвижения сайтов. Конечно, с такими методами в Google вели борьбу и раньше. Тем не менее, Пингвин - существенный шаг вперед для поисковой системы.
На данный момент можно с уверенностью говорить о том, что рейтинг сайта будет падать в том случае, если Пингвин обнаружит большое количество ссылок низкого качества, ведущих на веб-ресурс. Уделяет внимание новый алгоритм и спаму, который нередко оказывается на страницах сайтов. Вы наверняка попадете под фильтр в том случае, если тексты на сайте будут переполнены внутренними ссылками и ключевыми словами.
При рассекречивании сеток ссылочных сайтов и блогов поисковая система Google занимается поиском кластеров, которые могли бы принадлежать одному и тому же вебмастеру. Если человек занимается созданием сеток блогов для продвижения одного ресурса, ему стоит помнить о том, что такие техники Google считает незаконными и не рекомендует их использовать.
Достаточно мощные современные технологии поисковой системы способны выявить даже качественно скрытые сайты, связанные между собой. Это неизменно приведет к использованию фильтров и пессимизации ресурса.