Оценка сайтов с помощью PageRank - это постой и удобный способ показать авторитетность проектов. Однако, с этим алгоритмом связано такое явление, как ссылочный спам. Он стал возможен именно благодаря PageRank.

PageRank был введен поисковой системой Google для борьбы с текстовым спамом. Сегодня он является показателем авторитетности любого сайта. Однако, как и все другие алгоритмы Гугл, он не является совершенным и точным. В свое время именно PageRank послужил причиной востребованности покупных ссылок. Ссылки стали настолько востребованными, что появились даже биржи, продающие бэклинки, и люди, готовые предоставлять свои сайты, как донорские площадки.

PageRank является показателем того, насколько сайт востребован пользователями. Если присмотреться, как действует этот алгоритм, то можно заметить, что он характеризует вероятность перехода конкретного веб-серфера по ссылке. PR имеет в своем составе программы, отслеживающие действия пользователей.

PageRank - основная причина ссылочного спама

После того, как стало ясно, что PageRank имет ряд недостатков, были запущены и другие алгоритмы. Они изначально создавались уже для того, чтобы определять качество ссылок и текстов на проектах, а также степень доверия пользователей к ресурсу. Один из таких алгоритмов - Trust Rank. Он определяет не только спамные сайты и страницы, но также устанавливает ресурсы, которые достойны доверия. Один из критериев отбора - характер ссылочной массы. Во-первых, ни один хороший проект не будет ссылаться на плохие ресурсы. Такое чаще происходит со спамными сайтами. Во-вторых, количество линков на качественных сайтах, как правило, минимально.

Проверяя документы и тексты ресурса, надо отмечать количество ссылок на другие проекты. Ни один уважающий себя веб-мастер не будет переполнять посты линками. Конечно, система Trust Rank также не является совершенной. Многие владельцы веб-ресурсов с легкостью обходят ее. Для этого в качестве донорских площадок выбираются качественные проекты. За этим следят специалисты ссылочных бирж. Сами владельцы коммерческих ресурсов стремятся поддерживать свои сайты в хорошем состоянии и постоянно обновлять тексты. Поэтому алгоритм не всегда видит, какие линки были куплены.

Чтобы определять качество ссылок, в Гугл были созданы фильтры, которые учитывают динамику прироста ссылочной массы. Но и этот метод оказался бесполезен. Многие веб-мастеры стали просто работать с вечными ссылками и перестали покупать их массово.

Многие донорские площадки, которые специально проектировались для продажи бэклинков, не имеют внешнего ссылочного окружения. Это часто вызывает подозрение со стороны поисковых систем. Сегодня владельцы сайтов-доноров стараются покупать внешние ссылки, чтобы не вызывать подозрений. С одной стороны, без PR поисковой системе не обойтись. С другой стороны этот алгоритм вызывает ряд дополнительных проблем. Совершенствование алгоритмов поисковика продолжается уже второе десятилетие.