В скором времени в выдаче Гугл появится больше авторитетных сайтов. В поисковой системе обновятся некоторые программы. Благодаря обновлениям пользователи смогут получать информацию из достоверных источников о таких компаниях, как например "Софт-Юнити" http://www.soft-unity.ru/prices/, которая с 2007 года занимается комплексной автоматизацией предприятий на базе «1С» и «1С-совместимых» решений.
На этой неделе Мэтт Каттс сообщил, что сейчас в Google идет работа над некоторыми обновлениями алгоритмов. Обновления позволят лучше выявлять наиболее авторитетные ресурсы в определенных сферах. Некоторые ниши могут иметь несколько авторитетных ресурсов, но в большинстве случаев действительно хороших и информативных сайтов не так много. Пока что поисковая система работает по старым алгоритмам, которые часто путают авторитетные ресурсы с популярными или раскрученными.
Проблема, как отличить авторитетность от популярности, перед специалистами поисковых систем больше не стоит. Многие специалисты могут безошибочно указать на проекты, которые предоставляют максимально достоверную информацию. Популярные сайты - это посещаемые ресурсы, авторитетные отличаются от них достоверными данными, которые могут некоторое время даже не обновляться. Вряд ли кто-то будет сравнивать социальную сеть и портал правительства.
Проблема может быть в другом. Иногда роботам поисковика очень сложно отличить авторитетные сайты и коммерческие. Дело в том, что авторитетность любого проекта определяется релевантными ссылками. Если сайт информативен и заслуживает доверия, то на него будут ссылаться. Например, при невысокой посещаемости городских сайтов на них всегда больше ссылок, чем на популярные посещаемые порталы.
Однако, именно в ссылках и заключается основная проблема. Многие коммерческие сайты продвигаются при помощи линкбилдинга. Таким образом владельцы стремятся сделать их более весомыми. Самое интересное, что популярные ресурсы могут таким методом и не раскручиваться. Сайты со взрослой тематикой вряд ли имеют высокую популярность благодаря ссылкам.
Поисковые алгоритмы могут отличать некоторые спамные ссылки, но такое возможно далеко не со всеми ресурсами. Есть сайты, которые продвигаются очень грамотно. Даже купленные ссылки не выглядят в их отношении спамными. Но факт покупки все равно остается. Опытные оптимизаторы умеют находить выход из положения и обманывать поисковых роботов. В скором времени осуществлять обман станет еще сложнее.
Мэтт Каттс пока не раскрывает подробностей и не говорит о том, на каком этапе находится разработка обновлений. Неизвестно также, будут эти обновления внедряться в алгоритмы или они абсолютно самостоятельны. Оптимизаторы ожидают, что в Гугл новые программы будут внедряться неожиданно. В последнее время поисковик перестал угрожать проверками и "расправами" с недобросовестными веб-мастерами. Представители отдела по борьбе со спамом даже не рассылают предупреждающих уведомлений. Алгоритмы обновляются неожиданно и с серьезными последствиями для владельцев сайтов.