В период с ноября 2011 по ноябрь 2012 года поисковая система Google претерпела существенные изменения, которые оказали внушительное влияние на работу специалистов в области СЕО. Подводим итоги...
Репутация и траст
В 2012-ом слова "репутация" и "траст" обрели для вебмастеров особый смысл. Здесь можно говорить и о качестве дизайна сайта, и о внешних ссылках, и о достоверности информации, содержащейся на веб-ресурсе. Безусловно, Google и раньше старался отслеживать качество сайтов, однако в текущем году плохое СЕО стало первопричиной всех проблем СЕО-специалистов. Google "показал зубы".
Google стал говорить с владельцами ресурсов
Ранее поисковая система не торопилась делиться информацией с вебмастерами - в 2012-ом Google наконец-то "заговорил". Он рассказал специалистам по продвижению и развитию сайтов, что для системы поиска является спамом. В апреле текущего года Google существенно увеличил спектр предупреждений и типов сообщений, которые направляются вебмастерам. Через инструменты для вебмастеров Google только в первые два месяца 2012 года было отправлено более 700 тысяч сообщений. Обсудить продвижение в Google и другие вопросы продвижения и оптимизации можно на форуме http://www.seo-forum.ru, где вам всегда дадут дельный совет опытные SEO-мастера.
Penguin
В конце апреля текущего года поисковая система представила вебмастерам новый алгоритм по борьбе со спамом. Специалисты Google были уверены, что именно он позволит справиться с огромным потоком искусственных ссылок, постоянно приобретаемых веб-ресурсами. И ему это удалось! В октябре вебмастерам также был предложен инструмент, позволяющий выявить и дезавуировать ссылки.
Стоит отметить, что даже после того, как вебмастер полностью избавится от дешевого ссылочного спама, позиции сайта не восстанавливаются мгновенно. Поисковая система вначале полностью переиндексирует все страницы, указанные вебмастером, и только после этого будет принимать решение относительно дальнейших действий.
Panda
Еще один алгоритм, премьера которого состоялась в середине ноября прошлого года, направлен на борьбу с сайтами низкого качества. В течение года было выпущено 13 обновлений этого алгоритма, что дает возможность поисковой системе быстро выявлять сайты с некачественным контентом, дифференцировать страницы, контент на которых попросту дублирован или имеет схожее содержание.