Существует несколько сравнительно несложных способов улучшить СЕО-позиции собственного сайта. Уникальность их состоит в том, что они практически не отнимают времени оптимизатора, но при этом положительно сказываются на выдаче веб-ресурса в системах поиска.
1. Необходимо время от времени заниматься проверкой метатегов и файла robots.txt в целом. Если у вашего веб-ресурса сам файл robots.txt имеется в наличии, стоит непременно убеждаться в том, что от индексации на сайте не закрыты определенные страницы или изображения, способные оказывать положительное влияние на трафик. Для того, чтобы проверять метатеги, можно использовать простой и бесплатный инструмент "Screaming Frog SEO Spider". Он позволит выявить недочеты, а уж исправить их можно в течение двух минут.
Что касается файла robots.txt, то очень часто оказывается, что та или иная страница закрыта от индексации только потому, что администратор веб-ресурса счел ее не слишком интересной. Иногда страницы скрываются от поисковых роботов в процессе доработок, а запрет на индексацию вебмастер просто забывает снять.
2. Время от времени стоит просматривать показатели CTR веб-ресурса. Страницы, которые не дают результативных показателей, стоит перепроверять: менять description или title. Стоит всегда помнить о том, что "тайтлы" и "дескрипшены" могут одновременно использоваться и в качестве СЕО-инструмента, и в качестве инструмента для оптимизации.
Для просмотра данных по CTR можно использовать Google Analytics. Google постоянно тестирует эти данные для того, чтобы предоставлять пользователям поисковой системы именно те описания, которые будут наиболее информативными и привлекательными. Может случиться и так, что на вашем веб-ресурсе окажется слишком большое количество страниц, у которых показатель отказов перевалил за норму. Однако именно эти данные и дают возможность вебмастеру постоянно самосовершенствоваться в своей работе, делать сайт более привлекательным для посетителей и, соответственно, поисковых систем.
3. Одной из достаточно распространенных ошибок начинающих вебмастеров является дублирование контента. Для того, чтобы избежать их допущения, время от времени проводите оценку канонизации доменного имени. К примеру, если на вашем веб-ресурсе присутствуют страницы с одинаковым доменным именем и с разницей в написании в виде наличия/отсутствия "www.", стоит непременно позаботиться о прописывании редиректа 301. Поисковые системы вряд ли пожелают просматривать две одинаковые версии вашего веб-ресурса, однако удалять одну из них нельзя - далеко не все люди используют "www." при введении имени сайта в поисковую строку.
4. Обязательно определите, какой именно контент на вашем сайте пользуется у посетителей наибольшим спросом и на какие страницы чаще всего ссылаются. Необходимо проверять правильность написания ссылок, а также отсутствие выхода на ошибку 404, которая нередко приводит к потере полезного трафика.