Допустим вы решили продвигать свой сайт, либо вам достался проект, который вам предстоит продвигать. Очевидно, что первое, с чего вы должны начать — это SEO-аудит сайта, т.е. проанализировать, насколько хорошо сайт оптимизирован под поиск. Я советую завести чек-лист, по которому вы пройдете по порядку и будете уверены что ничего не упустили.

Я не гуру SEO, поэтому можете меня обосрать, либо предложить свои правки в статью. Ниже примерный список того, что по моему скромному мнению заслуживает внимания.

Проверить файл robots.txt

Файл robots.txt содержит инструкции для поисковиков — какие ссылки индексировать, а куда заглядывать нельзя, какой домен является самым главным и т.д. Например вы можете захотеть убрать из поиска панель управления сайтом или страницу входа, ибо посетителям из поиска она ни к чему.

Бывает такое, что когда сайт еще на этапе разработки и его еще не планируют выкатывать, разработчики могут на время запретить индексацию поисковикам, а потом забыть разрешить обратно. Все мы люди и все мы ошибаемся, поэтому если ваш сайт не попал в индекс несмотря на то что вы все делаете правильно, проверьте свой robots.txt.

Также убедитесь что зеркало сайта указано верно. В robots.txt есть такая директива — host. Она указывает на главный домен сайта. Например, если у вашего сайта есть зеркала — т.е. альтернативные домены, то самый главный домен вы можете указать на всех robots.txt этих зеркал, и в индекс попадет только он.

У гугла и яндекса есть свои инструменты для анализа robots.txt.

Sitemap

sitemap.xml — это документ, в котором содержатся ссылки на все страницы сайта. Он помогает поисковикам эффективнее пройтись по сайту и проиндексировать весь нужный контент, ну и просто упрощает ему процесс индексации.

В вебмастере яндекса есть валидатор сайтмапа.

Скорость работы сайта

Важность скорости загрузки сайта очевидна — у нас есть всего несколько секунд, чтобы посетитель понял, есть ли что-нибудь полезное для него на этом сайте, и если мы все эти несколько секунд будем показывать иконку загрузки, то потеряем потенциального клиента. В его браузере наверняка открыто еще 10 таких же сайтов, которые ему нужно успеть просмотреть. Так вот, поисковики тоже обращают внимание на скорость и ранжируют выше быстрые сайты.

У гугла есть инструмент Insights, который дает подсказки и советы по оптимизации скорости загрузки. Сервис отмечает скрипты, которые выполняются до загрузки контента, указывает на слишком тяжелые картинки и учит сжимать стили и скрипты. Идеальной оценки в indights добиться сложно, да и это не принципиально. Важно лишь понять, что вы не допустили самых грубых ошибок.

Несколько советов по повышению скорости сайта:

1. Если на сайте используются js-скрипты и библиотеки, то проверьте, нельзя ли сделать их загрузку асинхронной. Асинхронная загрузка скриптов — это когда скрипты загружаются на фоне (а не по строгой очереди) и не мешают отображать основной контент.

2. Правильно ли вы подбрали картинки? Фотографии желательно должны быть в формате .JPG, а детализированные картинки, где важно сохранить четкость — в .PNG.

3. Сожмите картинки или используйте <picture> для адаптивных картинок.

4. Минифицируйте свои .JS и .CSS.

5. Старайтесь держать все стили в одном .CSS и все скрипты в одном .JS. Ну или по крайней мере не расплодите кучу таких файлов.

Количество страниц в индексе

Достаточно ввести в гугл site:mywebsite.ru или в яндекс host:mywebsite.ru, чтобы увидеть все проиндексированные страницы этого домена. Ну или просто воспользоваться вебмастером яндекса и консолью гугла.

Если страниц в индексе меньше, чем должно быть, то стоит проверить доступность сайта, например через 2ip.ru.

Если же проиндексированных страниц больше, чем есть на сайте, значит какие-то страницы были продублированы. Многие движки создают дубли для страниц и постов, например когда один пост находится в нескольких категориях. Это очень плохо сказывается на поиске, поэтому эти дубли нужно вычислить и ликвидирвать (для популярных движков наверняка есть специальные плагины), либо использовать <link rel="canonical" href="https://link-to-the-original-page">, чтобы подсказать поиску, что вот такая-то страница является главным оригиналом, а остальные — дублями.

Если структура сайта когда-нибудь менялась, то есть шанс, что некоторые ссылки теперь ведут в никуда, а значит являются битыми, а некоторые страницы сменили свои адреса и по старым адресам возвращается ответ 404. Самое время навести порядок. Технически можно сделать, чтобы старые адреса страниц редиректили на новые.

Проверить мета теги

Все страницы должны иметь title и description. Причем title желательно уместить в 60 букв, а description — примерно в 150-200 букв. Содержание тега description отображается в результатах гугла.

Также некоторые используют мета тег keywords, но я, как и многие, считаю что он больше не нужен.

Кнопки шаринга

Если ваш контент попадет в соцсети, то получит дополительную любовь со стороны поисковиков. К тому же люди любят поделиться годным контентом, не отказывайте им в этом.

Доступность сайта для мобильных

Сейчас многие выходят в интернет с мобильного, в некоторых случаях мобильные пользователи даже могут представлять большинство трафика. Поэтому сайт должен быть доступен для любого устройства.

Пользуясь случаем упомяну, что я разрабатываю доступные и отзывчивые сайты, так что пишите.

В конце стоит отметить, что поисковики любят сайты, в которых контент постоянно обновляется. Сайты же, не подающие признаков жизни, считаются уже неактуальными.