Техническая оптимизация сайта - Подсказки от компании Nomax
SEOКогда работы по созданию сайта окончены, прежде чем начать процесс продвижения ресурса в результатах поисковой выдачи, нужно провести техническую оптимизацию сайта. Базисом любого ресурса, есть его корректная техническая и программные основы, они помогут быстро и корректно попасть ему в индекс поисковых систем. Далее составим чек лист технической оптимизации сайта, и выясним, какие действия в нее входят.
- Подключение кабинетов для веб-мастеров, и счетчиков систем аналитики.
Когда сайт готов, запускать его следует с двумя системами для вебмастеров и двумя основными счетчиками аналитики. Для этого нужно зарегистрироваться в Яндекс Метрике, Google Analytics, вставить их код в тело HTML-сайта, а так же зарегистрироваться в Яндекс Веб-мастер и Google WebMaster Tools, для добавления кабинетов управления сайтом. После их подключения, обе поисковые системы получат первые сигналы, чтобы их краулеры посетили и проиндексировали ресурс. Необходимо корректно настроить кабинеты Вебмастеров, к примеру, в Яндекс Вебмастере, следует добавить карту сайта в формате XML – sitemap.xml, в нем так же следует указать региональность ресурса, и проверить файл robots.txt на корректность заполнения.
Панели управления вебмастеров так же содержат полезные инструменты – возможность отслеживать статистику по запросам, показам, нажатиям, переходам, CTR. Так же можно смотреть какие страницы уже в индексе, а какие еще нет, и почему их там нет.
- Инструкции для роботов (robots.txt)
Файл с инструкциями для роботов robots.txt должен находиться в корневом каталоге сайта по адресу site.ua/robots.txt.При помощи рекомендаций находящихся в этом текстовом файле, краулеры поисковых систем понимают, что следует индексировать, а что нет, но они к этим рекомендациям не всегда прислушиваются. Так же в файле указаны разделы сайта, куда роботам вход воспрещен, это элементы системы управления контентом, генерируемые страницы, результаты поиска и прочее. Вот краткая инструкция по составлению файла robots.txt для технической оптимизации сайта:
- В файле следует указать отдельные директивы для каждого из поисковых роботов командой User-agent:GoogleBot; User-agent:Yandex.
- Закрыты для поисковых роботов пути ко всем служебным ресурсам сайта – шаблонам страниц, исполняемым файлам, и прочим.
- Закрыты все не участвующие в результатах поиска страницы, такие как страница регистрации, результатов поиска, фильтрации товаров/услуг/статей/публикаций.
- Должен быть указан путь к карте сайта в формате sitemap.xml.
- Специально для поискового робота Яндекса, в файле robots.txt должна быть указана директива Host.
- А для поискового робота Google открыты пути к файлам, способствующим корректному отображению сайта – JavaScript, CSS, файлы шрифтов.
- Карта сайта
Карту сайта следует создавать в двух форматах - XML для поисковых роботов, и HTML для обычных посетителей сайта. Большинство современных систем управления контентом – CMS имеют плагины для автоматической генерации файла sitemap.xml. Если такого плагина нет, можно воспользоваться онлайн сервисами (My Site Map Generator), или прикладными программами, типа ComparseR, или Sitemap Generator.
- Проверка ресурса на битые ссылки
Проверяйте свой сайт на наличие битых ссылок, ведь пользователям не нравится когда вместо интересующего материала выводиться страница ошибки 404. SEO-оптимизация ресурса так же страдает - поисковые системы за наличие двух-трех и более битых ссылок, понижают ресурс в результатах поисковой выдачи. Для проверки сайта на наличие битых ссылок воспользуйтесь сервисом brokenlinkcheck.com.
- Закрытие дублей страниц
Дублирование страниц это присутствие одинаковых материалов по разным URL страниц. Поисковые системы не всегда определяют наиболее релевантную копию и составляют не корректную поисковую выдачу, это так же осложняет обходы сайта поисковым роботом, и могут склеить страницы с ненужным приоритетом. Так же их можно закрыть в файле robots.txt или настроить редирект 301.
- Создание ЧПУ URL
ЧПУ URL или человеко-понятные интернет адреса это адреса, состоящие из слов характеризующих содержимое страницы. Это помогает пользователям легче воспринимать содержимое страниц и помогает при индексации, так как название должно быть релевантное содержимому страницы и/или содержать ключевые слова. Для продвижения под Яндекс рекомендуется использовать транслитерацию, а под Google писать названия на английском языке.
Несколько рекомендаций по составлению ЧПУ:
- используйте краткие названия;
- ЧПУ должно быть релевантное содержимому страницы;
- скройте расширение файла страницы – html, php и т.д.;
- используйте как разделитель между словами дефис, а не знак подчеркивания.
- Выбор основного зеркала
Каждый сайт может быть доступен по нескольким адресам, к примеру, site.ua и www.site.ua, нужно указать основное зеркало в панели управления Вебмастеров, а с остальных зеркал установить редирект 301 на главное.
- Установка SSL сертификата
Для начала установите хотя бы бесплатный SSL сертификат, это поднимет доверия к вам в глазах пользователей и добавит плюсы к вашему рейтингу у поисковых систем.
- Микроразметка данных schema.org
Семантическая разметка данных по стандарту schema.org помогает корректнее выводит данные в сниппетах результатов поисковой выдачи.
- Проверить ответы сервера
В идеале все страницы сайта должны давать код «200» - «со страницей все нормально». Проверить это можно с помощью инструментов вебмастеров и плагинов к браузерам.
- Скорость загрузки сайта
Когда все работы по технической оптимизации сайта завершены, следует проверить скорость его загрузки. Есть много сервисов, которые меряют реальные цифры скорости загрузки и относительные, типа Google PageSpeed Insights. Желательно балл в нем сделать как можно выше, при помощи рекомендаций указанных в сервисе.