pixel fb

Техническая оптимизация сайта - Подсказки от компании Nomax

SEO Техническая оптимизация сайта - Подсказки от компании Nomax

Когда работы по созданию сайта окончены, прежде чем начать процесс продвижения ресурса в результатах поисковой выдачи, нужно провести техническую оптимизацию сайта. Базисом любого ресурса, есть его корректная техническая и программные основы, они помогут быстро и корректно попасть ему в индекс поисковых систем. Далее составим чек лист технической оптимизации сайта, и выясним, какие действия в нее входят.

 

  1. Подключение кабинетов для веб-мастеров, и счетчиков систем аналитики.

 

Когда сайт готов, запускать его следует с двумя системами для вебмастеров и двумя основными счетчиками аналитики. Для этого нужно зарегистрироваться в Яндекс Метрике, Google Analytics, вставить их код в тело HTML-сайта, а так же зарегистрироваться в Яндекс Веб-мастер и Google WebMaster Tools, для добавления кабинетов управления сайтом. После их подключения, обе поисковые системы получат первые сигналы, чтобы их краулеры посетили и проиндексировали ресурс. Необходимо корректно настроить кабинеты Вебмастеров, к примеру, в Яндекс Вебмастере, следует добавить карту сайта в формате XML – sitemap.xml, в нем так же следует указать региональность ресурса, и проверить файл robots.txt на корректность заполнения.

 

Панели управления вебмастеров так же содержат полезные инструменты – возможность отслеживать статистику по запросам, показам, нажатиям, переходам, CTR. Так же можно смотреть какие страницы уже в индексе, а какие еще нет, и почему их там нет.

 

  1. Инструкции для роботов (robots.txt)

 

Файл с инструкциями для роботов robots.txt должен находиться в корневом каталоге сайта по адресу site.ua/robots.txt.При помощи рекомендаций находящихся в этом текстовом файле, краулеры поисковых систем понимают, что следует индексировать, а что нет, но они к этим рекомендациям не всегда прислушиваются. Так же в файле указаны разделы сайта, куда роботам вход воспрещен, это элементы системы управления контентом, генерируемые страницы, результаты поиска  и прочее. Вот краткая инструкция по составлению файла robots.txt для технической оптимизации сайта:

 

  1. В файле следует указать отдельные директивы для каждого из поисковых роботов командой User-agent:GoogleBot; User-agent:Yandex.
  2. Закрыты для поисковых роботов пути ко всем служебным ресурсам сайта – шаблонам страниц, исполняемым файлам, и прочим.
  3. Закрыты все не участвующие в результатах поиска страницы, такие как страница регистрации, результатов поиска, фильтрации товаров/услуг/статей/публикаций.
  4. Должен быть указан путь к карте сайта в формате sitemap.xml.
  5. Специально для поискового робота Яндекса, в файле robots.txt должна быть указана директива Host.
  6. А для поискового робота Google открыты пути к файлам, способствующим корректному отображению сайта – JavaScript, CSS, файлы шрифтов.

 

  1. Карта сайта

 

Карту сайта следует создавать в двух форматах - XML для поисковых роботов, и HTML для обычных посетителей сайта. Большинство современных систем управления контентом – CMS имеют плагины для автоматической генерации файла sitemap.xml. Если такого плагина нет, можно воспользоваться онлайн сервисами (My Site Map Generator), или прикладными программами, типа ComparseR, или Sitemap Generator.

 

  1. Проверка ресурса на битые ссылки

 

Проверяйте свой сайт на наличие битых ссылок, ведь пользователям не нравится когда вместо интересующего материала выводиться страница ошибки 404. SEO-оптимизация ресурса так же страдает - поисковые системы за наличие двух-трех и более битых ссылок, понижают ресурс в результатах поисковой выдачи. Для проверки сайта на наличие битых ссылок воспользуйтесь сервисом brokenlinkcheck.com.

 

  1. Закрытие дублей страниц

 

Дублирование страниц это присутствие одинаковых материалов по разным URL страниц. Поисковые системы не всегда определяют наиболее релевантную копию и составляют не корректную поисковую выдачу, это так же осложняет обходы сайта поисковым роботом, и могут склеить страницы с ненужным приоритетом. Так же их можно закрыть в файле robots.txt или настроить редирект 301.

 

  1. Создание ЧПУ URL

 

ЧПУ URL или человеко-понятные интернет адреса это адреса, состоящие из слов характеризующих содержимое страницы. Это помогает пользователям легче воспринимать содержимое страниц и помогает при индексации, так как название должно быть релевантное содержимому страницы и/или содержать ключевые слова. Для продвижения под Яндекс рекомендуется использовать транслитерацию, а под Google писать названия на английском языке.

 

Несколько рекомендаций по составлению ЧПУ:

 

  • используйте краткие названия;
  • ЧПУ должно быть релевантное содержимому страницы;
  • скройте расширение файла страницы – html, php и т.д.;
  • используйте как разделитель между словами дефис, а не знак подчеркивания.

 

  1. Выбор основного зеркала

 

Каждый сайт может быть доступен по нескольким адресам, к примеру, site.ua и www.site.ua, нужно указать основное зеркало в панели управления Вебмастеров, а с остальных зеркал установить редирект 301 на главное.

 

  1. Установка SSL сертификата

 

Для начала установите хотя бы бесплатный SSL сертификат, это поднимет доверия к вам в глазах пользователей и добавит плюсы к вашему рейтингу у поисковых систем.

 

  1. Микроразметка данных schema.org

 

Семантическая разметка данных по стандарту schema.org помогает корректнее выводит данные в сниппетах результатов поисковой выдачи.

 

  1. Проверить ответы сервера

 

В идеале все страницы сайта должны давать код «200» - «со страницей все нормально». Проверить это можно с помощью инструментов вебмастеров и плагинов к браузерам.

 

  1. Скорость загрузки сайта

 

Когда все работы по технической оптимизации сайта завершены, следует проверить скорость его загрузки. Есть много сервисов, которые меряют реальные цифры скорости загрузки и относительные, типа Google PageSpeed Insights. Желательно балл в нем сделать как можно выше, при помощи рекомендаций указанных в сервисе. 

ПОХОЖИЕ СТАТЬИ