По данным недавнего исследования Semrush, 59% пользователей просматривают только первую ссылку, предложенную поисковиком. А первые 3 результата выдачи получают 75% всех кликов. Если вы радовались, доведя свой сайт до второй страницы Google, зря — туда доходят всего 0,44% юзеров.
Как попасть в золотые строки хит-парада Google без рекламы и дополнительных вложений? Или хотя бы исправить критически важные ошибки, из-за которых роботы добавили ваш ресурс в негласный черный список и ранжируют вас хуже? Разбираемся вместе с Ксенией Крутоголовой, SEO-специалистом в агентстве digital-маркетинга Inweb.
Как провести техническую оптимизацию сайта
Техническая оптимизация сайта — это все действия, которые помогают исправить технические баги и улучшить понимание сайта поисковыми роботами. Чем выше они оценивают качество вашего ресурса, тем чаще он показывается в выдаче. Это самый быстрый способ на пару пунктов поднять индексацию сайта в поисковике.
К основным параметрам оптимизации сайта относятся:
1. Robots.txt
Robots.txt — это файл, в котором указаны «вводные» для поискового робота: какие страницы разрешено исследовать, а где сканирование запрещено. И хотя все данные из этого документа могут быть только рекомендацией (запретить поисковику сканировать страницы вашего сайта почти нереально), над его качеством все же стоит поработать.
В первую очередь начните с проверки корректности файла. SEO-специалисты выделяют несколько основных требований к Robots.txt, чтобы он хорошо воспринимался поисковым ботом:
- размер не превышает 500 кб
- файл в формате txt с названием robots — robots.txt
- он размещен в корне сайта
- доступен для роботов (200 код ответа сервера)
Чтобы все работало корректно, в файле укажите основные директивы — команды для поискового робота:
User-agent — указывается робот, для которого действуют перечисленные в robots.txt правила.
Disallow — запрещает индексирование/сканирование разделов или отдельных страниц сайта.
Allow — разрешает индексирование/сканирование разделов или отдельных страниц сайта.
Sitemap — указывает путь к файлу Sitemap, который размещен на сайте.
Найти robots.txt на вашем сайте можно, введя название файла в поисковую строку сразу после домена — например, site.com/robots.txt
Пример файла robots.txt https://inweb.ua/robots.txt:
2. Карта сайта
Файл sitemap.xml — это условная карта, на которой собраны все основные страницы сайта. Речь о ссылках на страницы, которые поисковый робот будет сканировать и затем отправлять в поисковую выдачу. Это обязательный файл для каждого большого проекта.
Основные требования к файлу карты сайта:
- содержит только актуальные URL-адреса
- в перечень документов не входят неканонические страницы — с разными URL, но с одинаковым или очень похожим содержанием
- корректно указан протокол соединения (например, https)
- код ответа всех документов 200
- отсутствуют страницы, которые закрыты от сканирования и индексации (в robots.txt или другим способом)
Совет: постарайтесь реализовать карту сайта так, чтобы она обновлялась автоматически с помощью CMS.
3. Редиректы
Редиректы — это команды, которые указывают поисковому роботу путь, если страница перемещена. Речь идет и о 301 redirect — постоянном перенаправлении, который почти полностью передает вес ссылки, и о 302 — который сообщает роботу, что страница временно переехала.
Бывает, что цепочка редиректов не несет в себе смысла или может зацикливаться, создавая бесконечное перенаправление. Тогда от неактуальных редиректов стоит избавиться.
Проверить редиректы на сайте можно с помощью специализированного софта — например, Screaming Frog SEO Spider или Netpeak Spider.
4. 404 Not found
Ошибка 404 — страница не найдена или битая ссылка — ведет посетителя на несуществующую страницу. Важно периодически проверять, есть ли на сайте такие страницы и ссылки. Когда ошибок 404 слишком много, поисковый алгоритм воспринимает ресурс как некачественный и реже показывает его в выдаче.
Просканировать сайт и увидеть наличие битых ссылок можно с помощью программы Screaming Frog SEO Spider или Netpeak Spider.
5. Дубликаты
Дубликаты — это страницы, у которых разные ссылки, но идентичный или частично совпадающий контент. Поисковые роботы воспринимают сайты с большим количеством дублей как некачественные, ухудшая их индексацию.
Как бороться с дублями?
- Через файл robots.txt, используя команду disallow. Но помните, что все инструкции в файле robots.txt для поискового робота носят только рекомендательный характер.
- Переадресация с одной страницы на другую с помощью постоянного редиректа (301). Это позволит передать основной странице ссылочный вес дубля.
- Атрибут rel="canonical". Работает только для полных дублей — то есть идентичных страниц. Для этого нужно в HTML-код страницы поместить атрибут rel="canonical" между тегами <head>...</head>.
- Метатег <meta name="robots" content="noindex, follow>. Это поможет закрыть дубль от поискового робота. Разместите метатег на дублирующих страницах в блоке <head>.
Как работать с метатегами
Метатеги — отметки в коде страницы, которые помогают роботу получить структурированные дополнительные данные о веб-странице.
Исходя из контента этих метатегов поисковые системы создают сниппет — «анонс» страницы, который отображается в поиске. Как правило, туда попадают title, URL-адрес и описание (meta description). На один и тот же запрос поиск может выдать около двух десятков разных предпросмотров.
Наиболее важные для поисковой выдачи метатеги — это Title как заголовок всей страницы и Description, то есть ее описание. Их содержимое помогает поисковым системам понять, какой именно контент на странице и по какому запросу ее стоит показывать.
Совет: содержимое тега Title сильно влияет на ранжирование сайта — когда он прописан, страница лучше показывается в поиске.
В некоторых случаях поисковики формируют сниппет, вытаскивая в предпросмотр наиболее подходящие для поискового запроса элементы страницы.
7 общих правил для создания метатегов:
#1. Формируйте метатеги, опираясь на семантическое ядро сайта.
#2. В Title нужно минимум дважды включить основную ключевую фразу в разных формах: хорошие окна в Киеве, фирма по продаже окон в Киеве.
#3. Не стоит добавлять в Title и Description символы юникода — разнообразные эмодзи, звездочки, значки валют etc. Они попросту не будут отображаться.
#4. Нельзя использовать в Description "", только «». «Лапки», или, как их еще называют, немецкие кавычки в коде выполняют роль закрывающих кавычек фрагмента content. Если вы используете «елочки», такой проблемы не возникнет.
#5. Всегда используйте тире, а не дефис.
#6. Не стоит перечислять города в метатегах — это не работает.
#7. Не стоит намеренно упоминать название бренда кириллицей, например: Title: Компьютеры iMac, купить аймак. Для поисковой системы это одинаковые слова, а не синонимы.
Title
Рекомендуемая длина тега — 12 слов, без учета предлогов. Все, что свыше, робот воспринимает как текст страницы. Тег Title должен содержать в себе краткую информацию о странице.
Совет: не стоит использовать в Title точки, вопросительные и восклицательные знаки.
Description
Оптимальная длина тега Description — около 160 символов. Все, что свыше, в поиске будет скрыто за многоточием. При этом тег должен содержать в себе полное описание страницы.
Заголовок <h1>
Выделяйте заголовки не просто шрифтом, а используя форматирование. Рекомендуемая длина заголовка — 3–5 слов. В этот метатег стоит поместить краткое и понятное описание содержания страницы.
Как оптимизировать скорость загрузки сайта
Увеличение скорости загрузки сайта — один из способов сделать его удобнее для пользователей, повысить ранжирование в поисковиках и конверсию. Ресурс, который грузится медленно или недостаточно быстро, не будут любить ни поисковики, ни юзеры.
По данным Promodo, если сайт загружается 7–8 секунд, компания теряет более 80% потенциальных клиентов. Многие бренды проверили это на собственном опыте: например, каждые 100 мс улучшений увеличивают доход Amazon на 1%.
Инструменты для проверки и анализа
Какие показатели сайта важно «прокачать» для ускорения
LCP (Largest Content full Paint) — сколько времени нужно для отображения самого большого элемента на странице (как правило, это картинки). Норма: 2,5 секунды и меньше.
FID (First Input Delay) — время, на которое страница «зависает» при первом взаимодействии — например, при клике на ссылку или кнопку. Норма: меньше 100 мс.
CLS (Cumulative layout Shift) — условное «дрожание» элементов страницы, когда во время подгрузки блоки сдвигаются или загружаются постепенно: сначала текст, потом картинки. Норма: меньше чем 0.1.
Советы:
- Картинки в JPG, PNG. Также можно использовать WebP — специальный новый формат, который оптимизирован для получения более быстрых изображений меньшего размера. Он разработан Google и поддерживается большинством популярных браузеров.
- Файлы GIF можно использовать только для небольших или простых картинок. Избегайте файлов BMP или TIFF — они слишком тяжеловесные и снижают скорость загрузки страницы.
- Сопоставьте размеры изображений (ширину) с шаблоном страницы: если картинка шире, чем размер страницы, — выглядеть это будет некорректно. Используйте возможности браузера по изменению размера, чтобы изображения реагировали на изменения параметров страницы.
- Сжатие: очень качественные картинки = слишком тяжелые. Постарайтесь найти компромисс между качеством изображения и скоростью загрузки страницы. Например, для JPG достаточно 60–70% сжатия — получить его можно с помощью таких онлайн-сервисов, как https://compressjpeg.com/.
- Оптимизируйте статические файлы (код CSS и его доставки).
- Займитесь минификацией JavaScript, CSS, HTML.
- Оптимизируйте базы данных.
- Используйте GZIP-сжатия.
- Настройте кеширование файлов.
- Используйте CDN для изображений, файлов JS и CSS.
Что делать с мобильной версией сайта
В 2022 году доля сеансов на мобильных устройствах перевалила за 50%.
Неоптимизированная мобильная/адаптивная версия сайта напрямую влияет на ранжирование всего ресурса. Это связано с тем, что с 2016 года началась эра перехода к Mobile First Index — технологии Google, с помощью которой сайты первоочередно ранжируются за качество своей мобильной версии.
Важно, чтобы мобильная/адаптивная версия сайта была оптимизирована и для пользователя, и для поискового робота. Тому же Amazon задержка мобильного трафика на 1 секунду стоит $1,6 млрд в год.
На что обратить внимание:
- Мобильная версия сайта, которая выводится на поддомен, — например https://m.site.com/ — должна быть открыта для индексации (кроме страниц, которые и в основной версии закрыты).
- Метатеги на всех страницах для всех версий должны быть одинаковыми.
- Контент в мобильной версии сайта должен быть таким же, как и в основной. При этом важно адаптировать текст под размеры устройства.
- Структурированные данные должны совпадать на обычной и мобильной версии сайта.
- Проверьте, корректно ли показываются картинки, видео и другие визуальные блоки в мобильной версии.
Проверить, оптимизирован ли ресурс под мобильные устройства, можно в специальном инструменте Google. За 1–2 минуты сервис проанализирует качество страницы и покажет текущее состояние сайта.
Контент is a king
Летом 2022 года Google запустил Broad Core — алгоритм, который влияет на то, на какой позиции в поиске окажется ваш сайт. По словам корпорации, это обновление касается именно качества контента и его seo-оптимизации.
Чтобы робот показывал ваш ресурс или его отдельные страницы в ответ на запрос пользователя, важно правильно подобрать контент. Текст с использованием ключевых слов нужен для всех основных категорий сайта. Именно контент помогает поисковым системам понять, что находится на странице и по каким запросам следует показывать ее в выдаче.
Важно следить за уникальностью контента и стараться добиваться показателя хотя бы 90%. Все тексты на сайте должны быть уникальными в рамках не только вашего ресурса, но и всего интернета в целом.
Прежде чем начать наполнять сайт контентом, стоит составить семантическое ядро, подготовить список ключевых, тематических (LSI) и наиболее частотных фраз. Все частотные ключи из семантического ядра надо лаконично добавить в контент — при этом сохраняя понятность и логичность текста.
Требования к тексту:
- Наличие ключевых слов — именно по ним поисковик будет понимать, на какой запрос показывать ваш сайт пользователю.
- Структурирование (нумерованные/маркированные списки).
- Заголовки. Для лучшего восприятия текста и структурирования статьи пользуйтесь заголовками (<h2> <h3> … <h6>). При этом не стоит «забивать» заголовки или теги ключевыми словами бездумно, просто чтобы они были, — такой спам не поможет поисковому роботу.
- Контент должен быть полезным. Текст, написанный для галочки или скучным, нечитаемым слогом, не привлечет ни пользователей, ни поискового робота.
- Достоверность контента — тема должна быть раскрыта на экспертном уровне.


Хотите получать дайджест статей?
Чего стоит избегать в текстах:
- Точного вхождения ключевых фраз. Если оставить словосочетания, используемые для продвижения сайта, в неизменной форме (например: «окна купить», «окна Киев»), текст становится менее «читабельным» и вы достигаете противоположного эффекта — поисковый робот хуже его ранжирует.
- Воды: бесполезных, очевидных, неинтересных, шаблонных фраз.
- Вводных слов: проще говоря, конечно, разумеется, итак, тем не менее, возможно, скорее всего, наверное.
- Избитых/заезженных/суперрекламных фраз: «команда опытных профессионалов», «приятные цены, которые удивят/порадуют/осчастливят каждого покупателя»
- Очень длинных предложений: старайтесь разделить текст на короткие, понятные и логичные фразы.


Хотите получать дайджест статей?

