978-5-001-44212-7
ISBN :Возрастное ограничение : 16
Дата обновления : 14.06.2023
Оптимизация первой страницы пагинации
Так как именно первая страница пагинации зачастую участвует в ранжировании по целевым запросам, ее оптимизации следует уделить особое внимание.
Рассмотрим действия, которые нужно предпринять, на примере типичного кейса по оптимизации первой страницы категории на сайте интернет-магазина.
1. Первая страница категории должна быть оптимизирована под 2–4 целевых запроса. Для этого необходимо:
а. Заголовок категории поместить в тег
b. Под заголовком необходимо разместить краткий лид-абзац с описанием товаров категории и вхождением ключевых слов.
Такой текст необходим, чтобы показать поисковым системам, каким ключевым запросам релевантна страница. Текст желательно разместить именно сверху под заголовком – так его точно увидят пользователи, а следовательно, поисковые системы придадут ему больше значения при ранжировании страницы.
Лид-абзац нужно показывать только на первой странице категории, чтобы избежать дублирования контента.
c. Внизу страницы нужно разместить основной текст. Как написать такой текст, сколько в нем должно быть ключевых слов, какого он должен быть размера – эти и другие моменты мы рассмотрим в главе про текстовую оптимизацию.
Так же, как и лид-абзац, такой текст стоит выводить только на первой странице категории.
? На заметку
Некоторые специалисты по продвижению предпочитают скрывать часть основного текста на первой странице пагинации с помощью специальных скриптов. По их мнению, большой текстовый блок портит внешний вид страницы и вредит имиджу сайта.
Такая точка зрения несостоятельна. Подробности мы разберем в главе о текстовой оптимизации, а здесь лишь отметим, что текст нужно не скрывать, а делать интересным и полезным для пользователей.
Тем не менее, если часть текста будет скрыта, необходимо убедиться, что этот текст будет доступен для поисковых роботов. Сделать это можно с помощью специальных сервисов и инструментов в панелях веб-мастеров поисковых систем[51 - Попробуйте, например, https://webmaster.yandex.ru/tools/server-response/].
2. Метатеги на первой странице необходимо задать в соответствии с ранее данными рекомендациями.
Чтобы они не повторялись на второй и последующей страницах категории, допустимо в конце тела тега заголовка автоматически добавлять идентификатор страницы, а метатег
Страница категории, на которой есть пагинация, и первая страница пагинации должны иметь одинаковый URL (без цифрового идентификатора, то есть http://www.site.ru/kategorii/igrushki (http://www.site.ru/kategorii/igrushki), а не http://www.site.ru/kategorii/igrushki?page=1 (http://www.site.ru/kategorii/igrushki?page=1)).
Динамическая подгрузка контента
Часто вместо пагинации используется динамическая подгрузка контента, которая срабатывает, если посетитель проскроллит контент до определенного момента. В этот момент с помощью JavaScript загружается следующая «порция» контента (например, следующая партия товаров в категории).
Динамическая подгрузка далеко не всегда удобна, и решение о внедрении такого механизма должно быть хорошо продуманным. При ее реализации нужно выполнить следующие рекомендации[52 - https://webmasters.googleblog.com/2014/02/infinite-scroll-search-friendly.html]:
1. Сделать и отображать на странице дублирующую статическую пагинацию, по которой поисковые роботы точно смогут проиндексировать все страницы категории (без использования JavaScript).
2. Каждая порция контента должна иметь свой URL, который нужно показывать даже при загрузке контента с помощью JavaScript. Это улучшит также и юзабилити (можно будет дать ссылку, например, на третью страницу категории).
Если следовать рекомендациям проблематично, нужно по крайней мере убедиться, что весь контент на подгружаемых страницах доступен для роботов. Как уже упоминалось выше, сделать это можно с помощью специальных сервисов и инструментов в панелях веб-мастеров поисковых систем[53 - https://webmaster.yandex.ru/tools/server-response/].
Некоторые важные замечания
Отметим дополнительно несколько важных моментов:
1. Страницы пагинации лучше не закрывать от индексации в файле robots.txt, чтобы контент, который на них находится, индексировался и имел какую-то значимость.
2. В файл sitemap.xml нужно добавить только первую страницу рубрики, остальные поисковый робот найдет сам.
3. Ссылки на страницы пагинации не нужно закрывать от индексации с помощью rel=nofollow[54 - https://support.google.com/webmasters/answer/965697hbru].
15. 404 ошибка
404 ошибка отображается у пользователя, если он хочет просмотреть страницу, которой нет на сайте (например, она удалена или ее URL введен неправильно)[55 - https://support.google.com/webmasters/answei7936417hHru]. Название возникло потому, что при такой ошибке веб-серверы отправляют код статуса HTTP 404[56 - https://en.wikipedia.org/wiki/HTTP_404#Custom_error_pages].
Как правило, стандартная страница 404 выглядит непрезентабельно и не содержит никакой полезной информации. Пользователи, которые попадают на такую страницу, просто покидают сайт, что негативно влияет на трафик и конверсию, а также ухудшает поведенческие факторы ранжирования.
Чтобы исправить ситуацию, необходимо создать пользовательскую версию страницы 404, которая будет отвечать следующим требованиям:
1. Код ответа данной страницы должен быть «404» (Not Found). Проверить это можно с помощью специальных сервисов [57 - https://webmaster.yandex.ru/tools/server-response/] или плагинов для браузера[58 - HTTP Headers для Google Chrome].
2. На странице ошибки 404 нежелательно размещать рекламу, длинные тексты или графику (кроме логотипа). Страница должна быть лаконичной и простой[59 - https://www.artlebedev.ru/kovodstvo/sections/93/].
Как вариант, если есть возможность, можно сделать эту страницу «с изюминкой»: разместить здесь яркую иллюстрацию, анимацию или мини-игру.
3. Лучше не допускать, чтобы несуществующую страницу путали с обычной. Поэтому на странице с ошибкой 404 не должно быть основного меню сайта, верстки и цветовой гаммы типовой страницы. Чем скорее посетитель поймет, что страницы не существует, тем лучше.
4. Заголовок страницы («страница не найдена») должен однозначно указывать, что запрошенной страницы не существует.
5. Чтобы помочь человеку разобраться, на странице 404 ошибки нужно дать краткую информацию о том, что произошло (например, неправильно набран адрес; такой страницы никогда не было на этом сайте; такая страница была, но по этому адресу ее больше нет).
6. На странице обязательно должны быть варианты дальнейших действий:
a. Должны присутствовать ссылки на главную страницу, важнейшие разделы, а также на карту сайта и форму поиска (если они есть).
b. Нужно предоставить пользователям возможность сообщать о неработающих ссылках (по электронной почте или через форму обратной связи).
7. Очень важно проследить за тем, чтобы 404 ошибка выводилась для ошибочных URL-адресов во всех разделах сайта. В противном случае в индекс будут попадать пустые и мусорные разделы, что ухудшит общий уровень траста ресурса.
8. Нельзя производить переадресацию при попадании на несуществующий URL, чтобы можно было исправить опечатку в адресе.
9. Необходимо помнить о том, что если страница не удалена, а просто перенесена в другой раздел, то вместо 404 ошибки необходимо настроить 301 редирект.
Помимо прочего, можно отслеживать попадание пользователей на страницу 404 с помощью средств веб-статистики (например, с помощью отчета «Параметры визитов» в Яндекс. Метрике[60 - https://yandex.ru/support/metrika/reports/visit-params.xml]). Такой анализ позволяет не только находить неработающие ссылки, но и оценивать функциональность раздела на основе поведения пользователей и их действий.
16. Оптимизация кода сайта
Валидность. С 1994 года функционирует Консорциум Всемирной паутины[61 - https://www.w3.org/standards/] (англ. World Wide Web Consortium, W3C). W3C разрабатывает для Интернета единые принципы и стандарты (называемые «рекомендациями», англ. W3C Recommendations), которые затем внедряются производителями программ и оборудования.
Проще говоря, консорциум разрабатывает стандарты, в соответствии с которыми веб-мастера создают сайты, а браузеры показывают эти сайты пользователям. По задумке это должно означать, что если код сайта соответствует стандартам (иначе говоря, код валидный), то браузеры должны его интерпретировать одинаково и у всех пользователей сайт будет отображаться корректно. Отсюда два вывода:
1. Множество ошибок в HTML-коде (несоответствий рекомендациям W3C) может свидетельствовать о плохом качестве сайта.
2. Наоборот, отсутствие ошибок в коде сайта должно свидетельствовать о высоком качестве сайта, поднимать уровень траста и позиции площадки в поисковой выдаче.
На практике все несколько сложнее. Во-первых, сами браузеры не во всем соответствуют стандарту. В отдельных технических нюансах каждый браузер умышленно не следует стандарту, а в других – его опережает, что приводит к появлению функций и механизмов, которых нет не только в стандарте, но и в других браузерах.
Во-вторых, браузеры научились справляться с ошибками в коде. Теперь, даже если сайт в отдельных моментах не соответствует стандарту, он все равно может вполне корректно отображаться у всех пользователей. Более того, требования W3C зачастую избыточны и неактуальны, а «подгонка» кода под стандарт требует от создателей сайта совершенно неоправданных затрат.
Рис. 4. Валидатор W3C – полезный инструмент для улучшения качества кода сайта
Подведем итог. Валидность (соответствие стандарту W3C) кода сайта является слабым сигналом качества сайта. Это означает, что нужно проверить код всех основных страниц сайта валидатором W3C[62 - https://validator.w3.org/] и по возможности исправить все критические (влияют на отображение сайта) и легкоустранимые ошибки.
? На заметку
Из легкоустранимых ошибок стоит отметить распространенную ситуацию, при которой остаются незакрытыми парные html-теги. Это минимальное требование валидности кода легко исправить, поэтому оно должно обязательно выполняться.
В идеале верстка должна быть валидна. Если получится достичь этого малой кровью – отлично, если нет – следует исправить то, что целесообразно исправлять.
Обратите внимание: чем выше уровень валидности, тем лучше. Но даже высокие показатели не гарантируют кросс-браузерности[63 - https://ru.wikipedia.org/wiki/Kpocc-6pay3epHocTb], то есть идентичной и корректной работы сайта во всех популярных браузерах. Поэтому необходимо периодически тестировать продвигаемый ресурс на разных устройствах, в разных браузерах и при различных разрешениях экрана.
Пристальное внимание при тестировании следует обращать на ошибки отображения сайта – ведь именно их видят посетители. Все найденные недочеты нужно задокументировать и исправить.
Мусор в коде. Мусором в программном коде сайта называются куски кода, теги и стили, не несущие полезной нагрузки.
Мусор затрудняет модернизацию сайта и может тормозить его загрузку, поэтому от него нужно избавиться.
Кодировка. На сайте с помощью тега должна быть указана кодировка html-страниц. Это нужно для того, чтобы браузер мог правильно отображать текст: если кодировка не указана и браузер ее не «угадает», вместо букв на сайте пользователь увидит иероглифы.
Тестирование. Необходимо регулярно тестировать сайт в разных режимах: отключать JavaScript, вводить неправильные URL-адреса и данные в формы обратной связи, «ломать» ресурс всеми способами, которые придут в голову. Найденные ошибки следует тщательно законспектировать, а затем устранить.
17. Распределение статических весов
Статический вес – это один из важных параметров, влияющих на продвижение сайта в целом и ранжирование конкретной страницы в частности.
Этот параметр рассчитывается индивидуально для каждой страницы и определяется количеством и качеством ссылающихся на страницу документов, к которым могут относиться html-страницы, pdf и. doc файлы, а также другие распознаваемые поисковыми системами документы с гиперссылками[64 - https://devaka.ru/articles/checking-linkjuice].
Вес можно разделить на внутренний (определяется количеством и качеством внутренних ссылок на страницу со всех других страниц и документов этого же сайта) и внешний (определяется внешними ссылками). Чем больше совокупный вес страницы, тем большую ценность она будет иметь в глазах поисковых систем.
SЕО-специалисты стараются всеми силами нарастить вес продвигаемых страниц. С «внешней» стороны проводится работа по наращиванию ссылочной массы (о чем мы поговорим позже). А для правильного распределения внутренних весов проводится оптимизация структуры сайта.
К каждому проекту в этом аспекте приходится подходить индивидуально, но общий принцип должен быть уже понятен: на все продвигаемые и важные страницы (услуги, категории, каталог, карточки товаров) должно стоять как можно больше внутренних ссылок. И наоборот – на нецелевые страницы (профили пользователей, технические страницы) должно вести как можно меньше ссылок (разумеется, без ущерба для удобства использования сайта).
Количественно статический вес страницы определить очень сложно, так как формулы, по которым он рассчитывается поисковыми системами, остаются неизвестными широкой аудитории. Однако это не мешает некоторым специалистам заниматься шаманством и пытаться рассчитать вес страниц с помощью каких-то формул, а на основе полученных результатов расставить внутренние ссылки на сайте. То же самое, с большим или меньшим успехом, делают специальные программы и плагины, которые автоматически расставляют ссылки на страницах сайтов, работающих на основе наиболее популярных в интернете CMS[65 - https://ru.wikipedia.org/wiki/Система_управления_содержимым] (Content Management System, движок сайта).
В подобных расчетах мало смысла, так как они слишком примитивны по сравнению с математическим аппаратом, который используют поисковые системы. Однако о том, как сосредоточить вес на нужных страницах, нужно думать постоянно: в практике нередки случаи, когда добиться высоких мест по конкурентным запросам удается не в последнюю очередь благодаря правильной расстановке внутренних ссылок.
Рассмотрим несколько универсальных правил, которые помогут добиться нужного результата.
Закрываем ссылки на нецелевые страницы. Напомним, что на страницы, закрытые от индексации в файле robots.txt, лучше не ставить ссылок в пользовательской части сайта. Однако, если это все же необходимо, нужно скрыть ссылки на данные страницы посредством JavaScript таким образом, чтобы в исходном коде документов отсутствовали фрагменты вида «a href=«…».
Если в конкретном проекте это окажется сложно реализовать технически, можно попробовать закрыть ссылки на нецелевые страницы с помощью атрибута rel=«nofollow»[66 - https://support.google.com/webmasters/answer/965697hbru]. Данный атрибут не является гарантией того, что поисковый робот не перейдет по ссылке (и не передаст вес), но это лучше, чем ничего.
Ставим ссылки на продвигаемые страницы в ручном режиме. На продвигаемые страницы следует поставить как можно больше ссылок внутри сайта. Тексты ссылок (анкоры) должны соответствовать запросам, по которым продвигаются страницы. Для простановки ссылок можно использовать:
– подвал сайта: сделать там блок с разделами каталога, поставить ссылки на продвигаемые товары и услуги);
– перелинковку (связывание страниц гиперссылками) в каталоге: блоки с самыми популярными товарами и категориями;
– виджеты, размещенные на всех внутренних страницах сайта (например, со списком услуг компании);
– основное меню сайта и другие элементы.
Ставим ссылки на продвигаемые страницы в автоматическом режиме. Неплохой вариант простановки ссылок в автоматическом режиме предложил в свое время Александр Люстик (создатель очень полезной программы KeyCollector[67 - http://www.key-collector.ru/]).
Рис. 5. Интерфейс программы KeyCollector – незаменимого помощника SEO-специалиста для работы с семантическим ядром сайта
Все книги на сайте предоставены для ознакомления и защищены авторским правом