Анализ контента сайта своими руками

Долгое время наиболее важным фактором ранжирования считались ссылки. Однако, в последнее время, роль ссылок все больше нивелируется, положительного результата по выводу сайта в ТОП можно добиться, лишь комплексно используя все доступные методы и инструменты. В данном посте я расскажу о том, как провести качественный анализ контента сайтаКакие ошибки допускают вебмастера, какие аспекты наиболее важные, а также используемые инструменты для проведения анализа.

Анализ контента веб сайта, этапы

Проводя анализ контента, важно понимать, что внутренняя оптимизация не является панацеей от всех Анализ контента веб сайтаваших проблем. Иногда люди, заказавшие у меня аудит сайта, пишут через некоторое время, спрашивая, почему не увеличился трафик, ведь все работы проведены, сайт теперь супер-пупер идеальный. Во-первых, внутренняя оптимизация — это не все, что нужно для продвижения. Кроме редких исключений, для получения хорошего трафика необходимо поработать и с внешними факторами. Во-вторых, я могу отвечать только за свою работу, какие пункты выполните или проигнорируете вы — мне неизвестно. Соответственно, за результат или его отсутствие отвечаете тоже вы.

Таким образом, анализ контента и его оптимизация (имеется ввиду не только SEO)  — лишь один из многих этапов раскрутки сайта. Лишь упорный труд принесет вашему ресурсу трафик, деньги и так далее. В общем, хватит лирики, приступим к пунктам анализа.

  1. Объем контента на странице. Для того, чтобы страница проиндексировалась, на ней должен быть уникальный контент. Особенно актуально это для ПС Яндекс. Минимальный объем текста, который позволит странице попасть в индекс, составляет 500 символов. При этом, оптимальным можно считать объем от 2000 символов. Стоит отметить, что актуальность данных рекомендаций зависит от типа ресурса. Так, для интернет-магазина достаточно 500 символов в товарной карточке, тогда как на блоге запись в 500 символов не принесет никакого результата (органического трафика).
  2. Частота обновления контента. Данный фактор имеет некоторое влияние на уровень доверия поисковых систем к сайту. Если у вас интернет-магазин, и на нем ассортимент обновляется/расширяется раз в год, и не проводятся работы по увеличению контента — через некоторое время вероятным исходом станет проседание позиций и уменьшение трафика. Проверить частоту обновления контента на сайте можно при помощи панели вебмастера Яндекс и Google Webmaster Tools.
    Спойлер (нажмите чтобы показать/скрыть)
    analiz-kontenta-sajta

    analiz-kontenta-sajta-2

  3. Вхождение ключевых фраз в текст. Это один из наиболее важных факторов, определяющих релевантность страницы к запросу пользователя поисковика, а также влияет на ранжирование. Рекомендую не зацикливаться на законе Ципфа и прочей давно устаревшей информации. Я обычно использую 1-2 повтора ключа на 1000 символов, однако, стараюсь не ставить больше 3-4 повторов на всю страницу, даже если статья 5000 символов и больше. Перед тем, как писать статью, также рекомендую проанализировать тексты сайтов из ТОПа выдачи по запросу, который вас интересует.
  4. Переспам ключевых слов в текстах. Тут достаточно трудно сделать конкретные выводы, так как для разных тематик актуальной может быть своя плотность. Тем не менее, лучше не превышать плотность ключа в 5%. В любом случае, если количество вхождений одного ключа больше 10-ти, и страница долгое время не продвигается в выдаче — это сигнал того, что вероятнее всего, на нее наложен фильтр за переоптимизацию. В своей практике я встречал страницы, на которых было по 20-30 вхождений ключа, с учетом мета-тегов и атрибутов alt/title к изображениям. В таком случае, можно утверждать, что на странице переспам ключевого слова.
  5. Использование форматирования не по назначению (<strong>, <b>, <i>). В свое время, вебмастерами и оптимизаторами часто использовался прием выделения ключевых фраз полужирным или курсивом — такие действия положительно влияли на ранжирование страницы. Но скоро поисковые алгоритмы были усовершенствованы, и выделение ключевиков стало пессимизирующим фактором. Но тут есть один нюанс. Сейчас многие вебмастера стали параноидально относиться к выделению, и очень зря. Стронги и другие теги выделения текста можно и нужно использовать, но только там, где нужно подчеркнуть мысль или обратить внимание читателя.
  6. Уникальность текстового контента. При проведении анализа контента сайта, важно проверить уникальность текстов. Даже если вы уверены в уникальности материалов (писали сами или копирайтеры) — есть такое явление, как воровство контента. Например, если конкуренту придется по душе ваша статья — он ее скопирует себе, и если его сайт имеет больший траст и возраст, чем ваш — есть вероятность того, что ПСы посчитают неуникальным текст на вашем сайте, и исключат соответствующие страницы из индекса. Проверить уникальность текста можно многими способами, я рекомендую программу ETXT Antiplagiat, или сервис CONTENT-WATCH, если вам нужна пакетная проверка.
  7. Уникальность графики. Изображения на сайте играют большую роль в получении дополнительного трафика из поиска. Если на ресурсе размещены уникальные фото или картинки — Google и Яндекс проиндексируют их и будут показывать в выдаче. Это позволит заинтересованным пользователям ПС переходить на ваш сайт из результатов поиска по изображениям. Естественно, для этого графика должна быть уникальной, как и текстовый контент. Проверять уникальность изображения рекомендую при помощи поиска по картинкам Google или сервиса TinEye.
  8. Структура текстового контента. Структура текста на страницах должна быть четкой и удобной для восприятия. Материал должен быть разбитым на небольшие абзацы, иметь заголовки и подзаголовки, списки, сноски. Если же текст размещен сплошной «простыней», то, особенно в совокупности с другими ошибками — существует риск наложения санкций со стороны ПС.
  9. Ошибки в текстах. Многие вебмастера, особенно на начальном этапе развития сайта, сами пишут статьи/описания на сайт. В таких текстах часто можно обнаружить большое количество ошибок. Также, никто не застрахован от некачественной работы копирайтера. Тем не менее, большое количество ошибок может привести к ухудшению поведенческих факторов. Частично в проверке текстов на ошибки поможет сервис TEXT.RU. Но такую работу, все же, лучше доверить специалистам, особенно, если вы не очень дружите с орфографией, пунктуацией и грамматикой.
  10. Переспам мета-тегов. Проводя анализ контента сайта, необходимо обратить особое внимание на мета-теги. Переспам в тегах <title>, <keywords> и <description> — очень распространенная ошибка. Так, зачастую мета-теги состоят из ключевиков, перечисленных через запятую. Мета-теги <title> и <description> должны быть читабельными и представлять собой обобщенную информацию про страницу. Для проверки мета-тегов можно использовать программу Screaming Frog, как наиболее удобную для выполнения такой задачи.
  11. Дублирование метатегов на разных страницах. Данная проблема встречается часто, особенно в популярных CMS (Joomla, WordPress, Opencart и др.). Обычно дублирование можно обнаружить на страницах пагинации, а также страницах с GET параметрами (фильтры, сортировка и тд.). Такие ошибки исправляются при помощи директив в robots.txt и канонических URL. Если же дубли найдены на конкретных страницах, необходимо устранить проблему, заменив их уникальными мета-тегами. Проверку на дубли можно осуществить при помощи нескольких программ, среди которых самая оптимальная, к тому же, бесплатная — Netpeak Spider (скачать по прямой ссылке).
    Спойлер (нажмите чтобы показать/скрыть)
    analiz-kontenta-sajta-3
  12. Несколько заголовков H1 на странице. Весьма распространенная грубая ошибка, которую можно считать технической. Игнорирование данной ошибки может привести к наложению санкций со стороны ПС. Заголовок H1 на странице должен использоваться всего 1 раз. Проверить количество заголовков можно при помощи Netpeak Spider и Screaming Frog.
  13. Большое количество заголовков H2-H3. Конечно, данные заголовки имеют гораздо меньше веса в SEO сайта, чем H1. Тем не менее, свою роль в определении релевантости они играют. Иногда мне попадались на глаза сайты с количеством заголовков больше сотни. Это уже однозначный минус. Старайтесь не использовать более 5-ти H2 заголовков, H3 может быть и больше, но тоже без фанатизма. Также избегайте использования указанных заголовков в элементах навигации (меню, заголовки в сайдбарах, футере), и в заголовке/дескрипторе сайта (обычно размещены в шапке, возле логотипа). Проверить количество H2 можно при помощи программы Screaming Frog, H3, насколько мне известно, можно проверить только вручную.
  14. Длина заголовка страницы (<title>). Оптимальный объем данного тега — до 70 символов (в Google — до 65 символов). Сразу оговорюсь, что длина заголовка страницы может быть и 200 символов — в этом нет ничего критического, более того, не поместившиеся в данный объем слова даже берут участь в ранжировании. Однако, отображаться в поисковом сниппете будут только первые 65-70 символов. Это следует учитыватьпри формировании title. Проверить длину заголовка страницы можно при помощи программ Screaming Frog и Website Auditor.
  15. Длина заголовков H1-H6. По данному пункту точной информации нет. Однако, замечено мною лично и коллегами, что в случае, если заголовки любого уровня состоят из нескольких предложений или даже абзаца — это отрицательно сказывается на ранжировании. Поэтому рекомендую не делать H1-H6 заголовки длиной больше, чем 2 строчки. Помните о том, что лаконичные и интересные заголовки дают посетителю сигнал, что он читает именно ту информацию, которую искал. Проверить длину H3-H6 можно только вручную, а H1-H2 отлично анализировать программой Screaming Frog.
  16. Использование в <title> ключевой фразы. Как известно, заголовок <title> является одним из самых важных факторов, определяющих релевантность страницы запросу пользователя ПС. Поэтому вполне логично, что при анализе контента сайта стоит обратить на него внимание. Присутствие ключевой фразы/фраз в <title> свидетельствует о правильном его использовании. Проверить на 100% точно невозможно, но при анализе достаточно хорошо видно, есть ли на сайте с этим проблемы. Например, если сайт продает утюги Braun, и заголовок релевантной страницы выглядит как «Braun 4661E-TS745A BRAUN BK» — это неправильно, и тайтл не включает ключевое слово. Другое дело — «Утюг Braun 4661E-TS745A BRAUN BK — купить в интернет-магазине «Утюг» со скидкой 50%», такой заголовок явно включает в себя основной ключ «Утюг Braun» и дополнительные — «со скидкой, купить, интернет-магазин» и тд.
  17. Наличие атрибутов  “alt” и “title” для картинок. Первый атрибут является полезным для пользователей, которые не могут просмотреть изображения, второй атрибут является названием картинки и отображается при наведении на нее курсора. В атрибуты рекомендовано прописывать главный ключ страницы (релевантный), так можно повысить релевантность страницы к определенному запросу. Если изображений несколько — естественно, стоит использовать несколько разных ключей, избегая переспама. Проверить можно только вручную (есть сервисы, которые выдают общую информацию, но вручную надежнее и быстрее).
  18. Релевантность тега <title> к контенту. Логично, что раз <title> является важным фактором определения релевантности, то он должен соответствовать контенту страницы. Например, если в тайтле указана информация о цене, скидках, бесплатной доставке. а на самой странице этой информации нет — вы не только потеряете клиента, который соблазнился заманчивыми предложениями, но и рискуете потерять позиции в выдаче. Проверить правильность несложно. Зайдя на анализируемую страницу, откройте ее исходный код, скопируйте из <title> одно или несколько слов, которые похожи на ключи, и вбейте в поиск по странице. Если будут найдены совпадения — тайтл вполне релевантен контенту. Также, не будет лишним после этого пробежаться глазами по тексту и другой информации на странице, сравнив ее с содержимым <title>.
  19. Использование микроразметки данных в сниппетах. В наше время за трафик из поисковиков ведется беспощадная борьба, используются как белые, так и черные методы. Одним из множества вариантов привлечения внимания посетителей является микроразметка данных. На изображении ниже (под спойлером) — несколько сниппетов из выдачи Яндекса, посередине — анализируемый мною сайт без использования микроразметки.
    Спойлер (нажмите чтобы показать/скрыть)
    Согласитесь, не очень привлекательно, в сравнении с соседними сайтами. А для коммерческого сайта это может сыграть немаловажную роль. Проверить использование и корректность микроразметки можно как в Яндексе, так и в Google. Лично я предпочитаю инструмент от Google.

    На этом все, друзья. Возможно, что-то я забыл или упустил — делитесь в комментариях, дополню список. Помните, однако, что в данной статье идет речь не про анализ всего сайта, а только про анализ контента.

    Хочется также добавить, главное — широко открывать глаза и внимательно исследовать все детали сайта. Есть факторы, которые сами по себе не важны, но в совокупности с другими уже играют роль в SEO, есть нестандартные ошибки, которые присутствуют на одном сайте из сотен. Все это сложно учесть. Поэтому читайте, развивайтесь, учите основы SEO и сайтостроения, и применяйте полученные знания на практике. Всех благ!