Факторы внутренней оптимизации сайта (полный список)

Внутренняя оптимизация сайта — это комплекс работ, проводимый с целью корректировки содержимого сайта для быстрой индексации и лучшего ранжирования сайта в поисковых системах.

Внутренняя оптимизация — это самый большой и ответственный этап в seo продвижении сайта. Здесь важно не допустить ошибок и все делать правильно, учитывая как рекомендации поисковых систем, так и личный опыт seo-специалиста.

Основные этапы.

Внутренняя оптимизация страниц сайта предполагает проведение следующих работ:

Примерная схема внутренней оптимизации сайта

Читайте также:  Фильтр Панда и Пингвин от Гугла – основные понятия.

Анализ конкурентов

Процесс внутренней оптимизации сайтов начинается с анализа конкурентов. Обычно в самом начале работ уже известен некоторый перечень сайтов конкурентов. Когда этого перечня мало, можно воспользоваться такими сервисами как SemRush, SpyWords, Advisor.Sape и найти их еще пару штук.

Обычно хватит для конкурентного анализа 5-6 сайтов. Цель такого анализа: снять различные количественные и качественные характеристики таких сайтов. Снимают обычно такие параметры, как: тиц, pr, возраст сайта, количество проиндексированных страниц, число главных страниц в выдаче, наличие запроса в точной форме в title и другие. Как правило, результаты анализа оформляются в виде наглядной таблицы.

По результатам анализа получается конкретный список тех работ, который нужно будет провести, чтобы подтянуть сайт до уровня конкурентов и возможно в чем-то даже обогнать.

Анализ конкурентов в выдаче

Для того, чтобы понять какие элементы обязательны, а какие можно использовать как преимущество, необходимо:

  1. Вбить в поисковой строке Яндекса интересующий нас запрос, в данном случае это «SEO оптимизация статьи»;
  2. Открываем первые 5 сайтов выдачи, естественно, пропуская рекламные ссылки Яндекс.Директ;
  3. Анализируем статьи конкурентов;
  4. Выделяем необходимые элементы и возможные конкурентые преимущества по контенту.

Скрин топа выдачи по запросу ‘оптимизация статьи’

Топ выдачи Яндекса по запросу оптимизация статьи

Анализ конкурентов

1 место2 место3 место4 место5 местоСмысловое выделение+++++Видео—++——Картинки+++++Таблицы—————Списки++—++Цитаты++———Ссылки на трастовые источники++———Содержание++—+—

Очевидно, что лучше ранжируются страницы с большим количеством важных элементов.

  1. Никто не использует таблицы table, это значит, что мне обязательно необходимо вставить таблицу в эту статью, так как это может стать конкурентным преимуществом;
  2. Видео использовано всего в двух статьях и они близко к ТОПу, поэтому и я сделаю видео, тем более оно хорошо впишется в один из разделов;
  3. На первом и втором местах в Яндексе статьи, в которых несколько раз использован тег цитирования blockquote, следовательно, считаю, что он обязателен к использованию;
  4. У сайтов в топе есть содержание и исходящие ссылки на трастовые источники, возьму эти пункты на вооружение.

Полный чек-лист проверки приведен в конце статьи.

Составление семантического ядра

Следующий этап — это составление семантического ядра по которому и будут продвигаться страницы сайта в зависимости от выбранной стратегии: по позициям или по трафику. Дело в том, что если продвижение осуществляется по позициям, то и семантическое ядро обычно не большое (до 100-200 слов). Если речь идет о трафиковом продвижении, то нужно подбирать семантическое ядро с количеством фраз от 1000 в зависимости от тематики.

Здесь основной акцент нужно сделать на работу с ВЧ, СЧ и НЧ запросами, которые разделяются между собой в зависимости от частоты показов и тематики. Например в тематике «еда» — ВЧ имеют частоты от 100 тыс показов в месяц, а в тематике «продвижение сайтов» уже от 2000. Нет единых численных значений — помните об этом. Как правило, СЧ имеют частоту в 3-10 раз ниже чем ВЧ, а НЧ в 3-10 ниже чем СЧ.

Высокочастотные запросы очень плохо подходят для молодых сайтов, так как они почти всегда одновременно и максимально конкурентные. В основном работают с СЧ и НЧ запросами — они более целевые и их легче продвигать.

Основные стадии составления семантического ядра следующие:

  • сбор фраз из всевозможных источников (Яндекс метрика, Google Analytics, Liveinternet, SemRush, SpyWords, База Пастухова и другие);
  • очистка полученного списка от нецелевых слов и пустышек;
  • разбиение запросов на продвигаемые группы по принципу решения проблемы пользователя. Если группа запросов решает одну и ту же проблему пользователя (информационную потребность), то мы делаем вывод, что их нужно продвигать на одной странице.

Отлично автоматизировать процесс сбора семантического ядра можно в программе Key Collector.

Размещение запросов на сайте + выбор посадочной страницы

После того как мы собрали семантическое ядро, провели его чистку и сформировали продвигаемые группы мы должны подумать о размещении запросов на сайте. Для этого нужно подобрать посадочные страницы. Но в большинстве своем многие группы запросов не будут иметь существующих посадочных страниц. Тут выход один: либо такие группы не учитывать, либо создать новую целевую страницу.

Читайте также:  Исследование: почему пользователи подписываются на соцстраницы бренда?

Конечно, лучше размещать запросы на существующие страницы, так как они уже имеют возраст и накопленные поведенческие факторы. В таком случае запросы будут продвигаться легче и быстрее.

Минусом же новых страниц является отсутствия фактора доверия со стороны поисковых систем и возраста, а это в нынешних реалиях очень сильно сказывается на seo. Но есть и плюс — это постоянное расширение списка продвигаемых запросов и возможность оперативно подхватить текущие трендовые запросы и их тоже разместить.

Бизнес-логика сайта (СДЛ факторы)

Контент

Контент на сайте должен соответствовать требованиям качества как для поисковых систем, так и для пользователей. Хороший контент должен быть свежим, актуальным, достаточно часто обновляемым, интересным посетителям и релевантным. Качественный контент имеет хорошую структуру: теги заголовков H1-H6, при этом избегайте заголовков-изображений, а для картинок используйте атрибуты Alt – не оставляйте их пустыми.

Хорошие title и метатеги – это не только плюс для поисковых систем, но и привлекательные сниппеты в выдаче. Для блогов желательно использовать авторство Google, а для интернет-магазинов – подробное использование карточек товаров с возможностью оставлять отзывы.

Что является признаками плохого качества контента? Это контент без информационной ценности для посетителей, агрегированный или дублированный с других источников. Переоптимизация ключевыми словами и приемы клоакинга (скрытый текст) – это плохо.

При необдуманной структуре сайта может произойти перемешивание ключевых слов – когда одни и те же кейворды на разных страницах «поедают» друг друга, так что поисковым системам непонятно, какая страница наиболее релевантна по этим запросам.

Юзабилити

Юзабилити заключаетсяв том, чтосайт должен быть удобным пользователю и ничто не должно его раздражать. Что делает сайт удобным: контактные данные и карта проезда, онлайн консультант или техподдержка, сертификаты качества, отдельный прайс-лист или каталог товаров, условия гарантий оплаты и доставки (см. статью Способы улучшения коммерческих факторов сайта), безопасность платежей и персональных данных (описано в статье про SSL сертификат). Для геозависимых запросов нужно проверить регион сайта. Если же ваш сайт некоммерческий, то все равно он может завоевать лояльность посетителей с помощью: наличия мобильной версии сайта, сниппетов и микроразметки, интеграции с социальными сетями (группы и паблики Вконтакте, страницы Фейсбук, комментарии через социальные сети и т.д.). Кроме того, социальные сети позволяют напоминать о своем сайте с помощью ретаргетинга.

Раздражающие факторы нам всем известны: навязчивая реклама, попандеры, кликандеры, множественные редиректы, медленная скорость загрузки и т.д. Использование бесконечного скроллинга должно быть оправданным, так как имеет свои плюсы (улучшение поведенческих факторов) и минусы (не очень хорошо для SEO).

Веб-аналитика

Веб-аналитика сайта как раз и покажет, насколько ваш сайт нравится посетителям (показатель отказов). Для анализа необходимо установить Google Analytics или Яндекс.Метрика (рекомендация: устанавливайте обе системы аналитики), настроить цели и собрать достаточное количество данных.

На основании данных необходимо провести анализ востребованности контента сайта, просмотрев вебвизор в Яндекс.Метрике можно получить данные какого контента не хватает пользователям.

Работа со структурой сайта

Под структурой сайта понимается совокупность всех страниц сайта с учетом их взаимосвязи между собой. Основные разделы в структуре сайта выделяются путем создания папок (директорий) на сервере, либо с помощью соответствующих записей в базе данных.

Пример рубрик:

  • /wordpress/;
  • /baza-znanij-seo/.

Пример страниц:

  • /baza-znanij-yuzabiliti/yuzabiliti-internet-magazina.php; (допускается как использовать расширение .html, .php так и не использовать как в примере ниже)
  • /wordpress/nastrojka-gravatara.html;
  • /baza-znanij-seo/vnutrennyaya-optimizaciya-sajta/.

Блок схема создания правильной структуры сайта
Блок схема создания правильной структуры сайта
Инструкция по созданию правильной структуры сайта:

  1. Самое первое, что мы должны сделать — это сформировать список seo-запросов;
  2. Далее по основным из них (самым частотным) нужно провести анализ структуры конкурентов. Здесь вам нужно проанализировать конкретные страницы конкурентов на предмет того, как они сделаны, как оформлены. Являются ли они, например, разделом с перечислением, например, товаров или просто отдельной страницей (карточкой товара). Нужно найти какие-либо части, блоки, модули, сервисы, которые реализованы у конкурентов, но не реализованы у вас. Если они представляют ценность, то, в конечном итоге, реализовать. Также нужно посмотреть количество страниц разных типов и сравнить с вашим. Например, если у конкурента около 5000 карточек товара, то и у вас должно быть приблизительно такое же количество;
  3. Далее беремся за анализ ЧПУ конкурентов. Это может быть и анализ того, какие ключевые слова встречаются в урле и среднее количество этих слов, а также и уровень вложенности. Обычно — это шаблонные решения. И если они удачны, то необходимо подумать о реализации у себя.
  4. Провести учет иерархии разделов и подразделов. Тут нужно посмотреть как реализована иерархия в меню сайта. Посмотреть как реализовано тегирование, которое очень неплохо позволяет реализовать эту самую иерархию.
  5. Раскрыть все основные потребности на сайте. Под каждую основную потребность необходимо создать раздел, а внутри этого раздела будут подразделы или конечные детальные страницы.
  6. Возможность масштабирования. Если в процессе разбиения мы получаем ситуацию, когда в одном разделе существует более сотни подразделов — то это неправильно. Нужно изначально этот раздел разбить на несколько десятков подразделов, каждый из которых внутри будет разбиваться также на несколько десятков. Это будет более логично и удобно для восприятия.


Пример готовой структуры сайта в виде таблицы Excel

Читайте также:  LikesRock скам — заработок в социальных сетях на лайках и репостах

Общая структура сайта

Структура сайта должна быть древовидной. Должна быть главная страница, которая индексируется, прежде всего. Статьи сайта должны быть разбиты на разделы и подразделы. Для молодых сайтов, не делайте глубину подразделов длиннее двух, а лучше одного подраздела, для раздела.

Говоря об общей структуре сайта, нужно вспомнить о семантическом ядре сайта, который вы должны были заранее собрать. тут: 17 сервисов подбора ключевых слов. Зачем? Сейчас поймете.

Вряд ли, следующую структуру сайта, можно назвать классической, но удачной точно можно:

  • Главная страница оптимизируется на 1 ВЧ запрос и 2 СЧ запроса.
  • Разделы сайта включают статьи, оптимизированные по НЧ запросам, которые являются расширенными ВЧ и СЧ запросами главной страницы и названий разделов.

Например: Сайт о молоке.

Читать по теме: Выбор платформы для сайта удобной для оптимизации

ВЧ запрос «Молоко». СЧ запросы: «Свежее молоко», «Польза молока».

Делаем следующие Разделы/Статьи:

  • Раздел 1: «Свежее деревенское молоко»/Статьи этого раздела: «Польза деревенского молока», «Витамины в деревенском молоке», «Жирность деревенского молока».
  • Раздел 2: «Молоко порошковое»/ Статьи: « Полезно ли порошковое молок», «Как делают порошковое молоко», «Срок хранения порошкового молока».
  • Раздел 3: «Диета с молоком»/ Статьи: «Влияние молока на похудение», «Можно похудеть, если пить молоко», «Мифы о молочных диетах».

Вот как то так. Надеюсь, смысл понятен. Все ключевые слова нужно брать из заранее составленного (собранного) семантического ядра.

Примечание: Если вы оптимизируете, готовый сайт, то идти нужно, наоборот. По содержанию статей, составлять семантическое ядро, дополнять его, соответственно дополнять сайт статьями. И дальше делать SEO аудит. Но об этом совсем в других статьях.

Seo-теги: title, h1-h6, description, keywords, strong

После того, как известен список продвигаемых ключевых слов, можно приступать к оптимизации seo-тегов для каждой страницы сайта: title, h1-h6, description, keywords, strong. Здесь у каждого свои секреты. Но есть и общие требования:

  • не переспамливать ключевыми словами;
  • Yandex учитывает 186 слов в title, а Google — 12;
  • тег title должен содержать продвигаемый запрос в точной форме;
  • h1 должен быть употреблен в исходном html коде только 1 раз и не должен содержать классов и стилей;
  • необходимо соблюдать иерархию заголовков: сначала h1, потом h2, затем h3 — и так далее;
  • содержимое h1, по возможности, не должно совпадать с title;
  • старайтесь выделять тегом strong важную мысль, а не ключевые слова;
  • максимальная длинна description, которую учитывает Яндекс — 160 символов, а Google — 140;
  • description должен содержать 2-3 предложения, которые описывают содержимое страницы. Можно использовать цифры, факты, рекламные слоганы, призывы к действию и т.д;
  • мета тег дескрипшен не должен совпадать с тегом title, иначе поисковая система будет его игнорировать.

Для упрощения работы с seo-тегами я рекомендую утилиту Screaming Frog SEO Spider, которая после сканирования выведет всю необходимую информацию по каждой странице сайта в удобном виде.

Для интернет-магазинов или порталов, ввиду большого количества страниц, ручная работа по заполнению данных мета-тегов весьма затруднительна, поэтому здесь процесс автоматизируют, используя различные шаблонные маски.

Работа с исходным html кодом

  • На данном этапе внутренней оптимизации сайта необходимо сделать так, чтобы код был валидным. Это будет почти 100% гарантией того, что сайт будет хорошо открываться в браузерах. Также есть исследования, которые говорят о том, что валидный код дает небольшой бонус при ранжировании.
  • В рамках данного этапа важно проследить за тем, чтобы все стили были вынесены из исходного html кода в отдельный CSS файл.
  • Все JS скрипты нужно вынести в отдельный файл.
  • Важно работать в целом над тем, чтобы убрать лишние теги, пробелы — это позволит уменьшить вес страниц сайта в килобайтах.
  • Оптимальный размер страницы — до 100 килобайт.
  • Также нужно позаботиться о том, чтобы ваш HTML код был лишен CSS, JS и шрифтов, которые не используются на данной конкретной странице — это позволит ускорить загрузку.
  • Основные seo-теги — title и дескрипшен нужно выводить сразу же после открывающегося тега .

Навигация и внутренняя перелинковка сайта

Удачная навигация и правильная внутренняя перелинковка сайта тоже являются факторами внутренней оптимизации. Все больше оценка привлекательности сайта для поисковиков и удобство сайта для пользователя сближаются. Удачная схема внутренней перелинковки, позволит пользователю зайдя на ваш сайт, удобно ориентироваться, видны и доступны по ссылкам, разделы сайта, а до нужной информации можно добраться не длиннее двух кликов, и вообще клиент чувствует, что сразу понимает, где и как искать нужную информацию, то можно считать, что такой сайт «приглянется» поисковикам.

Наличие ЧПУ

Как известно, поисковики дают бонус в ранжировании, если урлы будут представлены в человеко-подобном виде (ЧПУ). Лучше всего использовать транслитерацию, но неплохо работают и английские переводы слов. Здесь есть один момент: ЧПУ урл не должен быть слишком большим. Есть даже такой фактор ранжирования в Google, как длина урла. Эксперты склоняются к выводу, что оптимальная длинна ЧПУ урла должна быть не более 130 символов.

Хороший пример ЧПУ урла для запроса «продвижение сайтов в гугл» → /prodvizhenie-sajtov/google/

Требования к ЧПУ:

  • содержание 1-3 основных тематикозадающих слов из запросов;
  • корректность с точки зрения поисковой системы;
  • как можно более меньшая длина урла;
  • иерархическое дополнение друг друга.

Для ручного создания правильных и корректных с точки зрения поисковиков ЧПУ урлов Вы можете воспользоваться моим сервисом транслитерации урлов.

Структура ЧПУ

Известно, что поисковики благоприятно оценивают в ранжировании и индексации те урлы, которые представлены в человеко-понятном виде. Лучшим решением будет использование транслитерации, но также подойдут и английские переводы слов. Главное помнить: ЧПУ не должен быть слишком большим.

Совет! По мнению экспертов, оптимальная длина ЧПУ должна быть не более 130 символов.

Требования к ЧПУ адреса страницы:

  • наличие 1-3 ключевых слов из запросов;
  • чем меньше длина урла, тем лучше;
  • необходимо выдерживать иерархическое дополнение урлов друг с другом.

Улучшение индексации сайта

Цель улучшения индексации сайта — это сделать так, чтобы мы удалили из базы поисковой системы бесполезные страницы сайта и добавили полезные. Для выполнения этой задачи мы первым делом должны проверить индексацию каждой существующей страницы сайта. Лучший инструмент для этой задачи, на мой взгляд, сделала команда сервиса Seranking. Он находится здесь. Да, инструмент платный, но зато быстрый и удобный.

По результатам проверки мы можем выяснить, что часть страниц не попала в индекс, а часть попала. Далее мы должны удостовериться, что проиндексированные страницы не являются мусорными. Если часть из них являются все же мусорными, то мы должны предпринять меры по их удалению из базы поисковой системы. Для этого существует файл robots.txt, meta name=»robots» и link rel=»canonical».

Также в индекс могут не попадать и нормальные страницы. Причины этого следующие:

  • Страница находится более чем в 3 кликах от главной;
  • Отсутствие уникального контента;
  • Дублирование заголовков;
  • Долгое время загрузки страницы.

P.S. Для реально ускорения индексации сайта в яндексе нужно использовать инструмент переобход страниц, а в гугле аддурилку.

Составление корректного robots.txt

Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow (запретить) и Allow (разрешить) можно управлять сканированием разделов сайта. Корректность составления данного файла можно проверить с помощью сервиса Яндекса здесь.

Читайте также:  Реферальная система: Что такое Реферал и Реферер? Подробно о том, кто это такие! Что такое реферальная ссылка и как с ее помощью можно заработать Почему не нужно удалять ссылку рефера

Из других основных директив следует отметить:

  • User-agent: — указывает для какого робота будут действовать директивы секции;
  • Host: — указывает основное зеркало (работает только в секции для поискового робота Яндекс);
  • Sitemap: — позволяет указать урл по которому расположена XML карта сайта.

Пример составления файла для cms WordPress можете посмотреть у меня на блоге.

Правильная расстановка meta name=»robots» и link rel=»canonical»

Для правильного индексирования сайта и распределения весов нужно правильно расставить meta name=»robots» и link rel=»canonical».

Если страница закрыта от индексации с помощью данного метатега, то важно, чтобы она не была одновременно закрыта в robots.txt. Помните, что robots.txt управляет сканированием, а meta name=»robots» индексированием.

Для указания основной страницы используйте link rel=»canonical». Данный атрибут целесобразно применять тогда, когда нужно поисковой системе явно указать какая из двух страниц с одинаковым содержимым является приоритетной. Я рекомендую все же это делать не с помощью canonical, а с помощью 301 редиректа.

Создание автоматически генерируемых sitemap.xml для обычных постов, картинок, видео

Карта сайта — это ничто иное как обычное содержание, которое должно именно индексироваться.

На сайте должен присутствовать автоматически обновляемый файл sitemap.xml. Различают sitemap.xml для постов, для картинок и видео. Стоит отметить, что сайтмап для картинок и видео поддерживает лишь Google, а Яндекс нет. При составлении данного файла важно учитывают следующие моменты:

  • любая новая страница, картинка или видео должны сразу же попадать в соответствующий sitemap.xml;
  • если страница запрещена в robots.txt или запрещена мета-тегом, то такая страница не должна присутствовать в сайтмапе;
  • лучше всего настроить автоматическую генерацию карты сайта средствами вашей CMS;
  • идеальный случай — это когда в файле sitemap.xml присутствуют лишь непроиндексированные url.

Тег noindex (скрытие текстового содержимого в коде страницы)

Тег noindex позволяет скрывать часть текста в коде страницы от индексирования. То есть все, что находится внутри данного тега не учитывается при текстовом ранжировании. Работает только в поисковой системе Яндекс. Тег можно ставить в любой порядке и в любом месте кода, так как он не является вложенным.

Пример использования тега:

Тег используют если:

  • на странице большое число повторов, например, характеристик товара;
  • на странице используется неуникальный контент, который вы где-то позаимствовал.

В Гугле тег noindex, к сожалению, не работает. Для закрытия контента в гугле и яндексе одновременно используйте технологию seohide.

Атрибут rel=»nofollow»

Атрибут rel=»nofollow» присваивается ссылкам и служит для закрытия их от индексации поисковыми системами Яндекс и Google. Раньше с помощью данного атрибута управляли pagerank (статическим весом), который является одним из алгоритмов ссылочного ранжирования. Сейчас это не имеет смысла в связи с изменением учета nofollow поисковыми системами. Другими словами, для внутренней перелинковки смысла использовать nofollow нет.

Но в тоже время использовать данный атрибут для внешних ссылок смысл есть, например, в случае закрытия исходящих ссылок в комментариях.

Пример использования:

анкор ссылки

Борьба с дублированием контента

Таблица: Причины дублирования страниц и как решать их:

Причины дублирования контентаКак исправлять проблемуСайт доступен как по адресу site.ru, так и по адресу www.site.ruНужно настроить главное зеркало в вебмастерах поисковых систем. В директиве host файла robots.txt указать главной зеркало для ПС Яндекс. Настроить 301 редирект на одну любую версию сайта (с www либо без www).Сайты доступны со слешем (/) на конце и без слеша.Настройка 301 редиректа на одну любую из версий.Одинаковое содержимое доступно по адресу site.ru, site.ru.html, site.ru.php.Параметрический урл и ЧПУ. Одна и та же страница доступна по адресам вида: site.ru.php?=category=100 и, например, site.ru/seo/ankor/.Один и тот же сайт открывается как по https так и по http протоколу.Использование UTM-меток и реферальных ссылок.С помощью link rel=»canonical» на всех копиях страниц указываем главную страницу, которую нужно индексировать.

Факторы процесса индексации

Файл robots.txt

Файл robots.txt должен находиться в корневой папке сайта и называться именно так. В нём перечисляются правила для индексирования сайта – что нужно брать в поиск, а что нет. Этот файл должен быть составлен грамотно и правильно, иначе что-то пойдёт не так.

Файл sitemap.xml

Это список всех страниц сайта, которые поисковик должен проиндексировать, разделённый на категории. Такой файл могут создать большое количество плагинов для WordPress.

Настройка главного зеркала

У сайта есть разные адреса. Например, может быть example.com или www.example.com. Если уже производился переход на HTTPS, то обе эти варианта могут так же записываться https:// или с https:// Однако, лишь один адрес должен быть главным – главное зеркало. И все входы на остальные варианты адресов должны автоматически переводить на главное зеркало.

Современные хостинги позволяют настраивать главное зеркало. Обычно это происходит в разделе “Сайты”.

Внутренняя перелинковка

Внутренняя перелинковка продолжает сейчас иметь важное значение при оптимизации страниц сайта. Принципы и формы перелинковки различны для сайтов информационной и коммерческой направленности. Одно скажу, что стандартные схемы типа кольца, куба и прочие не работают в настоящее время. Если их использовать можно даже попасть и под санкции поисковых систем.

Из практических советов:

  • важно следить за максимальной уникальностью и разнообразностью анкор листа. Отлично себя зарекомендовала теговая перелинковка в интернет-магазинах;
  • работает и классическая контекстная перелинковка из статей. Но нужно ставить не более 1 линка на 1000 знаков контента. Анкоры при этом делаем разнообразные с тематическим содержимым;
  • для работы с внутренней перелинковкой вам обязательно нужно освоить метод скрытия контента через js и отдельно технологию seohide;
  • гиперссылки необходимо цветом отделить от основного контента (пример — ссылки синего цвета, а текст черного);
  • для больших порталов и интернет-магазинов нужно обязательно разрабатывать свое комплексное решение по перелинковке.

Циклические ссылки

При правильной перелинковке сайта нужно избегать использования циклических ссылок. Циклическая ссылка — это когда страница ссылается сама на себя.

Пользователю такая ссылка точно не нужна, поскольку он уже находится на этой странице — для чего ему с этой же страницы переходить на неё же? Вывод: циклические ссылки нужно удалять.

Мероприятия по увеличению скорости загрузки сайта

Если вы хотите, чтобы внутренняя оптимизация сайта давала результат, то прилагайте усилия, чтобы ваш ресурс загружался максимально быстро. Google и Яндекс официально признали, что скорость загрузки является фактором ранжирования. Важно сделать так, чтобы время загрузки страницы сайта не было больше 2 секунд. Советы следующие:

  • Чтобы узнать, что именно нужно сделать, чтобы увеличить скорость загрузки страницы сайта, можно воспользоваться официальным инструментом от Google — PageSpeed Insights.
  • Среди основных моментов на которые нужно обращать внимание — это оптимизация размера картинок, сжатие HTML и CSS кода, вынос JS перед закрывающим тегом BODY, включение Gzip сжатия, использование кэша браузера и многое другое.
  • Перейдите на хостинг, сервера которого находятся физически ближе к вашему целевому посетителю.
  • Набирает популярность технология AMP для мобильных страниц. Если есть техническая возможность, то ее лучше внедрить, так как она отлично ускоряет загрузку.

Техническое факторы оптимизации

Хороший хостинг

Пожалуй — это главное в технических факторах оптимизации. Сайт будет стоять на хостинге, как дом на фундаменте, и если фундамент ненадёжный, то всё рано или поздно рухнет, как вы ни старались строить сверху хорошо.

Это значит, что категорически не нужно выбирать бесплатные хостинги. А также экономить и использовать дешёвые, никому не известные, с большим количеством негативных отзывов, хостинги. Оно того не стоит.

Нормальный и качественный хостинг не такой уж и дорогой, чтобы экономить на нём.

Адекватная структура сайта

Рубрики составляют структуру сайта. В WordPress есть возможность создавать иерархию рубрик, делать подрубрики. Благодаря этому основную тематику сайта можно разбить на мелкие подтемы, а их на ещё более мелкие подтемы.

Иерархия должна насчитывать не более двух уровней вложенности. Иначе поисковику будет трудно проиндексировать страницы. Поэтому увлекаться сложной структурой не следует. Сделайте структуру максимально лёгкой и простой.

Скорость загрузки страницы

Скорость загрузки зависит от многих факторов, и вышеперечисленный хостинг имеет одно из самых больших влияний на этот показатель.

Кроме хостинга на скорость загрузки влияют многие другие факторы – например, количество и оптимизация графических элементов. Картинки больше всего замедляют страницу, поэтому их не нужно публиковать слишком много и слишком высокого качества. Так же другие технические аспекты – наличие большого количества плагинов, функция кеширования и прочее.

Коды ответа сервера

Общее: на данном этапе нам нужно проверить корректность отдачи сервером нужных кодов в ответ на запрос сайта с браузера. Проверить код ответа сервера вы можете с помощью плагина Firebug для Firefox или сервисом от Яндекса.

Код ответа 200 OK

На данном этапе мы должны удостовериться, что при вводе в браузере любой реально существующей страницы сайта, сервер отдает 200 код ответа. Данный ответ сервера, говорит нам, что запрос успешен. С точки зрения поисковых систем данный код означает, что страница существует и ее можно индексировать. Здесь нам важно убедиться в том, что несуществующие страницы сайта не отдают 200 код. Если так и есть, то все хорошо.

Перенаправление навсегда — код 301

В том случае, если вы настраиваете постоянный редирект с одной страницы на другую, то должны удостовериться в том, что сервер возвращает 301 код ответа. Для чего вам нужно перенаправление? Например, если у вас поменялся URL одной и той же страницы, то вы должны в обязательном порядке настроить 301 редирект со старого урла на новый, чтобы показать, что страница расположена по другому адресу. 301 редирект также передает вес и возраст страницы, а также решает вопрос дублирования контента.

Проверка сайта на корректную отдачу 404 кода

Проверка сайта на корректную отдачу 404 кода (страница не существует) — это один из первоочередных этапов внутренней оптимизации. Важно проверить все возможные варианты, когда должна отдаваться 404 ошибка. Проверять нужно не только реальную отдачу сервером 404 кода в случае ввода несуществующего url, но и чтобы для пользователя выводилась хорошо оформленная страница. Пример такой хорошо оформленной страницы у меня на сайте (введите несуществующий url и увидите).

Коды 5xx (ошибки сервера)

Тут вы должны знать, что существуют еще коды ответа сервера серии 5xx, например, 501, 502, 503 и так далее. Они говорят нам, что есть некая ошибка именно на сервере. Как правило причиной таких ошибок является перегрузка сервера, например, из за роста посещаемости. Поэтому если вдруг вы получаете любой из кодов пятисотой серии, то вам нужно провести работу по оптимизации настроек сервера. Как подсказка: анализируйте логи, чтобы понять какой именно процесс приводит к сбою сервера.

Работа с текстовым и визуальным контентом

Сегодня уже всем стало очевидно, что поисковики очень любят уникальный контент и это касается всего, в том числе картинок, дизайна страницы, и, конечно, текста.

Если вы полностью продублировали содержание сайтов из ТОП-3, поисковик будет воспринимать вас просто как клон. Роботы поисковиков сейчас способны распознать иллюстрации с фильтрами, так что подобные манипуляции могут подпортить историю вашего домена.

Но и за 100% уникальностью можно не гнаться. Например, в медицинской тематике очень сложно уйти от точных определений и длинных названий. Текущий уровень уникальности актуален от 80%.

Читайте также:  Как создать свой канал на ютуб и добавить на него видео

В этой статье разберем: на что обратить внимание при внутренней оптимизации сайта.

Поиск и исправление битых ссылок

Битые ссылки — это ссылки, которые ведут на несуществующие страницы. Причины их появления следующие:

  • неаккуратная простановка ссылок администратором сайта;
  • смена адреса страницы. При этом забывают поменять ссылки ведущие на эту страницу;
  • удаление страницы, но ссылки на нее остаются на других страницах.

Наличие битых ссылок очень сильно сказывается на ранжировании сайта. Они доставляют и неудобства пользователю, так как при переходе по такой ссылке попадаешь не на целевую страницу, а на страницу 404 ошибки. К тому же с точки зрения seo на эти страницы утекает статический вес. Поэтому seo-специалистам и вебмастерам необходимо их вовремя находить и исправлять. Для оперативного поиска битых ссылок я использую бесплатную утилиту XENU или платную Page Weight.

Web-скрипты и окружение

Правильная настройка CMS – хорошая индексация.

Достаточно много зависит от правильной настройки CMS или средств их заменяющих. От их настройки зависят важные для оптимизации факторы (иерархическая структура сайта, закрытие дублей или, лучше – использование тега «rel=canonical», достаточная скорость загрузки отдаваемых сервером страниц, JS и CSS следует хранить в отдельных файлах), не должно быть клоакинга (разная видимость для ботов и людей). Если на сайте используется iframe, JS, Flash, то для корректной индексации сайта обязательно нужна текстовая навигация.

Грамотная перелинковка

Кроме того, правильная навигация помогает перелинковке сайта, а для ее улучшения используют хлебные крошки и рекомендательные блоки, которые не должны закрываться тегами nofollow. Следует использовать абсолютные ссылки, а не относительные и следить за их целостностью, так как битые ссылки снижают качество сайта. Не всегда можно уследить за всеми ссылками, поэтому используйте понятную для пользователя страницу 404.

URL сайта

Корректная настройка URLтакже поможет внутренней оптимизации сайта, для этого нужно использовать короткие URL с ключевыми словами (что можно настроить в ЧПУ), используйте дефисы вместо подчеркиваний, а вместо поддоменов – папки, избегайте динамических URL и дублирования параметров в URL.

Не забывайте про файлы robots.txt, sitemap.xml, .htaccess, ведь их настройка отразится на индексации, при этом sitemap должен содержать корректные ссылки, а robots.txt – сопровождаться соответствующим meta-tag robots, в то же время .htaccess должен быть настроен на использование основного домена с www или без него.

Оптимизация изображений

При оптимизации изображений имеют ввиду следующие особенности:

  1. Изображение желательно должно быть уникальным;
  2. Картинку нужно оптимизировать под определенные размеры по ширие и высоте;
  3. Воспользоваться сервисами сжатия, чтобы максимально сократить размер в килобайтах;
  4. При размещении на сайте обязательно заполнять атрибуты alt и title таким содержимым, чтобы оно полностью описывало именно то, что изображено на картинке;
  5. По возможности заполнять EXIF данные;
  6. Названия картинок нужно делать в ЧПУ виде (по аналогии с урлами — лучше всего транслитом);
  7. Полезно использовать разметку Schema.org для картинок, которая поддерживается и Яндексом и Гуглом.

Оптимизируйте название изображений и тег ALT

Если вы используете оригинальные изображения, необходимо оптимизировать название файла изображения и тег ALT. Оптимизация тега ALT оригинальных изображений позволяет увеличить поисковый трафик на 24% за счет добавления ключевых слов.

Не забывайте, что при помощи таких атрибутов как alt и title, в код страницы можно добавить достаточно много дополнительного контента. За такую заботу и трудолюбие, поисковые системы обязательно наградят страницы более высокой релевантностью.

Коммерческие факторы ранжирования

При оптимизации интернет-магазинов важно правильно работать с коммерческими факторами ранжирования. В первую очередь сюда относят следующие факторы:

  • наличие телефона в видном месте на странице (обычно в шапке сайта);
  • бесплатный телефон на 8-800;
  • максимально полная информация об организации в на странице «контакты» с картой проезда;
  • добавление информации о сайте в справочник организаций в Яндексе;
  • наличие различных сортировок, сервисов, разделов, которые призваны повышать удобство пребывания пользователя на сайте;
  • увеличивать ассортимент продукции;
  • наличие возможности онлайн-консультирования;
  • возможность попасть в карточку любого товара за 1-3 клика;
  • наличие актуальных цен и многое-многое другое.

Составление ТЗ для написания качественного и полезного контента

Контент — это король SEO. Так было, так и осталось. К тому же влияние контента в последнее время только усиливается. В информационных тематиках продвижение контентом дает, по моим оценкам, 85% успеха. Для коммерческих тематик текст не имеет решающего значения. В тоже время написание качественных статей с большим количеством графики, видео, интерактива в раздел обзоров интернет-магазина позволяет здорово улучшить поведенческие факторы в целом на сайте. А это со временем приведет к росту позиций и по коммерческим запросам.

У каждого seo-специалиста свой подход в составлении технического задания на написание текста. Обычно это базовые требования:

  • Важно в первую очередь то, чтобы страница полностью решала потребности пользователя. Конечно, текстовое ранжирование, по-прежнему, основано на модернизированной формуле BM 25 и это не нужно забывать;
  • Уникальность контента;
  • Объем текста — от 1000 знаков для хорошей индексации. В более объемных статьях, например, информационной направленности обязательно необходимо включать картинки, видео и любые другие иллюстрации. Это позволит добавить ценность на посадочную страницу и снизить вероятность наложения санкций за переспам;
  • Параграфы должны состоять из не более 4-6 строк;
  • Текст верстаем тегами
    ;
  • Использование подзаголовков, списков, жирного шрифта, курсива.

Правильная внутренняя оптимизация сайта необходима для увеличения его траста в глазах поисковых систем, что положительным образом будет отражаться на позициях и трафике.

Объем текста, тошнотность и другие бредовые параметры

Не стоит обращать внимание на такие параметры, как объем текста, тошнотность, плотность ключевых слов. Яндекс на данном этапе развития уже достаточно умный для того, чтобы оперировать более значимыми факторами ранжирования, на которые искусственно влиять крайне трудно. Самое важное для нас — поведенческие факторы, в следствие этого, все перечисленные выше «бредовые» параметры заменяются одним актуальным понятием — тексты для людей. Необходимо писать интересные, информативные и приятные для чтения тексты, наполняя их разнообразным, полезным для пользователей контентом. Таким образом мы улучшим поведенческие факторы до максимума, зависящего от контента статьи.

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

Яндекс.Метрика