+7 (831) 235-03-46Нижний Новгород
+7 (499) 677-49-72Москва

Главная  /  Блог Продвижение в Интернете → Как увеличить результат от продвижения. SEO - анализ сайта.


Как увеличить результат от продвижения. SEO - анализ сайта.

12.06.14

Как увеличить результаты от продвижения. SEO - анализ сайта

Рассмотрев все возможные способы осуществления оценки оптимизации ресурса можно сравнительно быстро и без особых проблем обнаружить слабые места сайта (узнать зачем вам продвижения сайта?) и впоследствии укрепить их. Давайте сейчас мы с вами все рассмотрим более подробно, так сказать разложим по полочкам.

О чем поговорим:

  1. Проверка зависимости от региона.
  2. Оценка сетевого ресурса глазами поисковой системы.
  3. Проверка внутренней оптимизации ресурса.
  4. Анализ работоспособности хостера.
  5. Проверка на наличие ошибок в коде HTML.
  6. Проверка оригинальности наполнения ресурса (контента).
  7. Проверка присутствия сайта в ПС
  8. Проверка на методы продвижения сетевого ресурса, которые находятся под запретом.
  9. Проверка осуществления индексации всех страниц сетевого ресурса.

Осуществление проверки сетевого ресурса на предмет его присутствия в ПС

Для начала нужно проверить ресурс на предмет его присутствия в поисковых системах. Сделать это можно проверив, присутствуют ли страницы ресурса в индексе. В приведенных ниже ссылках site.ru поменяйте на ваш домен.

  1. Поисковая система Яндекс – http://yandex.ru/yandsearch?serverurl=www.site.ru&lr=2 - понижение в ранжировании
  2. Поисковая система Рамблер – http://nova.rambler.ru/search?sort=0&filter=http://www.site.ru
  3. Поисковая система Гугл – http://www.google.ru/search?q=site:www.site.ru

В том случае если в индексе есть одна либо больше страниц, то ресурс находится в ПС, говоря другими словами, индексация присутствует. В том случае если ее нет, то нужно добавить:

Если запрещено добавление в ПС, то в подавляющем большинстве случаев это означает что забанен домен.

Проверка индексации страниц ресурса

После того как вы осуществили проверку ресурса на его присутствие в поисковых системах нужно оценить число страниц которые непосредственно участвуют в поиске. В том случае если ресурс сравнительно новый, то вряд ли в индексе будут присутствовать все его страницы. Но если ресурсу уже есть несколько месяцев и вместе с тем проиндексированы не все его страницы, то причиной этому может быть:

  • Страницы, которые не были учтены, запрещены к индексации (либо через robots.txt, либо через метатеги запрета).
  • Ресурс попал под фильтр АГС.  - поисковая система Яндекс по сравнению с Гуглом количество страниц в индекс меньше локального количества.
    Ошибки в HTML коде (отсутствие декларации , либо же не валидная кодировка).
  • Прочие внешние либо внутренние факторы, такие как большое количество ВС, одинаковый (дублированный) контент, формат документа, который не поддерживается и так далее.

Лучше всего ресурс добавить в панель вебмастера Яндекса и после этого, проследить какие именно страницы, не допущены к индексации и почему так произошло. Это можно посмотреть, в разделе Исключено роботом.

Проверка на запрещённые методы продвижения

Пострадать ресурс вполне может от того, что его продвигали при помощи запрещенных методов, которые использовали без вашего ведома. Среди таких запрещенных методов продвижения наиболее часто используют следующие:

  1. 1. Скрытый либо нечитаемый пользователем текст.

Совпадение цвета фона и текста. Этот способ обмана поисковой системы является наиболее грубым и черным. Обычно моментально наказывается. Его определить можно визуально нажав комбинацию клавиш CTRL+A. Если после этого выделиться текст, которого до этого видно не было, то значит, его цвет и цвет фона совпадают.

  1. 2. Клоакинг (маскировка, укрытие)

Пользователю и поисковой системе выдается различная информация. Так поисковая система видит 1 страничку, на которой находится большое количество ключей, тогда как пользователь видит оптимизированную отлично читаемую страницу. Реализовать подобный метод достаточно сложно. В связи с этим нужно проверить, чтобы все основные страницы ресурса содержали текст идентичный с тем, что видит поисковая система. Также проверьте обязательно соответствие кэша к текущему состоянию (нужно заменить домен на свой) – http://hghltd.yandex.net/yandbtm?url=http%3A%2F%2Fwww.site.ru%2F&text=%E2

  1. 3. Дорвеи

Это ни что иное как страницы ресурса, которые оптимизировали под определенные запросы при помощи увеличения плотности ключевиков к общему тексту. Делают это для привлечения дополнительного трафика с поисковых систем. Обязательно осуществите проверку на предмет того не являются ли странички вашего ресурса дорвеями а также не ссылаются ли на ваш ресурс.

  1. 4. Свопинг

Этот запрещенный метод продвижения известен тем фактом, что после достижения акцептором высших позиций по определенным конкурентным запросам, а также последующего привлечения трафика свопинг быстро меняет содержание этой же страницы, что в свою очередь приводит к недоверию со стороны поисковых систем. Обязательно осуществите проверку соответствия кэша к текущему состоянию (нужно заменить домен на свой)– http://hghltd.yandex.net/yandbtm?url=http%3A%2F%2Fwww.site.ru%2F&text=%E2

  1. 5. Ссылочный спам

Стоит помнить о том, что обмен ссылками также карается поисковыми системами. Поместив ответную ссылку на страницах ресурса, вы тем самым повышаете общее количество внешних ссылок (Какие ссылки эффективней внутренние или внешние). Таким образом, вы даёте повод поисковой системе считать ваш ресурс своеобразной помойкой линков. Проверить внешние ссылки можно при помощи сервиса – http://www.slavssoft.ru/developer/?page=site_robot

  1. 6. Избыточное автоматическое перенаправление (редиректы)

Страницы сетевого ресурса используют редирект таких кодов как 302, 303, 301. Следует применять исключительно только при переносе адресов страничек.

Оценка степени оригинальности размещенного на сайте контента


В том случае, если на сетевом ресурсе размещен не оригинальный контент, то могут последовать такие санкции от поисковой системы как:

1. Фильтр АГС 30 (ex 17)

Ненужные по мнению поисковой системы Яндекс, а также дублированные страницы, размещенные на одном домене, исключаются из индекса. К примеру – результаты поиска, теги, архивы сайта, рубрики, версии, предназначенные для печати. Подобные страницы имеют повторяющийся относительно прямого адреса странички контент. Для того чтобы избежать фильтра АГС 30, можно закрыть странички таким метатегом как <META NAME=»ROBOTS» CONTENT=»NOINDEX «>, либо же прописав запрет в файле robots.txt.

2. Понижение в ранжировании

Поисковые системы на дадут ресурсу высоко ранжироваться, если на нем присутствует не уникальный контент. В этом случае можно даже не надеяться, что сайт займет высокие позиции.

Осуществить проверку имеющегося на сайте контента на предмет его уникальности можно на многих сервисах либо на ряде программ, которые без проблем можно найти и скачать в глобальной сети Интернет. Одной из наиболее распространенных на сегодняшний день программ является Advego Plagiatus. Проверка контента на уникальность осуществляется либо его вставкой в соответствующее поле программы либо вбивкой адреса вашего ресурса.

Ниже показан пример такой проверки.

Проверка Advego Plagiatus

В случае если после проверки вы получили результат, подобный указанному на картинке выше, а позиции вашего ресурса невысоки, то контент желательно заменить на уникальный -

Выполнение проверки на ошибки, имеющиеся в HTML-коде

Ошибки в коде сетевого ресурса могут напрямую влиять на проблемы с продвижением сайта, его позициями и индексацией. Наиболее простым способом выполнить проверку на валидность HTML кода является сервис W3C Validator.

Основными грубыми ошибками HTML кода являются:

1. Не закрытый NOINDEX

Иногда случается, что в коде при запрете какой-либо внешней ссылки либо не нужной информации с помощью данного тега забывают его закрыть. Таким образом, начиная с открытого тега и до окончания документа, его индексация в поисковой системе Яндекс просто-напросто не возможна. Нужно тщательно осуществлять проверку на закрытие!

2. Errors, Warnings

Не серьезные ошибки, которые можно разобрать при помощи данного сетевого сервиса. Лучше всего привести код к валидному виду.

3. Отсутствие декларации <!DOCTYPE>

Декларация, которая отвечает за объявление типа документа, то есть сообщает, какая именно используется версия (X)HTML. Отсутствие декларации <!DOCTYPE> иногда весьма пагубно влияет на корректность документа, а это в свою очередь приводит к проблемам взаимоотношений с поисковыми системами.

4. Кодировка

Проверяйте сетевой ресурс на соответствие кодировки кода к указанной в метатеге кодировке: <meta http-equiv=»Content-Type» content=»text/html; charset=кодировка«> Несоответствующие кодировки похожи на клоакинг. Кроме этого необходимо следить за тем, чтобы все теги были закрытыми.

Осуществление анализа работы хостера

В 1-ом случае это выполнение проверки скорости загрузки сетевого ресурса. Сравнительно низкая скорость передачи информации от сервера хостинга сайта вполне может привести к такой ситуации, когда поисковая система будет пренебрежительно относиться к индексации и ранжированию сайта. Вполне понятно, что поисковой системе нет никакого резона выводить на высокие позиции ресурс, который расположен на медленном сервере и очень долго грузится. Осуществить проверку скорости загрузки ресурса можно при помощи онлайнового сервиса http://www.pr-cy.ru/speed_test. Для этого впишите свой ресурс, а также конкурентные сайты и сравните полученные результаты. Если показатель превышает три секунды, то нужно сменить хостера. Кроме этого нужно поинтересоваться насколько часто происходят сбои на сервере хостера. Осуществить это можно ознакомившись с содержимым логов ошибок (прочитайте FAQ вашего хостера). Вполне понятно, что в том случае если ваш ресурс выключается за сутки несколько раз по причине перегрузок на сервере, то хостера желательно сменить. А представьте только себе, что подобный сбой может произойти в преддверии либо в сам момент апдейта выдачи! Многие сервера в наше время испытывают, определенные проблемы в связи с чем, нужно обязательно потратить время на анализ хостинга.

Выполнение проверки через сервис мониторинга веб-сайтов(http://host-tracker.com/)

Принцип работы данного сетевого сервиса таков, что из самых различных точек мира (на текущее время таковых более сотни) с некоторыми интервалами выполняется проверка доступности ресурса. В результате в случае падения сервера хостера вам по смс, а также на электронную почту придет соответствующее сообщение. Это дает возможность быстро устранить проблему, позвонив хостеру и указав на имеющиеся в данное время неполадки. Справедливости ради стоит отметить, что в этом подходе, конечно, имеются и определенные проблемы, но их вес сведен на нет многочисленными плюсами данного метода. Предположим, в том случае если ляжет канал, расположенный вне нашей страны, то придет соответствующее сообщение, однако на территории Российской Федерации ресурс по-прежнему будет исправно работать. Также есть регулярные отчеты и кнопка с суммарной цифрой, сколько времени в процентном соотношении был доступен ресурс. Фри версия конечно у данного сервиса есть, однако лучше всего потратить пять долларов, и приобрести тариф на несколько ресурсов, это себя оправдает, поверьте.

Осуществление проверки внутренней оптимизации

Внутренняя оптимизация сайта может помочь, как повысить позиции ресурса и индексации, так понизить его в ранжировании. Рассмотрим все основные моменты:

  1. 1. Количество внешних ссылок

Внешние ссылки являются тем параметром, к которому поисковая система Яндекс относится очень плохо. Получается так, что ссылаясь на посторонние ресурсы, вы тем самым передаете им часть своего веса, а кроме этого даете возможность поисковому роботу перейти по внешней ссылке на другой сайт. Хуже всего то, что бывают случаи и достаточно часто, когда внешние ссылки ведут на некачественные ресурсы, к которым поисковая система уже применила запретные санкции. Стоит понимать, что на сегодняшний день за подобное наказывается и сам акцептор. Лучше всего скрывать подобные ссылки тегом <noindex>ВС</noindex>. Общее количество внешних ссылок в особенности с морды сайта не должно превышать пяти – шести штук.

Пользуйтесь сервисом анализа сайта (http://pr-cy.ru/textlength)

  1. 2. Более одного тега H1

Тег H1 подразумевает 1 вхождение в документ, так как он является заголовком верхнего уровня. Сравнить тег H1 можно с заголовком любого рассказа опубликованного в печатном издании. В таких изданиях заголовок, как все знают, встречается только один раз. В том случае если на одной станице тег Н1 используется повторно, то это может привести к тому, что поисковая система будет опасливо относиться к данной страничке.

  1. 3. Большое количество тегов выделения

Различные теги выделения (b, strong, u и так далее) должны использоваться в меру. В том случае если на странице ресурса несколько вхождений ключевого запроса в текст, то выделение более одного раза не имеет никакого смысла. Во многих случаях повторное выделение приводит к санкциям, а также к понижению в ранжировании.

Пользуйтесь сервисом проверки контента (http://pr-cy.ru/analysis_content)

  1. 4. Количество реальных внешних ссылок

Все открытые, а также скрытые от ПС внешние ссылки будем называть “реальные внешние ссылки”. Поисковая система Яндекс не обходит внешние ссылки, которые были заключены в noindex, он их отлично видит и хранит такие внешние ссылки в своей базе, однако при этом Яндекс не придаёт им значения. Общее количество реальных внешних ссылок не должно превышать пятнадцати штук.

  1. 5. Количество символов в тексте

Основной частью страницы любого сайта является, конечно же, текст. Каждый посетитель, переходя с поисковой системы, хочет увидеть на его страницах информацию соответствующую введенному им поисковому запросу. Вполне понятно, что нужно, что бы он, не разочаровался и разместить на сайте полезные статьи полностью соответствующие поисковым запросам, по которым вы продвигаете свой ресурс. Пара предложений, конечно же, не будет интересна ни одному посетителю, и ранжироваться такие странички будут невысоко. Особенно, если страничка содержит текст в футере, сайдбаре и шапке, то он будет дублироваться на всех страницах. В этом случае основной текст, состоящий из малого количества символов, не даст вам возможности избежать попадания под фильтр АГС-30. Чаще всего, такой статичный текст составляет около тысячи символов. В идеале, лучше всего для морды сайта использовать текст, размер которого превышает 4000 символов, а для внутренних страниц тексты размером от 2000 страниц.

Пользуйтесь сервисом проверки количества символов (http://pr-cy.ru/textlength)

  1. 6. Дублирующие ссылки

На странице ресурса могут располагаться внутренние ссылки на эту же страницу с разными анкорами. После проведенных сторонних экспериментов было замечено, что поисковая система Google учитывает только 1 ссылку, тогда как поисковик Яндекс учитывает все подобные ссылки. Стоит заметить, что на странице лучше не использовать более двух дублирующих ссылок, так как в этом нет никакого смысла.

  1. 7. Плотность ключевиков

Плотность ключевиков это ни что иное как отношение общего количества ключей ко всему тексту, расположенному на странице. Плотность ключевых слов должна быть умеренной и ее оптимальное значение составляет 10 процентов.

Пользуйтесь сервисом проверки контента (http://pr-cy.ru/analysis_content)

Оценка ресурса глазами поисковых систем - важный этап SEO анализа сайта:

1. Текст и ссылки

Проверьте, какой именно текст, а также ссылки видят поисковые роботы. Осуществить это можно при помощи сервиса http://saitomer.ru/bot_simulator/

2. Robots.txt

Этому пункту нужно уделить особое внимание. robots.txt является инструкцией для поисковых роботов, по которой они принимают окончательное решение об индексации. Наиболее часто встречается ошибка в виде указания директивы Disallow в следующем виде:

Disallow: /
А ведь так мы сами запрещаем весь ресурс к индексации!
Отличным robots.txt я считаю:
User-agent: Yandex
Disallow: /категория не для индекса
Disallow: /категория не для индекса
Host: www.site.ru
User-agent: *
Disallow: /категория не для индекса
Disallow: /категория не для индекса
Sitemap: http://www.site.ru/sitemap.xml

Где:

User-agent: Yandex – указание нижестоящих правил для поисковой системы Яндекс
Host: www.site.ru – указание на главный домен с www либо без www. Эта директива указывается напрямую к поисковой машине Яндекс
Disallow: /категория не для индекса –страница либо категория, которая нам не нужна в индексе
User-agent: * – указание нижестоящих правил для всех поисковых систем
Sitemap: http://www.site.ru/sitemap.xml – указание ссылки на карту ресурса в виде xml

Перед 2-ым указанием инструкций для поисковых систем нужно ставить пустую строку, так же как перед картой ресурса!

Подробнее разбор файла инструкций для поисковых систем robots.txt мы рассмотрим в следующей нашей статье.

Осуществляем проверку региональной зависимости

Занимаясь продвижением сайта по Региону обязательно нужно следить за региональной привязкой.

Запросы делятся на:

  • Гео-независимые запросы - ранжирование ресурса происходит одинаково в любом регионе.
  • Гео-зависимые запросы

Ресурс ранжируется в каждом регионе по-разному. Осуществить проверку на зависимость можно при помощи поиска в разных регионах. Пример гео-зависимого запроса – продвижение в Яндексе.  Выдача разная – запрос гео-зависим. Пример гео-независимого запроса – Яндекс. Выдача одинаковая – запрос гео-независим.

В том случае если вы занимаетесь продвижением веб ресурса по гео-зависимым запросам, то присвоение региональной зависимости ему – обязательно! Что касается остальных случаев – не обязательно. В самом конце я привожу вырезку из правил поисковой системы Яндекс, который высоко не ранжирует ресурсы, есть вопросы пиши в комментарии:

Правила Яндекса





Контакты
+7 499 677-49-72 Москва
+7 831 235-03-46 Н.Новгород
Мы в соцсетях


О компании
О нас
Контакты
Мобильная версия / Карта сайта