Проверить перелинковку сайта: Проверка перелинковки сайта в SE Ranking

Содержание

Анализатор внутренней перелинковки сайта

Freeware программа для анализа и оптимизации ссылочной структуры сайта

Программный код анализатора, написан в виде макросов рабочей книги excel, сканирующий сайт или связанные сайты и определюящий внутренние веса (pagerank) его страниц. Анализатор также позволяет вводить список URL обратных ссылок на исследуемые сайты и задавать их веса, которые используются для расчета уточненного ссылочного веса страниц сайтов. Программа позволяет менять и редактировать данные, сканированные с веба, что позволяет проверить изменения весов страниц в зависимости от ссылочной структуры сайта и оптимизировать ее.

Текущая версия распространяется по лицензии Freeware, но все права на ее распространение принадлежат автору.

Для работы программы на компьютере пользователя должен быть установлен excel 2003 или более поздней версии.

Видео инструкция по работе с анализатором перелинковки

Скачать анализатор перелинковки сайта (версия 0.95) в форматах excel 2003 (xls) и excel 2007 (xlsm) в одном архиве.

Скачать старую версию анализатора перелинковки сайта (версия 0.93).

Более подробная справка о работе анализатора перелинковки и обсуждение программы читайте в блоге.

Версии

  • Версия 0.61 (октябрь 2010) — базовая версия
  • Версия 0.7 (ноябрь 2010) — добавлена проверка редиректа во внутренних ссылках
  • Версия 0.74 (декабрь 2010) — исправлены ошибки в работе с редиректами во внутренних ссылках, добавлены диагностические сообщения, интерфейс стал двухязычный (английский — русский)
  • Версия 0.92 (29 ноября 2011):
    Поддержка формата excel 2007 — убрано ограничение на максимальное число URL
    Поддержка списков исключений (строчки Disallow из файлов robots.
    txt)
    Ввод списков игнорируемых параметров в URL
    Выбор режима склейки зеркал с www и без www
    Поддержка канонических URL (canonical URL)
    Вывод всех обратных ссылок на сайт, полученный из списка URL (страница extpages)
    Исправлены ошибки при проверке расширений файлов
    Исправлены ошибки очистки старых данных
  • Версия 0.93 (25 июля 2012):
    Ускорена работа анализатора, функционирование программы проверено для сайта с 3000 страниц
    Устранена проблема с зависанием интерфейса во время работы
    Добавлены кнопки быстрого выбора режима сканирования
  • Версия 0.95 (18 февраля 2014):
    Изменен принцип работы с каноническими URL. При проверке канонических URL, страницы с одинаковыми каноническими URL будут «склеиваться». Опция работает только если включен также флажок проверки редиректов во внутренних ссылках.

лучшие методы оптимизации внутренних ссылок для SEO — SEO на vc.ru

Известный за рубежом SEO-специалист Кевин Индиг подготовил подробное руководство, в котором объясняются все аспекты внутренней перелинковки сайтов, а также описал стратегии и методы оптимизации внутренних ссылок относительно высказываний и заявлений сотрудников Google и личного опыта продвижения сайтов.

11 206 просмотров

Перевод материала подготовлен специалистами SiteAnalyzer.

Внутренние ссылки – это самый мощный рычаг поискового продвижения после контент-маркетинга, который может на 100% контролироваться владельцем сайта. Вот почему мы создали подробное руководство, в котором объясняются все аспекты перелинковки. После изучения этой статьи вы сможете оптимизировать структуру внутренних ссылок и повысить трафик своего сайта.

Ссылки в Библии похожи на внутренние ссылки веб-сайтов

Изображение выше – это арт-проект Криса Харрисона и Кристофа Ремхильда. В нем визуализируются перекрестные ссылки между стихами из Библии. Аналогичным образом можно представить внутренние ссылки сайта.

Данное руководство разделено на две части.

  • Первая из них ориентирована для начинающих – в ней объясняются основы использования внутренних ссылок.
  • Вторая часть представляет из себя расширенное руководство для опытных пользователей. В ней рассматриваются главные стратегии и методы оптимизации внутренних ссылок.

Самую важную часть этого руководства составляют аксиомы о перелинковке. Это широко распространенные и устоявшиеся убеждения об оптимизации внутренних ссылок для поисковых систем. SEO постоянно и стремительно меняется. Поэтому, чтобы наилучшим образом оптимизировать сайт для поисковых систем (и людей), необходимо бросить вызов устоявшимся убеждениям. А для этого следует подвергнуть сомнению главные аксиомы.

Основы внутренней перелинковки страниц

Что такое внутренняя перелинковка?

Внутренние ссылки – это гиперссылки на другие страницы этого же сайта.

Ссылка (внешняя или внутренняя) в HTML выглядит следующим образом:

  • <a href=»https://domain.com»>текст ссылки (анкор)</a>

Их называют «внутренними ссылками», потому что они ведут на страницы того же домена.

Они обеспечивают навигацию посетителей на сайте и помогают людям найти то, что они ищут. Также внутренние ссылки чрезвычайно полезны для сканирования поисковыми системами и продвижения сайта в Интернете.

В чем заключается разница между внутренними и внешними ссылками?

Внутренние ссылки перенаправляют пользователя на страницы в том же домене, на которых они расположены, в то время как внешние ссылки ведут на страницы других доменов.

Разница между внутренними и внешними ссылками очевидна, но многие часто забывают, что они тесно взаимосвязаны. Как я писал в прошлых статьях:

Все знают, что PageRank – один из важнейших SEO факторов ранжирования, но мы часто забываем, что он распределяется между исходящими ссылками! Многие оптимизируют внутренние ссылки без учета обратных ссылок. Подобный подход может привести к принятию неэффективных решений.

Существуют исходящие и входящие ссылки.

  • Внутренняя исходящая ссылка – Ведет со страницы, которую вы просматриваете, на другую страницу на том же домене.
  • Внутренняя входящая ссылка – Ведет с другой страницы в том же домене на страницу, которую вы просматриваете.
  • Внешняя исходящая ссылка – Ведет со страницы, которую вы просматриваете, на страницу в другом домене.
  • Внешняя входящая ссылка – Ведет с другой страницы в другом домене на страницу, которую вы просматриваете.

Внутренние ссылки влияют на PageRank так же, как внешние.

Что такое PageRank?

PageRank – это алгоритм, который оценивает важность веб-страницы на основе релевантности и авторитета ссылок, указывающих на нее с других сайтов.

Он назван в честь своего создателя Ларри Пейджа.

Основной принцип – рассматривайте обратные ссылки (ссылки с других сайтов) как «голоса». Чем больше голосов у страницы, тем выше она поднимается в результатах поиска. Имейте в виду, что при ранжировании документов Google учитывает множество факторов, и обратные ссылки – лишь один из них.

Google больше не использует классическую формулу расчета PageRank, хотя она до сих пор в той или иной степени влияет на ранжирование. Раньше PR любой страницы можно было узнать с помощью специальных дополнений к браузеру, но в 2013 году эту возможность упразднили. Другими словами, простым пользователям больше не доступен реальный PageRank страницы. Однако, можно использовать сторонние инструменты, чтобы определить показатель, наиболее близкий к традиционному PageRank. Эти проприетарные метрики называются авторитетом домена (Domain Authority от Moz), силой страницы (Page Strength от SEMrush) или рейтингом домена (Domain Rating от Ahrefs).

Можно сказать, что концепция PageRank сделала Google тем, чем он является сегодня: самым успешным стартапом в истории. За прошедшие годы поисковой гигант зарегистрировал множество патентов, по которым можно отследить эволюцию PageRank.

Что такое CheiRank?

CheiRank измеряет важность страницы на основе исходящих ссылок. Это противоположность PageRank, с помощью которой можно оценить, насколько коммуникативным является веб-узел. Объясню это понятие простыми словами: если цель PageRank заключается в измерении «силы» входящих ссылок на страницу, то цель CheiRank – измерение силы исходящих ссылок со страницы.

Обратите внимание, что важность CheiRank относительна. Обычно его сравнивают со всеми страницами домена. Вы можете использовать его, к примеру, для определения важных страниц-хабов. Иными словами, «коммуникативность» можно рассматривать как количество исходящих ссылок на странице.

Оптимизация CheiRank порой вызывает сложности, поскольку идеального значения не существует. Однако, есть оптимальное значение для определенного контекста. Наилучшая структура внутренних ссылок зависит от вашей бизнес-модели.

Чтобы понять, что именно представляет из себя этот показатель, взгляните на скриншот выше. Это отрывок из анализа, который я провел много лет назад, когда еще работал в Atlassian. В нем с помощью краулера оцениваются PageRank и CheiRank. Эти метрики помогли нам оптимизировать маркетплейс и значительно увеличить трафик.

Типы внутренних ссылок

Есть два типа внутренних ссылок: контентные и модульные. Контентная ссылка – это простая ссылка в основном содержимом страницы (см. желтое поле на рисунке ниже).

Модульные ссылки используются в различных элементах навигации – к примеру, в хедере и футере страницы, а также в связанных статьях (оранжевые поля на скриншоте выше). Связывание модулей позволяет более систематически настраивать внутренний ссылочный граф сайта. Такой способ проще масштабировать в сравнении со ссылками в основном содержимом.

Как внутренние ссылки помогают SEO

Внутренние ссылки не только полезны для простых пользователей, но и распределяют PageRank по всему сайту, помогая поисковым роботам находить все релевантные страницы домена. Теоретически, чем выше PageRank страницы, тем выше она располагается в поисковой выдаче.

PageRank – это лишь одна из многих метрик для ранжирования. Основная цель оптимизации внутренних ссылок заключается в привлечении органического трафика на сайт.

Эта информация больше недоступна, но в документации Search Console упоминается, что внутренние ссылки – это сигналы относительной важности страницы для Google (статья на SearchEngineLand).

Мэтт Каттс подтвердил это в интервью для Stone Temple (ныне Perficient):

«Нет жесткого ограничения на сканирование. Правильнее всего считать, что количество страниц, которые сканирует робот, примерно пропорционально показателю PageRank. Следовательно, если на вашей корневой странице много входящих ссылок, мы обязательно их просканируем. Она может ссылаться на другие страницы, которые получат оценку PageRank, а мы просканируем и их. Однако, чем дальше вы углубляетесь в свой сайт, тем ниже становится рейтинг PageRank в большинстве случаев».

Инструменты оптимизации внутренних ссылок

Для оптимизации внутреннего ссылочного графа, поиска неработающих ссылок и регулярных проверок сайта можно использовать либо специализированные веб-краулеры, либо некоторые из инструментов проверки позиций:

Проверка позиций с возможностью сканирования сайтов:

Корпоративные SEO-инструменты для оптимизации внутренних ссылок:

Расширенное руководство по внутренним ссылкам

Аксиомы о внутренних ссылках

SEO – это уникальная сфера с неоднозначной информацией и быстрыми изменениями. Если вы не будете постоянно бросать вызов устоявшимся убеждениям, то отстанете от остальных. Вот почему я создал это руководство на основе аксиом.

Я перечислю доказательства (в основном из заявлений Google) за и против каждой аксиомы, чтобы либо подтвердить, либо опровергнуть ее. Жизнь не состоит только из черных и белых цветов. Многое зависит от контекста. Также я поделюсь своим личным опытом, к которому следует относиться с долей скепсиса.

Аксиома: «Не следует ставить слишком много внешних ссылок»

Слишком большое количество исходящих ссылок снижает вероятность высокого ранжирования веб-страницы по целевому ключевому слову. В области SEO-оптимизации остается некоторая путаница, потому что с годами Google изменил свою позицию по этому вопросу.

Неверно: в старом сообщении в блоге Google от 2008 года говорится: «Слишком большое количество ссылок на одной странице сбивает посетителей с толку (обычно мы рекомендуем веб-мастерам добавлять не более 100 ссылок на одной странице)». Обратите внимание, что сейчас информация о сотне ссылок была удалена из статьи.

В видео 2013 года Мэтт Каттс подтвердил, что старая рекомендация устарела. Некоторые страницы часто содержат 200, 300, 400 и больше ссылок – главное, чтобы они были полезными.

Неверно: Джон Мюллер упомянул, что исходящие ссылки не понижают PageRank.

«На некоторых сайтах присутствует множество ссылок, а на других их может быть мало, но все они могут ранжироваться в поиске. Можно провести тестирование – найдите 5000 случайных исходящих ссылок и изучите, как они влияют на страницы, с которых проводится перенаправление пользователя. Скорее всего, вы обнаружите, что даже индейские танцы для вызова дождя в результате оказывают более сильное влияние.»

Неверно: Джон также говорил, что большое количество ссылок – менее серьезная проблема, чем недостаток высококачественного контента.

  • «Возможна ли ситуация с переизбытком исходящих ссылок на сайте, даже если они «естественные»?
  • «— Я не слышал ничего подобного. Обычно проблема заключается в других составляющих сайта (к примеру, с отсутствием актуального, уникального, убедительного, высококачественного контента), а не в ссылках.»

Личный опыт: в 2013 году я работал с крупной публичной компанией над их удалением из фильтра Google Panda. У них были тысячи страниц с более чем 2000 исходящих ссылок, но на них не было никакого контента. Сокращение этих хабовых страниц и добавление контента вернуло сайт к исходному уровню (он потерял около 70% трафика). После слов Джона становится понятно, почему сработало добавление контента и удаление лишних ссылок.

Аксиома: «Вы должны ссылаться на авторитетные источники»

Я думаю, эта аксиома родилась из идеи о плохом/хорошем соседстве сайтов. Она заключается в том, что входящие и исходящие ссылки на ваш сайт со страниц с низким качеством контента/рассылкой спама/нарушениями правил относят вас к «плохому соседству» и понижают в ранжировании.

За: в блоге Google есть старая запись 2008 года, в которой говорится, что исходящие ссылки могут влиять на уровень доверия к сайту. Однако, в этой же статье говорится о том, что более сотни исходящих ссылок могут привести к проблемам. Вероятно, эта информация устарела.

Также эта статья утверждает, что «[…] с точки зрения поисковой системы, спам в комментариях может поместить ваш сайт в плохое соседство, а не в категорию проверенных законных ресурсов».

Личный опыт: я никогда не видел, чтобы кто-то это тестировал, и не замечал повышения рейтинга от ссылок на более авторитетные источники. При этом мне кажется бессмысленным делать ссылки на авторитетный источник только ради того, чтобы они были. Я бы не рекомендовал так делать. Тем не менее, я стараюсь делать ссылки на другие сайты, когда они по-настоящему полезны.

Аксиома: «Вы должны использовать в тексте ссылки (анкоре) ключевое слово, по которому хотите ранжироваться»

Анкор – это важный фактор для поисковых систем, с помощью которого можно понять тему страницы. Идея, лежащая в основе этой аксиомы, заключается в использовании одного и того же текста ссылки для повышения релевантности ключевого слова в Google.

Правда: Google четко рекомендует «Выбирать описательный текст» в своем руководстве по SEO для начинающих и советует «тщательно продумывать тексты ссылок».

Видимый текст ссылки помогает пользователям и Google понять содержание страницы. Ссылки на странице могут быть внутренними (указывают на другие страницы сайта) или внешними (ведут на другие сайты). В любом случае, чем понятнее текст ссылки, тем проще пользователям ориентироваться на сайте, а поисковым системам легче понять, о чем страница, на которую ведет ссылка.

Правда: Джон Мюллер подтвердил в своем Twitter, что текст ссылки предоставляет контекст.

«Большинство ссылок предоставляют дополнительный контекст с помощью анкора. По крайней мере, так должно быть, верно?»

Правда: патент под названием «тематический PageRank» (ссылка на него приведена в разделе патентов) говорит о важности релевантности контента. Несмотря на то, что Google зарегистрировала его, не факт, что он действительно используется. Тем не менее, весьма вероятно, что этот патент применяется при оценке ссылок, поскольку представители Google так часто подчеркивают важность релевантности.

Правда: серия патентов на концепцию «индексации на основе фраз» описывает, как релевантность может быть определена по тому, отображается ли анкор на странице, на которую указывает ссылка. Лучше всего это объясняет Билл Славски:

«Анкоры ссылок, ведущих на страницы, которые включают эту же или близкие к ней по смыслу фразы (которые часто встречаются на страницах, которые ранжируются по этой фразе), должны иметь больший вес.»

Личный опыт: релевантность внешних ссылок со временем стала намного важнее, чем просто их число: качество лучше количества. И кажется, что в случае внутренних ссылок контентные ссылки сильнее влияют на ранжирование, чем модульные.

Есть два разных мнения об анкорах для внутренних ссылок: либо меняйте его, либо сохраняйте согласованность. Моя личная позиция – придерживаться стратегии, когда текст внутренней ссылки должен совпадать с ключевым словом, по которому вы хотите ранжироваться. Иногда анкор можно немного изменить, но не стоит этого делать без необходимости.

Аксиома: «Не используйте один и тот же анкор для ссылок на две разные страницы»

Правда: в статье от 2008 года Google рекомендует использовать в анкоре описательный текст.

«Написание описательного текста в анкоре помогает поисковым системам и пользователям лучше понять ваш контент. Чем больше Google знает о вашем сайте (благодаря вашему контенту, заголовкам страниц, тексту ссылок и т. д.), тем более релевантные результаты мы сможем предоставить пользователям (и вашим потенциальным посетителям)».

Личный опыт: я не смог найти никаких доказательств против этой теории. Думаю, ссылки на одну и ту же страницу с разными анкорами указываются по ошибке. Я рекомендую регулярно проверять тексты внутренних ссылок и при необходимости вносить небольшие изменения, чтобы упростить их.

Аксиома: «Ссылки в футере сайта менее важны, чем ссылки внутри основного текста»

Правда: В видео Мюллер подтвердил, что Google в основном «смотрит» на основное содержимое страницы, а не на футер.

В этой конкретной ситуации ссылки в основном тексте страницы важнее. С точки зрения пользователя это также не лишено смысла.

Правда: существует множество патентов, которые показывают, как Google может различать основное содержимое, футер и другие блоки содержимого (пример).

Правда: в 2016 году Мюллер подтвердил, что Google по-разному оценивает ссылки в основном тексте и в футере.

С одной стороны, это область страницы с вашим основным контентом, а с другой – все остальное, включая меню, боковую панель, футер и хедер. .. Мы действительно принимаем это во внимание при оценке ссылок.

Правда: в патенте Google, полученном в 2010 году, описывается оценка поведения пользователей при определении веса ссылки. Другими словами, Google может оценить, насколько вероятно, что пользователи перейдут по ссылке, и на основе этих данных присвоить им больший или меньший вес.

Личный опыт: хотя я согласен с тем, что ссылки в футере менее важны, чем ссылки в основном тексте, мне кажется, что они все равно важны при сканировании сайта поисковыми системами. Они упрощают нахождение сайта и уменьшают глубину перехода на важные страницы. Я не считаю ссылки в футере бесполезными.

Аксиома: «Google не может переходить по внутренним Javascript-ссылкам»

Правда: хотя Google все лучше и лучше сканирует и рендерит Javascript, поисковой гигант рекомендует на всякий случай использовать тег <noscript> при дублировании содержания Javascript.

Ложь: как показал эксперимент Onely еще в 2017 году, Google действительно хорошо сканирует Javascript-ссылки.

Ложь: в документации Google (см. ниже) и в статье за 2014 год говорится, как именно Google обычно обрабатывает Javascript.

Личный опыт: скрытие ссылок с помощью Javascript больше невозможно. Google находит их при правильном рендеринге HTML (при условии, что вы отметили все флажки).

Аксиома: «Не рекомендуется использовать тег nofollow для внутренних ссылок»

Тег nofollow для внутренних ссылок изначально использовался для «моделирования PageRank» – устаревшего метода оптимизации, который предотвращал передачу PageRank на маловажные страницы. Он используется для предотвращения сканирования определенных страниц поисковой системой в случае сбоя методов наподобие robots.txt. Однако, некоторые считают, что nofollow – это сигнал недоверия, и его бессмысленно использовать для внутренних ссылок.

В 2019 году Google объявил, что использует nofollow в качестве сигнала, а не директивы, и представил 2 новых атрибута: rel=sponsored и rel=ugc. После этого Google начал считать nofollow сигналом ссылки.

Правда: В 2009 году Мэтт Каттс подтвердил, что метод моделирования PageRank не работает:

«Nofollow – это метод (представленный в 2005 году и поддерживаемый несколькими поисковыми системами) для аннотирования ссылок, который позволяет предупредить: «Я не могу или не хочу поручиться за эту ссылку». В Google ссылки nofollow не передают PageRank и анкоры».

Правда: страницы с внутренними ссылками, помеченными как «nofollow», все равно можно сканировать, если на них указывают другие ссылки без nofollow. Как определяется краулинговый бюджет поискового робота Googlebot: «Любой просматриваемый URL влияет на краулинговый бюджет. Даже если на вашей странице URL отмечен как nofollow, он все равно может сканироваться, если другая страница вашего сайта или любая страница в Интернете не помечает эту ссылку как nofollow.»

Личный опыт: я никогда не был поклонником использования тега nofollow для внутренних ссылок. Кроме того, недавно я удалил множество таких ссылок из большого домена и не заметил особого влияния на ранжирование (за исключением увеличения числа просканированных страниц).

Аксиома: «Глубина клика не должна превышать 3»

Глубина клика или «глубина сканирования» – это количество кликов, необходимое для перехода с главной страницы на ваши самые важные страницы.

Ложь: В приведенном выше видео Джон Мюллер подтвердил, что глубина клика важна, но не назвал конкретное число.

Личный опыт: я понял, что лучше выбрать такую структуру сайта, которая позволит минимизировать глубину кликов без ущерба для пользовательского опыта – к примеру, путем заполнения домашней страницы ссылками. При этом не страшно, если для перехода по некоторым ссылкам потребуется 8 или 10 кликов. Опасения вызывают только те страницы, для перехода на которые с главной требуется больше 10 кликов.

Аксиома: «Внутренние ссылки помогают оптимизировать краулинговый бюджет»

Правда: в документации Google о том, как работает поиск, есть информация о краулинговом бюджете, подтверждающая эту аксиому.

«Нет жесткого ограничения на сканирование. Правильнее всего считать, что количество страниц, которые сканирует робот, примерно пропорционально показателю PageRank. Следовательно, если на вашей корневой странице много входящих ссылок, мы обязательно их просканируем. Она может ссылаться на другие страницы, которые получат оценку PageRank, а мы просканируем и их. Однако, чем дальше вы углубляетесь в свой сайт, тем ниже становится рейтинг PageRank в большинстве случаев».

Личный опыт: внутренние ссылки помогают Google определять, какие страницы сканировать и как часто. Логи покажут, насколько эффективна внутренняя структура вашего сайта. Увеличение числа внутренних ссылок на страницы, которые сканируются и ранжируются хуже остальных, может оказать огромное влияние на трафик.

Аксиома: «Страница не должна содержать две ссылки на одну и ту же цель»

Ложь: Джон Мюллер из Google опроверг этот миф в своем Twitter:

  • «Вредят ли повторяющиеся внутренние ссылки ранжированию?
  • — Нет, можно использовать их без ограничений!»

Правда: В 2013 году Мэтт Каттс рассказал о делении PageRank на число ссылок.

Ложь: в интервью 2010 года для издания Stone Temple Эрик Энге спросил Мэтта Каттса: «Допустим, у вас есть страница, на которую ссылаются десять других страниц. Если три из них являются дубликатами, тратятся ли в итоге три голоса впустую?». Он ответил: «Ну, не обязательно. В таких случаях люди могут проводить тесты. Мы пытаемся объединить страницы, а не полностью их отбросить. Если вы создадите ссылку на три страницы, которые являются дубликатами, поисковая система может понять это и передать вес входящих ссылок на эти объединенные страницы».

Личный опыт: я бы не стал слишком беспокоиться о делении PageRank. Ссылки на одну и ту же страницу могут одновременно быть в панели навигации сайта, основном тексте и в футере. В этом нет ничего страшного, если это происходит не слишком часто.

Аксиома: «Вы должны избегать ссылок на неважные страницы»

Правда: Google заявляет в своем блоге, что краулинговый бюджет может пострадать из-за ссылок на некачественный контент (повторяющийся, бессмысленный или спам-контент).

Личный опыт: ссылки на некачественные страницы – не лучшая идея, но основная проблема заключается в некачественном контенте. В первую очередь я всегда пытаюсь его улучшить.

Аксиома: «Для пагинации следует использовать rel=next/prev»

Атрибут rel=next/prev был стандартом в SEO до тех пор, пока Google не отказался от него в 2019 году.

Правда: Илья Григорик из Google упомянул, что Googlebot достаточно умен, чтобы определять пагинацию. Кроме того, для внедрения rel=prev/next есть другие веские причины (это все еще официальный стандарт W3C).

Личный опыт: мне кажется, что Google пока не может предложить хороших альтернатив. Поисковой гигант рекомендует добавлять возможность просмотреть все страницы, бесконечную прокрутку или просто «позволить Googlebot во всем разобраться». Все эти варианты ненадежны.

Аксиома: «Для оптимизации внутренней структуры ссылок следует использовать HTML-карты сайта»

Правда: в 2010 году в блоге Google сообщалось о том, что «у 59% сайтов отсутствуют карты сайта, доступные для просмотра пользователем. С их помощью вы можете отобразить структуру своего ресурса и предоставить посетителям удобную навигацию в один клик. Если пользователи не могут найти на вашем сайте определенные страницы, карта может помочь им сориентироваться. Не оставляйте своих посетителей без неё!»

Личный опыт: я большой поклонник файлов HTML-карт. Конечно, они не могут в одночасье удвоить органический трафик, но действительно помогают поисковым системам обнаруживать все страницы в домене, а также уменьшают глубину клика.

Аксиома: «Не используйте анкоры наподобие «нажмите здесь» для внутренних ссылок»

Правда: в руководстве Google по SEO для начинающих говорится: «Не забывайте, что ссылки бывают не только внешними, но и внутренними. Тщательно продуманный текст внутренних ссылок поможет лучше ориентироваться на вашем сайте не только пользователям, но и поисковым системам.»

Личный опыт: я люблю делать максимально понятные и точные тексты ссылок. Это благоприятно влияет на ранжирование сайта.

Лучшие методы оптимизации внутренних ссылок

Давайте рассмотрим несколько основных методик оптимизации внутренних ссылок.

Исправление или удаление нерабочих ссылок

Нерабочие ссылки – плохой опыт как для пользователей, так и для поисковых систем. Короче говоря, вы должны избегать ссылок на страницы с кодом состояния, отличным от 200.

Google говорит об этом Руководстве по SEO: «Не допускайте устаревания навигационной страницы из-за неработающих ссылок».

Мой совет: трудно предотвратить появление нерабочих ссылок для крупных сайтов, но от них стоит избавляться. Вы можете найти их с помощью различных утилит, в том числе и с помощью SiteAnalyzer.

В здоровой структуре сайта должно быть как можно меньше ссылок с кодом статуса, отличным от 200 (см. изображение ниже).

Оптимизация анкоров для внутренних ссылок

Как уже говорилось в аксиоме об анкорах для внутренних ссылок, их необходимо упрощать. Сам Google рекомендует избегать «использования текста, не относящегося к теме или не имеющего отношения к содержанию страницы, на которую ведет ссылка».

Я рекомендую два исправления:

  • Убедитесь, что вы не используете фразы наподобие «нажмите здесь», «здесь» или аналогичные фразы.
  • Оптимизируйте анкоры для ключевых слов, по которым должна ранжироваться страница.

Лично я в 80% случаях использую для текстов ссылок ключевые слова, но это не значит, что в вашем случае это соотношение тоже окажется наиболее эффективным.

Мой совет: регулярно (каждые 3 месяца) проверяйте анкоры внутренних ссылок и избавляйтесь от слишком разных и несогласованных ссылок.

Если вы хотите добиться наилучшего результата, сопоставляйте анкоры внешних обратных ссылок с текстом ваших внутренних ссылок. Это значительно увеличит ваш потенциал для ранжирования по целевому ключевому слову.

Посмотрите на скриншоты раздела обратных и внутренних ссылок в Ahrefs: в обоих случаях я искал «техническую привязку», чтобы я мог сравнить, использую ли я тот же внутренний текст, что и у внешних ссылок.

Уменьшите количество страниц с одной входящей ссылкой

Если на вашем сайте много страниц с единственной входящей ссылкой, обычно это плохой знак. Почему? Потому что это значит, что страницы имеют плохие ссылки и, следовательно, получают очень низкий PageRank, либо они низкого качества, и вы стараетесь ссылаться на них как можно меньше.

Мой совет: в Search Console можно перейти в раздел «Ссылки» > «Наиболее часто ссылаются» и отсортировать список по возрастанию, чтобы увидеть, какие страницы вашего сайта имеют наименьшее количество внутренних ссылок. Возможно, пришла пора добавить на них ссылки!

Помимо дополнительных внутренних ссылок, эти страницы также могут нуждаться в обновлении контента. Это особенно актуально для крупных сайтов. Типичные кандидаты – это профили пользователей, старые продукты или страницы с устаревшими характеристиками продуктов. Если они больше не нужны, присвойте им код статуса 410 и удалите внутренние ссылки.

Используйте навигацию по хлебным крошкам

Навигация по хлебным крошкам сейчас очень популярна и используется на большинстве сайтов. Она не только позволяет генерировать красивые сниппеты в поисковой выдаче, но и благоприятно влияет на краулинг и внутреннюю структуру ссылок.

В руководстве для начинающих от Google хлебные крошки упоминаются как одна из передовых практик.

Мой совет: убедитесь, что каждый шаг таксономии вашего сайта отражен в хлебных крошках и используйте структурированные данные для создания сниппетов.

Не используйте цепочки наподобие:

  • домой > товары > стул

Вместо этого выберите что-нибудь более наглядное – например:

  • домой > мебель > стул
  • домой > мебель > кухня > стул

Стратегии оптимизации перелинковки сайта

Цель стратегии оптимизации перелинковки – улучшение ссылочного графа в соответствии с типом сайта.

Наилучшая структура внутренних ссылок зависит от используемой бизнес-модели. Она может быть централизованной или децентрализованной в зависимости от того, на каких страницах возможна конверсия посетителей. Централизованные сайты обычно очень загружены контентом – например, SaaS, агентства или закрытые торговые площадки. Децентрализованные сайты (общедоступные маркетплейсы, потребительские сайты, социальные сети) легко масштабируются.

Стратегии оптимизации перелинковки децентрализованных сайтов

Основная цель для децентрализованных сайтов – обеспечить как можно больше релевантных связей между продуктами и категориями для увеличения продаж и поисковой видимости.

Ниже приведено множество примеров из сегмента электронной коммерции, но большинство из них также можно перенести на другие бизнес-модели.

Другие товары этого бренда

Горизонтальная таксономия

Большинство сайтов электронной коммерции по умолчанию используют вертикальную таксономию: категории продуктов, подкатегории и продукты. Горизонтальные таксономии – это бренды, места, события, личности и т.д.

Примером горизонтальной таксономии является категория Samsung Best Buy, которая ведет на несколько подкатегорий внутри Samsung.

Другой пример таксономии с горизонтальными ссылками можно найти на главной странице Target (обратите внимание на категории «Хэллоуин» и «Готовы к школе»).

Вместе с этим часто покупают

Пакеты продуктов – это один из лучших (а, возможно, и САМЫЙ лучший) способ семантически связать два продукта, которые тесно связаны друг с другом, но находятся в разных категориях.

Связанные категории

Стратегии оптимизации внутренних ссылок для контент-ориентированных сайтов

Разделение тем: идея заключается в том, чтобы в статьях чаще ссылаться на близкие по темам материалы и реже – на тексты по другим темам. То же самое можно сделать для товара в категории. Таким образом вы гарантируете, что текст ссылки останется актуальным, а статьи будут находиться в непосредственной близости друг к другу.

Эволюция разделения тем – это тематические кластеры. Такой подход предполагает статью, охватывающую короткое (основное) ключевое слово, а также короткие статьи (кластеры) для длинных ключевых слов, связанные и ссылающиеся на основное. Это позволяет создать тесные тематические отношения внутри ссылочной структуры.

Статьи по теме: Ссылки на статьи по теме внизу страницы должны использоваться на всех сайтах. Тем не менее, некоторые до сих пор о них забывают. Не совершайте эту ошибку! Оставляйте ссылки на близкие по теме сайты на с релевантными статьями.

Вот и все, друзья! Если вам кажется, что мы что-то упустили – расскажите об этом в комментариях, и мы обязательно дополним статью.

Внутренние ссылки и SEO, SILO-структура сайта — практическое руководство

Внешние ссылки это как Бэтман, внутренние — как Робин. Последние имеют огромное значение для SEO, но получают куда меньше внимания, чем супергеройские бэклинки.

Какие такие внутренние? Те, что есть на каждом сайте и ведут с одной страницы домена на другую. Стратегическое использование этих ссылок может существенно повысить видимость сайта в поисковых системах.

Сервис для автоматизации линкбилдинга и аутрича, Ninja Outreach, благодаря работе над внутренней перелинковкой увеличил органический трафик на 40%. Есть подробный кейс на английском. Ahrefs подтверждает успех операции:

Почему внутренние ссылки так важны для SEO?

Во-первых, Яндекс и Google используют их для поиска новых страниц на вашем сайте. Предположим, вы разместили новый документ, но ни одна старая страница на него не ссылается, внешних ссылок тоже пока нет, и в Sitemap страницу мы не указали. Краулеры Яндекса и Google просто её не найдут:

Страницы, на которые не ссылаются другие документы называются orphan page, то есть «страницы-сироты». По-хорошему их нужно: удалять, закрывать от индексации или расставлять ссылки, ведущие на них, если документы важны для SEO.

Также внутренние ссылки влияют на PR (PageRank) страницы. Но здесь важно не только количество, но и качество ссылок.

Вот упрощенная схема того, как формируется PageRank:

Заметка: хотя Google прекратил поддержку тулбара, показывающего PR, сам показатель продолжает использоваться в ранжировании. Например, об этом говорят сами работники Google.

Кроме того, структура сайта с точки зрения внутренних ссылок влияет на отображение дополнительных ссылок в сниппетах.

Идеальная структура внутренних ссылок

Полезно представить свой сайт в виде пирамиды, где важный контент расположился на вершине, а менее значительный — ближе к основанию.

На вершине большинства сайтов — главная страница. Спускаемся ниже: услуги, продукты, о нас, контакты, блог или другое. Далее – документы из подразделов, посадочные под конкретные виды услуг, карточки товаров и прочие.

Но вам не нужно связывать все страницы на одном уровне иерархии со всеми документами на другом уровне иерархии. Здесь важна релевантность, логичность и определённая стратегия.

Искусство силосования (SILO-структура)

Такой термин использует Ahrefs в работе над перелинковкой. Звучит не очень, но неплохо описывает процесс — консервирование сочной растительной массы. В нашем случае ссылочной. То есть речь о правильной группировке тематически связанных страниц.

Например, у нас сайт и страницы, посвященные странам и городам:

Каждая из страниц попадает в одну из групп:

  • страны

  • города

Скорее всего, SILO-структура будет выглядеть так:

Таким образом, каждая страница выступает в роли «хаба» и содержит ссылки на связанные страницы: страны или города. Такой подход помогает создать тематические кластеры — группы тесно связанных документов.

Три преимущества такого подхода:

  1. Интуитивная навигация для пользователей.

  2. Краулерам легче понять структуру вашего сайта и сканировать страницы.

  3. Правильное распределение «важности» (подстраницы ссылаются на «хабы» и наоборот).

Есть ещё одно важное достоинство — поисковые системы начинают понимать контекст и взаимосвязь вашего контента.

Предположим, у нас есть следующая страница: domain.com/squash

О чём эта страница? Сквош — это игра или кабачок в переводе с английского. Непонятно. Но если эта страница часть SILO-структуры, всё становится ясно даже краулерам:

Также правильная иерархия даёт возможность правильно распределить статический вес страницы и использовать анкорный текст на ссылающихся документах без опасения нарушить тематическую связность контента.

Как проверить внутренние ссылки и проанализировать конкурентов?

Всё прекрасно, когда мы запускаем сайт с нуля и можем организовать иерархию по обозначенным выше советам. Но как быть если мы работаем с уже готовой структурой?

Для начала её следует проанализировать. У нас есть отдельный инструмент, который получает иерархию сайта с учётом уровней вложенности на основе проиндексированных Яндексом страниц.

Инструмент поможет проверить собственный проект или сайт конкурента, что полезно для поиска новых типов страниц и точек роста. Например, на нашем сайте в разделе, посвящённому контекстной рекламе всего 18 страниц, что составляет 0,9% от всех документов проекта:

А вот сколько у конкурентов. Уже есть над чем подумать, если имеются проблемы с позициями и поисковым трафиком:

Как проверить число внутренних ссылок на странице и определить их необходимое количество?

Ориентироваться на ТОП выдачи по запросу. Для этой задачи используйте инструмент Анализ ТОП в Google или Яндексе. Указали запрос, выбрали глубину ТОПа и получили результаты и рекомендации:

В отчёте мы видим, что количество внутренних ссылок на продвигаемой странице почти в два раза превышает среднее по ТОПу. Возможно, стоит проработать и этот момент.

Не забывайте, что анкорный лист может влиять на переоптимизацию документа, а у Яндекса есть даже отдельный фильтр за переизбыточную перелинковку. Если число внутренних ссылок обусловлено тематикой или количеством товаров / услуг, то важно оформить их в удобный и полезный для пользователей блок.

Неработающие страницы (404)

Периодически проводите аудит сайта на наличие 404-ошибок и удаляйте ссылки, ведущие на такие страницы или настраивайте для них 301-редирект.

Для регулярного поиска этих страниц удобно завести проект в нашем модуле. Согласно выбранным интервалам проведения аудитов, система будет проверять коды ответа страниц сайта и сообщать о найденных ошибках.

Как стратегически использовать внутренние ссылки для прокачки новых страниц?

Предположим, вы разместили новый контент на сайте. Попробуйте отыскать тематически связанные с ним старые страницы и разместите ссылки, ведущие на свежий URL.

Особенно хорошо, если ссылки будут вести с качественных трафиковых документов. Совсем круто — если у них есть бэклинки. Так вы сможете передать часть ссылочного веса новой странице.

Чтобы найти подходящий URL, используйте поисковые операторы. Например, мы разместили статью про аудит контента. Хотим добавить на неё ссылку с другой, уже прокаченной, страницы. Идём в Google и, используя оператор, находим подходящую:

Если хотите узнать какие из страниц вашего сайта имеют больше всего внешних ссылок и планируете использовать их для буста свежего контента, загляните на вкладку «аудит» в Проектах. Модуль анализирует ссылочную массу из Вебмастера и показывает самых мощных акцепторов. Используйте их авторитет для перелинковки:

Напоследок

Три полезных правила, которых стоит придерживаться:

  • Не используйте один и тот же анкорный текст для одного URL-получателя. Старайтесь его максимально разнообразить.

  • Старайтесь добиться тематической связности страниц.

  • Не переусердствуйте. Внутренних ссылок не должно быть слишком много. Можно взять максимальный порог в 400-500 штук. Всё зависит от тематики — анализируйте конкурентов в нише.

В качестве хорошего примера внутренней перелинковки посмотрите на Википедию. Это эталон продуманной навигации и тематических кластеров =)

Что ещё почитать про внутренние ссылки и организацию страниц?

Всем продуманной иерархии, красивой структуры и удобной навигации!

Проверка (анализ) сайта — 85 онлайн сервисов и программ

Обновлено 22 мая 2021
  1. SEO анализ сайта
  2. Инструменты для вебмастеров
  3. Проверка сайта на фильтры и историю
  4. Онлайн сервисы и программы для Сео анализа
  5. Проверка сайта с помощью плагинов для браузеров
  6. Проверка позиций сайта
  7. Сколько стоит сайт
  8. Проверка обратных ссылок сайта
  9. Проверка траста и доверия к сайту
  10. Расшаривания ресурса в социальных сетях
  11. Проверка кода, битых ссылок и ответов сервера
  12. Скорость загрузки и правильность перелинковки
  13. Проверка доступности сайта (аптайм)
  14. Сервисы по проверке орфографии
  15. Где проверить тексты сайта на уникальность
  16. Программы для проверки уникальности текстов
  17. Проверка текстов на переспам
  18. Проверка сайта на вирусы

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Сегодня я хотел бы в рамках одной статьи объединить все сервисы и программы, которые могут помочь вебмастеру в оценке достигнутых сайтом результатов и перспектив развития на будущее.

Далеко не все упомянутые ниже инструменты понадобятся «здесь и сейчас», но вполне возможно, что такая необходимость возникнет у вас со временем, поэтому не примените добавить этот пост в закладки.

Сегодня речь пойдет про проверку индексации и позиций занимаемых сайтом в поисковой выдаче, про оценку его доступности и скорости загрузки, проверку на ошибки, вирусы и уникальность размещенных на нем текстов.

А также про анализ обратных ссылок, оценку стоимости сайта, проверку кросбраузерности верстки, посещаемости и много другого. Если какие-то аспекты или сервисы были упущены, то с вашей подсказки они будут добавлены в данный список.

SEO анализ сайта в онлайн сервисах и программах

Что такое анализ? В общем смысле это широкое понятие, которое включает в себя проверку десятков (а можете быть даже и сотен) показателей, таких, например, как Тиц и Пр, число проиндексированных поисковыми системами страниц, видимость сайта в поисковиках и позиции занимаемые им в выдачах по различным запросам. Узнайте больше про сервисы проверки позиций — сравните цены и возможности. В общем, это огромный комплекс параметров, который сегодня попробуем охватить.

Наверное, стоит начать с проверки индексации вашего сайта ведущими поисковыми системами рунета. Понятно, что приток посетителей с поисковиков является желанным для всех владельце ресурсов, но он будет невозможен априори, если ваш сайт еще не был в полной мере проиндексирован (читайте про то, как работают поисковики).

Инструменты для вебмастеров от поисковых систем

Доступ к данным панелей вебмастера поисковых систем Яндекс, Google, Бинг и Майл.ру можно будет получить только после того, как вы подтвердите свое право на владение сайтом. Эта информация и функционал являются доступными только для владельцев ресурсов, хотя в Яндексе есть ряд инструментов доступных для всех.

Нужно ли тратить время на регистрацию и подтверждение прав в панелях вебмастеров? Безусловно стоит, поэтому я приведу ссылки на свои статьи, где подробно описывал этот процесс, а также возможности всех этих панелей поисковых систем.

  1. Вебмастер Яндекса — целый набор инструментов, который существенно улучшился и расширился после недавнего обновления:
    1. Сообщить о новом сайте (переобход страниц в Яндекс Вебмастере) — если у вас появился новый проект, который еще не проиндексирован ни одним поисковиком, то имеет смысл добавить его в так называемые аддурилки (от слова Add url). Сейчас этот инструмент можно так же использовать для того, чтобы заставить заново проиндексировать уже существующую страницу, его она, например, была изменена и вам важно, чтобы в индексе была именно новая версия странички.
    2. Проверить сайт — очень полезный инструмент, который позволит оценить степень индексации любого ресурса Яндексом:

      Можно посмотреть дату попадания любой страницы сайта в индексную базу Яндекса, а при необходимости обновления можно будет воспользоваться предыдущим инструментом.

    3. Проверить robots.txt — есть такой инструмент в арсенале вебмастеров, который позволяет запретить поисковым роботам (всем или только избранным) индексировать определенные разделы или отдельные страницы на вашем сайте. Синтаксис этого файла не так уж и сложен, и я о нем довольно подробно писал в статье про настройку индексации через файл robots.txt, но все равно будет не лишним проверить его работоспособность:

    4. Проверить орфографию — замечательный инструмент, которым я пользуюсь для проверки всех своих статей сразу после их публикации. Более подробно описан в этой же публикации.

    5. Пожаловаться на спам и вирусы — вот это уже в духе буржуйских сервисов, ибо стучать в рунете считается делом зазорным, что, в общем-то, и понятно, ибо в начале и середине прошлого века половина всего населения прошла через лагеря, и живем мы теперь больше «по понятиям», чем по закону. Хотя лично я считаю, что плохие сайты (ГС), фейковые ресурсы (читайте что такое фейк) и ресурсы заражающие наши компьютеры вирусами (пусть даже, зачастую, и непреднамеренно) должны быть известны поиску, чтобы он мог вовремя принять меры к удалению ГС и фишеров из индекса или уведомлению вебмастеров о заражении зловредами. ИМХО.
    6. Удалить URL — в общем-то, не совсем понятно назначение этого инструмента, ибо сам алгоритм поиска должен удалять из индекса все страницы, которые отдают в ответ 404 ошибку, либо запрещены к индексации в файле robots.txt или одноименном мета-теге. Возможно, что таким образом можно будет несколько ускорить этот процесс, подстегнув робота Яндекса на внеочередную проверку статуса указанных страниц.
    7. Валидаторы микроразметки, XML-фиды и файлы Sitemap — существуют специальные коды микроразметки, которые позволяют коммерческим и официальным сайтам организаций добавлять свой адрес в сниппет или еще что-то другое, что оговорено в соответствующем разделе хелпа Яндекса. Здесь это дело можно будет проверить на ошибки и соответствие принятым стандартам.

      То же самое касается созданных карт в формате XML, которые вы должны иметь для улучшения и ускорения индексации. Файл карты сайта можно будет сначала проверить на ошибки, а уже потом добавлять в соответствующую форму Яндекс вебмастера (она доступна только после подтверждения права на управление) или же прописывать путь до него в файле robots.txt

  2. Вебмастер Гугла — собственно, аналогичный инструмент от Google, но со своими нюансами и возможностями.
  3. Кабинет для вебмастеров в Майл.ру — отличается от аналогов тем, что в нем имеется возможность проверить поведенческие характеристики сайта.
  4. Панель для вебмастеров от Бинга — раньше была еще отдельная панель в Яху, но после его поглощения поисковой системой Бинг осталась только эта. Если в панели от Яху можно было получить интересную информацию по обратным ссылкам ведущим на сайт, то тут уже ничего такого не осталось, хотя свои изюминки тоже имеются.
  5. Vpodskazke — новый сервис для продвижения подсказок в поисковых системах. Можно продвигать сайт и привлекать целевых посетителей с помощью Vpodskazke, который позволяет поднять нужные вам поисковые подсказки в Яндексе

Проверка фильтры и история сайта

  1. Website Penalty Indicator — если ваш сайт был пессимизорован в Гугле (у вас просел поток посетителей идущих с этой поисковой системы), то данный инструмент позволит определить, после апдейта какого именно из двух фильтров Google (Панды или Пингвина) это произошло. Зачем это нужно? Если виной всему оказался Пингвин, то вам нужно будет проверять и снимать «плохие» ссылки (читайте про вывод сайта из под фильтра Google Пингвин) или же добавлять их в инструмент Disavow links.

    Если же виновницей пессимизации стала Панда, то нужно смотреть в сторону переспама текстов, заголовков, внутренней перелинковки и т.п. вещей, касающихся именно устройства вашего сайта. В случае моего блога получается, что именно Панда (даты ее апдейта отмечены красными вертикальными линиями на графике) в апреле 2012 подрезала ему крылья и продолжает это делать в течении уже двух лет. Начальную дату в верхнем поле можно изменить и тем самым расширить диапазон проверки.
  2. Archive.org — уникальная возможность проверить сайт на предмет его исторического развития.

    Например, если вы выбираете донора для размещения ссылки и хотите избежать вероятности попадания на дроп, то этот сервис поможет вам понять, сменился ли владелец и тематика данного сайта в последнее время. Также этот сервис может являться источником уникального контента для сайта. Как с ним работать, я подробно описывал в статье про Webarchive.

Онлайн сервисы и программы для полной проверки сайта

  1. Site-Auditor — замечательная, простая и бесплатная программа от Игоря Ашманова. Пользуюсь ей с момента появления данного блога и по сей день. Все ее возможности описал в статье приведенной по ссылке (правда, после перехода на третью версию дизайн ее в корне поменялся, а статью я еще не обновлял — но суть и возможности остались прежними).

    Умеет она не только проводить экспресс-анализ любого интересующего вас сайта (тиц, индексация, каталоги, посещаемость), но и проверять позиции по введенным вами запросам. Да, в ней мало автоматизации, но она все равно лучшая в своем роде.
  2. Серпхант — отечественный сервис, предоставляющий широкий набор инструментов для анализа и мониторинга SEO-показателей сайтов (в том числе и конкурентных площадок).

    В состав платформы входит 7 средств:

    1. Инструмент для снятия и отслеживания позиций сайта в поисковых выдачах Яндекса и Google.
    2. Инструмент для измерения показателей посещаемости.
    3. Проверки индексации веб-страниц сайта.
    4. Средство SEO-анализа конкурентных площадок с функцией концентрации ключевиков и сравнения с заданной страницей.
    5. Инструмент для оценки качества контента сайта.
    6. Анализ входящей ссылочной массы.
    7. Анализ популярности ключевых слов.

    Чтобы воспользоваться перечисленными выше возможностями Серпханта, нужно пройти регистрацию и выбрать один из тарифных планов.


    *при клике по картинке она откроется в полный размер в новом окне

    В рамках бесплатной подписки (тариф «Старт») пользователю предоставляется 500 проверок на месяц. Этого объема вполне хватает для всестороннего мониторинга и анализа небольшого сайта. А также SEO-исследования площадок ближайших конкурентов.

    Платформа предоставляет эффективное средство для быстрого определения позиций сайта. В Серпхант этот инструмент предоставляется бесплатно и без регистрации. Он позволяет проанализировать рейтинг веб-страницы или сайта по пятидесяти ключевым словам в региональных выдачах Яндекса и Google.

    Сервис умеет определять ключевые слова сайта, по которым он представлен не только в отечественных версиях выдачи, но и зарубежных.

    Процесс анализа занимает всего несколько секунд. Поэтому Серпхант можно смело назвать одной из самых быстрых платформ для всестороннего исследования SEO любого интернет-ресурса.
  3. Pr-cy — один из самых популярных и известных сервисов, на котором можно провести довольно масштабный онлайн анализ своего или чужого сайта. Достаточно будет зайти на страницу с инструментами для вебмастеров, чтобы понять насколько обширные возможности вам предоставляются.
  4. Cy-pr — похож по названию и частично по функционалу на описанный выше онлайн сервис. По приведенной выше ссылке вы сможете провести бесплатный экспресс анализ сайта.

    На странице с результатами будет информации побольше, чем в Pr-cy, но по сути все то же самое. Можно узнать тот же самый Тиц, ПР и Alexa Rank. Для просмотра многих данных нужно щелкнуть по иконке с замочком.

  5. Xseo — мощный по функционалу, но не очень удобный с точки зрения юзабилити сервис проверки массы Сео показателей сайта. Инструментов действительно очень много и они отлично работают, но вот темный фон лично меня сильно напрягает.

    Позволяет проверить, например, процент страниц сайта, которые находятся в сопливом индексе (Supplemental Index) Google.
  6. 2ip— в большинстве своем «попсовый» сервис, но кое-что интересное в нем все же проверить можно.
  7. SEO Site Checkup — буржуйский сервис, который анализирует кучу Сео параметров вашего сайта и через минуту-другую выдает свой вердикт и советы по улучшению оптимизации.
  8. Alexa — старейший сервис, который собирает данные о всех сайтах в интернете. Делает он это благодаря своему тулбару, который установлен на многих браузерах пользователей (в основном в буржунете). Он позволяет по месту сайта в общем и региональном рейтинге оценить его посещаемость, а также узнать еще много интересного про источники трафика и поведение посетителей.

    Сейчас этот сервис, правда, движется в сторону коммерциализации, поэтому все самое «вкусное» можно посмотреть только за денежку.
  9. SimilarWeb — выдает довольно-таки много информации и графиков, которые чем-то напоминают упомянутый чуть выше сервис alexa.com.

Расширения для браузеров, позволяющие проверять любые сайты

Не всегда удобно использовать упомянутые выше онлайн сервисы, когда вам регулярно требуется проверять Сео показатели множества сайтов, например, при подборе доноров, на которых планируете закупать ссылки в ГоГетЛинкс, РотаПост, Collaborator или WebArtex. В этом плане гораздо более удобным вариантом представляется использование расширений для того браузера, которым вы пользуетесь.

В принципе, я довольно подробно писал про такие дополнения для некоторых браузеров:

  1. SEO плагины для Мазилы
  2. СЕО расширения для Оперы
  3. SEO дополнения для Гугл Хрома

Среди универсальных плагинов, работающих почти во всех браузерах, хотел бы выделить этих двух представителей:

  1. Rds Bar — это тот инструмент, которым пользуюсь практически ежедневно. По приведенной ссылке вы найдете его подробное описание, здесь же я скажу, что он позволяет в считанные секунды увидеть основные SEO характеристики открытой в браузере страницы. В обзоре биржи Ротапост я описал те пункты проверки, на которые стоит обращать особое внимание.

    Кроме этих данных, плагин Rds Bar позволяет проверить внешние ссылки на данной странице на предмет их открытости для индексации поисковиками. По умолчанию эта опция включена, а в настройках плагина вы сможете изменить палитру для фона подсветки и используемых рамок.

  2. SeoQuake — буржуйский аналог Rds Bar (или наоборот). Удобно с помощью него анализировать выдачу в Яндексе и Гугле

    Вполне себе функциональный и удобный, особенно для тех, кто к нему уже привык.

Проверка позиций сайта в выдачах Яндекса и Google

  1. Site-Auditor — уже упомянутая чуть выше программа, которая умеет довольно-таки сносно в полуавтоматическом режиме проверять позиции сайта по интересующим вас поисковым запросам. Да, долго, нудно и капчу придется все время вводить, но для быстрой рекогносцировки вполне подойдет.
  2. Проверка видимости сайта в Мегаиндексе — сервис бесплатный и позволяет посмотреть позиции вашего сайта по тем запросам, по которым он имеет хоть какую то видимость (находится в Топ 100 Яндекс или Гугла). Это очень полезно бывает знать, чтобы покупкой ссылок загнать такие запросы в Топ 10 (откуда реально может идти трафик).

    Сам сервис МегаИндекс предназначен для продвижения сайтов (за деньги), но имеет еще массу бесплатных сервисов описанных в упомянутой статье. Иногда бывает полезно проверять видимость не только своего сайта, но и ресурсов конкурентов, чтобы позаимствовать у них удачные ключевые слова.
  3. Проверка позиций в ТопВизоре — онлайн сервис Топвизор платный, но зато осуществляет проверку в полностью автоматическом режиме и в соответствии с заданными вами в настройках интервалами. Результаты проверок предоставляются в довольно удобном и наглядном виде.

    Ключевые слова, которые вы будете проверять, можно будет прямо в этом онлайн сервисе и подобрать (т.е. собрать семядро). Также имеется возможность проверять ограниченное число поисковых запросов бесплатно за счет отданных сервису лимитов в Яндекс XML. Подробнее читайте в статьях по приведенным ссылкам.
  4. Проверка позиций сайта в SE Ranking — еще одни платный сервис, в котором предусмотрена арендная плата за пользование его возможностями (совсем недавно появилась так же и возможность оплаты за отдельные проверки). Также имеется вариант купить у них скрипт и установить его на свой сайт, чтобы самостоятельно производить съем позиций в неограниченном количестве и бесплатно.
  5. Rankinity — конкуренция всегда выгодна конечному пользователю и поэтому я вам представляю еще одного очень серьезного игрока на рынке проверки позиций занимаемых сайтом в поисковых системах. У него есть свои особенности, которые вам могут приглянуться, поэтому не примените ознакомиться и с ним тоже, прежде чем сделать выбор в пользу одного из кандидатов.

Как узнать стоимость своего или чужого сайта?

На самом деле, существует довольно много ресурсов, которые готовы дать оценку вашему ресурсу в плане его стоимости (собственно, упомянутый в этой статье SEObuilding сделает это на раз). Но как мне кажется, наиболее точный прогноз должен давать сервис, который ориентирован на покупку и продажу вебсайтов, ибо у них за годы работы накопилось достаточно много статистического материала, который можно применять при расчетах.

Проверка стоимости сайта в Telderi — сервис этот относится к бирже Telderi, которая выступает гарантом при совершении сделок купли или продажи сайтов, ну и позволяет разместить свое объявление о продаже или посмотреть имеющиеся на данный момент предложения о покупке. Проверка стоимости будет проведена точнее, если вы заполните все поля в форме, но для грубой оценки достаточно просто указать Урл.

Для моего блога он выдал такой вот вердикт:

Проверка обратных ссылок сайта

Обратные ссылки для своего или чужого сайта можно будет посмотреть на ряде сервисов, которые специализируются на сборе подобной информации. Бесплатно для своего сайта эту информацию можно почерпнуть из упомянутых чуть выше панелей для Вебмастеров от Яндекса и Гугла:

  1. Проверка обратных ссылок в Яндексе — из левого меню выбираете «Индексация сайта» — «Входящие ссылки».

    Очень здорово то, что если ввести в фильтр поля «Куда» адрес любой страницы своего сайта, то точно узнаете другие ресурсы, которые на нее ссылаются.

    Для выгрузки всех найденных обратных ссылок прокрутите список до конца и нажмите на кнопку «Архив от»:

  2. Выгрузка обратных ссылок из панели Гугла — выберите из левого меню «Поисковый трафик» — «Ссылки на ваш сайт», нажмите на кнопку «Дополнительно» и на открывшейся странице кликните по кнопке «Загрузить больше ссылок для примера».

    У вас будет возможность сохранить этот список в формате CSV и открыть его потом в Экселе, либо сразу начать работать с документами в Гугл Диске. Как получить из этого полного списка Урлов полный список доменов доноров, читайте тут.

Гораздо больше возможностей по работе с обратными ссылками предоставляют специализированные сервисы, но, к сожалению, доступ к их полному функционалу платный и не так чтобы слишком уже дешевый. Чуть ниже я упомяну способ получения выгрузки из Ahrefs.

Итак, где же можно проверить обратные ссылки на ваш сайт:

  1. Ahrefs — один из самых популярных ссылочных анализаторов. Предоставляемая им бесплатная информация довольно скудна, а за большее придется платить (от восьми десятков баксов в месяц). Можно будет оценить качество доноров и многое другое интересное почерпнуть (поищите на блоге Михаила Шакина — там есть, по-моему, хорошая статья или записанный им ролик на тему работы с Ahrefs).
  2. Backlink за копейки — позволяет сделать выгрузку обратных ссылок ведущих на ваш домен из упомянутого выше сервиса Ahrefs. Плата взимается за каждый бэклинк. Например, для моего сайта это будет стоить столько (не копейки, но все же дешевле):
  3. Open Site Explorer — тот самый знаменитый SeoMoz, который теперича стал просто Мозом. В общем-то, все то же самое — платите деньги и будет вам проверка по всем пунктам.
  4. Linkpad — бывший Solomono. У них тоже можно найти много интересного про ваши обратные ссылки и про оценку качества ваших доноров. Все это доступно бесплатно, в отличии от упомянутых выше сервисов. Там довольно-таки много информации, но ее еще нужно будет научиться понимать и воспринимать.

    Кроме проверки ссылок там имеются инструменты для продвижения своего сайта (за деньги, естественно), ну и биржа ссылок наличествует.

  5. Majestic SEO — в бесплатном варианте этот сервис тоже предоставляет не очень много информации, но зато выводит вот такой вот замечательный график (справа), по которому можно очень быстро оценить количество и качество обратных ссылок, ведущих на изучаемый вами сайт (например, когда проверяете потенциальных доноров), а чуть ниже приведены количественно временные графики истории наращивания ссылочной массы.
  6. SEMrush — как бы все то же самое. Сервис платный и в демо режиме не очень-то и функционален.
  7. Проверка наличия обратных ссылок — если вы обменивались или покупали ссылки минуя различные биржи (например, ГоГетЛинкс, РотаПост, Collaborator или WebArtex), то отслеживать их наличие вам придется самим. Для этого и может понадобиться данный сервис, в который можно за раз загрузить до 100 Урлов страниц, где должны быть размещены полученные вами бэклинки. В результате проверки вы узнаете где они еще стоят, а где были удалены.
  8. Когда вам нужно будет вогнать в индекс новые страницы, появившиеся на сайте, то лучшим вариантом будут сервисы по привлечению быстробота (индексатора) поисковых систем. Среди них могу выделить два похожих — IndexGator и GetBot. Стоит это дело совсем не дорого, а эффект достаточно стабилен.

Проверка траста и доверия к сайту

  1. XTools — сервис существует уже довольно-таки давно. Если нужно проверить траст своего сайта, то это можно будет сделать бесплатно. Хотя траст и считается мифическим понятием, но владельцы сервиса подразумевают под ним общий вес ресурса в глазах поисковых систем (по совокупности факторов ранжирования).

    Массовые проверки траста, например, для сайтов доноров осуществляются на платной основе.
  2. Сервис сравнения сайтов от SEObuilding — позволяет бесплатно проверить список доноров на траст и другие важные показатели, которые могут повлиять на ваш выбор.
  3. CheckTrust (FastTrust) — сервис и программа от Алаича. Суть та же — помочь вам подобрать наиболее подходящих трастовых и не заспамленных доноров (сайты, с которых вы сможете купить в ГоГетЛинкс, РотаПост, Collaborator или WebArtex ссылки).
  4. Проверка доверия к сайтам в Web of Trust (WOT) — расширение для браузера, которое позволит вам быстро понять, насколько можно доверять тому или иному открываемому вами сайту.

    Фактически он показывает репутацию отрытого в браузере сайта, которую формируют такие же пользователи как и вы, путем оценки этих ресурсов в WOT.

Как проверить число расшариваний в социальных сетях

  1. Google +1 Checker — поможет вам проверить сколько кликов по кнопке социальной сети Google+ получили отдельные страницы вашего сайта, Урл которых вы введете в предложенную сервисом форму (до 50 Урлов за одну проверку).
  2. Число расшариваний и комментариев в Фейсбуке — используем стандартный дебагер Фейсбука. Достаточно будет ввести Урл интересующей страницы вашего сайта (вы должны быть авторизованы в этой социалке) и получите искомое значение. Немного неудобно, но зато наверняка точно, ибо взято из первоисточника.
  3. SharedCount — хотите узнать число расшариваний любой страницы вашего сайта в такие популярные социальные сервисы, как Твиттер, Google+, Pinterest, LinkedIn, Facebook и другие? Просто введите Урл страницы в предложенную форму и смотрите результаты:
  4. Поверка числа расшариваний в рунетовских соцсетях (Одноклассниках, Вконтакте, Мой мир и Я.ру). Собственно, может служить дополнение к упомянутому выше сервису — нужно просто ввести Урл вебстраницы и посмотреть результат.
  5. LinkTally — поможет вам узнать число расшариваний любых страниц вашего или чужого сайта в популярных социальных сетях буржунета.

Проверка кода сайта, битых ссылок и ответов сервера

  1. Проверка валидности Html кода сайта — вещь нужная, ибо позволяет выявить грубые ошибки совершенные при верстке, но зацикливаться на полном их устранении не стоит, ибо это практически не реально (почти все ресурсы в интернете их имеют). К тому же это не добавит вам плюсов в ранжировании сайта поисковыми системами, но иногда ошибки верстки мешают правильной индексации, поэтому внимание на это обращаем, но без фанатизма.
  2. Проверка валидности CSS кода — также может быть полезным взглянуть на ошибки верстки с точки зрения стилевого оформления и соответствия стандартам CSS3. Проверка осуществляется на официальном сайте валидатора W3C.
  3. Валидатор RSS ленты сайта — собственно, если есть проблемы с фидом, либо добавляли возможность его использования на вашем вебсайте самостоятельно, то можете осуществить проверку на валидность формируемой ленты, чтобы быть спокойным за это дело.
  4. Проверка ссылок на странице — открывает все ссылки имеющиеся на странице, урл которой вы вставите в приведенную форму. Таким образом можно найти все имеющиеся на ней битые ссылки.
  5. Проверка сайта на битые ссылки в Xenu Link  — это программа, которая позволяет выявить и исправить битые ссылки, которые имеются на любом ресурсе. Их большое количество, равно как и большое количество орфографических ошибок и ошибок в коде, может привести к пессимизации вашего сайта поисковыми системами. Как работать с этой программой описано в приведенной по ссылке статье.
  6. Screaming Frog SEO Spider Tool — программа очень похожая по своим возможностям на упомянутую чуть выше Xenu Link. Правда в бесплатной версии она имеет ограниченный функционал и возможности.
  7. Проверка ответа сервера — инструмент из арсенала Яндекс Вебмастера. Правда использовать его можно только для вашего сайта, права на который вы подтвердили.

    Более подробно про коды ответа сайта и редиректы читайте в приведенной по ссылке статье.

Проверяем скорость загрузки сайта

  1. Проверка оптимизации скорости страницы — у меня была целая серия статей, посвященная увеличению скорости загрузки сайта. Так вот, данный сервис представляет из себя онлайн версию инструмента Page Speed, о котором шла речь в статье. Он не просто выдает вердикт, а дает конкретные советы по ускорению работы вашего ресурса.

    Кроме этого он дает оценку адаптированности вашего сайта для показа на мобильных устройствах и предлагает конкретные шаги для ее улучшения. Подробности смотрите в приведенной по ссылке статье.
  2. Test my Site — похожий сервис от того же Гугла, но с более попсовым интерфейсом:
  3. GTmetrix — достаточно просто указать адрес страницы, скорость загрузки которой вы хотите измерить.

    В результате вы получите отчет, сформированный на основе данных двух плагинов для браузеров — Page Speed (читайте о работе с ним ниже) и YSlow. Собственно, каким данным доверять и чьим рекомендациям следовать — решать вам. На диаграммах можно легко отследить те элементы, которые тормозят загрузку, а также посмотреть, какие изображения можно будет объединить в спрайты для уменьшения числа запросов к серверу.
  4. Web Page Analyzer — измеряет скорость загрузки страницы при различных скоростях интернет-канала пользователя. Кроме этого дает подробную разблюдовку по загружаемым объектам и дает советы по способам ускорения вашего сайта (правда, на английском).
  5. WebPageTest — выдает две диаграмы загрузки проверяемой страниц: за первый проход и за второй, когда уже часть элементов сайта загружаются из кеша браузера. Можно получить из этого массу полезной информации для размышления:

Проверка правильности перелинковки и настройки сайта

  1. Siteliner — проверка сайта на наличие дублей страниц, битые ссылки и распределение веса по страницам. Полный функционал доступен только на платном тарифе.
  2. Проверка перелинковки сайта в Page Weight — похож на предыдущий сервис, но только русскоязычный. Он тоже платный и имеет в своем арсенале как программу (Page Weight), так и онлайн сервис (Page Weight Online) для проверки статического веса страниц вашего сайта (или чужого). Нужно это дело для создания грамотной перелинковки способной помочь продвижению (суть в переносе статвеса на нужные страницы).
  3. Анализатор внутренней перелинковки — необычная софтина в виде набора макросов для Эксела. Служит для расчета статического веса внутренних страниц вебсайта.
  4. Проверка конкурентности запросов — бесплатная программа Page Weight Request Range для оценки конкурентности запросов, под которые вы планируете писать статьи и продвигаться. Актуально, например, при подборе низкоконкурентных НЧ запросов, ибо для их продвижения будут нужны только хорошие тексты (обратные ссылки не обязательны).
  5. SimilarSites — помогает найти сайты похожих на ваш или на тот, что будет введен в соответствующее поле. Зачем это может быть нужно? Ну, например, если вы планируете размещение баннеров и пытаетесь найти подходящие для этого ресурсы, опираясь на некоторые уже вами найденные. Работает не идеально, но вполне себе сносно.
  6. Mobile emulator — можно посмотреть, как будет выглядеть ваш сайт на экране мобильных телефонов различных моделей. Сейчас идет довольно много споров по поводу создания адаптивного дизайна (подстраивающего под любой размер окна) или же создания отдельной версии вебсайта.
  7. Сайт глазами бота — показывает страницу без учета CSS разметки (все в один столбец), помогает проверить количество внутренних и внешних (в том числе открытых для индексации) ссылок, а также отображает заголовки всех уровней имеющиеся на странице. В общем, этот сервис позволяет вам взглянуть на ваш вебсайт без мишуры в виде стилевого оформления.
  8. Проверка доступности сайта для слабовидящих — к сожалению, у нас не принято учитывать потребности людей с ограниченными возможностями, но вот в «насквозь прогнившем» буржунете имеется сервис, позволяющий выявить недостатки верстки, которые могут вызвать затруднение у слабовидящих посетителей.

Проверка доступности сайта

Очень важным аспектом успешного продвижения сайта в поисковых системах является его доступность в режиме 24 на 7 (24 часа 7 дней в неделю). Про мониторинг доступности сайта и проверку аптайма читайте в приведенной статье, а здесь я просто перечислю способы осуществления подобных проверок.

  1. UptimeRobot — замечательный бесплатный сервис, на котором я зарегистрировался сразу после открытия этого блога и который помогал мне не раз своевременно обнаружить возникшие с сайтом проблемы. Проверку доступности он проводит каждые пять минут и присылает на почту сообщения о начале периода недоступности и о его завершении с указанием общего времени простоя.
  2. Проверка доступности сайта в Яндекс Метрике — знаменитый счетчик от Яндекса тоже умеет отслеживать доступность вебсайтов, на которых установлен его код. Кроме письма на указанный емайл у вас будет возможность настроить бесплатную отправку СМС сообщения на ваш мобильный телефон. Последнее может быть очень актуально, ибо почту мы проверяем не постоянно, а вот сотовый, как правило, всегда при нас.
  3. SiteUptime — на бесплатном тарифе можно мониторить один сайт с интервалом от получаса до часа. Уведомления в этом случае будут приходить только на почту. На платных тарифах все более заманчиво — СМС уведомления, пятиминутный интервал между проверками, три сайта в мониторинге (за 5 баксов в месяц) и т.п. прелести.

Проверка текстов на уникальность, ошибки и спамность

В принципе, про сервисы и программы антиплагиата, а также про лучшие онлайн-сервисы поиска ошибок в текстах, я уже писал в упомянутых статьях, но здесь я все же перечислю все, чего мы там касались для создания общей картины.

Сервисы по проверке орфографии

  1. Яндекс.Спеллер — если нужно проверить текст на странице, которая еще не опубликована, то просто копируете его в буфер обмена и вставляете в форму данного сервиса.

    Данную форму для проверки орфографии можно использовать на своем сайте или приложении с помощью предлагаемого API, если оно вам надо.
  2. Мультиязычная проверка орфографии — понятно, что актуальным проверка орфографии будет для бирж копирайтинга, поэтому я и привел в качестве примера онлайн сервис от биржи контента Адвего. Найденные в вашем тексте ошибки будут выделяться цветом и подчеркиванием.
  3. Орфограф — текст вставляете либо через буфер обмена, либо указываете Урл страницы Вашего сайта, а все найденные орфографические ошибки и непонятные слова будут подсвечиваться желтым цветом.
  4. Istio — можно указать Урл страницы и текст с нее будет взят для проверки провописания, а можно вставить текст через буфер обмена прямо в предоставленную форму:

Где проверить тексты сайта на уникальность онлайн?

  1. Copyscape — указываете Урл страницы, текст которой могли растащить по своим ГС всякие редиски. Этот сервис разбивает часть указанной вебстраницы на кусочки, которые прогоняет через поисковую систему Гугл. В бесплатной версии вам разрешат проверить лишь десяток страниц за день. В платной версии сервиса, кроме снятия ограничений на проверку уникальности, вы получите еще и некоторую автоматизацию.

    В этом случае Copyscape будет периодически (в зависимости от выбранного тарифа — раз в день или в неделю) проверять тексты вашего сайта на уникальность и выявлять новых плагиаторов.

  2. Copywatcher.com — обещает не только проверять введенные вами Урлы страниц на предмет плагиата, но и сам будет пытаться удалять копии из индекса Гугла, а также рассылать абузы хостерам и самому плагиатору. Пока только тестирую этот сервис и не могу сказать однозначно за его эффективность. Но сама идея весьма интересна.
  3. Антиплагиат — всецело ориентирован на клиентов из учебных заведений. В своем базовом функционале бесплатен (имеются тарифы для поиска по расширенным базам) и позволяет проверить на уникальность текст, скопированный из буфера обмена размером до 3000 символов, можно будет даже без регистрации. После регистрации вы получите возможность загружать файлы различных популярных форматов (HTML, TXT, DOC, RTF, DJVU и PDF), а не пользоваться клипбордом.

Программы для проверки уникальности текстов

  1. Advego Plagiatus — по ссылке вы найдете описание одной из самых популярных программ для проверки уникальности текстов от разработчиков известной биржи контента. Чаще всего пользуюсь для проверки работы копирайтеров именно ей. Работает довольно быстро и имеет интуитивно понятный интерфейс:

  2. Etxt антиплагиат — тоже очень известная и популярная программа проверки на плагиат от не менее популярной биржи контента. Все подробности читайте по ссылке.

  3. Плагиата.НЕТ — довольно функциональная программа по поиску нарушителей ваших авторских прав. Можно будет ввести фрагмент текста или же указать список URL адресов вебстраниц, на которых требуется проверить уникальность:

    Если захотите проверить тексты всех страниц своего ресурса, то добавьте его на вкладке «Инструменты» — «Мои сайты». После чего перейдите на вкладку «Инструменты» — «Проверить весь сайт» и запустите мастер поиска URL адресов страниц. Для этого задайте глубину проверки и нажмите кнопку «Получить»:

    Когда парсинг страниц закончится, то нажмите на кнопку «Добавить адреса». Откроется уже знакомое окно поиска плагиата, где вам останется только нажать на кнопку «Проверить». Если страниц будет много, то и процесс затянется:

    В общем, программа во многом неповторима, поэтому пробуйте и экспериментируйте. Если вы рерайтите чью-то статью, то эта софтина тоже может быть вам полезна, ибо она умеет определять степень уникальности прямо налету (по мере правки текста в ее окне).

Проверка страниц сайта на переспам

Тут можно было бы привести десяток сервисов, которые умеют делать семантический разбор текста и позволяют наглядно увидеть, каких именно слов на данной вебстранице или в данном фрагменте слишком много. Но лично я пользуюсь только одним из них и именно он помогал мне выйти из под фильтра Яндекса за переспам.

Сервис этот называется Istio и я о нем уже упоминал чуть выше, но применительно к поиску плагиата. Для поиска же переспама вам нужно будет ввести Урл страницы вашего сайта и нажать на кнопку «Отфильтровать текст», чтобы убрать тексты всех меню и прочего обвеса из анализа. Ну, а потом нажать расположенную ниже кнопку «Анализ».

Я обращал особое внимание на последний столбец в окне с полученными результатами проверки:

При этом старался, чтобы ключевые слова лежали в пределах от одного до двух процентов (иногда позволял и чуть большие цифры, когда не возможно было подобрать синонимы). Собственно, раз уж об этом заговорили, то эти самые ключевые слова лично я подбираю в Яндекс Вордстате.

Подробности читайте в статьях про подбор ключевых слов и про составления семядра для сайта.

Проверка сайта на вирусы

В свое время я умудрился словить троян, в результате чего были украдены пароли от ФТП, и ряд сайтов, к которым злоумышленник получил доступ, были заражены зловредами. Про своею эпопею проверки и удаления вирусов на сайтах я подробно писал в приведенной статье, а тут лишь перечислю инструменты, которые могут вам помочь выявить заразу и по возможности ее устранить.

  1. Antivirus-alarm  — проверка осуществляется средствами нескольких десятков популярных движков антивирусных программ. Это занимает какое-то время (если проверку уже делали ранее, то нажмите на кнопку обновления, расположенную вверху).
  2. Проверить сайт на вирусы в Dr.Web — онлайн версия известной антивирусной программы.
  3. Virustotal — популярный онлайн инструмент, позволяющий проверить на вирусы не только сайты, но и файлы на вашем компьютере. На главной странице вам как раз и предложат загрузить файл для проверки, а для инспекции сайта нужно будет перейти по ссылке «scan a URL»:
  4. Постоянная проверка сайта на вирусы с Alarmer — скрипт, который после установки на сервер начинает мониторить состояние всех имеющихся там файлов и при изменении сообщает об этом вам.
  5. Также можно проверить наличие сообщений о нахождении вирусов на вашем сайте в панелях для вебмастеров от Яндекса и Гугла. Чуть выше я приводил ссылки на статьи с подробными инструкциями по работе с этими инструментами, Ну, а здесь я просто упомяну, что в панели Google искомые сведения размещаются на вкладке левого меню «Проблемы безопасности».

    А в панели Яндекса — «Безопасность и нарушения».

Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

Как проверить внутреннюю перелинковку страниц сайта

Для того, чтобы объявить поисковикам о своем сайте мы зарегистрировали его в поисковой системе (см. здесь), а для того чтобы анализировать его работу установили счетчики.

На примере работы в Яндекс Вебмастере я хочу показать вам, как я проверяю количество внутренних ссылок на анализируемую статью.

Для этого я прохожу по цепочке ссылок кликая по:

  • Яндекс(1) -> Вебмастер(2) — > Мои сайты(3) -> выбираю анализируемый сайт -> попадаю в Панель управления анализа работы сайта -> Проверить URL(4)
  • В поисковой строке браузера копирую адрес анализируемой страницы и вставляю его в проверочный поиск(5). Нажимаю на кнопку «Проверить»(6)

  • Почему лучше скопировать адрес ссылки из браузера? Так не теряются все необходимые знаки. Ведь требование Яндекса такое: URL ссылки обязательно должен включать в себя весь путь, т.е. быть полным.
  • Построение отчета обычно занимает какое-то количество времени. Поэтому нужно будет немного подождать (15-20 секунд). Вебмастер нас оповещает, что запрос «обрабатывается» и при завершении работы – «готово».

  • Когда проверке URLа будет присвоен статус «Готово», нужно просто кликнуть по этому слову и мы перейдем к отчету анализа количества внутренних и внешних ссылок на эту страницу.

  • Внимательно читаем текст и внизу видим, сколько ссылок ведут на эту страницу внутри сайта.

Вот так я контролирую внутреннюю перелинковку страниц своего сайта. Этим занимаюсь не сразу после публикации статьи, а после того, как страница была проиндексирована поисковыми системами.

Предлагаю вам еще в дополнение к этой статье прочесть цикл статей на этом сайте о «Перелинковке страниц»:

Надеюсь, статья была для вас полезной. Желаю успеха!

как ссылки помогают в SEO-продвижении и улучшают юзабилити сайта

В блоге компании или на страницах каталога можно и нужно оставлять ссылки на товары, услуги и ключевые разделы сайта. Этот прием называется внутренней перелинковкой, и он одновременно хорош как для SEO, так и для удобной навигации. С помощью внутренних ссылок вы можете буквально выстраивать «ходы» по сайту, приводить пользователей на самые важные страницы и увеличивать конверсию.

Расскажем, как это делаем мы в «Эврике».

Что дает правильная перелинковка сайта

Внутренняя перелинковка, в отличие от работы с внешними ссылками, делается относительно легко, быстро и без дополнительных трат. Поэтому мы однозначно советуем использовать этот способ в рамках комплексного продвижения сайта в ТОП выдачи.

Логичная сеть внутренних ссылок позволит вам:

  1. Повысить позиции в поисковой выдаче и привлечь больше трафика. Перелинковка – хороший способ нарастить вес целевых страниц и важнейших разделов сайта.
  2. Увеличить количество обращений и продаж. Даже если человек пришел из поиска на информационную страницу по некоммерческому запросу, он сможет перейти по ссылке к товару или услуге.
  3. Выстроить структуру сайта и информационные потоки так, как вам нужно. С помощью ссылок вы показываете поисковикам и пользователям, какие страницы приоритетны.
  4. Ускорить индексацию новых страниц. Если на страницы с недавно обновленным контентом ведут ссылки, поисковые роботы быстрее обнаружат их, проиндексируют и добавят в выдачу.
Что еще почитать: Всё об индексации сайта в поисковых системах

Вручную или автоматически?

Существует множество алгоритмов перелинковки. Например, когда все страницы сайта ссылаются друг на друга, или ссылки ведут только на крупные разделы и главную страницу, или прокачиваются страницы конкретных товаров. Автоматические схемы призваны экономить время и иногда бывают оправданы.

Но для пользователей и SEO гораздо лучше вдумчивая ручная перелинковка, когда каждая ссылка ставится без схемы – там, где она уместна по смыслу и точно будет полезна посетителю сайта.

На это есть, как минимум, 2 причины:

  • Поисковики не любят автоматические схемы перелинковки, умеют их находить и применяют санкции. Конечно, сайт не забанят, но перелинковка не будет учитываться, как полноценная, и принесет меньше пользы.
  • Ни один алгоритм не гарантирует 100%-ного попадания в плане смысла и логики. А для юзабилити сайта очень важно, чтобы все внутренние ссылки были в тему – только тогда по ним будут переходить люди. Помните, что вес страницам передают те ссылки, которыми действительно пользуются, а не те, которые формально есть.

Пример органично вписанных ссылок на нашем сайте – каждая нужна для удобства навигации и подсказывает пользователю интересную информацию по теме.

Главные правила внутренней перелинковки сайта

Сеть внутренних ссылок можно создать только на тех сайтах, где уже размещено достаточно контента. А чтобы получить максимум пользы от перелинковки страниц, важно постоянно пополнять сайт новыми материалами, расширять ассортимент, публиковать новости и т.д.

Если эти условия соблюдаются, можно работать с перелинковкой. Расскажем, по каким принципам она делается.

Связывайте между собой внутренние разделы сайта

Лучшие ссылки, по которым люди действительно переходят, ведут от статей к статьям, от посадочных страниц к другим аналогичным страницам, от товаров к похожим товарам. А вот ссылаться на главную или разделы вроде «О нас», «Доставка» не обязательно: обычно они и так доступны в шапке или футере сайта.

Удобное место для размещения ссылок – информационный раздел или блог компании. Поэтому если на вашем сайте их пока нет, советуем завести и постепенно наполнять материалами с продуманной перелинковкой.

Пример перелинковки в блоге интернет-магазина дверей.

Чаще ссылайтесь на целевые страницы с высокой конверсией

Как правило, на каждом сайте есть несколько страниц, с которых приходит больше всего заявок. Если вы выявили для себя такие конверсионные страницы, регулярно ссылайтесь на них в новых материалах. Так вы не просто нарастите ссылочный вес этих страниц и их позиции в выдаче, но и напрямую сможете увеличить прибыль компании за счет новых обращений.

Поясняйте ссылки текстом

Для перелинковки страниц сайта лучше использовать анкорные ссылки – то есть, ссылки с фразами вместо URL. Их можно естественно вписать в текст на странице-доноре, а пользователь сразу поймет, куда ведет ссылка и будет ли ему полезна информация по ней. Плюс ко всему, поисковики тоже больше любят анкорные ссылки.

В качестве анкоров (пояснительного текста) можно использовать ключевые запросы, описания или названия статей, наименования услуг и товаров, указательные слова вроде «тут». Но анкор не должен быть слишком длинным: обычно это одно или несколько слов, но никак не целый абзац.

Анкорные ссылки на услуги косметолога – клиенту легко сориентироваться.

Оживляйте старые материалы новыми ссылками – и наоборот

Загружая на сайт новый контент, всегда ссылайтесь в нем на старые статьи или давно размещенные страницы товаров и услуг. За один прием можно добавлять до 5-6 подобных ссылок. Благодаря им Яндекс и Гугл оценивают старые страницы, как по-прежнему актуальные.

В обратную сторону это тоже работает: новые страницы быстрее попадут в индекс поисковиков, если сразу же сослаться на свежий контент в других разделах сайта.

Добавляйте ссылки только с тегом follow

Важно следить, чтобы внутренние ссылки не были закрыты для индексации и поисковые роботы могли по ним переходить. За это отвечают атрибуты follow / nofollow – второй, по возможности, лучше не использовать при перелинковке.

О чем еще стоит помнить

  • Ссылки важно четко отделять от простого текста. Традиционно используют подчеркивание и контрастный цвет – именно такие ссылки люди легко распознают и переходят по ним.
  • От того, что в тексте размещено 2 ссылки на одну и ту же страницу, передаваемый ссылочный вес не удваивается. Поэтому желательно использовать разные ссылки.
  • Визуальное оформление – это важно. Наряду с простыми анкорными ссылками в тексте рекомендуем выводить несколько отдельных блоков или баннеров, которые привлекут внимание пользователей даже при беглом просмотре страницы.

Пример визуального оформления ссылок на нашем сайте – по ним можно перейти к конкретным кейсам или страницам в портфолио.

И еще один совет: обязательно анализируйте пользу от перелинковки и оценивайте, что работает для вашего сайта, а что – нет. Можно считать количество переходов, ссылочный вес страниц, SEO-показатели, конверсию. Только так вы сможете получить максимум от внутренних ссылок.

Что еще почитать: Как разработать стратегию SEO продвижения сайта

Какие сервисы помогут ускорить перелинковку

Чтобы сделать эффективную внутреннюю перелинковку страниц, нужно подобрать ключевые фразы и релевантные им страницы, на которые вы будете ссылаться. Частично эту работу можно автоматизировать.

Подбор ключей

Для внутренней перелинковки подойдут и коммерческие, и некоммерческие запросы в вашей тематике. Например, фраза «заказать клининг» может быть анкором ссылки на страницу услуги, а «правила уборки коттеджа» – вести в блог компании.

Быстро собрать ключевые фразы можно с помощью сервисов, например:

  • Serpstat.
  • Key Collector.
  • Яндекс Метрика, Google Analitics или сервисы сквозной аналитики.

Впрочем, если у вашего сайта уже есть сформированное семантическое ядро, дополнительно искать ключи не потребуется. Для перелинковки можно использовать любые средне- и высокочастотные запросы, по которым вы продвигаетесь. Каждый ключ или группу ключей желательно связать с конкретной целевой страницей, на которую будут вести ссылки.

Что еще почитать: Как составить семантическое ядро сайта: пошаговое руководство

Сбор страниц для перелинковки

Второй шаг для правильной перелинковки – собрать список страниц, на которых вы разместите подходящие по смыслу ссылки. Здесь советуем сочетать ручной подбор и автоматизированные способы:

  1. Для каждого ключевого запроса найти несколько страниц, где он встречается. Сделать это можно вручную в Яндексе или Гугл, а также с помощью сервисов вроде Key Collector.
  2. Проанализировать структуру сайта и найти группы связанных по смыслу страниц, на которых формально нет одинакового ключевого запроса. Сервисы такую связь не увидят, а человек при ручной выборке – да. Чтобы было удобнее, советуем вместо простого серфинга по сайту использовать полный список страниц с заголовками Н1 и title. Для этого можно посмотреть карту сайта (если она есть), а также использовать сервис Serpstat или парсеры вроде Netpeak Spider, ComparseR, Screaming Frog SEO Spider и т.д.

Как проверить внутренние ссылки

Качество перелинковки сайта важно регулярно проверять и оценивать, чтобы внутренние ссылки приносили пользу.

Проверка делается в несколько шагов:

  • Шаг 1 – находим и загружаем в таблицу все ссылки (например, с помощью сервиса PR-CY).
  • Шаг 2 – проверяем ссылки на релевантность (соответствуют ли они текстовому описанию и контенту на страницах-донорах). Это можно сделать, например, в разделе «Мониторинг позиций» в сервисе Serpstat или с помощью Google Search Console.
  • Шаг 3 – оцениваем распределение ссылочного веса. Обязательно проверяем, чтобы больше всего ссылок вели на основные продвигаемые страницы с хорошей конверсией. Посмотреть ссылочный вес страниц можно, к примеру, в сервисе Page Weight Lite или Netpeak Spider.
  • Шаг 4 – выявляем и убираем проблемные ссылки (удобно делать это также в Netpeak Spider).

Каких ссылок быть не должно

Некоторые ссылки после проверки придется удалить или заменить, чтобы они не мешали индексации сайта.

Это касается:

  • Битых ссылок – по ним выводится ошибка 404, и ссылочный вес переливается в пустоту.
  • Циклических ссылок, которые направляют пользователя на ту же страницу.
  • Ссылок на страницы, закрытые от индексации. Обычно это служебные страницы сайта с тегом nofollow, которым не нужно продвижение.
  • Редиректов.Вместо переадресации лучше поставить прямые ссылки, чтобы не терять скорость загрузки и ссылочный вес.
  • Ссылок на висячие узлы – страницы-тупики, где нет исходящих ссылок.
Конечно, внутренняя перелинковка – не волшебная таблетка, которая моментально решит все проблемы навигации по сайту и повысит конверсию. Но это действительно работающий, несложный и условно бесплатный способ ускорить SEO-продвижение, и мы советуем не упускать его.Обсудить проект

как грамотно сделать ручную перелинковку на сайте

Привет, друзья. Я недавно публиковал пост про работу с трафиковыми страницами, и когда начал писать вторую часть, понял, что большой объем работы со страницами занимает внутренняя перелинковка, и не абы какая, а осмысленная и исключительно ручная. А это вполне самостоятельная тема, которую надо выносить в отдельный пост, что я и сделал.

Поэтому сегодня мы поговорим про внутреннюю перелинковку страниц информационных сайтов, либо информационных разделов в рамках коммерческого сайта, а еще этот подход будет актуален для сайтов услуг, потому что основная их ценность с точки зрения поисковых систем тоже текстовый контент.

Короче, метод, о котором будет написано ниже, подходит для любых текстов.

Напомню, что у меня есть пост про перелинковку для интернет-магазинов, где подробно описано, как и с помощью каких элементов надо перелинковывать ИМ: страницы, категории, товары, инфостатьи, структура блоков, меню, фильтры и т. д. – в общем, речь там шла исключительно в разрезе коммерческого сайта, где перелинковка в первую очередь делается не ради seo, а для пользы посетителей, увеличения прибыли за счет дополнительных продаж и т. п. Так что если у вас интернет-магазин, то читать вам стоит мой пост по ссылке выше.

На повестке дня у нас информационные страницы, и начнём мы, как водится, с теории, пробежим по всем важным аспектам и перейдет уже в практику (если вы считаете себя выше теории, сразу го к этому разделу):


Что такое перелинковка и зачем она нужна

Я не хочу вас грузить, поэтому просто скажу, перелинковка – это ссылка с одной страницы на другую, т. е. это ссылочные связи. А внутренняя перелинковка – потому что обычно речь идет про простановку ссылок с одной страницы на другую в рамках одного конкретного сайта (ну, максимум в рамках сайта и его поддоменов).

Если говорить про внешние ссылки, то термином «внешняя перелинковка» никто не пользуется (по крайней мере в России). Для этого есть другой термин – линкбилдинг (linkbuilding). Изначально (то есть лет 15 назад) линкбилдингом можно было бы назвать регистрацию в каталогах, обмен ссылками, автоматические линкаторы, прогоны, чуть позже ручную покупку ссылок, а затем, когда появились биржи ссылок, все свелось к покупке ссылок (автоматической или ручной – не суть). Сам термин пошел с запада, а там было по-другому немного, там был именно «билдинг», то есть некий процесс построения, требующий усилий и не обязательно денежных вложений. Так что термин «линкбилдинг» в рунете относительно недавно, когда просто покупка ссылок стала не очень эффективной, все заговорили про то, как добывать («строить») ссылки иначе…

Но это другая история и я немного отвлекся, а всего лишь хотел вам сказать, что под перелинковкой всегда подразумевается работа внутри сайта и обсуждать простановку ссылок мы будем исключительно в рамках сайта. Поэтому сразу договоримся считать «перелинковку» и «внутреннюю перелинковку» тождественными понятиями.


Итак, чем же полезна перелинковка, зачем ее делать?

Первое, о чем стоит думать – это удобство посетителей, ссылки стоит проставлять исключительно исходя из этой идеи. Самый лучший пример – Википедия. Вряд ли у кого-то может возникнуть мысль о том, что какая-то ссылка там лишняя, стоит не на месте или портит внешний вид. Если ты зашел что-то прочитать, то получишь абсолютно исчерпывающую информацию о предмете, человеке или явлении, а описание будет снабжено ссылками на сопутствующую информацию таким образом, что ты узнаешь и сможешь прочитать вообще абсолютно все (боюсь, что невозможно прочитать всю Википедию, но переходя по ссылкам можно посетить абсолютно все страницы сайта, при этом переход по каждой ссылки в этом длинном пути будет совершенно логичным). Так вот главное правило, которого стоит придерживаться при перелинковке: ссылка должна быть уместной, естественной и представлять для посетителя ценность.

Тут я хотел бы сделать отступление и рассказать вам про такую важную штуку как BrowseRank. Что такое PageRank вы знаете, он был когда-то своего рода «пузомеркой от Гугла». Его его несколько лет назад отменили, точнее его публичное значение теперь нельзя узнать, а в самом алгоритме он остался. Так вот PR передавался по исходящим ссылкам со страницы: например, на какой-то странице есть 10 исходящих ссылок (не важно, внешних или внутренних), то каждая из них получает равный вес, т. е. 1/10 от передаваемого страницей-донором веса. Там еще есть коэффициент затухания, но не суть. Главное то, что вес этот передавался просто потому, что были ссылки. А BrowseRank учитывает не ссылки, а переходы по ссылкам.

Его говорить по-научному: основное отличие BrowseRank от PageRank — структура графа: в технологии PageRank узлами графа являются документы, а ребрами — ссылки, в технологии BrowseRank ребра образуют не ссылки, а переходы. Помимо этого, сохраняется метаинформация о продолжительности сессии в рамках документа.

То есть учитывается полезность документа по ссылке, которая полезна настолько, насколько оказался ценным документ, на который ведет ссылка.

Эту технологию учета поведения пользователей разработала компания Microsoft (просто чтобы вы знали). В чистом виде поисковики ее не используют, но и не факт, что не используют что-то подобное, когда речь заходит о тех же поведенческих факторах. Поэтому я придерживаюсь правила, что каждая ссылка должна быть уместной и нести определенную ценность для посетителя в тот момент, когда он видит ссылку (как, например, ссылка на мой пост про поведенческие в прошлом предложении или ссылка на пост про перелинковку для ИМ в начале этого поста – каждая из этих ссылок дополняет информацию, представленную на текущей странице). И чем больше ресурс, тем больше таких ссылочных связей должно появляться, в этом и есть суть внутренней перелинковки!

Мы обсудили непосредственную пользу внутренних ссылок, которые решают задачу навигации посетителей по сайту, увеличивают их вовлеченность и длину сессии, что положительно сказывается на ранжировании конкретных страниц и сайта в целом. Тут все понятно.

Технически важным фактором является улучшение индексации за счет перелинковки, потому что PageRank никто не отменял и страницы передают друг другу определенный вес, за счет которого страница-акцептор уверенно держится в индексе, лучше ранжируется и занимает более высокие позиции в выдаче ПС. Не секрет, что страницы без ссылочных связей (бывает такое, что страницы есть в sitemap.xml, но добраться до них переходами по ссылкам внутри сайта невозможно), не будут держаться в индексе, Яндекс посчитает их недостаточно качественными (почему страница должна быть полезной, если на нее не переходят люди?).

Это актуально особенно для больших сайтов с сотнями тысяч и миллионами страниц. Создаются специальные html-карты сайта (я сам такую делал и описывал это в моем кейсе про сайт недвижимости), блоки кольцевой перелинковки и т. д. и т. п. Существует масса способов сделать автоматическую перелинковку для прокачки страниц, однако мы сегодня будем говорить про ручную перелинковку и скоро уже дойдем до практической части.


Виды и схемы перелинковки сайтов

Еще небольшое отступление по очевидному вопросу про то, а как правильно делать перелинковку, ведь несмотря на то, что я написал выше, мол, ссылка должна быть там, где ее увидят и нажмут, многие будут спрашивать, я вот видел, что существуют разные схемы перелинковки. И если вы решите спросить у поиска про эти схемы, то найдете их великое множество: перелинковка под НЧ, СЧ, ВЧ запросы, перелинковка звездой, кубом, кольцом, пирамидой и прочее бла-бла-бла. Все это полная дичь, и я сейчас объясню почему.

Кто-то сказал, что перелинковка звездой лучше остальных. Почему? А кто решил, что страницы 3-го уровня вложенности подразумевают схему под НЧ запросы, страницы категорий – это под СЧ, а главная обязательно ВЧ? Почему чтобы продвинуть СЧ запросы, надо линковать с конечных страницы наверх – то есть на категории? Есть ли хоть один верный ответ на эти вопросы без погружения в контекст: какой сайт мы продвигаем, по какой тематике и какие страницы являются приоритетными и приносящими трафик? Вопросом о том, какую схему выбрать интересуются люди не увлеченные, которым сказали, что надо сделать перелинковку, и тогда будет хорошо. А почему, не сказали. В итоге человек будет использовать то, что ему не подходит.

Как думаете, что случится в голове человека, когда он увидит, например, это?

(изображения я честно украл из Яндекс.Картинок)

В подавляющем большинстве информационных сайтов трафик приносят страницы статей, а они априори являются страницами нижнего уровня: ниже категорий и главной. Какую схему выбрать? Здесь такой нет, и нигде нет!

Но как вам такой вариант: надо взять третью картинку, поменять надписи «НЧ» на «ВЧ», а «СЧ» и «ВЧ» на «НЧ». Почему?

Короче, я не стану вас мучить этой лабудой. И, как я люблю говорить, давайте не будем пытаться запоминать сотни фактов, а усвоим несколько принципов.

Что вам надо понять в первую очередь: какие страницы будут приносить трафик? Категории или конечные страницы? Для информационного сайта это будут конечные страницы. Для сайта услуг чаще всего и категории, и конечные страницы. Для интернет-магазина все зависит от тематики: например, для сайта электроники основными будут карточки товаров, потому что люди часто спрашивают конкретную модель («купить Samsung galaxy s10 черный», а не «купить смартфон samsung»), хотя в случае каких-нибудь телевизоров или холодильников люди мыслят характеристиками или брендами («изогнутые телевизоры 4к», «черный холодильник» и т.д.), значит трафик будут приносить подкатегории или теги (они же seo-фильтры), и для магазина обоев трафик будет идти не на карточки товара, потому что люди не знают артикулов, но знают то, чего хотят («зеленые», «на кухню», «флизелиновые», или все три свойства разом).

Когда вы поняли, какие страницы у вас в приоритете, вы разрабатываете схему. Если карточки товара – значит надо максимально перелинковать их друг с другом. Если главными являются категории, подкатегории или seo-фильтры, значит мы стараемся собирать вес на этих страницах, а карточки товара должны ссылаться обратно на все категории и фильтры, к которым принадлежит товар.

Давайте вернемся к нашей основной теме – информационным сайтам. Как я уже сказал, тут основной трафик собирают конечные станицы публикаций или статей. Значит мы должны статьи перелинковывать друг с другом. Очень быстро это делается автоматически с помощью блоков «статьи по теме», «из этой же категории», «публикации по тегу» и т.д. И я вас снова потихоньку веду к основной теме – контекстная перелинковка – то о чем я говорил в самом начале, ссылки из тела статьи в тех местах, где это уместно и полезно, а это уже не может быть сделано автоматически. Это ручная работа, ручная перелинковка.


Ссылки и анкоры для перелинковки

В продолжение предыдущего пункта стоит сказать, что любая из схем перелинковки решает в первую очередь техническую сторону вопроса – передачу статического веса, который определяется количеством и качеством ссылающихся на страницу документов (как внутренних, так и внешних, по сути, тот самый PageRank).

Но есть еще и так называемый динамический вес ссылки – он зависит от контента страницы, на которую идет ссылка, релевантности (соответствия) этой ссылки документу и анкоров входящих ссылок. Изначально подразумевается, что когда мы ставим ссылку, то ее текст полностью соответствует содержимому целевой страницы. Еще по-другому динамический вес называют анкорным весом ссылки.

Таким образом можно сделать вывод, что при перелинковке важен не только факт наличия ссылки, но и текст ссылки, то есть анкор. И в контекстной ручной перелинковке мы будем уделять этому особое значение. Так что я еще к этой теме вернусь ниже.


Анализ: как проверить перелинковку сайта

Наберитесь терпения – это последнее прежде, чем мы перейдем к практике. Наверняка, вы хотели бы оценить состояние сайта, посмотреть какие ссылки куда ведут и какие страницы получают или не получают достаточный вес.

И для этого есть решения. Еще в начале 2012 года я писал про программу Page Weight Lite – и да, она до сих пор жива, существует и бесплатна. Пока я писал эти строки, я специально все проверил: скачал, запустил, просканировал свой блог и убедился, что ничего с тех пор не изменилось. Предлагаю и вам ее скачать и установить. Однако у нее есть существенное ограничение – большой сайт она не переварит (до 2000 страниц еще нормально). Если сайт большой, тогда придется купить Page Weight Desktop или использовать какой-то другой парсер (вроде, Netpeak Spider еще веса считает, но это не точно).

А так как PW Lite единственный бесплатный рабочий инструмент, давайте разберем ситуация на его примере (в любом случае, алгоритм работы любой другой тулзы по расчету статического веса не будет отличаться).

  1. Скачали, установили, открыли:
  2. Нажали «Получить данные», указали свой сайт, ткнули три галки, одну убрали, указали кодировку:
  3. Нажали «Начать». Долго ждем.
  4. Мой блог из 370 страниц парсился минут 20. Скорость зависит не только от количества страниц, но и от количества ссылок на этих страницах. Но в итоге все должно закончиться хорошо.
  5. Жмем «Ок». Видим таблицу со всеми собранными страницами. Жмем «Расчет веса». Убираем галку. Жмем «Начать». Это процесс быстрый.
  6. В итоге мы получим таблицу, в которой напротив каждой страницы будет указан ее условный вес, рассчитанные только в рамках нашего сайта, без учета каких-то внешних воздействий.

И что же мы в итоге получили? Статический вес страниц изолированного сайта. Нас интересуют относительные значения для понимания того, как хорошо перелинкованы наши страницы. Можно отсортировать все по столбцу веса и посмотреть, как себя чувствуют наиболее важные страницы.

Собственно, наша задача сводится к тому, чтобы убедиться, что важные страницы находятся вверху, то есть имеют бОльший условный вес.

Как бы там ни было, мы все равно будем прорабатывать важные для нас целевые страницы. И в результате, как вы сможет после своей работы замерить, вес страниц увеличится. Но это статический вес, и не забываем, что и динамический тоже увеличится.


Ручная контекстная перелинковка страниц сайта

Наконец-то мы пришли к практике.

Надеюсь, у вас уже есть список страниц, которые вы хотели бы прокачать. Я тоже сейчас возьму одну из своих любимых страниц про покупку ссылок на сайт – видите, я уже сделал ссылку с нужным мне анкором 🙂 Только мы с вами будем искать старые публикации на своем сайте и проставлять ссылки из них.

У меня есть понимание, по каким запросам требуется продвижение этой страницы, я писал о том, как лучше всего подбирать самые эффективные запросы для проработки страниц в первой части поста про трафиковое продвижение – берите на вооружение.

Итак, вот мой пост про покупку ссылок https://alaev.info/blog/post/5745 — и что дальше? Как понять откуда лучше всего ставить ссылки? Вспоминать, где я писал про это? Не вариант. Мы же собираемся продвигать эту страницу в поисковиках, так значит стоит спросить у поисковика, что он думает на этот счет.

Так мы и сделаем! Идем в Яндекс. И делаем следующий запрос: покупка ссылок site:alaev.info

Очень важно, чтобы на первом месте была наша целевая страница, которую мы собираемся продвигать и делать на нее перелинковку. У меня все ок.

Яндекс выдает нам страницы в порядке их релевантности нашему запросу, то есть вверху будут, скажем так, самые сильные страницы. Берем и открываем их по одной. А дальше:

  1. Можно открыть исходные код страницы (ctrl+u) и сделать поиск на наличие ссылки на нужным нам url. Я делаю поиск по части url – «5745».
    У меня самым крутым после целевой страницы идет пост про покупку ссылок на sape — https://alaev.info/blog/post/79. Я открываю исходный код и ищу:
    Совпадений не найдено – Бинго! Значит надо найти подходящее место для простановки ссылки.
    Если совпадение будет найдено, то делать ничего не надо, смысла ставить несколько ссылок с одной страницы нет. Так что, отвечая на вопрос про количество ссылок для перелинковки, скажу, что с технической точки зрения ставить более одной ссылки смысла нет, но тем не менее, ограничений никаких нет, ведь главное – ссылки делаются для удобства посетителей, и чтобы они хотел перейти, а не просто ссылка ради ссылки.
  2. Ну и где ставить ссылку-то? Поисковик и об этом позаботился и подсветил наилучшее место для ссылки:
  3. Находим это место поиском по странице и смотрим. Но вот облом – это высветился в сниппете description страницы, будь он проклят!
    Но даже если бы это был текст страницы, я бы не ставил ссылку в том самом месте, и вот почему: страница донор тоже про покупку ссылок, но не в глобальном смысле, а конкретно про работу с Sape, так что по сути две наши страницы не конкуренты, но вот так просто нагло брать и вставлять ссылку в контекст, где человек и так читает про покупку ссылок, а тут еще ссылка на покупку ссылок не стоит.
    У вас что-то подобное тоже может случиться, потому давайте расскажу, как действовать в этом случае. У меня есть специально подготовленный стиль блока, типа как объявление, предупреждение, я его специально сделал, чтобы обращать внимание читателей на важные вещи. Я воспользуюсь этой возможностью и сделаю объявление.
    Было:

    Стало:
  4. В следующем по релевантности посте уже стоит ссылка на целевую страницу:

    Так что смысла что-то придумывать нет. Надо искать посты, которые я писал еще до того, как был написан пост, на который я хочу ссылаться.
    И я такой нашел, буду ставить с него ссылку вот тут:

    И еще один пример, где я решил поставить ссылочку:

Надеюсь, что алгоритм такой внутренней перелинковки вам стал понятен.

Тема, вообще говоря, не новая совершенно и практикуется уже много лет, но точно знаю, что многие не в курсе такого подхода. Именно поэтому я и решил написать данный пост.


Что еще добавить?

  • Знаю, что есть различные плагины и сервисы для автоматической перелинковки такого типа, но на полном автомате я бы не стал такое запускать, слишком велика вероятность, что ссылка будет поставлена некорректно и неуместно. Разве что на полуавтомате запускать, когда автоматически собирается информация с выдачи, а проставлять ссылку нужно вручную.
  • Еще хотел вам сказать про анкоры для перелинковки – их не стоит делать везде одинаковыми, это важно. Поэтому не старайтесь обязательно менять анкор будущей ссылки в точности под ключевое слово или запрос. Чем разнообразнее будет набор анкоров, тем лучше, тем меньше вероятность наткнуться на санкции или просто неучет веса одинаковых ссылок. Поэтому не стесняйтесь захватывать в анкор соседние слова справа или слева от нужного ключевого слова.
  • Для ускорения результата вы можете куда-нибудь в блокнот копировать url страниц, на которых вы делали перелинковку, чтобы после завершения процедуры закинуть их в панель Вебмастера Яндекса на переобход, тогда ваши ссылки уже проиндексируются через несколько дней. А можете и не делать, все равно Яндекс довольно часто переобходит сайты, тогда ожидание составит неделю-полторы.

На этом у меня все! Пользуйтесь на здоровье и помните, что обдуманная ручная перелинковка сайта рулит, а ссылка, по которой хочется перейти рулит вдвойне!

До связи, друзья.

Бесплатный инструмент для проверки неработающих ссылок

Неработающие ссылки ухудшают рейтинг и удобство использования вашего сайта? От этого никуда не деться — ошибка 404 страницы вредны для бизнеса.

Средство проверки мертвых ссылок просматривает ваш веб-сайт, выявляя неработающие ссылки. чтобы вы поправили.

«… Я попробовал три разных средства проверки ссылок в Интернете, и ваш был самым простым в использовании и созданном самые полезные данные отчета.«
— Довольный покупатель

МУЛЬТИПРОВЕРКА

Multi Check позволяет запускать средство проверки мертвых ссылок на нескольких веб-сайтах за один раз. Затем отчет будет автоматически отправлен вам по электронной почте.

АВТОПРОВЕРКА

Наша самая популярная услуга — Auto Check, которая запускает проверку неработающих ссылок через ваш веб-сайт (-ы) на регулярно и автоматически отправляет вам отчеты по электронной почте.

Неработающие ссылки наносят урон:
  • Остановить поисковые роботы веб-сайтов на их следах — снижение вашего рейтинга, предотвращая Google, Yahoo, Bing и т.от индексации страницы.
  • отрицательно влияет на пользовательский опыт — перенаправляя посетителей на страницы с ошибками.
Простое и доступное решение для веб-мастеров и профессиональных SEO-специалистов:
  • Бесплатная ручная проверка — для одного и нескольких сайтов.
  • Три выгодных пакета подписки — для автоматической проверки ссылок.
  • Нет необходимости связывать с большими наборами или пакетами SEO — как с большинством наших конкурентов.
  • Подчеркивает возможностей построения неработающих ссылок.
  • Нет загрузок .
Проверьте свой веб-сайт сегодня — посетите наши страницы проверки сайтов, многосайтовой проверки или автоматической проверки.

Чтобы увидеть полный список бесплатных и платных услуг, предлагаемых DeadLinkChecker.com, щелкните здесь. Один, несколько и автоматические услуги сравниваются, показывая предоставляемые функции.

Чтобы получить доступ к многосайтовой программе проверки или автоматической проверки, сначала войдите в систему или создайте бесплатную учетную запись.

© 2013‑2021 Сайты с DLC

Бесплатный инструмент проверки обратных ссылок | Мгновенная проверка обратных ссылок любого веб-сайта

Что такое обратная ссылка в SEO?

Когда один веб-сайт ссылается на другой, эта ссылка называется обратной. Например, когда веб-сайт A ссылается на веб-сайт B , это будет обратная ссылка (или входящая ссылка) для веб-сайта B. Но для веб-сайта A это будет исходящая ссылка.

Количество обратных ссылок в SEO

С точки зрения SEO, количество качественных обратных ссылок может повлиять на рейтинг вашего сайта в поисковой выдаче. Например, веб-сайт A имеет 5000 качественных обратных ссылок, а веб-сайт B имеет 3000 качественных обратных ссылок. В этом случае веб-сайт A будет занимать более высокое место в поисковой выдаче, учитывая, что его поисковая оптимизация на странице также актуальна.

Качество обратных ссылок в SEO

В другом сценарии, когда веб-сайт A имеет 5000 обратных ссылок с низкокачественных доменов и доменов, содержащих спам, веб-сайт B имеет 3000 обратных ссылок с высококачественных доменов, тогда веб-сайт B будет занимать более высокое место в поисковой выдаче.

Что делать?

Получение ссылок с высококачественных веб-сайтов (то есть веб-сайтов с более высоким DA, которым доверяет Google, например, Wikipedia.org) — всегда лучший вариант. НО, если у вас их мало (по сравнению с вашими конкурентами), то ваши конкуренты будут занимать более высокий рейтинг независимо от их большого количества некачественных ссылок.

Вкратце, создайте различные обратные ссылки (начиная с веб-сайтов с авторитетом домена (DA) от 40 до 100).Тем не менее, избегайте любых ссылок со спамерских веб-сайтов и регулярно проверяйте свой профиль обратных ссылок с помощью таких инструментов, как бесплатная проверка обратных ссылок от RankWatch.

Важность проведения анализа обратных ссылок SEO

Как только вы поймете важность качественных обратных ссылок, всегда придет время, когда вы спросите себя: «Как мне сделать мои обратные ссылки более качественными?» Что ж, позвольте мне сказать вам.

Размещение гостевых сообщений — лучший (и самый эффективный) способ создания высококачественных входящих ссылок.В этом процессе вы обращаетесь к другим веб-сайтам и предлагает им контент в обмен на ссылки. Чтобы узнать больше о гостевой публикации, изучите это пошаговое руководство по гостевой публикации и публикуйте свои статьи в блогах с высоким DA.

Хотя гостевая публикация — это постоянный процесс, вам также необходимо продолжать удалять некачественные или спамерские ссылки, которые вы можете непреднамеренно создать. И как бы вы это сделали? Вам необходимо провести анализ обратных ссылок SEO, найти токсичные ссылки и удалить их с помощью инструмента Google Disavow.

Зачем нужно отслеживать обратные ссылки с помощью анализатора обратных ссылок?

Входящие ссылки с других сайтов называются обратными ссылками. Обратные ссылки в SEO чрезвычайно важны; они могут повлиять на рост рейтинга веб-сайта или резко упасть в результатах поиска. Из-за этого обратные ссылки стали одним из наиболее важных факторов ранжирования Google.

Есть два типа обратных ссылок:

Каждый специалист по SEO отдает предпочтение созданию ссылок для подписки, а не для подписки.Можно задаться вопросом, почему? Ну, позвольте мне сказать вам.

Обратные ссылки с типами ссылок do-follow позволяют роботам поисковых систем следовать (или сканировать) прикрепленную ссылку. Как только бот просканирует ссылку, она быстро индексируется и ранжируется поисковой системой.

Обратные ссылки с типами ссылок no-follow сообщают роботам поисковых систем о том, что они не следует переходить (или сканировать) по прикрепленной ссылке, и они сканируются сканерами поисковой системы в соответствии со стандартным временем сканирования.

Итак, как проверить, является ли ссылка неприступной или действующей?

Хотя вы можете сделать это вручную, посетив каждую созданную вами обратную ссылку и проверив ее источник, это непрактично, поскольку этот процесс может занять много времени.

Это когда вы используете инструмент анализатора обратных ссылок, например Free Backlink Checker от RankWatch.

Просто добавив URL-адрес и нажав «Исследовать обратные ссылки», вы можете извлечь и изучить полный профиль обратных ссылок отправленного URL-адреса и найти такие сведения, как:

  • Следуйте ссылкам
  • Ссылки без подписки
  • Активные ссылки
  • Удаленные ссылки
  • Ссылающийся домен
  • Якорный текст

Практически все показатели, необходимые для проведения подробного анализа обратных ссылок, всегда у вас под рукой.

Как проверить обратные ссылки SEO с помощью бесплатного инструмента проверки обратных ссылок от RankWatch?

Проверить обратные ссылки с помощью инструмента проверки обратных ссылок RankWatch так же просто, как 1-2-3. Все, что вам нужно сделать, это ввести URL домена, для которого вы хотите проверить профиль обратных ссылок, и нажать «Исследовать обратные ссылки» . Вот и все, что вам нужно сделать.

Pro Tip: Если вы хотите провести анализ обратных ссылок своих конкурентов, просто введите URL-адрес конкурента и нажмите «Изучить обратные ссылки» .Таким образом вы сможете следить за обратными ссылками вашего конкурента и бесплатно копировать их.

Подробный анализ обратных ссылок любого веб-сайта

Найдите и проведите подробный анализ обратных ссылок любого веб-сайта с помощью бесплатного инструмента проверки обратных ссылок RankWatch. Введите домен и откройте для себя действенные показатели SEO.

Часто задаваемые вопросы

Все, что вам нужно знать о проверке обратных ссылок

Что такое проверка обратных ссылок?

RankWatch Backlink Checker — это инструмент, который сканирует и анализирует весь профиль обратной ссылки введенного вами URL.Используя это, вы можете выполнить углубленный анализ обратных ссылок не только вашего сайта, но и ваших конкурентов. И как только вы откроете дверь для слежки за профилем обратных ссылок ваших конкурентов, вы сможете создать больше качественных ссылок для своего сайта.

Как работает проверка обратных ссылок?

Инструменты проверки обратных ссылок не так уж и сложны в эксплуатации. На самом деле их работа довольно проста. Вам просто нужно ввести URL-адрес, для которого вы хотите проанализировать обратные ссылки, и нажать «Исследовать обратные ссылки».

Что анализирует средство проверки обратных ссылок?

Единственная цель инструмента проверки обратных ссылок — провести углубленный анализ профиля обратных ссылок любого URL-адреса; сюда входят такие показатели, как ссылающиеся домены, анкорные тексты, ссылки для подписки и запрета на подписку, активные и удаленные ссылки и т. д.

Как проверить обратные ссылки?

Если вы хотите проверить обратные ссылки URL-адреса, просто введите его в бесплатном инструменте проверки обратных ссылок RankWatch и нажмите «Исследовать обратные ссылки».Это так просто!

Как анализировать обратные ссылки вашего конкурента?

Проведение анализа обратных ссылок конкурентов позволяет вам следить за их стратегиями построения обратных ссылок и использовать их упущенные возможности. Этот бесплатный инструмент от RankWatch также является бесплатным инструментом анализа обратных ссылок конкурентов. Все, что вам нужно сделать, это ввести URL вашего конкурента и нажать «Исследовать обратные ссылки».

Как я могу улучшить качество обратных ссылок?

Когда RankWatch создаст отчет об обратных ссылках для введенного вами URL-адреса, проверьте уровень доверия и цитируемости ссылающегося домена и удалите ссылки из тех, которые имеют рейтинг 35 или ниже.После удаления таких ссылок:

  • Проанализируйте профиль обратных ссылок вашего конкурента.
  • Проверить ссылающиеся домены.
  • Обратитесь к ним, чтобы узнать о возможностях размещения гостя.
Инструмент

Internal Link Analyzer — Инструменты SEO Review

Инструмент для проверки ссылок на странице.

Используйте инструмент внутреннего анализатора ссылок для анализа ссылок, которые поисковые роботы могут обнаружить на определенной странице вашего веб-сайта.Поисковые системы, ссылки-пауки для индексации и определения структуры веб-сайта и взаимосвязи между страницами. Инструмент анализатора ссылок проверяет:

  • Общее количество ссылок, найденных на вашей странице.
  • Число + процент внешних и внутренних ссылок.
    • (ссылки, указывающие на поддомены, считаются внутренними)
  • Тип привязки (текстовая ссылка / ссылка на изображение / смешанная ссылка).
  • Тип ссылки (внутренняя ссылка / внешняя ссылка / субдомен).
  • Число + процент повторяющихся ссылок.
  • Количество ссылок с пустым якорем.
  • Количество ссылок на изображения без тега Alt.
  • Количество ссылок, на которые никто не следил.

Поддомены

Анализатор внутренних ссылок может распознавать поддомены и использовать их как внутренние ссылки. Если ссылка указывает на субдомен, это будет видно под типом ссылки «субдомен». Посмотрите видео от веб-инженера Google Мэтта Каттса об использовании субдоменов.

Передовой опыт внутренних ссылок

  • Количество ссылок: Еще в 2008 году Мэтт Каттс (глава группы Google по борьбе со спамом) рекомендовал ограничить количество ссылок до 100 ссылок на странице. Сегодня (с 2013 года) Мэтт Каттс объяснил, что наличие более 100 ссылок на странице не является проблемой, и это ограничение снято с рекомендаций Google для веб-мастеров.
  • Повторяющиеся ссылки: Попробуйте ограничить количество повторяющихся ссылок. Если у вас высокий процент повторяющихся ссылок (> 50%), вы неэффективно распространяете силу ссылок.

Оли Гарднер представил средство проверки внутренних ссылок в рамках своей презентации: на INBOUND
«алгоритм машинного обучения проанализирует вашу неопубликованную страницу еще до того, как на ней будет обнаружен какой-либо трафик».

Оли Гарднер — соучредитель Unbounce

Обновления:

  • Расширенный поиск и параметры фильтрации
  • Улучшенная классификация ссылок, когда входящий URL является поддоменом.
  • Улучшена поддержка http и https.
  • Параметр экспорта CSV

Параметры фильтра отчета по внутренней ссылке.

Теперь вы можете использовать функцию фильтра для сортировки типов ссылок и поиска определенных URL-адресов или текста ссылки с помощью полей ввода.

Вот некоторые из доступных операторов фильтрации:

  • Найдите диапазон значений от до или от до
  • Подстановочный знак для одного символа без пробела. ?
  • Подстановочный знак для нуля или более непробельных символов. *

Внешние ресурсы:

Пожалуйста, поделитесь