Проверить страницы в индексе яндекса. Быстрый способ проверить индексацию страниц в Яндексе и Google

Приветствую, дорогие друзья! В сегодняшней статье я хочу рассказать о том, как проверить индексацию конкретной страницы сайта. Представьте, что вы написали статью и опубликовали её на сайте. Прежде чем предпринимать какие-либо действия, необходимо узнать, как оценили эту страницу поисковые системы на данном этапе продвижения.

Для этого нам нужно знать, проиндексирована страница или нет. Если страница проиндексирована, начинаем ее улучшать, подбирать запросы и анализировать конкурентов, иначе ускоряем индексацию страницы (). А как же узнать проиндексирована страница или нет?

Вообще, можно воспользоваться самым банальным методом. Открываем панель веб-мастера в Яндексе и смотрим проиндексированные страницы (аналогично с Google). Конечно, способ хороший, но, к сожалению, имеет единственный минус, причем очень важный для продвижения страницы. Панель вебмастера обновляется 1 раз в сутки, а то и раз в 2 дня. Это не совсем удобно для seo оптимизатора, для которого очень важно знать оценку качества страницы.

Что означает оценка качества? Большинство seo оптимизаторов продвигаются по низко-конкурентным поисковым запросам, поэтому важно знать, какую позицию присвоит поисковая система при первой индексации страницы. В зависимости от позиции нужно анализировать соответствующих конкурентов, стоящих выше в выдаче.

Таким образом, я хочу рассказать Вам об инструментах, которыми я лично пользуюсь при продвижении блогов.

Во-первых, это программа YCCY, которая служит мне больше 2-х лет. Она отличается своей точностью проверки индексации страниц. Кстати, она же является одним из самых старых инструментов seo оптимизатора. Несмотря на её возраст, она до сих пор актуальна и используются не только для проверки индексации страниц, но и для ряда других целей, таких как пакетная проверка всех страниц сайта, проверка обратных ссылок и мн. др.

Иногда нужно, чтобы страницы сайта или размещенные на них ссылки не появлялись в результатах поиска. Скрыть содержимое сайта от индексирования можно с помощью файла robots.txt , HTML-разметки или авторизации на сайте.

Запрет индексирования сайта, раздела или страницы

Если какие-то страницы или разделы сайта не должны индексироваться (например, со служебной или конфиденциальной информацией), ограничьте доступ к ним следующими способами:

  • В файле robots.txt укажите директиву Disallow .
  • В HTML-коде страниц сайта укажите метатег robots с директивой noindex или none . Подробнее см. в разделе Метатег robots и HTTP-заголовок X-Robots-Tag .
  • Используйте авторизацию на сайте. Рекомендуем этот способ, чтобы скрыть от индексирования главную страницу сайта. Если главная страница запрещена в файле robots.txt или с помощью метатега noindex , но на нее ведут ссылки, страница может попасть в результаты поиска.

Запрет индексирования контента страницы

Скрыть от индексирования часть текста страницы

В HTML-коде страницы добавьте элемент noindex . Например:

Элемент не чувствителен к вложенности - может находиться в любом месте HTML-кода страницы. При необходимости сделать код сайта валидным возможно использование тега в следующем формате:

текст, индексирование которого нужно запретить Скрыть от индексирования ссылку на странице

В HTML-коде страницы в элемент a добавьте атрибут . Например.

Недавно на работе столкнулся с задачей, когда было необходимо проверить большое количество страниц на индексацию в Yandex и Google. Можно без проблем воспользоваться платными сервисами (например, Топвизор), который выдаст всю информацию в красивом виде. Либо какими-то сервисами, которые бесплатно дают проверить только 10 страниц, но страниц таких может быть очень много, а платные сервисы могут обойтись в хорошую сумму. Можно сделать это все бесплатно, но для этого нам понадобиться Кей Коллектор.

В первую очередь нам необходимо будет подготовить ссылки, так как для каждой ПС нам нужны разные команды.

Массовая проверка ссылок в Яндексе

Для проверки в Яндексе необходимо подготовить списком ссылки такого формата:

host:zamal.info/poleznye-seo-servisy/ | url:zamal.info/poleznye-seo-servisy/

host: zamal.info/category/seo/| url: zamal.info/category/seo/

Массовая проверка ссылок в Гугле

В Гугле же будет все немного проще:

site:zamal.info/poleznye-seo-servisy/

site:zamal.info/category/seo/

Для чего эти команды?

Многие могут сказать, а почему бы просто не вбить адрес ссылки, ведь он сразу покажет либо пустой запрос, либо эту ссылку. Увы, так не прокатит. Да, в каких-то случаях это сработает. Но в иных, Яндекс легко может показать другие УРЛы, которые не связаны с тем, который вбили мы. А Кей Коллектор нам выдаст информацию о том, что страница ваша страница в индексе есть, хотя это не так.

Как так массово сделать ссылки?

Проверяем индексацию страниц через Key Collector

Собрав 2 отдельных списка (ну или один для проверки в определенном ПС), открываем Кей Коллектор. Создаем проект. Заходим в настройки – парсинг и в поле «удалять символы» и «заменять на пробельный символ символы» удаляем все, что там есть и сохраняем.

Как долго длиться процесс?

Это уже все зависит от количества проверяемых ссылок. На проверку 10к страниц у меня ушло где-то 12 часов

Настраиваем экспорт

Пока идет процесс проверки, можно сразу настроить экспорт. Заходим в настройки – экспорт. Внизу ставим галочку только над «Фраза» и «Позиция » или «Позиция [G]». После завершения процесса выгружаем все в xls файл (нажимаем на зеленую иконку слева сверху).

Смотрим результат


В итоге у нас получается таблица в две колонки, в которой указана страница и позиция.

1 – в индексе

-1 – не в индексе

Затем мы можем просто отфильтровать непроиндексированные страницы и уже отправить или на переобход страниц (если их немного), либо создать для них отдельную карту сайта и тоже отправить на переобход (добавив ее в вебмастер).

Для Гугла действует ровно такая же схема, отличается лишь командами, о которых писал выше.

Итог

Таким простым способом можно практически бесплатно проверить массово нужные страницы на наличие индексации в поисковиках. Почему практически бесплатно? Немного съест антикапча, ну это мелочи.

Привет! Сегодня я расскажу очень важные вещи, упустив которые можно терять трафик. Часто по мере работы над сайтами, нужно определить: какие страницы проиндексированы, какие нет. Какие страницы требует дополнительного внимания для того, чтобы они попали в индекс.

Особенно это ярко заметно при работе с интернет-магазинами: при работе с огромным количеством товаров/разделов, постоянно добавляются все новые и новые страницы. Поэтому нужен жесткий контроль индексации свежедобавленных страниц, чтобы не терять трафик с поиска.

В этом небольшом уроке я расскажу, как я проверяю страницы сайта на проиндексированность.

Как проверить страницы на индексацию

Как я проверяю проиндексированность конкретной страницы с помощью RDS bar, я уже рассказывал .

Ну или же можно просто вбить в Яндекс вот этот код:

Url:www..ru/about

Или для Google:

Info:https://сайт/about

Конечно, URL адрес сайт/about меняете на свой.

А что же делать, если нужно проверить проиндексированность десяток/сотен, а то и более статей? Я поступаю следующим образом:


Что делать с непроиндексированными страницами?

Сервисы для ускорения индексации

Я обычно не проиндексированные страницы прогоняю с помощью разных сервисов, я предпочитаю этот getbot.guru . Да, безусловно не 100% страниц залезают с помощью него в индекс но все же в среднем около 70-80% из прогнанных URL как правило залезает (сильно зависит от адекватности страниц тоже).

Сервис, конечно же, платный, нужно платить за каждый URL. За те страницы, которые не попали в индекс последует возврат средств, что очень справедливо и заманчиво (зависит от тарифа). А уже эти страницы, которые не попали в индекс, я повторно отправляю в сервис. Снова при следующем апдейте часть из этих страниц входит в индекс.

Думаю, разобраться сможете сами, ничего сложно нет. Регистрируетесь -> Создаете проект -> Запускаете проект. Единственное, могут возникнуть сложности при выборе тарифа. Я предпочитаю работать с тарифом "Абсолют апдейт" (кликните на изображение, чтобы увеличить):

Кстати, обратите внимание, что в сервисе тоже можно проверить страницы на проиндексированность. Цена вопроса в районе 10 копеек за 1 URL. Я же предпочитаю бесплатный YCCY, о котором писал выше.

На страницы из проекта отсылается быстробот яндекса, периодически проверяется индексация страниц проекта в Яндекс, на страницы не вошедшие в индекс, быстробот отсылается ещё раз. После завершения задания, для страниц не вошедших в индекс, осуществляется автоматический возврат средств на баланс. Мы не используем социальные сети и спам методы для привлечения быстробота. Для работы сервиса используется своя сеть новостных сайтов, владельцами которых мы являемся.

Ускорение индексации с помощью Твиттера или новостных сайтов

Ну, если вы не любите прогоны с помощью подобных сервисов, то можно воспользоваться Твиттером. Ссылки в Твиттере поисковики очень хорошо "кушают", если аккаунты более-менее адекватные.

Про это я уже писал относительно подробно в уроке " ". Там помимо твиттера я разбирал еще другие способы быстрой индексации.

Переиндексация существующих страниц

Аналогично можно отправить страницу на перееиндексацию. Проверяя кэш страницы в поисковиках, можно узнать проиндексировалась страница или нет. Как проверить кэш страницы я рассказывал в .

Работа с индексом с помощью программы Comparser

YCCY хоть и старая программа, но мне она очень нравится. Я ее использую для проверки индексации известных мне страниц.

Если же нужно выяснить, какие страницы сайта еще не попали в индекс (я уже писал про нее целый урок). Его принцип простой: он выгружает все URL сайта, которые вы разрешили для индексирования (этот пункт можно менять в настройках) и проверяет каждую страницу на индекс. Либо с помощью простого обращения выгружает первые 1000 страниц из индекса.

И снова, те страницы, которые выявлены, что находятся вне индекса, прогоняем через разные сервисы или твиттер аккаунты. Имейте в виду, что, если вы хотите купить твиты, то хорошо работают незаспамленные аккаунты. К примеру, мне достаточно сделать ретвит своей статьи своим же аккаунтом, она мгновенно попадает в индекс.

Если вдруг нужно проверить "пачку" страниц на переиндексацию, можно снять дату кэширования в той же самом Компарсере:

Поисковые системы по ряду причин индексируют не все страницы сайта или, наоборот, добавляют в индекс нежелательные. В итоге практически невозможно найти сайт, у которого бы количество страниц в Яндексе и Google совпадало.

Если расхождение не превышает 10%, то на это не все обращают внимание. Но такая позиция справедлива для СМИ и информационных сайтов, когда потеря малой части страниц не сказывается на общей посещаемости. А вот для интернет-магазинов и прочих коммерческих сайтов отсутствие товарных страниц в поиске (даже одной из десяти) - это потеря дохода.

Поэтому важно хотя бы раз в месяц проверять индексацию страниц в Яндексе и Google, сопоставлять результаты, выявлять, какие страницы отсутствуют в поиске, и принимать меры.

Проблема при мониторинге индексации

Посмотреть проиндексированные страницы не составляет труда. Сделать это можно путем выгрузки отчетов в панелях для вебмастеров:

  • («Индексирование» / «Страницы в поиске» / «Все страницы» / «Скачать таблицу XLS / CSV»);

Возможности инструмента:

  • одновременная проверка проиндексированных страниц в Яндексе и Google (или в одной ПС);
  • возможность проверки сразу всех URL сайта по XML-карте;
  • нет ограничения по количеству URL.

Особенности:

  • работа «в облаке» - не нужно скачивать и устанавливать ПО или плагины;
  • выгрузка отчетов в формате XLSX;
  • уведомление на почту об окончании сбора данных;
  • хранение отчетов неограниченное время на сервере PromoPult.