В статье расскажем
Индексация сайта простыми словамиКак происходит сканирование сайтаКак проходит индексация сайтаКак проходит индексация сайта в ЯндексеКак проверить индексациюКак узнать сколько страниц проиндексировано на сайтеСервисы для анализа сайтовЯндекс.Вебмастер и Google Search ConsoleС помощью специализированных программ для SEO, например Allsubmitter, Netpeak CheckerКак выгрузить список проиндексированных страниц сайта в Яндексе и GoogleПоисковые операторы ЯндексаПоисковые операторы GoogleПолучение списка страниц входа из систем веб-аналитикиСписок страниц по которым сайт показывается в выдаче в Яндекс.ВебмастереПлагин для API Google Webmasters: Google Search Analytics for SheetsСерверные логи сайтаКак проверить индексацию конкретной страницы в Яндексе и GoogleКак массово проверить индексацию списка страницКак проверить разрешена индексация/сканирование страницы в Robots.txtВ ЯндексеВ GoogleКак узнать динамику числа проиндексированных страницПочему число проиндексированных страниц может отличаться в разных сервисахЗапрет индексации страницЗапрет индексации с помощью Meta Noindex/X-Robots-TagКак запретить индексацию страницы в robots.txtПочему заблокированные в robots.txt страницы отображаются в выдачеИспользование атрибута canonical для запрета индексации дубликатовИспользование директивы clean-param для удаления из индексаИнструмент Параметры URL в Google Search ConsoleЗапрет индексации через файл .htaccessЗапрет сканирования, индексации с помощью кодов ответа сервера 3хх/4ххУдаление страниц из индексаУдаление страниц или каталогов через Search ConsoleУскоренное удаление из индекса страниц в ЯндексеКак добавить страницы в индекс Яндекса или GoogleКак проверить обход / сканирование сайта поисковыми системамиКак часто происходит индексация сайтаКак улучшить и ускорить индексацию сайтаКак ограничить скорость сканирования сайта

Часто происходит путаница в терминологии: под индексацией иногда подразумевают сканирование сайта или совокупность и сканирования и индексации. В этом нет большой ошибки, часто путаницу вносят сами мануалы поисковых систем. Иногда  в текстах Яндекса и Гугла можно увидеть использование термина индексация в разных контекстах, например:

Индексация сайта простыми словами

Так что же такое индексация: если кратко, то индексация (или индексирование, indexing) — один из процессов работы поисковых систем по построению поисковой базы в результате которого содержимое страниц попадает в индекс поисковой системы.

Для большей ясности приведу терминологию, а потом опишу все процессы.

Терминология

Планировщик (Scheduler) — программа, которая выстраивает маршрут обхода интернета роботами исходя из характеристик страниц, таких как частота обновления документов, востребованность этих страниц, цитируемость.

Crawler, Spider (Паук) Googlebot, YandexBot. Робот, ответственный за обход и скачивание страниц из интернета в порядке очередности, который задается планировщиком. Подразделяются на:

  1. Основной робот, обходящий контент в порядке общей очереди.
  2. Быстрый робот (быстроробот или быстробот).  Робот, который использует свежий индекс, на основе группы заданных хабовых страниц с важной, часто обновляемой информацией, например, с новостями популярных СМИ.

Сканирование (Crawling) — процесс загрузки страниц краулером в результате чего они попадают в хранилище, в виде сохраненных копий.

Краулинговый спрос: это то, как часто и в каком объеме робот бы хотел сканировать конкретные страницы.

Краулинговый лимит: ограничения скорости сканирования на стороне сайта, связанные с производительностью сайта или заданным вручную ограничением.

Краулинговый бюджет — это совокупность краулингового спроса и доступной скорости сканирования сайта (краулингового лимита). Простыми словами — это то сколько робот хочет и может скачать страниц.

Сохраненная копия — необработанная копия документа на момент последнего сканирования.

Поисковый индекс — информация со страниц, приведенная в удобный для работы поисковых алгоритмов формат. Список всех терминов и словопозиций где и на каких страницах они упоминаются. Информация хранится в базе в виде инвертированного индекса. Схематический пример:

Индексация — процесс загрузки, анализа содержимого документа документа с последующим включением в поисковый индекс.

Поисковая база — это совокупность поискового индекса, сохраненных страниц и служебной информации о документах, таких как заголовки, типы и кодировка документов, коды ответов страниц, мета теги и др.

Как происходит сканирование сайта

Так как ресурсы поисковых систем не безграничны, планировщик составляет очередь обхода страниц, исходя критериев их полезности, востребованности, популярности и др. Каждый сайт получает свой краулинговый бюджет исходя из скоростных характеристик сайта и таких критериев как:

  1. Доля полезных/мусорных страниц на сайте, дубликаты
  2. Спамные и малополезные страницы
  3. Наличие бесконечной генерации страниц, например, некорректной фасетной навигации
  4. Популярность страниц
  5. Насколько актуальные версии страниц сайта, содержащиеся в поисковой базе

Робот в постоянном режиме скачивает страницы и помещает их в хранилище, заменяя старые версии. Мы можем увидеть их в виде сохраненных копий. Далее уже происходит индексация страниц.

Стратегия роста вашего сайта от Rush

Получите бесплатно стратегию 
в которой мы:

  • Проведем всесторонний аудит вашего сайта
  • Покажем точки роста
  • Составим прогноз роста трафика и лидов

    Как проходит индексация сайта

    Индексацию можно условно разбить на следующие процессы:

    1. Загрузка и разбор страницы по элементам: текст, мета-теги, микроразметка, изображения, видео и другой контент и служебные данные.
    2. Анализ страницы по определенным параметрам, например: разрешена ли она к индексации, сканированию, является ли неглавной копией другой страницы, содержит ли страница малополезный, спамный контент и др.
    3. Если страница успешно прошла все проверки, она добавляется в индекс.

    Как проходит индексация сайта в Яндексе

    Все описанное в предыдущем пункте справедливо и для Яндекса и для Google. Какие есть особенности индексации у Яндекса?

    У Google обновление поисковой базы — непрерывный процесс. В Яндексе обновление происходит во время Апдейтов, примерно раз в три дня. О том что произошло обновление можно узнать по уведомлениям в Яндекс.Вебмастере

    Как проверить индексацию

    Есть разные способы для проверки статуса индексации сайтов и отдельных его страниц:

    1. Вебмастер Яндекса
    2. Панель Google Search Console
    3. API панели для вебмастеров Yandex/Google
    4. SEO-сервисы, например Rush Analytics
    5. Плагины и расширения для браузеров
    6. Поисковые операторы ПС
    7. GA/Метрика
    8. Серверные логи

    Выбор сервиса зависит от поисковой системы, а также задачи: узнать сколько страниц всего в индексе, получить список проиндексированных страниц или проверить статус индексации конкретной страницы или списка страниц. Подробнее расписано ниже.

    Как узнать сколько страниц проиндексировано на сайте

    Расширения для браузера

    Быстрые способы проверить статус индексации сайта — расширения и букмарклеты для браузера, например RDS-бар

    Сервисы для анализа сайтов

    Так же можно проверить с помощью сервисов, таких как pr-cy.ru

    Яндекс.Вебмастер и Google Search Console

    Если есть доступы к панелям вебмастеров, можно получить количество проиндексированных страниц в панелях вебмастеров:

    Яндекс Вебмастер — http://webmaster.yandex.ru/ 

    Google Search Console — https://search.google.com/search-console/

    С помощью специализированных программ для SEO, например Allsubmitter, Netpeak Checker

    Это может понадобиться когда нужна пакетная проверка параметров чужих сайтов.

    Пример проверки числа проиндексированных страниц в Netpeak Checker.
    Проверка индексации сайтов в Яндекс:

    Проверка индексации сайтов в Google:

    Пример проверки индексации сайтов в Яндекс и Google в Allsubmitter.

    Как выгрузить список проиндексированных страниц сайта в Яндексе и Google

    Яндекс Вебмастер: Отчет индексирование -> Страницы в поиске -> Все страницы

    Внизу страницы ссылки на скачивание файла — cуществует ограничение в 50 000 страниц.

    Google Search Console: в отчете Покрытие — выбираем нужные типы страниц.

    Переходим в нужный отчет и скачиваем список страниц в удобном формате. Google отдает только 1 000 страниц.

    Поисковые операторы Яндекса

    Запрос для поиска страниц в пределах одного домена — url:www.site.ru/* | url:site.ru/* | url:site.ru | url:www.site.ru.

    Запрос для поиска с учетом всех поддоменов — site:site.ru

    Список операторов и инструкцию по работе с ними можно посмотреть в справке Яндекса.

    Ограничение: можно получить только 1000 результатов. Нужны специальные инструменты чтобы скопировать список страниц SERP: расширения браузера, букмарклеты или программы для парсинга выдачи.

    Поисковые операторы Google

    Запрос для поиска страниц в пределах одного сайта — site:site.ru

    Получение списка страниц входа из систем веб-аналитики

    Списки страниц входа из органики Яндекса в системах аналитики Яндекс.Метрика и Google.Analytics. Страницы по которым идут переходы с органической выдачи с большой вероятностью индексируются, но для точности рекомендуется проверять индексацию собранных страниц — индекс не статичен и страницы могут выпадать из индекса.

    Список страниц по которым сайт показывается в выдаче в Яндекс.Вебмастере

    Для выгрузки большого списка страниц из Яндекс.Вебмастера потребуется специальный скрипт.

    Плагин для API Google Webmasters: Google Search Analytics for Sheets

    Отображает страницы по которым были показы сайта в выдаче.

    Преимущества выгрузки списка страниц через API в том что можно получить десятки тысяч страниц, которые с большой вероятностью проиндексированы, в отличие от веб-интерфейса где установлено ограничение по выгрузкам в 1000 страниц.

    Серверные логи сайта

    Получить список страниц которые посещает робот можно из логов, например с помощью программы SEO Log File Analyser от создателей Screaming Frog.

    Как проверить индексацию конкретной страницы в Яндексе и Google

    Сервис Яндекс.Вебмастер: Индексирование -> Проверить статус URL

    Проверка с помощью оператора пример запроса url:https://site.com/page/

    Сервис Google Search Console: инструмент “Покрытие”: Нужно ввести в указанной на скрине строке поиска URL-адрес своего сайта и откроется отчет о статусе страницы.

    Проверка с помощью оператора: пример запроса site:https://habr.com/ru/news/t/468361/

    После отмены оператора info остался оператор site, но он выдает не всегда точные данные, можно сократить список результатов с помощью указания уникального текста проверяемой страницы.

    Как массово проверить индексацию списка страниц

    Для проверки можно использовать SEO-сервисы, например Rush Analytics.
    Это позволяет массово проверить индексацию до десятков-сотен тысяч страниц

    Как проверить разрешена индексация/сканирование страницы в Robots.txt

    В Яндексе

    Проверить доступна ли роботам страница или содержит запрет можно через. Инструменты -> Анализ robots.txt

    В Google

    Инструмент проверки файла robots.txt

    Важно: если файл robots.txt отдает 404 ошибку, боты считают что разрешено сканирование всего сайта без ограничений. Если файл отдает ошибку 5хх, то Googlebot считает это полным запретом на сканирование сайта, но если ошибка отдается более 30 дней — считает что разрешено сканировать весь сайт без ограничений. Яндекс любые серверные ошибки считает отсутствием файла robots.txt и отсутствием ограничений на обход и индексацию сайта.

    Как узнать динамику числа проиндексированных страниц

    С помощью специализированных сервисов, например: https://be1.ru/

    С помощью Яндекс Вебмастера: в разделе Индексирование -> Страницы в поиске.

    С помощью Google Search Console: в отчете Покрытие.

    Почему число проиндексированных страниц может отличаться в разных сервисах

    Нужно понимать что проиндексированные страницы и страницы в поиске это разные сущности. Не все проиндексированные страницы будут включены в поиск и не все страницы в поиске будут показываться через операторы поиска — операторы лишь выводят результаты пустого поиск по сайту а не список всех страниц. Но этого в большинстве случаев достаточно чтобы оценить порядок числа проиндексированных страниц сайта.

    Финансовая модель окупаемости от Rush (это бесплатно)

    Прозрачно покажем на сколько вы сможете увеличить продажи с сайта

    • Проведем всесторонний аудит вашего сайт
    • На основе аудита составим прогноз по трафику, конверсии, лидам и продажам
    • Покажем прогнозные сроки окупаемости

      Запрет индексации страниц

      Запрет индексации с помощью Meta Noindex/X-Robots-Tag

      Для гарантированного исключения попадания страниц в индекс можно использовать атрибут Noindex Мета Тега Robots или HTTP-заголовка X-Robots-Tag. Подробнее про этот атрибут можно прочитать тут.

      Важно: Использование запрета индексации в через Meta/X-Robots-Tag Noindex вместе с запретом в Robots.txt

      При добавлении директивы Noindex в мета-тег Robots и http-заголовок X-Robots-Tag, чтобы ее прочитать, робот должен просканировать страницу, поэтому она должна быть разрешена в файле Robots.txt. Следовательно для точечного запрета индексации страниц иногда требуется снять запрет в robots.txt или добавить директиву Allow, чтобы робот смог переобойти эти страницы.

      Несмотря на вышеописанное, запрет в robots.txt в большинстве случаев все таки приведет к тому, что страницы не будут индексироваться, но его нельзя использовать для закрытия персональных данных или страниц с конфиденциальной информацией.

      Как запретить индексацию страницы в robots.txt

      Стоит сразу упомянуть что запрет в robots.txt не является надежным методом закрытия страниц от индексации.

      В файле robots.txt  указываются основные директивы для запрета или разрешения обхода/индексации отдельных страниц или разделов сайта.

      Важно: Многие ошибочно считают что директива Disallow в Robots.txt служит для запрета индексации страниц, это не совсем так. Основная цель файла Robots.txt — управление трафиком поисковых роботов на сайте, а не индексацией / переиндексацией и разные поисковые системы по разному интерпретируют запрет.

      Многие вебмастера не понимают почему после запрета страницы в robots.txt она продолжает находиться в индексе и приносить трафик. Запрет посещения и обновления страницы роботом не означает, что он обязан удалить уже присутствующую в индексе страницу. К тому же для индексации не всегда обязательно физически сканировать страницу, информацию о ней можно собирать из различных источников, например, из анкоров входящих ссылок.

      Почему заблокированные в robots.txt страницы отображаются в выдаче

      В Яндексе и Google различается механизм обработки директив файла Robots.txt.  Для Google директива Disallow в robots.txt запрещает лишь обход страниц, но не их индексацию из-за чего часто появляются страницы со статусом:

      Для запрета индексации в Google через файл Robots.txt ранее использовалась незадокументированная директива Noindex в Robots.txt, но с сентября 2019 года Google перестал поддерживать ее.

      На данный момент для надежного запрета индексации страниц в Google рекомендуется использовать атрибут Noindex Мета Тега Robots и HTTP-заголовка X-Robots-Tag.

      Яндекс же, наоборот, воспринимает запрет в Robots.txt Disallow: как сигнал к запрету и сканирования и индексирования сайта и после добавления директивы Disallow: страницы будут удалены из индекса.

      Стратегия роста вашего сайта от Rush

      Получите бесплатно стратегию 
в которой мы:

      • Проведем всесторонний аудит вашего сайта
      • Покажем точки роста
      • Составим прогноз роста трафика и лидов

        Использование атрибута canonical для запрета индексации дубликатов

        Для консолидации дубликатов или похожих страниц страниц используется атрибут canonical, который указывает поисковикам по какому адресу рекомендуется индексировать страницу. Носит рекомендательный нестрогий  характер.

        Два типа использования:

        1. Тег <link> с атрибутом rel=«canonical»
        2. HTTP-заголовок rel=canonical

        Использование директивы clean-param для удаления из индекса

        Директива clean-param файла Robot.txt используется только Яндексом. Указывает незначащие параметры, которые будут по возможности вырезаться из URL-адресов при обходе сайта. Страницы, запрещенные в Clean-Param будут исключены из индекса.

        Инструмент Параметры URL в Google Search Console

        Похож на Clean-Param Яндекса в Robots.txt, но управляет только сканированием, а не индексацией.

        Запрет индексации через файл .htaccess

        Можно заблокировать сайт для посещения роботами с помощью директив в файле .htaccess:

        SetEnvIfNoCase User-Agent «^Googlebot» search_bot

        SetEnvIfNoCase User-Agent «^Yandex» search_bot

        Запрет сканирования, индексации с помощью кодов ответа сервера 3хх/4хх

        Чтобы гарантированно запретить роботам скачивать страницы, можно отдавать ботам при сканировании страниц коды:

        1. 301 редирект: особенно подходит для запрета дубликатов и склейки их с основными страницами;
        2. 403 Forbidden: доступ запрещен;
        3. 404 Not Found: не найдено;
        4. 410 Gone: удалено;

        Удаление страниц из индекса

        Удаление страниц или каталогов через Search Console

        Инструмент не запрещает страницы к индексации или сканированию — он лишь временно скрывает страницы из поисковой выдачи. Рекомендуется использовать только для экстренного удаления страниц, случайно попавших в выдачу, после этого уже физически удалить их или запретить сканирование/индексацию.

        Ускоренное удаление из индекса страниц в Яндексе

        На сайт должны быть подтверждены права. Можно удалить только страницы, которые недоступны для робота: запрещенные в robots.txt или отдавать код 3хх, 4хх.

        Для удаления из индекса Яндекса страниц чужого сайта можно воспользоваться формой — https://webmaster.yandex.ru/tools/del-url/.

        Требования к URL-адресам такие же: запрет в robots.txt или коды ответа 301, 403, 404, 410 и т.п.

        Как добавить страницы в индекс Яндекса или Google

        Роботы постоянно ходят по ссылкам на сайтах. Для ускорения добавления существуют инструменты:

        1. Sitemap.xml. Добавьте и регулярно обновляйте актуальный список страниц в сайтмапах сайта.
        2. В Яндексе: инструменты -> переобход страниц
        3. В Google: Проверка URL -> Запросить индексирование

        Как проверить обход / сканирование сайта поисковыми системами

        Яндекс:

        Общее количество загруженных (просканированных) Яндексом страниц можно увидеть на главной странице вебмастера.

        Динамику обхода страниц можно увидеть на странице Индексирование -> Статистика обхода.

        Google: отчет: статистика сканирования сайта.

        Также можно проверить обход сайта всеми поисковыми роботами с помощью анализа серверных логов сайта (Access logs). Например, через программу SEO Log File Analyser.

        Как часто происходит индексация сайта

        Поисковые боты постоянно равномерно загружают страницы сайта, далее выкладывая их в обновленный индекс: Google обновляет индекс в постоянном режиме, Яндекс во время апдейтов поисковой базы, примерно раз в три дня.

        Частота сканирования и переиндексации каждого отдельного сайта различается, и зависит от факторов:

        1. объем контента/страниц сайта
        2. краулинговый спрос поисковой системы для текущего сайта
        3. настройки скорости сканирования в вебмастерах
        4. скорость  работы сайта

        Как улучшить и ускорить индексацию сайта

        Рекомендации для увеличения охвата страниц индексом поисковых систем:

        1. качественный уникальный контент, востребованный пользователями;
        2. все основные страницы должны быть в валидных сайтмапах sitemap.xml;
        3. оптимизация вложенности страниц;
        4. оптимизация краулингового спроса/бюджета;
        5. хорошая скорость сайта;
        6. закрывать лишние страницы, чтобы не тратить на них ресурсы роботов;
        7. внутренняя перелинковка;
        8. создание ротарора на сайте (Ловец ботов).
        Получите бесплатный разбор вашего сайта

        Расскажем как быстро увеличить продажи с сайта уже на третий месяц работ

        Покажем где вы теряете лиды и составим пошаговый план работ

        Заполните форму, чтобы получить пошаговый план

        • Разработаем персональную стратегию для вашего сайта
        • Проведем в zoom разбор стратегии совместно с нашей командой

          Как ограничить скорость сканирования сайта

          Обычно если требуется ограничить нагрузку, которую создают роботы, то у сайта большие проблемы и это негативно скажется на его индексации. Боты стараются быть “хорошими” юзерами и сканируют сайт равномерно, стараясь не перегружать сервера.

          То что сайт от этого испытывает проблемы с нагрузкой, в 90% случаев может быть сигналом к смене хостинга/сервера или оптимизации производительности CMS. Но в случае крайней необходимости все таки можно задать рекомендуемую скорость сканирования сайта.

          Для ограничения скорости обхода сайта можно воспользоваться инструментами Яндекс.Вебмастер и Google

          Яндекс
          Google

          Google:
          В старой версии консоли можно было временно ограничить максимальную скорость  сканирования сайта

          В обновленной консоли такой возможности нет, но можно отправить сообщение о проблеме с активностью GoogleBot’а на сайте — https://www.google.com/webmasters/tools/googlebot-report

          Хочешь увеличить продажи из органики?
          За 3 дня составим набор точечных рекомендаций по вашему сайту, как за 1 месяц сделать рост на 30-50%

            Поделиться
            Репостнуть
            Твитнуть