Как исправить «Заблокировано robots.txt» в Google Search Console

Как исправить «Заблокировано robots.txt» в Google Search Console


Заблокировано robots.txt означает, что Google не просканировал ваш URL, потому что вы заблокировали его с помощью директивы Disallow в robots.txt. Это также означает, что URL-адрес не был проиндексирован.

Решение этой проблемы лежит в основе создания здоровой стратегии сканирования и индексации вашего веб-сайта.

Как исправить заблокировано robots.txt

Решение этой проблемы требует другого подхода в зависимости от того, заблокировали ли вы свою страницу по ошибке или намеренно.

Позвольте мне рассказать вам, как действовать в этих двух ситуациях:

Когда вы использовали директиву Disallow по ошибке

В этом случае, если вы хотите исправить Blocked by robots.txt, удалить директиву Disallow, блокирующую сканирование данной страницы.

Благодаря этому робот Googlebot, скорее всего, просканирует ваш URL-адрес в следующий раз, когда будет сканировать ваш веб-сайт. Без дальнейших проблем с этим URL Google также проиндексирует его.

Если у вас много URL-адресов, затронутых этой проблемой, попробуйте отфильтровать их в GSC. Нажмите на статус и перейдите к символу перевернутой пирамиды над списком URL-адресов.

как-фиксировать-заблокирован-by-robotstxt-in-google-search-console - 1 как исправить заблокированный bt robotstxt в консоли поиска Google

Вы можете отфильтровать все затронутые страницы по URL-адресу (или только части пути URL-адреса) и дате последнего сканирования.

Если вы видите Заблокировано robots.txt, это также может означать, что вы намеренно заблокировали весь каталог, но непреднамеренно включили страницу, которую хотите просканировать. Чтобы устранить эту проблему:

  • Включите как можно больше фрагментов пути URL в директиву Disallow. чтобы избежать возможных ошибокили же
  • Используйте директиву Allow, если вы хотите разрешить ботам сканировать определенный URL-адрес в запрещенном каталоге.

При изменении вашего robots.txtя предлагаю вам проверить свои директивы, используя robots.txt Тестер в Google Search Console. Инструмент загружает файл robots.txt для вашего веб-сайта и помогает вам проверить, правильно ли ваш файл robots.txt блокирует доступ к заданным URL-адресам.

READ  Google запускает поддержку пароля для Android и Chrome

Тестер robots.txt также позволяет проверить, как ваши директивы влияют на определенный URL-адрес в домене для данного User-agent, например, Googlebot. Благодаря этому вы можете поэкспериментировать с применением различных директив и посмотреть, заблокирован или принят URL-адрес.

как исправить блокировку robotstxt в консоли поиска Google — 2 как исправить заблокированный робот-роботстхт в консоли поиска Google

Однако вы должны помнить, что инструмент не будет автоматически изменять ваш файл robots.txt. Поэтому, когда вы закончите тестирование директив, вам нужно вручную внести все изменения в свой файл.

Кроме того, я рекомендую использовать Проверка исключения роботов расширение в Google Chrome. При просмотре любого домена инструмент позволяет обнаружить страницы, заблокированные файлом robots.txt. Он работает в режиме реального времени, поэтому поможет вам быстро реагировать, проверять и работать с заблокированными URL-адресами в вашем домене.

Проверить моя ветка в Твиттере чтобы увидеть, как я использую этот инструмент выше.

Что, если вы продолжите блокировать важные страницы в robots.txt? Вы можете значительно ухудшить свою видимость в результатах поиска.

Когда вы намеренно использовали директиву Disallow

Вы можете игнорировать статус «Заблокировано robots.txt» в Google Search Console, если вы не запрещаете какие-либо ценные URL-адреса в файле robots.txt.

Помните, что блокирование ботами сканирования ваших некачественных или дублированный контент совершенно нормально.

И решение о том, какие страницы должны и не должны сканировать боты, имеет решающее значение для:

  • Создайте стратегию сканирования для своего веб-сайта и
  • Значительно поможет вам оптимизировать и сохранить краулинговый бюджет.

СЛЕДУЮЩИЕ ШАГИ

Вот что вы можете сделать сейчас:

  1. Свяжитесь с нами.
  2. Получите от нас индивидуальный план решения ваших проблем.
  3. Раскройте потенциал сканирования вашего сайта!

Все еще не уверены, что напишите нам? Обратитесь за услуги по оптимизации краулингового бюджета для улучшения сканирования вашего сайта.

Заблокировано файлом robots.txt и проиндексировано, но заблокировано файлом robots.txt

Заблокировано robots.txt легко спутать с другим статусом в Отчет об индексации страниц (покрытие индекса) – Проиндексировано, но заблокировано robots.txt.

READ  Являются ли 301 редиректы фактором ранжирования Google?

Разница между этими двумя проблемами заключается в том, что с заблокированным robots.txt ваш URL не будет отображаться в Google. В очереди, с Проиндексирован, хотя и заблокирован robots.txt, вы можете увидеть свой URL в результатах поиска.

Почему Google может захотеть проиндексировать ваш заблокированный URL? Потому что, когда многие ссылки указывают на конкретный URL-адрес с описательным якорным текстом, Google может счесть это достаточно важным для индексации без сканирования.

Кроме того, чтобы найти заблокировано robots.txt, перейдите к таблице «Почему страницы не индексируются» под диаграммой в отчете об индексации страниц.

как исправить блокировку robotstxt-in-google-search-console — 3, как исправить заблокированный bt robotstxt в консоли поиска Google

В свою очередь, индексирование, хотя и заблокировано robots.txt, является частью раздела «Улучшение внешнего вида страницы», который вы можете увидеть под таблицей «Почему страницы не индексируются».

как исправить блокировку robotstxt в консоли поиска Google — 4, как исправить заблокированный bt robotstxt в консоли поиска Google

Помните, что Директива Disallow в robots.txt только запрещает Google сканировать ваши страницы. Его нельзя и не следует использовать для управления индексацией. Чтобы запретить Google индексировать URL-адрес, убедитесь, что вы блокируете его индексирование с помощью тега noindex.

Изучите основы индексации!

Прочтите наше исчерпывающее руководство по тег без индекса для SEO.

Подведение итогов

Статус Blocked by robots.txt означает, что робот Googlebot обнаружил директиву Disallow, применимую к этому URL-адресу в вашем файле robots.txt.

Помните, что робот Googlebot не может сканировать некоторые URL-адреса, особенно когда ваш веб-сайт становится больше. Это нормально. Решение о том, какие страницы на вашем веб-сайте следует и не следует сканировать, является фиксированным этапом создания надежного стратегия индексации для вашего сайта.

И когда правильное сканирование и индексирование — это основа SEO, хорошо организованный файл robots.txt — это только одна его часть.

Свяжитесь с нами для тщательного технический SEO-аудит чтобы ориентироваться в ваших проблемах.

Часто задаваемые вопросы

Что такое robots.txt?

Файл robots.txt содержит директивы для роботов Google и других поисковых систем. Прежде чем сканировать ваш веб-сайт, они посещают этот файл, чтобы узнать, к каким страницам они могут получить доступ, не нарушая ваших пожеланий. Узнайте, как изменить и протестировать файл robots.txt, в нашем окончательном руководстве по robots.txt.





Source link