Вы планируете закрыть свой сайт на день или дольше? Согласно совету Джона Мюллера, эксперта Google по поиску, вот пять способов подготовиться.
Мюллер делится этим советом в твиттере, ссылаясь на соответствующие страницы справки Google.
Осторожно, спойлеры — нет хорошего способа временно закрыть сайт. Вам следует избегать этого, если это вообще возможно.
Тем не менее, есть вещи, которые вы можете сделать, чтобы свести негативное влияние к минимуму.
Рекомендации Мюллера включают:
- Использовать код состояния HTTP 503
- Поддерживать HTTP 503 не более суток
- Изменить файл robots.txt, чтобы он возвращал код состояния 200.
- Будьте готовы к последствиям, если сайт не работает более суток
- Ожидайте сокращения сканирования от Googlebot
Более подробная информация об этих рекомендациях и о том, как бороться с негативными последствиями перевода сайта в автономный режим, объясняется в следующих разделах.
1. Код состояния HTTP 503
При переводе веб-сайта в автономный режим убедитесь, что он передает поисковым роботам код состояния HTTP 503.
Когда поисковые роботы, такие как Googlebot, обнаруживают код состояния 503, они понимают, что сайт недоступен, и могут стать доступными позже.
С кодом 503 сканеры знают, что нужно снова проверить сайт, а не удалить его из поискового индекса Google.
Мюллер объясняет, как проверить код состояния 503 с помощью Chrome:
1. Они должны использовать HTTP 503 для «закрытых» страниц. Вы можете проверить это в Chrome, щелкнув правой кнопкой мыши: «Проверить», выберите «Сеть» вверху, затем обновите страницу. Проверьте верхнюю запись, она должна быть красной и показывать статус 503. pic.twitter.com/dkH7VE7OTb
— 🌽〈ссылка href=//johnmu.com rel=canonical 〉🌽 (@JohnMu) 19 сентября 2022 г.
2. Хранить код состояния 503 не дольше суток
Робот Google вернется на сайт после того, как впервые столкнется с ошибкой 503, но не будет возвращаться навсегда.
Если робот Googlebot видит код 503 день за днем, он в конечном итоге начнет удалять страницы из индекса.
Мюллер говорит, что в идеале вы должны хранить код состояния 503 не более суток.
«Сохранять статус 503 — в идеале — максимум сутки. Я знаю, не все ограничивается 1 днем. «Постоянный» 503 может привести к исключению страниц из поиска. Будьте экономны с 503 раза. Не беспокойтесь о настройке «повторить попытку после».
3. Robots.txt — код состояния 200
В то время как страницы закрытого веб-сайта должны возвращать код 503, файл robots.txt должен возвращать код состояния 200 или 404.
По словам Мюллера, файл robots.txt не должен показывать ошибку 503. Робот Google будет считать, что сканирование сайта полностью заблокировано.
Кроме того, Мюллер рекомендует использовать Chrome DevTools для проверки файла robots.txt вашего веб-сайта:
2. Файл robots.txt должен возвращать либо 200 + правильный файл robots.txt, либо 404. Он должен *не* возвращать 503. Никогда не верьте, если на странице отображается «404», это все еще может быть 503 — проверьте это. . pic.twitter.com/nxN2kCeyWm
— 🌽〈ссылка href=//johnmu.com rel=canonical 〉🌽 (@JohnMu) 19 сентября 2022 г.
4. Подготовьтесь к негативным последствиям
Как мы упоминали в начале этой статьи, нет способа перевести сайт в автономный режим и избежать всех негативных последствий.
Если ваш сайт будет отключен более суток, подготовьтесь соответствующим образом.
Мюллер говорит, что страницы, скорее всего, выпадут из результатов поиска независимо от кода состояния 503:
«Хм… Что делать, если сайт хочет закрыться более чем на 1 день? Независимо от того, какой вариант вы выберете (503, заблокировано, без индекса, 404, 403), будут негативные последствия — страницы, скорее всего, выпадут из результатов поиска».
Когда вы снова «откроете» свой веб-сайт, проверьте, индексируются ли критически важные страницы. Если это не так, отправьте их на индексацию.
5. Ожидайте меньшего сканирования
Неизбежным побочным эффектом использования кода 503 является сокращение сканирования, независимо от того, как долго оно длится.
Мюллер пишет в Twitter:
«Побочным эффектом даже 1 дня 503-х является то, что Googlebot (примечание: все это с объективом Google, я не знаю других поисковых систем) замедляет сканирование. Это маленький сайт? Это не имеет значения. Это гигант? Ключевое слово — «краулинговый бюджет».
Сокращение сканирования может повлиять на сайт несколькими способами. Главное, о чем следует помнить, это то, что для индексации новых страниц может потребоваться больше времени, а для отображения обновлений существующих страниц в результатах поиска может потребоваться больше времени.
Как только робот Googlebot обнаружит, что ваш сайт снова в сети и вы активно его обновляете, скорость сканирования, скорее всего, вернется к норме.
Источник: @JohnMu в Твиттере
Рекомендуемое изображение: BUNDITINAY/Shutterstock