что значит Crawl-delay в файле robots.txt?
исследовал файл с стороннего сайта, и наткнулся на Crawl-delay директиву. Что она значит?
1 ответов
Эта директива указывает пауку таймаут при сканировании, помогает когда сервак очень загружен и не успевает отдавать контент роботу, из за чего может выпасть из индекса поисковика.
Эта директива устанавливается в секундах.
Crawl-delay: 4
значит что робот не будет сканировать страницы сайта чаще чем раз в 4 секунды.
Хочу добавить, что "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").
Пример:
User-Agent:*
Disallow:/admin.php
Host: bdee.ru
Sitemap: http://bdee.ru/sitemap.xml
User-agent: Yandex
Crawl-delay: 10
User-agent: MSNbot
Crawl-Delay: 20
User-agent: Slurp
Crawl-Delay: 20
User-agent: googlebot
crawl-delay: 10