robots.txt 生成器

通过多个 user‑agent 规则块构建 robots.txt:支持 Allow/Disallow、可选 Crawl-delayHostSitemap。输入时预览会实时更新。

User‑agent 规则块

全局

说明:Host 会被部分爬虫(如 Yandex)识别;Google 不使用 Crawl-delay,但其他爬虫可能会使用;通配符 *$ 在实践中被广泛支持(不属于核心 RFC)。

预览(robots.txt)

URL 测试器

提示:robots.txt 是公开可访问的,只对遵守规范的爬虫起建议作用;它不是访问控制机制。

评论 (0)

分享你的想法——请保持礼貌并围绕主题。

暂无评论。留下评论,分享你的观点!

要发表评论,请先登录。

登录后发表评论