robots协议(网络术语) - 百度百科
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可...详情
2022 最新Robots.txt文件教程 - 简书
超详细robots.txt大全和禁止目录收录及指定页面 - 简书
robots.txt生成器 - robots.txt写法 - robots协议
robots.txt详解[通俗易懂] - GaoYanbing - 博客园
robots.txt秘籍:管爬虫
8个常见的Robots.txt问题以及如何修复它们__财经头条
8 个常见的 robots.txt 问题及修复方法 - 知乎
什么是 Robots.txt?作用及其使用教程 - 知乎