robots协议(网络术语) - 百度百科
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可...详情
robots.txt 详解-CSDN博客
【使用手册】🥜🈲18❌❌❌OOO美女🍋_哔哩哔哩
什么是 Robots.txt?作用及其使用教程 - 知乎
细说Robots.txt文件
robots.txt文件的作用及生成-CSDN博客
提醒我的网站受到robots.txt文件限制是怎么回事?
友好速搭robots.txt设置
Robots.txt