首页 > 问答 > 为什么robots.txt禁止没有用 蜘蛛还是抓取?而且蜘蛛抓取的大部

为什么robots.txt禁止没有用 蜘蛛还是抓取?而且蜘蛛抓取的大部

[导读]:如题 图如下: Robots.txt禁止抓取文件搜索引擎将不访问,不抓取;但要注意,被robots稳健禁止抓取的url还可能出现在搜索结果中,只要有导入链接指向这个url,搜索引擎就知道这...

如题
图如下:

Robots.txt禁止抓取文件搜索引擎将不访问,不抓取;但要注意,被robots稳健禁止抓取的url还可能出现在搜索结果中,只要有导入链接指向这个url,搜索引擎就知道这个url的存在

###

百度有些时候不太遵循Robots协议。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/37394.html