[导读]:由于网站的URL结构和网站结构没有布局好,所以网站只能采取robots文件限制搜索引擎抓取索引,经过robots限制后,最初还能在百度搜索框输入网站全名找到网站信息,经过10多天...
由于网站的URL结构和网站结构没有布局好,所以网站只能采取robots文件限制搜索引擎抓取索引,经过robots限制后,最初还能在百度搜索框输入网站全名找到网站信息,经过10多天后现在输入网站名称已经不能找到网站信息了,这种现象正常吗!
正常啊,你限制了引擎抓取,搜不到正常,之后改回来就行了,等一段时间
###可以重新再写一个协议文件
###正常的
###是正常的,百度其实在站长平台申请闭站就可以了,蜘蛛协议写好也是有必要的,,改版好了在上线
###511神马电影
###等半个月,再看看
###要是Robots设置还能搜到网站才是不正常那说明百度没遵循robots协议,网站修改好robots再允许蜘蛛访问就正常了。至于你说的10多天时间是因为百度对于robots有个时间缓冲!
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/85610.html