[导读]:www.a.com 跟 aaa.a.com 解析到同一个程序跟内容 那我在robots.txt中如何写 禁止aaa.a.com的蜘蛛抓取呢? 来蹭蹭水,挂个外链 ### 楼上回答正解 ### User-agent: * Disallow: ### 路过看看...
www.a.com 跟 aaa.a.com 解析到同一个程序跟内容 那我在robots.txt中如何写 禁止aaa.a.com的蜘蛛抓取呢?
来蹭蹭水,挂个外链
###楼上回答正解
###User-agent: *
Disallow:
路过看看
###不是很清楚
###User-agent: *
Disallow: /
在二级域名下这样写 但是一般还是要被抓取 这就是百度 你也无奈
###在二级域名的根目录Robots文件中设置
User-agent: *###
Disallow: /
不好禁止 因为禁止了百度还是一样会抓取的
本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/63954.html