首页 > 问答 > TP后台程序,关于robots使用 Disallow:问题

TP后台程序,关于robots使用 Disallow:问题

[导读]:网站是用thinkphp开发的,url的开发的规则和phpcms实现不一样,举例子:http://ask.SEOwhy.com/publish/链接中的【publish】在TP后台中不是栏目,而是实现的一种方法,回到问题,如何把...

网站是用thinkphp开发的,url的开发的规则和phpcms实现不一样,举例子:http://ask.SEOwhy.com/publish/链接中的【publish】在TP后台中不是栏目,而是实现的一种方法,回到问题,如何把publish/ 禁止百度蜘蛛收录,但是允许下面的xxx.html(xxx.html是多个的)收录的。
我的的理解是:
Disallow: /publish/
Allow: .html$ 仅允许访问以".htm"为后缀的URL。

求各位大神指点。

直接不让蜘蛛引擎检索到啊

###

按你的意思,你只是不想收录publish这一个页面而已,就一个页面还有必要去纠结这个问题么?

###

这样的情况,建议使用加nofollwo来解决
在网站任何页面出现这个栏目页链接ask.seowhy.com/publish/时
都给这个链接加上nofollwo。Robots里面写法可能不好实现。

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/78057.html