首页 > 问答 > 谁可以帮我写robots禁止搜索访问吗?100元辛苦费(悬赏18元)

谁可以帮我写robots禁止搜索访问吗?100元辛苦费(悬赏18元)

[导读]:www.sydiver.com 这个网站 不知道怎么设置robots,怕设置错误 你的网站不怎么大,算的上一个中型企业网站,只要把相关的后台程序目录屏蔽掉即可。重要的是做一下log的日志分析。...

www.sydiver.com 这个网站 不知道怎么设置robots,怕设置错误

你的网站不怎么大,算的上一个中型企业网站,只要把相关的后台程序目录屏蔽掉即可。重要的是做一下log的日志分析。然后把死链接统计到txt文档里面传到百度站长工具里面,剩下就做内容和自媒体这块去做,排名3个月基本可以上来。做好友情链接和描文本,排名上的效果很快!

User-agent: * 

Disallow: /admin/

Disallow: /JS/

Disallow: /后台文件目录/

Sitemap: 

###

不同的css的屏蔽的文件各不相同,看到你这个网站应该屏蔽的不多,你要看情况屏蔽   这里有份详细的屏蔽Robots的内容 参考一下  你也可以用站长工具里面  有个  robots在线生成一下 

###

Robots.txt写法如下:

User-agent: *

Disallow: /

###

百度一下一箩筐

###

去淘宝花钱找人写一个多方便

###

不用钱   我给你写   给我网站挂个链接就行

###

这东西。。。。。。。。。。。。。。。。。不要钱的吧

###

我可以,给包烟钱给我就行了

###

加我Q,我来给你写,意思意思即可哈哈,写个这东西,还用这么贵吗?

###

如果禁止所有搜索引擎访问网站的所有部分的话


Robots.txt写法如下:


User-agent: *


Disallow: /

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/51000.html