首页 > 问答 > 网站更换程序后日志分析里的问题

网站更换程序后日志分析里的问题

[导读]:一个站曾经是用的ASP程序做的,文章内容的URL格式是 xxx.com/show.asp?id=1 这种格式的 列表是 list.asp 因为在622中被K所以就把站给关闭了,前些天不久又用这域名重新 做了个站(站的...

一个站曾经是用的ASP程序做的,文章内容的URL格式是 xxx.com/show.asp?id=1

这种格式的 列表是 list.asp

因为在622中被K所以就把站给关闭了,前些天不久又用这域名重新 做了个站(站的主题与原站相似)

但是最近在日志中发现了

/ show.asp
总抓取量 338

雅虎蜘蛛
225

Sogou Spider
74

BaiDu Spider
39

请教下这是为什么?有没有啥方法来解决

看旧的页面能否访问,是否显示404信息,如果能正常显示404,则不用管它。

###

进来学习一下

###

Robots中可以屏蔽掉这些无效页面.
屏蔽方式:
disallow: 地址

###

看旧的页面能否访问,是否显示404信息,如果能正常显示404,则不用管它。
或者可以去百度站长平台提交一下死链接

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/61564.html