首页 > 问答 > 关于网站sitemap的问题

关于网站sitemap的问题

[导读]:网站手动每天更新的sitemap,只更新了部分链接,并没有更新全部的网站链接,请问搜索引擎是根据sitemap来抓取,还是根据robots里面写的条件全部抓取网站呢? 没明白?你说的是...

网站手动每天更新的sitemap,只更新了部分链接,并没有更新全部的网站链接,请问搜索引擎是根据sitemap来抓取,还是根据robots里面写的条件全部抓取网站呢?

没明白?你说的是地图xml格式的吧

放在Robots协议中的Sitemap链接,是个纯文本,搜索引擎将这个纯文本抓取,放入url库中识别,然后在进行分析=>计算=》处理。

你网站更新Sitemap,robots的链接不是更新了吗?常理来讲,只不过spider来抓取robots上的文本sitemap链接有一定的周期性,

对于这个话题,你可以采用百度ping,频繁的sitemap更新并不是好事情.个人没有频繁的更新sitemap过,感觉也没多大作用,不知道搜索引擎会不会每天访问地图,看你的站点数据有多少,自己统计下、

比如现在老内容更替可以采用蜘蛛诊断工具
新内容可以采用百度ping,sitemap化为是站点太大,资源分配不合理的一个工具而已,多个分类创建独立的sitemp。小站点做个地图都没必要,

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/25042.html