首页 > 问答 > 如此大站,大量重复页面,是有意为之吗?

如此大站,大量重复页面,是有意为之吗?

[导读]:偶然间翻看一个网站,发现一些个人不理解的事情,贴出来希望大家帮忙解释解释。某药品B2C网站,产品页面的url领我不解,下面贴出四个url, 1:http://www点jianke点com/product/55...

偶然间翻看一个网站,发现一些个人不理解的事情,贴出来希望大家帮忙解释解释。某药品B2C网站,产品页面的url领我不解,下面贴出四个url,
1:http://www点jianke点com/product/555点html
2:http://www点jianke点com/product/0555点html
3:http://www点jianke点com/product/00555点html
4:http://www点jianke点com/product/000555点html
这四个url都能打开,而且http返回代码都是200,进入网页可以发现网站的标题,页面内容等等都是完全一样的。同类产品页面都有此类现象出现,在url数字前面添加0,网页都能打开。不知道该站是处于什么原因做这些?同时站内文章中的锚文本推荐也做了同一关键词的不同url链接。

你好 不得不说我是这个站得seo 所以其他猜测不攻自破。谢谢

因为我们产品页面的是 product/id中开头是0是缺省的 是一个技术遗留问题
所以卢兄和清云兄所说并不是真正原因。如果制造页面不会制造这么少,增加收录机会是减少层级和增加入口,而不是做重复页面。
重复不是无限得,不信你试试。当然这样是不符合规范得,不要学哈
首先 网站在这方面像你说的那种url入口较少 并未产生多少重复页面

感谢细心,解决这个应该做一个技术处理,再head代码中增加唯一url标示!

另外这个真不是增加收录的。。囧

###

应该不是有意的
是无意的
这样没有什么好处 只有坏处

###

谢邀请。这肯定是个BUG!

这是动态参数的问题,我也有遇到过类似的URL情况。而且出现在很多中型的网站上面,相信这里也会有人知道,就是列表页中的筛选结构URL当中被很多人忽略的页码参数设置误区。

www。kissbb。com/www。kissbb。com/www。kissbb。com/www。kissbb。com/www。kissbb。com/www。kissbb。com/www。kissbb。com/这批都是完全可以打开的页面。如果谁家的网站也有筛选页,请检查你的参数。

变动的参数 “1-6—100”其实都能打开正常页面,可以说是有无数的URL对应在一个页面上。

这个参数1-6,甚至到100,这个参数是页码。但是却把它设置为默认。这是url参数的一个设置问题。属于bug。当页码在到最后一页,例如一共6页,URL中页码参数到6为止,当页码参数到7时候,应该出现“页面不存在”!

百度强调URL的唯一性,当然错误参数的URL是不会有任何指向的,但是URL是完全可以打开的,这明显不合理。对于百度来说,是否能察觉这些bug的URL,还是个未知数。但是对于一个网站,这类URL是存在的,而且是无限存在。如果百度能够知道这批bug的url页面,权重的流失是必然的。

当然,我在大站点是没有发现过这类bug的URL页面存在的。我查过京东、阿里巴巴、万表网等大站。

###

我们网站也是这样的。都是技术不过关,残留下来的问题。

###

公司的两个站都是页面收录千万级的,多数页面都是批量产生,一不小心就会有重复的页面。上述情况及可能是无意为之,网站管理者还没发现.

###

谢邀,这种的,肯定不利于seo,重复太多的话,用户不喜欢,百度相信也不喜欢,貌似这个和泛解析站群类似,软件生成上百、上千个大量重复的页面,虽然,短时间有排名,但是很快就消失了。

总之,太多的重复,不如单一点好,权重也不至于分散。

###

网站程序生成了多个不同的URL,而页面完全相同,从SEO的角度上来讲是页面重复度太大,不利于网站。从操作来讲多个URL多个被收录的机会,有的页面单一的URL虽然页面独立唯一性,但是很多页面搜索引擎却不会收录。而当多个URL的时候,产品的页面增加了4倍。
原先10000产品,独立性,被收录的有5500个。
现在10000产品,非独立性,页面数量40000,收录产品量19800个。独立产品8900个。虽然存在了重复产品被收录,但是也增加了原先没有被收录的产品的被收录页面。在收录的独立产品页面进行权重传递和优化,通过技术手段让其他相同页面权重低于着陆页。

###

我最近一直在考虑如何解决这个问题,百度已经收录了大量的这种杂沓二级域名,是以前泛解析造成了,加之网站年限较久,没有经过SEO规范URL的唯一性,导致了现在非常棘手的问题。
更让人崩溃的是在去掉泛解析以后百度还可以抓取杂沓二级域名下的目录页面。这种情况给网站带来的流量损失巨大,用户体验也很不好。
虽说spider可能会在已经建立的索引页面里继续寻找新的链接,但是泛解析已经取消(至目前已经两周的时间),这些杂沓二级域名及其下面所有的链接已经打不开,检测HTTP状态码显示“未解析的域名”,为何还会找到新产生的链接并且加以收录?
目前我能想到的方法,一是使用百度站长工具提交全站的Sitemap给百度,二是在站内增加适量的新页面的入口,给spider更多更快的爬行通道,三是适量增加针对内容页的外链,无论是爬行通道也好还是稍微带些权重给内页也好都是可以。
我曾想过是否将已经收录的这些杂沓二级域名及其内页URL统计一下提交死链,最后想想还是算了,因为去掉泛解析就是这个域名不存在了,而并不是返回404错误页面,这个方法第一个被我抛弃了。
方法是否可行、时效有多长还不清楚,正在测试,如果有更好的建议还请各位提出讨论

本文来自投稿,不代表微盟圈立场,如若转载,请注明出处:https://www.vm7.com/a/ask/34325.html