我们在优化网站的时候,经常会遇到各种重复页面的处理,造成这种情况的原因很多,但是大部分都是程序错误造成的,所以我们在做网站的时候选择一个成熟的程序是很有必要的,这样做网站的时候会省去你很多麻烦。
I. 301跳转重复链接
每个网站将不可避免地经历结构或内容调整。这发生在我做其他网站的时候,因为我第一次建这个网站的时候,我没有太注意目录结构的优化,导致用户体检不佳,搜索引擎也不好。因此,我们决定改变它,这个改变需要把旧的网址改变成一个新的,但同时,我们必须确保旧的网址可以被访问。如果搜索处理不好,会导致两个或更多的URL指向同一个页面。虽然对用户来说没有什么感觉,但对搜索引擎来说,这确实是一次糟糕的经历。因此,我们此时需要做的是使用301跳转到新的网址,这不仅照顾到用户体验,也照顾到搜索引擎。因此,我们在修改网站时要注意301跳转的处理。
其次,robots.txt屏蔽了重复链接
这些问题大多是由程序本身的漏洞或伪静态造成的。例如,我的姐妹痤疮网络论坛使用dz论坛程序,但这个程序本身将有许多重复的网址,所以如果它没有处理好,它将导致许多重复的网页。我的处理方法是先将网址设置为伪静态,然后使用带有“?”的robots.txt参数和以“”结尾的页面。php。当然,这只能避免大部分的重复。如果你想改进它,你需要分析网站日志,看看还有哪些重复的网址,然后把它们屏蔽掉。
第三,链接标签解决了重复
很多时候,我们的一些内容页面,比如产品页面,只是在型号或者颜色上有一些差异,但是它们指的是一种商品,所以有必要在这个时候对url进行标准化。
以上三种重复处理方法都需要灵活应用,基本上需要与应用相匹配才能达到效果。