在人们开展seo优化的情况下大家总会碰到解决各种各样反复页面,产生这种因素有许多,但大多是主要是因为程序错误而造成,所以我们在做站的情况下挑选一套完善的程序流程很有必要的,这会使你在做站的情况下省掉许多不便。
一、301跳转反复连接
每一个网址都在所难免历经构造或是信息的调节。在做其他网站的情况下也经历过这样的事,由于当时建这一站的情况下,不太留意目录结构的提升,造成之后客户常规体检不太好,对搜索引擎也不是很好。因此确定改,而这一改就就必须把旧的url变为一个新的,可是与此同时要确保旧的url可以浏览,假如解决不太好检索便会造成有2个或是大量的url偏向同一个页面,尽管对使用者而言是感觉不出什么,可是对搜索引擎而言的确个不行的感受,因此这个时候我们应该做的是用301凑合得url跳转到新的url,那样既兼具了客户体验,也照料了搜索引擎,与此同时还还能凑合得url权重值迁移到新的url上。因此在开展网站改版升级的过程中一点需要注意301跳转的解决。
二、robots.txt屏蔽反复的连接
这种难题大多数主要是因为程序流程自身的缺陷,或是由301重定向而产生的,例如我的闺蜜去痘网社区论坛,用的是dz论坛程序流程,不过这一程序流程自身会出现许多反复的url,因此假如解决不太好那会导致许多的反复页面,我自己的处理方法,是先用吧url设成301重定向的,随后用robots.txt带有“?”主要参数的页面,和以".php"末尾的页面。自然这只有防止绝大多数反复,如果你想优化,还要分析网站日志,了解一下也有这些反复的url,随后屏蔽。
三、link标签处理反复
有些时候他们的,一些具体内容页例如商品页,仅仅在型号规格或是在色泽上面有一些差别,而自身所说的是一种商品的情况下,这个时候就要标准url,
之上3种解决反复的方法都要灵便运用,基本上是必须配搭了运用才可以达到效果。