作为一名Seoer,URL规范化是一个必需解决的问题,标准URL说白了就是当有多少个不同的URL指向统一个页面时,告知搜索引擎哪个URL才是你想要,而不是让搜索殷勤自己去断定,所以规范URL是对搜索引擎友爱的一个做法,下面我就分享下URL规范化的几种方式。第一种,301重定向,这个能够说是大家最常见的,也是用到最多的,301重定向个别都是用在新老域名、新旧URL、及把不带www的域名转到带www域名上,不管是虚拟主机、独破服务器都可以重定向,假如是虚构主机的话,首先要断定该主机是否支撑301,而后依据操作体系、跟服务器类型抉择不同的规矩进行301,在这里不作过多说明,独立服务器做301也可以参考教程,,盼望大家可以自己去尝试,本人探索到的比别人教你的要记的牢。不外切记不要把301做成302了,所以做完应当测试下是否是301。第二种,“canonical”标签,这个可能对良多人来说很生疏,这个标签就是提议搜索引擎从几个不同URL中挑选目的URL,但这只是个建议,不是命令,,详细用法可以参考如下:对网站来说,包括多个列有同组产品的网页很畸形。例如,一个网页可能按字母表次序显示产品,而其余网页则依照价钱或评分显示相同产品。例如:如果 Google晓得这些网页的内容雷同,我们可能只会将搜索成果的一个版本编入索引。咱们的算法会取舍我们以为可以最好地答复用户查问的网页。不过,当初用户可以通过将<link> 元素和rel="canonical"属性增加到该网页非规范版本的 <head>部门,为搜索引擎指定规范网页。增添此链接和属性可以让网站领有者辨认出哪些网页存在相同的内容,从而向 Google提出倡议:“在内容相同的所有网页中,此网页最有用。请将该网页排在搜索结果中靠前的地位。”(本段来自GG辅助文章)第三种,Robots.txt,如果一个网站有反复内容或呈现上面那种情形,大家也可以通过robots屏蔽掉自己认为不需要介入排名的URL。第四种,Noindex标签,原理同上,也就是让你不须要参加排名的URL不被搜寻引擎索引,用法:把该语句<Metaname="Robots" Content="Noindex"> 加在相干网页的head局部。文章出处http://www.big-bit.com