湖南站长论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 281|回复: 2

网站页面内容为何不容易被百度蜘蛛抓取到

[复制链接]
发表于 2015-1-22 15:37:39 | 显示全部楼层 |阅读模式

帖子内包含图片,需登陆后查看高清大图

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
可能有的朋友会奇怪,网站的页面不是让搜索引擎抓的越多越好吗,怎么还会有怎么让网站页面内容不被抓取的想法。

  首先,一个网站可以分出去的权重是有限,哪怕是Pr10的站,也不可能无限的分权重出去。这权重包括链到别人网站的处链以及自己网站内的内链。

  外链的话,除非是想坑被链的人。否则外链都是需要让搜索引擎所抓取。这不在本文讨论范围之内。

  而内链,因为有些网站有不少重复或冗余的内容。比如一些按条件查询的搜索结果。特别是一些B2C站,在专门查询页或在所有产品页面的某个位置 内,都可以按产品类型,型号,颜色,大小等进行分类搜索。这些页面虽然对浏览者来说是极大的方便,但对搜索引擎来说,这可是耗费蜘蛛极大的抓取时间,特别 是网站页面较多时。同时也会分散页面权重,对SEO不利。

  另外网站管理登陆页面,备份页面,测试页面等等,也是站长不想让搜索引擎所收录的。

  所以就有需要让网页的某些内容,或某些页面不被搜索引擎所收录。

  下面笔者先介绍一下较为有效的几种方法:

  1.在FLASH展示不想被收录的内容

  众所周知,搜索引擎对FLASH的内容抓取能力有限,不能完全抓取所有FLASH内的所有内容。但遗憾的是,也不能完全保证FLASH的所有内容都不会被抓取。因为谷歌和Adobe正努力的实现FLASH抓取技术。

  2.使用robos文件

  这是暂时最有效的方法,但有个很大的缺点。就是不传出任何的内容及链接。大家知道,在SEO来说比较健康的页面应该是有进有出的。有外链的链 入,同时也页面内也需要有链到外部网站的链接,所以robots文件控制,让此页面只进不出,搜索引擎也不知道内容是什么。会把此页定为低质量页面。权重 有可能受一定的惩罚。这个多用于网站管理页面,测试页面等。

  3.使用nofollow标签包裹不想被收录的内容

  这个方法也不能完全保证不被收录,因为这并不是严格要求遵守的标签。另外,如果有外部网站链向了有nofollow标签的页面。这样就很有可能会被搜索引擎抓取。

  4.用Meta Noindex标签加上follow标签

  这个方法可以做到防止收录而且还能传递出权重。要不要传递,看网站建设站长自己的需要。这个方法的缺点是,也是会较大的浪费蜘蛛的抓取页面时间。

  5.用robots文件的同时在页面上使用iframe标签展示需要搜索引擎收录的内容

  robots文件可以阻止iframe标签以外的内容被收录。所以,可以把不想收录的内容放到正常页面标签下。而想被收录的内容放在iframe标签内。

  紧接着,再说一下已经失效的方法,大家以后不要用这些方法了。

  1.使用表格

  谷歌和百度早已经能抓取表格用的内容了,无法阻止收录。

  2.使用Javascript及Ajax技术

  以现在的技术来说,Ajax和javascript现在的最终运算的结果还是以HTML的形式传给浏览器以作显示,所以这同样无法阻止收录。

  初学者大多着眼于如何收录,但细节决定成败。怎么让网站页面内容不被抓取也是SEO进阶人士需要注意的。

大连招标代理www.dlcxzb.com



发表于 2015-1-22 15:41:55 | 显示全部楼层
传说中的沙发???哇卡卡
发表于 2015-1-22 17:47:44 | 显示全部楼层
……
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|湖南站长论坛

GMT+8, 2024-6-12 01:05 , Processed in 0.204645 second(s), 11 queries , Gzip On, MemCached On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表