登录论坛 | 注册会员 设为首页 | 收藏本站
当前位置 : 首页>软件学院>网络技术>网络技巧>正文
 
Google优化蜘蛛爬取和索引的技巧

http://www.dbit.cn 2009/8/14 8:50:18  来源:网络整理  编辑:叶子
 
  怎样让你的网站更快的被搜索引擎发现?最重要的原因之一可能就是让搜索蜘蛛更好的抓取和搜索你的网站。我们可以尝试一些技巧让这个过程对搜索引擎来说尽可能的简单化,同样的,对站长们也是如此。

  由于google掌控者搜索市场的大部分的份额,所以应时时关注和听取它的一些动态。“Google发表了一篇叫做优化蜘蛛爬取和索引的技巧”,是不是该引起我们的注意呢?

  文中内容高度强调可以提高你站点爬取的能力的一些技巧,下面是陈列的关于URL的具体的例子。

   “互联网是个大世界,时时刻刻都有新的内容被发表,创造,”Google 分析师Susan Moskwa说到。“Google 拥有无限的资源,所以当它面临几乎无限的在线的可利用的资源时,google的蜘蛛只有能力去找寻和爬取一部分的内容,而面对已经爬取了的内容,我们又只能索引一部分。”

   Moskwa说:“URL就像一座连接你站点和搜索引擎蜘蛛之间的桥梁,蜘蛛需要能够找到并通过这座桥梁(IE,找到并爬取你的URL)到达你的网站内容页,如果你的URL地址过于复杂或是太冗余,蜘蛛就要花费很多时间去跟踪并反跟踪自己爬取的脚印,如果URL地址被很好的组织着,并直接指向相关区域的内容,这样就不会爬取到空白或是重复的内容页了。”

   如果你想被Google更好的索引,你必须删除URL地址中用户具体信息。具体情况可浏览幻灯片。基本上URL的参数时不会改变网页的内容,所以这些参数应该要删除或是放入cookie中。这样就会减少很多URL指向同一个内容的数量,加快检索。(这里应该指的就是尽量使用静态地址,少产生一些用户自带的参数的重复URL)

  Google说漫无目的的无限的空间和广度其实很浪费时间,所以对于那些是唯一地址的不管是过去的还是将来的url地址,最好有一个时间标志。例如example/2009/08//11/title

  告诉Google那些网页可以忽略它不需要爬取。包括一些登陆的页面,联系方式,购物车和其他的页面,类似于要求用户去执行的行为,蜘蛛是无法识别操作的。可以通过使用robots.txt文件来实现。

  最后,尽可能避免重复的内容。Google希望每一个内容页面都对应一个唯一的地址。当然他们不可能全部的识别出来,因此会有一些典型链接因素存在让你去鉴别哪些特定内容网页的URL更被人们喜爱。
收藏】【打印】【进入论坛
  相关文章:

 
 
 
最新文章

抢先苹果,消息称英特尔芯片采用台积电
三星揭晓业内首款单条 512GB DDR5 内存
vivo 高端新机爆料:120Hz 曲面屏 + 天
vivo Y21 在印度正式上市:Helio P35 芯
微星推出 GeForce RTX 3080 Sea Hawk X
消息称三星 Galaxy Tab S8 系列平板将放
机械革命推出 F6 轻薄本:16 英寸全面屏
英特尔 12 代 Alder Lake CPU 600 系列
雷军:向小米手机 1 首批用户每人赠送价
小米李明谈用户被踢出 MIUI 测试版:大

推荐文章
1
2
3
4
5
6
7
8
9
10
叛逆嫩模性感写真
宫如敏不雅照疯传 看张馨予韩一菲兽兽谁
不惧孔子抢位 阿凡达游戏影音配置推荐
2015第十七届“东北安博会”火爆招商
第十六届东北国际公共安全防范产品博览
2016年第五届中国国际商业信息化博览会
2016年第五届中国国际POS机及相关设备展
互联网电视熟了吗 2013最火电视深解析
桑达获邀出席2015中国(广州)国际POS机
宝获利报名参加“2015年度中国POS机行业
八卦图解 More>>
叛逆嫩模性感写真 宫如敏不雅照疯传 看张馨予韩一菲
周伟童魔鬼身材日本性感写真图  联想V360笔记本模特写真