欢迎您光临自学哈网,只为分享网络知识教程,供大家学习参考!

「自学哈网」网站优化中应对蜘蛛抓取基本策略

作者 : 自学哈 本文共1094个字,预计阅读时间需要3分钟 2022-11-26 共129人阅读
也想出现在这里? 联系我们

网站优化中蜘蛛实际抓取网页的过程中,因为网页内容的复杂性(文本、Flash、
视频等)和技术实现的多样性(纯静态、动态加载等),为了更高效地利用蛛蛛资源,搜索引擎公司会置顶不同的抓取策略,作为SEO人员,可以参考搜素引擎公司对抓取策略的描述,采用最大化的SEO方法。

作为国内最大的搜索引擎公司,百度在它的官方文档中是如下这样描述抓取策略的。

互联网资源具有庞大的数量级,这就要求抓取系统尽可能高效地利用带宽,在有限的硬件和带宽资源下尽可能多地抓取到有价值的资源。这就造成了另一个问题,耗费被抓取网站的带宽造成访问压力,如果程度过大,将直接影响被抓取网站的正常用户访问行为。因此,在抓取过程中要进行一定的抓取压力控制,实现既不影响网站的正常用户访问,又能尽量多地抓取到有价值资源的目标。

通常情况下,采用的最基本的方法是基于IP的压力控制。这是因为如果基于城名,可能存在一个域名对多个IP (很多大网站)或多个城名对应同一个IP
(小网站共享IP
)的问题。实际工作中,往往根据IP及域名的多种条件进行压力控制。同时,站长平台也推出了压力反馈工具,站长可以人工调配对自己网站的抓取压力,这时Baiduspider将优先按照站长的要求进行抓取压力控制。

对同一个站点的抓取速度控制一般分为两类:其一
,一段时间内的抓取频率;其二,一段时间内的抓取流量。同一站点不同的时间抓取速度也会不同,例如,夜深人静的时候抓取的可能就会快一些。
也视具体站点类型而定,主要思想是错开正常用户访问高峰,不断地调整。对于不同站点,也需要不同的抓取速度。

上面的描述很简洁,但是从这个描述里面,我们可以得到启发,蜘蛛抓取页面是有压力控制的,对于特别大型的网站来说,不可能指望蜘蛛爬行到一个网站后,会一次性抓取到所有的网站,因此,作为SEO人员来说,尽量减少蜘蛛的压力,对网站的网页收录是有好处的。一般来说,减轻蜘蛛压力有以下两种方法。

方法一:采用Nofollow
(反垃圾链接的标签)的策略,将蜘蛛引导到最有价值的页面。Nofollow标签用来告诉蜘蛛,如果遇到带着此标签的页面或者链接,就不要继续追踪了,这样蜘蛛就可以爬行到其他更加有用的页面。

方法二:在Sitetap中定义不同页面的权重和更新频率,就是在网站的Sitemap文件中,定义好每个链接的权重和更新的频率,这样,蜘蛛在爬行到这些链接和页面的时候,会识别哪些页面比较重要,
可以重点抓取,哪些页面更新比较频繁,需要蜘蛛分配更多的注意力。

以上就是《网站优化中应对蜘蛛抓取基本策略》的全部内容,仅供站长朋友们互动交流学习,SEO优化是一个需要坚持的过程,希望大家一起共同进步。

本站声明:
本站所有资源来源于网络,分享目的仅供大家学习和交流!如若本站内容侵犯了原著者的合法权益,可联系邮箱976157886@qq.com进行删除。
自学哈专注于免费提供最新的分享知识、网络教程、网络技术的资源分享平台,好资源不私藏,大家一起分享!

自学哈网 » 「自学哈网」网站优化中应对蜘蛛抓取基本策略
也想出现在这里? 联系我们
© 2022 Theme by - 自学哈网 & WordPress Theme. All rights reserved 浙ICP备2022016594号