欢迎您光临自学哈网,只为分享网络知识教程,供大家学习参考!

「自学哈网」搜索引擎蜘蛛爬行和抓取网站的过程步骤

作者 : 自学哈 本文共817个字,预计阅读时间需要3分钟 2022-11-26 共97人阅读
也想出现在这里? 联系我们

搜索引擎蜘蛛,在搜索引擎系统中又被称之为“蜘蛛”或“机器人”,是用来爬行和访问页面的程序。那么搜索引擎蜘蛛爬行和抓取网站的过程步骤是怎么样的?【网站优化

1、蜘蛛访问

相信大家都知道它了,蜘蛛访问任何一个网站时,都会先访问网站根目录下的robots.txt文件,如果robots.txt文件禁止搜索引擎抓取某些文件和目录,蜘蛛会遵守协议,不抓取被禁止的网址。

2、跟踪链接

为了抓取网上尽量多的页面,
搜索引擎蜘蛛跟踪页面上的链接,从一个页面爬到下一个页面,最简单的爬行策略分为两种:一种是深度优先,另一种是广度优先。

深度是指蜘蛛沿着发现的链接一直向前爬行,直到前面再也没有其他链接,然后返回到第一个页面,沿着另一个链接再一直往前爬行。

广度是指蜘蛛在一个页面上发现多个链接时,不是顺着一个链接一直向前,而是把页面上所有第一层链接都爬一遍,然后再沿着第二层页面上发现的链接爬向第三层页面。

3、吸引蜘蛛

SEO人员想要搜索引擎网站收录,就要想办法吸引蜘蛛来抓取,蜘蛛只会抓取有价值的页面,以下是五个影响因素:网站和页面权重、页面更新度、导入链接、与首页的距离、URL结构。

4、地址库

为了避免重复爬行和抓取网址,搜索引擎会建立一个地址库,记录已经被发现但还没有抓取的页面,以及已经被抓取的页面。蜘蛛在页面上发现链接后并不是马上就去访问,而是将URL存入地址库,然后统一安排抓取。

地址库中URL有几个来源:

① 人工录入的种子网站;

② 蜘蛛抓取页面后,从HTML中解析出新的链接URL,与地址库中的数据进行对比,如果是地址库中没有网址,就存入待访问地址库;

③ 站长通过接口提交进来的网址;

④ 站长通过XML网站地图、站长平台提交的网址;

5) 文件存储。搜索引擎蜘蛛抓取的数据存入原始页面数据库。

6) 爬行时进行复制内容检测。

以上就是《搜索引擎蜘蛛爬行和抓取网站的过程步骤》的全部内容,仅供站长朋友们互动交流学习,SEO优化是一个需要坚持的过程,希望大家一起共同进步。

本站声明:
本站所有资源来源于网络,分享目的仅供大家学习和交流!如若本站内容侵犯了原著者的合法权益,可联系邮箱976157886@qq.com进行删除。
自学哈专注于免费提供最新的分享知识、网络教程、网络技术的资源分享平台,好资源不私藏,大家一起分享!

自学哈网 » 「自学哈网」搜索引擎蜘蛛爬行和抓取网站的过程步骤
也想出现在这里? 联系我们
© 2022 Theme by - 自学哈网 & WordPress Theme. All rights reserved 浙ICP备2022016594号