封面
《搜索引擎中的网络蜘蛛技术探析》Word格式可编辑含目录
精心整理放心阅读欢迎下载
文档信息
搜索引擎中的网络蜘蛛技术探析
目录
一网络蜘蛛工作原理
二网路蜘蛛与网站的交互问题
三网络蜘蛛对于文件的处理
(一)二进制文件处理
(二)脚本文件的处理
(三)不同文件类型处理
四网络蜘蛛的策略分析
(一)搜索策略
(二)更新策略
正文
(讯)摘要搜索引擎技术可以从海量的网络信息中获得我们想要的信息随着网络信息资源的急剧增长其作用越来越显著。本文介绍了搜索引擎技术中的网路蜘蛛分析了其对文件的处理方法研究了其搜索与更新策略。
关键字搜索引擎 网路蜘蛛更新策略
一网络蜘蛛工作原理
网络蜘蛛 即搜索引擎机器人程序。将整个互联网想象成一张很大的蜘蛛网而搜索引擎机器人程序通过链接来抓取信息的过程就像是蜘蛛在这张网上爬来爬去一样。 网络蜘蛛是通过链接地址来寻找网页的。它由一个启始链接开始抓取网页内容 同时也采集网页上的链接并将这些链接作为它下一步抓取的链接地址如此循环直到达到某个停止条件后才会停止。停止条件的设定通常是以时间或是数量为依据有时也会以链接的层数来限制网络蜘蛛的运行。
二网路蜘蛛与网站的交互问题
网络蜘蛛访问一个网站通常会去寻找一个特殊的文本文件Robots. txt这个文件如果存在的话通常会放在网站的根目录下。它是专门用来同网络蜘蛛交互用的专用文件。它会将网站管理者的意思传递给访问它的网络蜘蛛告诉网站同意或是禁止某些或是所有蜘蛛访问网站的某个特定的网页或者目录。它的结构和语法都比较简单一般网络蜘蛛都可以很容易的理解网站的意思。正规的搜索引擎通过读取这个文件可以很方便的理解网站的意思并按照网站管理者的意思来进行友好的访问。但是这个仅仅只是网络的一个约定协议而以并没有对其制定相应的强迫手段更没有提出相应的惩罚所以这个约定对于遵守者是有效的但对于那些不懂生规矩的蜘蛛是一点作用都没有。
在网页中的Meta字段同样也可以放入和上面文件相同效用的内容它可以告诉网络蜘蛛这个网页对于网站管理者来说是需要被收录还是仅仅被浏览或是根本就不允许蜘蛛访问。这个字段通常会放在文档的头部通过读取这个字段蜘蛛可以在没有读取到全部文档的情况下就了解文档的相关信息可以避免将无效的网页取下来后又将其废弃而造成无谓的浪费。 同样这个规则也是没有特殊限制的遵守程度完全靠网络蜘蛛的自觉性和网站的设计方式来决定。为了让网站被搜索引擎搜索到尤其是那些网站所有者希望网络蜘蛛采集的网页 网站的设计者通常会在网站中放入一个叫做s itmap.htm的网页并将它作为网站的入口文件。
三网络蜘蛛对于文件的处理
(一)二进制文件处理
网络上除了有大量的HT ML文件和XML文件外也有大量的二进制文件。为了使网页的内容更加丰富 图片和多媒体文件被网页大量的引用。它们在网页上也是以超链接的形式出现的 因而在链接提取的阶段它们也是会被放在待访问队列中。对于二进制文件通过文件的内容来完成文件的索引是不现实的现在的技术还没有达到可以通过二进制文件来理解文件内容的地步。因而对于这些文件的处理一般是采用单独处理的方式其内容的理解完全需要依靠二进制文件的锚点描述来完成。锚点描述通常代表了文件的标题或是基本内容。锚点信息一般是由引用网页来提供而不是放在二进制文件本身。二进制文件由于种类的差别问题也需要分别来进行处理。
(二)脚本文件的处理
这里说的脚本文件一般指的是包含在网页中的客户端脚本它会在网页下载到客户端的时候才会运行通常会在客户端上完成一些简单的交互工作。脚本文件一般会在网页中负责网页的显示工作但由于a j ax技术的广泛使用它也会负责与服务器端的交互工作。 由于脚本语言的多样性和复杂性对它的分析处理无异于制作一个简单的网页解析程序。正是因为处理脚本文件相当困难许多小规模的搜索引擎往往会直接省略对它的处理。但是由于现在网站设计者对于无刷新页面要求的提高和对a j ax技术的大量使用如果忽略了对它的处理将会是一项巨大的损失。
(三)不同文件类型处理
对于网页内容的提取分析一直是网络蜘蛛的重要技术环节。对于网上不同文件类型文件的处理 网络蜘蛛通常是采用插件的方式来处理。它会有一个比较智能化的插件管理程序负责管理不同的插件对于需要处理的不同类型的文件它会调用不同的插件来处理。之所以是采用插件的形式主要是出于扩展性方面的考虑。互联网上有许多不同类型的文件不同的文件需要完全不同的处理方式而且这个网络是不断变化的随时会有新文件类型出现的可能。而要完成对新类型的处理最简单的方法就是给新类型编写新的插件然后将插件直接交由管理程序来管理。 同时这个插件的编写最好是由新文件格式的制造者自行完成通常只有制造者才最了解新格式定义的意义。
四网络蜘蛛的策略分析
(一)搜索策略
网络蜘蛛的搜索策略指的是如何根据抓取下来的URL地址来选择访问地址先后的一种标准或规则。它将指导蜘蛛程序下一步的执行方向。搜索策略一般有深度优先的搜索策略和广度优先的搜索策略两种。
广度优先的搜索是最简便的图搜索算法在数据结构上通常会以先进先出的队列结构为主管理和实现起来都相当的简单一般被认为是盲目的搜索。它是一种以搜索更多的网页为优先的一种贪婪的搜索策略。它会先读取一个文档保存下文档上的所有链接然后读取所有这些链接文档并依次进行下去。这样做的好处是避免了在极短的时间内连续访问这台服务器上的文档的可能性 因为一个文档上的链接通常会有几个跳到别的服务器上这样做十分有利于避免影响别的服务器工作。这种方法也通常被应用于聚焦爬虫中。其基本思想是认为与初始uRL在一定链接距离内的网页具有主题相关性的概率很大。同时它还可以使尽可能多的服务器有文档被索引服务器收集。它的缺点是很难深入到文档里面而且随着抓取网页的增多大量的无关网页将被下载并过滤算法的效率变得十分的低下。
深度优先的搜索策略是以先进后出的栈方式来处理URL地址的。 网络蜘蛛程序分析一个文档并取出它的第一个链接所指的文档继续分析然后如此继续下去。它的优点就是能够较好的深入和发掘站点的
结构而且这种算法十分稳定效率方面也是有所保障的。它对于搜索部分小的网站是有好处的。它的缺点是十分明显的不断的短时间的访问同一台服务器的问题将非常的严重而且它还容易陷入无限循环的文档树这种算法处理这个问题的能力相当的有限。
将两种算法结合起来也是一种不错的办法这两种算法互有长短有些地方也可以形成互补。 以一种算法为主一种算法相辅的办法可以达到取长补短的效果。除了以上的算法之外最好优先算法也经常被采用它通过对采集的链接通过一些关于网页质量和效率的算法来排序优秀者将优先被抓取。但是这个关于质量和效率的算法则又有许多不同的版本在这里就不作详细的展开了。除去这些常用的算法还有一些不常被人采用的优秀算法如Hash算法遗传算法等。
(二)更新策略
索引中大量的网页是很少变化的对所有的网页按照同一频率统一更新是完全没有必要的。因而以网页变化的周期为依据只对那些经常变化的网页做更新操作也是一些小型的搜索引擎常采用的方法。但是只对部分网页做更新可能会漏掉一些重要网页的更新工作所以网络爬虫也经常采用个体更新的策略。它是以个别网页的变化频率来决定对网页的更新频率这样一来基本上每个网页都会有一个独立的更新频率。
虽然这样做对于网页更新基本做到了变化与更新同步在逻辑上也最合乎实际情况但是为每个网页都维护不同的频率在不同的周期
上对少数页面做更新更新的频率加快了每次更新的数量却减少了这对于系统来说是极人的浪费。为了解决这种情况可以将这些频率按照几个等级分类把更新快的和更新慢的分成几个集合然后给每个集合定一个甲均的更新的频率用这个频率分别对不同的集合统一进行更新可以平衡以上的矛盾获得更好的效果。 编选
“搜索引擎中的网络蜘蛛技术探析”文档源于网络本人编辑整理。本着保护作者知识产权的原则仅供学习交流请勿商用。如有侵犯作者权益请作者留言或者发站内信息联系本人我将尽快删除。谢谢您的阅读与下载
目前云服务器市场竞争是相当的大的,比如我们在年中活动中看到各大服务商都找准这个噱头的活动发布各种活动,有的甚至就是平时的活动价格,只是换一个说法而已。可见这个行业确实竞争很大,当然我们也可以看到很多主机商几个月就消失,也有看到很多个人商家捣鼓几个品牌然后忽悠一圈跑路的。当然,个人建议在选择服务商的时候尽量选择老牌商家,这样性能更为稳定一些。近期可能会准备重新整理Vultr商家的一些信息和教程。以前...
关于半月湾HMBCloud商家之前也有几篇那文章介绍过这个商家的产品,对于他们家的其他产品我都没有多加留意,而是对他们家的DC5机房很多人还是比较喜欢的,这个比我们有些比较熟悉的某商家DC6 DC9机房限时,而且半月湾HMBCloud商家是相对便宜的。关于半月湾DC5机房的方案选择和介绍:1、半月湾三网洛杉矶DC5 CN2 GIA同款DC6 DC9 1G内存 1TB流量 月$4.992、亲测选择半...
傲游主机怎么样?傲游主机是一家成立于2010年的老牌国外VPS服务商,在澳大利亚及美国均注册公司,是由在澳洲留学的害羞哥、主机论坛知名版主组长等大佬创建,拥有多家海外直连线路机房资源,提供基于VPS主机和独立服务器租用等,其中VPS基于KVM或者XEN架构,可选机房包括中国香港、美国洛杉矶、韩国、日本、德国、荷兰等,均为CN2或者国内直连优秀线路。傲游主机提供8折优惠码:haixiuge,适用于全...