分类筛选
分类筛选:

关于网络爬虫论文范文资料 与基于Python专用型网络爬虫的设计与实现有关论文参考文献

版权:原创标记原创 主题:网络爬虫范文 科目:毕业论文 2024-03-13

《基于Python专用型网络爬虫的设计与实现》:此文是一篇网络爬虫论文范文,为你的毕业论文写作提供有价值的参考。

摘 要:网络爬虫一种网络机器人,也有人说是网页的蜘蛛.随着科技在生活和工作中的应用,计算机也成了人们最为依赖的工具,随着互联网的信息管理量的逐渐增加,搜索引擎也是这个时期被创造并投入使用.但是初被使用的搜索引擎是无法精确搜索到人们需要的信息,面对人们越来越多样的需求,这样的搜索引擎已经无法满足人们的需求了.所以就有人研究了一种专用性的网络爬虫,它能解决传统搜索引擎的出现的局限性,所以该文将会对Python专用型的网络爬虫进行分析和探讨.

关键词:网络爬虫;Python;数据的挖掘;搜索引擎

在很多用户进行搜索引擎的使用中,往往会出现很多不需要的信息,这就是传统搜索引擎的局限性.通过传统的搜索引擎进行信息的搜索中,还需要用户对搜索到的信息进行分析,最终寻找到自己需要的信息.就目前的网络发达现状,这样的搜索引擎是非常浪费时间的,而且准确性也不高,用户很容易丧失搜索的心情.所以,本文将会针对这一问题,对专用型的网络爬虫进行分析,提高信息检索的效率.

1分析Python和爬虫系统设计需求

1.1Python的网络爬虫

网络爬虫主要是通过每个网页的链接地址进行相关内容的查找,然后将结果直接传送给用户,不用通过人工进行浏览器的操作来获取信息了.而Python是一种广泛应用的脚本语言,它自身带有urllib2、urllib相关的爬虫基础库等,在Python语言的基础上开发出的一种开源软件则是Scrapy,它可以在Linux、Windows等多种操作系统中使用.如果被获取的网页经过大量的HTML源代码进行编写,这种情况下需要下载很多内容,但是用户可以在Scrapy爬虫系统上制定一部分模块,从而实现爬虫的功能.

1.2爬虫系统设计需求

在进行网络爬虫系统的开发时,对系统建设进行分析是基础性问题,同时也要将符合设计该系统的代码和功能规范提出来.这样能够促进网络爬虫系统顺利的开发,进而保证开发的结果能够符合系统功能的基本需求.网络爬虫系统的建设基本上同时通过模块化进行的设计,一般每个功能都要自己的模块.这样能够方便以后进行代码的维护,而且还能提高代码的重要性.将整个系统分成不同的模块,之后把每个模块的功能编制完成,这样整个网络爬虫体系的功能就是已经完成了.本系统主要是根据某些用户的上网习惯,进行网络专用型的爬虫系统设计,根据用户的不同需求,确定网络爬虫系统中的各个功能.而且在进行系统的设计时,还要考虑系统以后的改进和维护等问题.本文会结合网易和豆辦网等进行爬虫系统的分析,以及建立爬虫系统的内容.

1.3功能需求分析

网易新闻关于爬虫的建立,主要包含几个功能部分:新闻的标题、新闻的来源、新闻的ID等,然后在将抓取的信息储存在数据库中.在网易新闻中需要爬虫获取的URC连接是动态的,并不是固定的,所以在建立爬虫的URL模块时,要先解决URL连接的去重,以及访问对策等问题.根据网易新闻中原站点的各种新闻状态,可以看出如果所有的新闻被发布完之后,就不会进行第二次的更新,所以在建立网易新闻爬虫的时候,当抓取结果的之后,就不必在对数据库中的信息进行更新了,只需要把网站上更新的内容储存到数据库中就行了.相关的爬虫结构框架可见图1.

1.4爬虫功能的设计

网易新闻在进行爬虫功能的设计时,相关的逻辑是:首先,在网易新闻建设爬虫的时候,是不会将前端的页面和它之间进行交互的,网易是在系统中先进行任务的定时设置,之后爬虫根据定时的任务进行运作,如此实现了一种自动定时到网站原点进行新闻的抓取功能.其次,当网易爬虫被定时的任务驱使运作时,它会根据原有的URL规则,在原点站内相关的节点目录进行分析,将对符合需求的URL连接实施抓取工作,之后再将抓取的结果进行信息的提取和过滤.最后,把获取的新闻信息与数据库中的内容进行比较,如果数据库中没有这一条新闻的话,将新的数据插入到数据库中,如果有这样的信息就停止爬虫.该运行流程可以见图2.

2爬虫页面管理功能的分析

2.1爬虫页面的抓取

进行爬虫页面的抓取任务是实现爬虫程序的第一步.在进行页面的抓取时,需要获取目标站点相关的动态,还要建立DNS解析与去重记录等功能.另外,在利用爬虫抓取页面的时候,也要保证抓取的目标站点是处于可抓取的状态.也就是说如果一些目标站只有用户登录之后,才能对服务器中的资源进行相应的请求,对于这样的站点就需要建立一个登录目标站点的模拟,在进行页面的抓取.模拟登录顺利通过目标站点有关登录的限制.这个方法主要是按照目标站点的规则进行的,它主要是利用用户名和密碼、cookies和伪造的User-Agent与Ref-erer等进入站点,然后将返回的session和服务器实现请求交互,之后在实施页面的抓取,进而完成整个抓取页面的任务.

在进行页面的抓取中,DNS解析以及去重URL记录环节是整个抓取模块的重要部分.在进行大量的页面抓取工作时,需要通过URL地址才能进行,所以在进行URL的请求时,必须先对URL进行解析.如果在进行URL解析的数据不较多的话,那么DNS的解析会成为抓取页面的瓶颈,想要解决DNS解析这一问题,可以对DNS解析的结果直接进行本地缓存.去重记录主要是对抓取完成之后的URL地址实施记录的去重.抓取页面的时间是有一定时间限制的,所以只能抓取一次.在进行页面的抓取时,要做好相应的记录去重,这样是为了避免出现重复抓取的情况,如此就会影响系统运行的性能和信息的高效性.

2.2爬虫页面的处理

在抓取页面完成之后,还需要对页面进行一定的整理.进行页面处理时,首先需要对HTML相关的源代码进行过滤和处理,分析出需要的信息,然后在对分析出的结果信息进行整合,最后实施入库的操作.一般对页面进行处理时都是使用正则表达式,如果HTML源码比较多的话,在通过正则表达式进行编写时是比较困难的.

网络爬虫论文参考资料:

计算机网络论文

计算机网络毕业设计

网络安全论文

网络营销论文

网络营销相关论文

网络论文

结论:基于Python专用型网络爬虫的设计与实现为关于对不知道怎么写网络爬虫论文范文课题研究的大学硕士、相关本科毕业论文网络爬虫论文开题报告范文和文献综述及职称论文的作为参考文献资料下载。

和你相关的