python-网络爬虫.docx
《python-网络爬虫.docx》由会员分享,可在线阅读,更多相关《python-网络爬虫.docx(66页珍藏版)》请在课桌文档上搜索。
1、抓取网页的含义和UR1.基本构成1、网络爬虫的定义网络爬虫,即WebSpider,是一个很形象的名字。把互联网比方成一个蜘蛛网,那么SPider就是在网上爬来爬去的蜘蛛.网络蜘蛛是通过网页的链接地址来找寻网页的。从网站某一个页面(通常是首页)起先,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址找寻下一个网页,这样始终循环下去,直到把这个网站全部的网页都抓取完为止。假如把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上全部的网页都抓取下来。这样看来,网络爬虫就是一个爬行程序,一个抓取网页的程序.网络爬虫的基本操作是抓取网页。那么如何才能为所欲为地获得自己想要的页面
2、?我们先从UR1.起先。2、阅读网页的过程抓取网页的过程其实和读者平常运用IE阅读器阅读网页的道理是一样的。比如说你在阅读器的地址栏中输入baidu这个地址。打开网页的过程其实就是阅读器作为一个阅读的“客户端,向服务器端发送了一次恳求,把服务器端的文件抓”到本地,再进行说明、呈现。HTM1.是一种标记语言,用标签标记内容并加以解析和区分。阅读器的功能是将获得到的HTM1.代码进行解析,然后将原始的代码咕变成我们干脆看到的网站页面.3、URl的概念和举例简洁的来讲,UR1.就是在阅读器端输入的baid这个字符串。在理解UR1.之前,首先要理解URI的概念。什么是URI?Web上每种可用的资源,如
3、HTM1.文档、图像、视频片段、程序等都由一个通用资源标记符(UniVerSalResourceIdentifier,URI)进行定位。URl通常由三部分组成:访问资源的命名机制;存放资源的主机名;资源自身的名称,由路径表示。如下面的URI:我们可以这样说明它:这是一个可以通过协议访问的资源,位于主机webmonkey上,通过路径7htmlhtml40访问.4、UR1.的理解和举例UR1.是URl的一个子集。它是UniformResource1.ocator的缩写,译为统T源定位符.通俗地说,UR1.是Intemet上描述信息资源的字符串,主要用在各种WWW客户程序和服务器程序上。采纳UR1.
4、可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和书目等.UR1.的格式由三部分组成:第一部分是协议(或称为服务方式)。其次部分是存有该资源的主机IP地址(有时也包括端口号)。第三部分是主机资源的具体地址,如书目和文件名等.第一部分和其次部分用符号隔开,其次部分和第三部分用7符号隔开。第一部分和其次部分是不行缺少的,第三部分有时可以省略。下面来看看两个UR1.的小例子。1 .协议的UR1.示例:运用超级文本传输协议,供应超级文本信息服务的资源.例:/peopledailychannelwelcome.htm其计算机域名为peopledaily超级文本文件(文件类型为html)是在
5、书目/channel下的welcome.htm.这是中国人民日报的一台计算机。例::/talktalkl.htm其计算机域名为o超级文本文件(文件类型为html)是在书目/talk下的talkl.htm这是瑞得闲聊室的地址,可由此进入瑞得闲聊室的第1室。2 .文件的UR1.用UR1.表示文件时,服务器方式用file表示,后面要有主机IP地址、文件的存取路径(即书目)和文件名等信息。有时可以省略书目和文件名,但7符号不能省略.例:fileftp.yoyodynepubfilesfoobar.tt上面这个UR1.代表存放在主机ftp.yoyodyne上的PUb/files/书目下的T文件,文件名是
6、foobar.tto例:file:ftp.yoyodyne/pub代表主机ftp.yoyodyne上的书gpubo例:fileftp.yoyodyne/代表主机ftp.yoyodyne的根书目爬虫最主要的处理对象就是UR1.,它依据UR1.地址取得所须要的文件内容,然后对它进行进一步的处理。因此,精确地理解UR1.对理解网络爬虫至关重要。利用urllib2通过指定的UR1.抓取网页内容所谓网页抓取,就是把UR1.地址中指定的网络资源从网络流中读取出来,保存到本地.类似于运用程序模拟IE阅读器的功能,把UR1.作为恳求的内容发送到服务器端,然后读取服务器端的响应资源。在Python中,我们运用u
7、rllib2这个组件来抓取网页。urllib2是Python的一个获得UR1.s(UniformResource1.oCatOrS)的组件。它以urlopen函数的形式供应了一个特别简洁的接口。最简洁的urllib2的应用代码只须要四行。我们新建一个文件urllib2.testl.py来感受一下urllib2的作用::/baidu2response=urllib2.urloen(3htnl-response.read()4. printhtnl按下F5可以看到运行的结果:_7iPythonSheillefdiShelebgQptionsWindowsyelwimu=+p;img.src=ttp
8、:/nsclck.babds.coran.user;funccioIn_addTJ(obj)(addEV(obJrmousedownfunction(e)vare=e11window.event;varItargete.targete.SrcElenient;ns_c(fm,:,behslr,cab,:target.na11etj-user,Ir,unSencodeURICoaponent(un););for(var1=0;1for(var三0;nv.length;*)(nv(i).name,tj_,tj_nv(i;)for(vari三0;1Ik.length;i+)(lki.na11e三tj
9、-tjlJci;)();(functlon()3:(key*,hccp:/I/music.baidu.consearc7frps6ieucf-8,ttjiJ11g:wordtrhttp:/image.baidu.Icom2cr三201326592&cl=24nc三141m=-i4st三-lfctn=baduiEage4i3cype三2ifm=pv=iz=04ie=uItf-8)ztjvideol:wordrhttp:/video.b:?*)+wd+,encodeURICo11ponent(key);target.href-url;)else(target.href-targeIz.ref.ma
10、tch(newRegExp(*hctp:/.+)0;neie&ns_c(rm:bIehs,r,cab,:name,query1:encodeURICoraponent(key)z,un:encodeURICo11onent(bds.cIorra.user);)();addEV(wrloadfunction()Jc.focus();w.onunload=funcIton();age-response.read()5. printthe_page可以看到输出的内容和testl是一样的.urllib2运用相同的接口处理全部的UR1.头。例如你可以像下面S瞭创建一个ftp恳求.pythonv*sewR
11、mAnCOPY1.requrllib2.Request(ftpzeanple,)在恳求时,允许你做额外的两件事。1 .发送data表单数据这个内容信任做过Web端的都不会生疏,有时候你希望发送一些数据到UR1.(通常UR1.与CGI通用网关接口脚本,或其他WEB应用程序挂接)。在中,这个常常运用熟知的POST恳求发送.这个通常在彳朋是交一个HTM1.表单时由你的阅读器来做。并不是全部的POSTs都来源于表单,你能够运用POST提交随意的数据到你自己的程序。一般的HTM1.表单,data须要编码成标准形式。然后做为data参数传到ReqUeSt对象。编码工作运用urllib的函数而非urllib
12、2我们新建一个文件urllib2jest03.py来感受一下:1. uporturllib3.url*,:/soneserver/register.cgivalues(,nae:,WHY,l,location:,SDU,language:,Python*)10. data=urllib.urlencode(values)#漏用f11. requrllib2.Request(url,data)*及E昱求,J时传da衣依12. response-urllib2.urlope11(req)#按2IrN的J13. thejage-response.read()#i:取反愦的内部假如没有传送data参数
13、,urllib2运用GET方式的恳求。GET和POST恳求的不同之处是POST恳求通常有副作用,它们会由于某种途径变更系统状态(例如提交成堆垃圾到你的门口)。Data同样可以通过在Get恳求的UR1.本身上面编码来传送。1. importurllib22. importurllib3.4. data三5.6. dataa11e,),hHY,7. data(,location,三,SDU,8. datalanguage*-,Python*9.10. url-values-urllib.urlencode(data)11. printur】_values12.13. na11e-Sonebody*
14、Herelanguage-Pytbon8ilocation-Northampton14. url,:/earrpleeafrple.cgi,15. fullJrI=url,url-vales16.17. data-urllib2.op11(full-url)这样就实现了Data数据的Get传送。2.设置Headers到恳求有一些站点不喜爰被程序(非人为访问)访问,或者发送不同版本的内容到不同的阅读器.默认的UHlib2把自己作为Python-Urllibx.y仅和y是PythOn主版本和次版本号,例如Python-urllib/2.7),这个身份可能会让站点迷惑,或者干脆不工作。阅读器确认自己
15、身份是通过USer-Agent头当你创建了一个恳求对象,你可以给他一个包含头数据的字典。下面的例子发送跟上面一样的内容,但把自身模拟成IntemetExplorere1. importurllib2. importurllib23.4. url-,:/so11eservercgibin/register.cgi,5.6. USeJagent三,Kozilla4.(compatible;MSIE5.5;WindowsNT)7. values-,ne,:,WHY8. ,location*:,SDU,9. ,language*:*Python,)10.11. headersNtUser-Agenf:
16、user-agent)12. dataurllib.urlencode(values)13. req-urllib2.Request(url,datajheaders)14. response=urllib2.urlopen(req)15. the-age三response.read()异样的处理和状态码的分类先来说一说的异样处理问题.当urlopen不能够处理一个response时,产生UrIErroro不过通常的PythonAPIs异样如VaIueErrorlTypeError等也会同时产生。Error是UrIError的子类,通常在特定UR1.s中产生.1.UR1.Error通常,UR1
17、.Error在没有网络连接(没有路由到特定服务器),或者服务器不存在的状况下产生.这种状况下,异样同样会带有reason属性,它是tuple(可以理解为不行变的数组),包含了一个错误号和一个错误信息。我们建urllib2jest06.py来感受一下异样的处理:importurllib2baibai,)req-urllib2.Request(,:/try:urllib2.urlopen(req)excepturllib2.UR1.Error,e:printe.reason按下F5,可以看到打印出来的内容是:Errno11001getaddrinfofailed也就是说,错误号是IlOOl,内容是
18、getaddrinfofailed2.Error服务器上每一个应答对象response包含一个数字状态码有时状态码指出服务器无法完成恳求。默认的处理器会为你处理一部分这种应答。例如:假如response是一个重定向须要客户端从别的地址获得文档,urllib2将为你处理。其他不能处理的,urlopen会产生一个Error.典型的错误包含404(页面无法找到),403”(恳求禁止),和40(带验证恳求)。状态码表示协议所返回的响应的状态。比如客户端向服务器发送恳求,假如胜利地获得恳求的资源,则返回的状态码为200,表示响应胜利。假如恳求的资源不存在,则通常返回404错误。状态码通常分为5种类型,分
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- python 网络 爬虫

链接地址:https://www.desk33.com/p-1471227.html