Python网络爬虫与数据采集试卷及答案4套.docx
《Python网络爬虫与数据采集试卷及答案4套.docx》由会员分享,可在线阅读,更多相关《Python网络爬虫与数据采集试卷及答案4套.docx(27页珍藏版)》请在课桌文档上搜索。
1、一、选择题(每题2分)1、查看网站所用的技术可以使用以下的哪个模块()A. WadB. Python-whoisC. RequestD. Urllib2、以下的XPath中用于选取所用N节点的表达式是()A. NB. /NC./ND.N/N3、正则表达式R0-93,能匹配出以下哪个字符串()A. R3B. R03C. R09D. R0934、以下数据库中不属于关系数据库的是()A. MysqlB. RedisC. MongpDBD. PostgreSQL5、以下关于COokie与SeSSic)n说法正确的是()A. Cookie数据保存在服务器中B. Session数据保存在本地C.浏览器一般
2、将cookie数据保存在http的body中D.Session是指抽象的客户端-服务器交互模式6、以下re方法中用于替换字符串的是()A. MatchB. SubC. Find_allD. Split7、以下哪一个Python库用于语言处理()A. NumpyB. NLTKC. SympyD. Scipy8、前端页面向后端发送表单数据通常使用()A. GetB. PostC. PutD. Delete9、Python的OPen方法中代表追加写内容的模式字符是()A. rB. wC. aD. w+10、在SCraPy目录下,哪个文件负责存放爬虫文件()A. spiders文件夹B. Item.p
3、yC. Pipeline.pyD. Setting.py二、判断题(每题2分)1、axios通过同步加载的方式完成对内容的获取与呈现()2、ReqUeStS比于Urllib库更加简洁实用()3、SeIeniUm相比于SPlaSh更加的节约资源()4、DiCtReader可以将CSV的每一行作为一个字典来返回()5、numpy一般是被认为基于PandaS设计的()6、APi与网页抓取共用许多概念与技术()7、破解滑动验证码需要实现图像拼接与匀速滑动()8、一般情况下ajax返回的数据是以Xml形式封装的()9、Tag标签为a、img、audio时属性为SrC()10SeleniUm的Webdri
4、Ver的版本必须和浏览器的版本相对应()三、填空题(每题2分)1、爬虫前我们应该了解网站的文件信息以被反爬虫封禁的风险。2、CSV文件的分隔值是o3、Python中内置的数据库模块是。4.python中主要使用模块来实现序列化与反序列化。5、常用的中文文本分析工具有。6、BeautifuISoup中,通过tag的content属性可以将tag子节点以方式输出。7、字符串Str可以通过方法来去除左右空格。8、用于re.findall函数中的表达式用于提取http:开始的超链接。9、解释Robots协议:o10、表示匹配空行的正则表达式是o四、简答题(每题4分)1、请简要说明使用Selenium的
5、大致流程。2、是否可以将自己的爬虫的User-agent设置为知名爬虫呢。3、请简要说明点击一个网页链接,会发生的一系列时间。4、请简要说明爬虫时应对图片验证码的主要思路有哪些。5、请简要说明cookie与session的区别。五、应用题(每题10分)1、使用requests模块,将httpsphysicalstoreindexajaxSearchStore7storeCity=5州&storeProvince=江苏,中的参数提取出来单独作为参数并访问这个url.2、使用requests模块访问并通过正则表达式获取标题。二、选择题(每题2分)11、查看网站所用的技术可以使用以下的哪个模块(八)
6、E. WadF. Python-whoisG. RequestH. Urllib12、以下的XPath中用于选取所用N节点的表达式是(C)E. NF. /NG./NH.N/N13、正则表达式R0-93,能匹配出以下哪个字符串(D)E. R3F. R03G. R09H. R09314、以下数据库中不属于关系数据库的是(B)E. MysqlF. RedisG. MongpDBH. PostgreSQL15、以下关于COOkie与SeSSion说法正确的是(D)E. Cookie数据保存在服务器中F. Session数据保存在本地G.浏览器一般将cookie数据保存在http的body中H.Sess
7、ion是指抽象的客户端服务器交互模式16、以下re方法中用于替换字符串的是(B)E. MatchF. SubG. Find_allH. Split17、以下哪一个Python库用于语言处理(B)I. NumpyJ. NLTKK. SympyL. Scipy18、前端页面向后端发送表单数据通常使用(B)E. GetF. PostG. PutH. Delete19、PythOn的OPen方法中代表追加写内容的模式字符是(C)E. rF. wG. aH. w+20、在SCraPy目录下,哪个文件负责存放爬虫文件(八)E. spiders文件夹F. Item.pyG. Pipeline.pyH. Se
8、tting.py六、判断题(每题2分)11、axios通过同步加载的方式完成对内容的获取与呈现(x)12、Requests比于urllib库更加简洁实用(J)13SeleniUm相比于SPIaSh更加的节约资源()14、DiCtReader可以将CSV的每一行作为一个字典来返回(J)15numpy一般是被认为基于PandaS设计的(x)16、APi与网页抓取共用许多概念与技术()17、破解滑动验证码需要实现图像拼接与匀速滑动(X)18、一般情况下ajax返回的数据是以Xml形式封装的()19Tag标签为a、img、audio时属性为src(x)20SeleniUm的WebdriVer的版本必须
9、和浏览器的版本相对应(J)七、填空题(每题2分)11、爬虫前我们应该了解网站的robots.txt文件信息以被反爬虫封禁的风险。12、CSV文件的分隔值是逗号o13、PVthOn中内置的数据库模块是一SqIit。14、python中主要使用PiCkIe模块来实现序列化与反序列化。15、常用的中文文本分析工具有iieba、SnoWNLP。16、BeautifuISoup中,通过tag的content属性可以将tag子节点以列表方式输出。17、字符串Str可以通过一StriP方法来去除左右空格。18用于re.findall函数中的http:Ia-ZA-Zo-表达式用于提取http:开始的超链接。1
10、9、解释Robots协议:网络爬虫排除协议20、表示匹配空行的正则表达式是一八、简答题(每题4分)6、请简要说明使用Selenium的大致流程。(1)创建浏览器对象(2)访问页面(3)定位网页元素(4)网页交互7、是否可以将自己的爬虫的User-agent设置为知名爬虫呢。从代码的角度看,没有人会限制你使用什么样的User-agent,就是上面的例子。实际上,不断变换User-agent的值也是很多不友好爬虫为了躲避服务器的检测的常用做法。但是这种做法是非常不可取的,它扰乱了Web服务器的正常判断,就可能使得某种知名爬虫被检测出来不遵守Robots协议而产生纠纷。8、请简要说明点击一个网页链接
11、,会发生的一系列时间。浏览器响应点击事件,解析url,发起Web请求,建立与服务端的连接,服务端响应请求,服务端返回请示结果,浏览器处理返回的结果。9、请简要说明爬虫时应对图片验证码的主要思路有哪些。通过程序识别图片再转化为文字并输入。手动打码,避开程序破解验证码环节。使用人工打码平台服务。IO、请简要说明CoOkie与SeSSiOn的区别。Cookie数据保存在本地,而session数据保存在服务器。Session是指象的客户端-服务器交互模式,而cookie是session的一个具体实现手段。九、应用题(每题10分)1、使用requests模块,将importrequestsurl=3、使
12、用requests模块访问并通过正则表达式获取标题。importrequests,rer=requests.get(,https).content.decode(,utf-8,)pt=pile(,()(Ss+)(),)print(pt.search(r).group(2)三、选择题(每题2分)21、Python中,可以用来存储数据的文件类型包括()I. txtJ. CSVjson1.以上所有22、可以用来解析XML文档的库有哪些()I. BeautifuISoupJ. IxmlK. html.parserI.以上所有23、JUPyterNOteboOk对PythOn开发有什么帮助()I.插入数
13、学公式J.制作演示文稿K.输入特殊关键字1.以上所有24、PythOn中用于进行自然语言处理的第三方库是()。A. nltkB. spacyC. gensimD. jieba25、通用网络爬虫主要由哪些机构或者服务商使用()I.电商平台J搜雪引擎K.金融机构1.媒体平台26、使用Urllib.request.urlopen()方法请求网页时,如果需要添加请求头信息,应该使用哪个对象()I. ResquestJ. ResponseK. OpenerL. Handler27、使用SeIenillm库进行动态页面抓取时,需要安装哪个组件()A.Chrome浏览器B.Chrome插件C.Chrome驱
14、动D.Chrome扩展28、使用SeleniUm库进行动态页面抓取时,可以使用哪个方法模拟鼠标点击()I. click()J. press()K. tap()L. touch()29python的爬虫框架包括()I. scrapyJ. PySpiderPortia1.以上所有30、python与处理图片相关的工具或库不包括()A. IxmlB. PILC. PillowD. OpenCV十、判断题(每题2分)21解析HTML只能使用BeaUtifUlSOUP库()22、只能使用Matplotlib库来绘制图表()23、使用Urllib.request.urlopen()方法请求网页时,可以直接
15、添加请求头信息()24、使用用户代理池可以有效地防止被目标网站识别为爬虫()25、使用APi前,需要在提供APi服务的网站上申请一个接口服务()26、网络爬虫可以用任何编程语言实现,如PHP、Java.PythOn等()27、用UrlIib.request库进行浏览器伪装时,需要修改Referer字段()28、AjaX是一种异步的JaVaSCriPt和XML技术,它可以在不刷新整个页面的情况下,与服务器进行数据交换()29、IXml库可以解析HTML代码,并提取出所有标签、属性和文本内容()30、正则表达式中,$表示匹配输入的开始,八表示匹配输入的结束,如果设置了多行标志,则它们也可以匹配换行
16、符前后的位置()十一、填空题(每题2分)21、发送HTTP请求可以使用模块。22、是Python中用于处理表格数据的标准库,它支持多种格式的数据导入导出,如CSV、ExcekJSON等。23、使用库进行抓包分析,可以查看浏览器与服务器之间的通信过程和数据。24、使用库进行抓包分析,可以查看浏览器与服务器之间的通信过程和数据。25、是指服务器为了一定目的而储存在用户本地的数据。26、避开网站反爬虫机制可以用o27、实现浏览器伪装、代理设置、COOkie处理等可以使用库。28、在XPath语法中,用来表示当前节点的轴名称是o29、网络爬虫需要遵守目标网站的协议,以免造成不必要的麻烦。协议,以免造成
17、不必要的麻烦。30、单元测试除了可以用UnitteSt模块,还可以使用模块。十二、简答题(每题4分)11、请简要说明什么是序列化和反序列化?12如何在Python中使用requests库发送HTTP请求?13、简述SCraPy框架的优势(至少两条)14、请简要说明python相比MATLAB在科学计算和数据分析方面的优势(至少两条)。15、简述XPath表达式的基本规则(至少两条)。十三、应用题(每题10分)1、请写一个PythOn程序,用于从给定的多个CSV文件中读取数据,并将数据合并成一个新的CSV文件。4、使用selenium模拟页面下拉滚动。四、选择题(每题2分)31、Python中,
18、可以用来存储数据的文件类型包括(D)M. txtN. csvO. jsonP.以上所有32、可以用来解析XML文档的库有哪些(B)L. BeautifuISoupM. IxmlN. html.parserJ.以上所有33、JUPyterNOteboOk对PythOn开发有什么帮助(D)M.插入数学公式N.制作演示文稿0.输入特殊关键字P.以上所有34、PythOn中用于进行自然语言处理的第三方库是(八)。A. nltkB. spacyC. gensimD. jieba35、通用网络爬虫主要由哪些机构或者服务商使用(B)M.电商平台N.搜索引擎0.金融机构P.媒体平台36、使用Urllib.re
19、quest.urlopen()方法请求网页时,如果需要添加请求头信息,应该使用哪个对象(C)M. ResquestN. ResponseO. OpenerP. Handler37、使用SeIenillm库进行动态页面抓取时,需要安装哪个组件(C)A.Chrome浏览器B.Chrome插件C.Chrome驱动D.Chrome扩展38、使用SeieniUm库进行动态页面抓取时,可以使用哪个方法模拟鼠标点击(八)M. click()N. press()O. tap()P. touch()39、PythOn后爬虫框架包括(D)M. scrapyN. PySpiderO. PortiaP.以上所有40、
20、PythOn与处理图片相关的工具或库不包括(八)E. IxmlF. PILG. PillowH. OpenCV十四、判断题(每题2分)31、解析HTML只能使用BeaUtifUlSOUP库(x)32、只能使用Matplotlib库来绘制图表(x)33、使用UrlIib.request.urlopen()方法请求网页时,可以直接添加请求头信息(x)34、使用用户代理池可以有效地防止被目标网站识别为爬虫(J)35、使用APi前,需要在提供APi服务的网站上申请一个接口服务(J)36、网络爬虫可以用任何编程语言实现,如PHP、Java.PythOn等(J)37、用Urllib.request库进行浏
21、览器伪装时,需要修改Referer字段(x)38、AjaX是一种异步的JaVaSeriPt和XML技术,它可以在不刷新整个页面的情况下,与服务器进行数据交换(J)39、IXml库可以解析HTML代码,并提取出所有标签、属性和文本内容(x)40、正则表达式中,$表示匹配输入的开始,八表示匹配输入的结束,如果设置了多行标志,则它们也可以匹配换行符前后的位置(X)十五、填空题(每题2分)31、发送HTTP请求可以使用request模块。32、PandaS是Python中用于处理表格数据的标准库,它支持多种格式的数据导入导出,如CSV、ExcekJSoN等。33、使用FiddIer库进行抓包分析,可以
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Python 网络 爬虫 数据 采集 试卷 答案

链接地址:https://www.desk33.com/p-1072698.html