[南开大学]21秋学期《网络爬虫与信息提取》在线作业-1
答案来历:熊猫奥鹏(www.188open.com)网络爬虫与信息获取-[南开大学]21秋学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息获取》在线作业
试卷总分:100 得分:100
第1题,Python操作CSV文件可经过容器的方法操作单元格
A、列表
B、元组
C、字典
D、调集
正确答案:
第2题,以下关于Charles的说法正确的是
A、Charles是一个跨渠道的HTTP抓包东西,能够截取HTTP或许HTTPS恳求的数据包
B、Charles有Windows 32/64版和Linux 64 版,可是当前还没有对Mac OS进行有用的撑持。
C、Charles上面翻滚的数据即是当前计算机建议的数据包。单击东西栏上面的黄色笤帚图标,能够清中止抓包。
D、在Charles发动时,系统自带阅读器的有些HTTP流量不会通过Charles。
正确答案:
第3题,Redis中写数据到列表中运用关键词
A、push
B、append
C、lpush
D、lappend
正确答案:
第4题,运用UIAutomator使屏幕向上翻滚一屏的操作是得到相应控件后运用指令
A、scroll_forwad
B、scroll_up
C、scroll.forward
D、scroll.vert.forward
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Python中若界说object=[12345]则printobject[4]输出
A、NULL
B、2
C、4
D、程序报错
正确答案:
第6题,Python中哪种容器一旦生成果不能修正
A、列表
B、元组
C、字典
D、调集
正确答案:
第7题,windows中创立守时使命的指令为
A、task
B、schtasks
C、createtasks
D、maketasks
正确答案:
第8题,参数headers=把恳求头增加到Scrapy恳求中使爬虫的恳求看起来像是从阅读器建议的
A、HEADER
B、HEADERS
C、HEAD
D、BODY
正确答案:
第9题,Python中把列表变换为调集需求运用函数
A、set
B、list
C、convert
D、change
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Redis中读取数据句子lrangechapter03那么表明读列表中个值
A、2
B、3
C、4
D、5
正确答案:
第11题,chrome默许翻开开发者东西的方便是
A、F5
B、F11
C、F12
D、F2
正确答案:
答案来历:熊猫奥鹏(www.188open.com),网站根目录中哪个文件里边的内容会通知爬虫哪些数据是能够爬取的哪些数据是不可以以爬取的
A、robot.txt
B、robot.html
C、robots.txt
D、robots.html
正确答案:
第13题,PyMongo中逻辑查询表明等于的符号是
A、$gt
B、$lt
C、$eq$$ne
正确答案:
第14题,运用Xpath获取文本运用
A、text
B、text()
C、content
D、content()
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Python中以下哪个容器里的元素不能重复
A、列表
B、元组
C、字典
D、调集
正确答案:
第16题,HTTP状况码401表明
A、恳求报文中能够存在语法错误
B、恳求需求经过HTTP认证
C、恳求资源的拜访被回绝
D、效劳器上没有恳求的资源
正确答案:
第17题,MongoDB中数据存储的方式相似于
A、列表
B、元组
C、字典
D、调集
正确答案:
第18题,HTTP常用状况码标明效劳器上没有恳求的资源的是
A、500
B、503
C、403
D、404
正确答案:
第19题,能够经过绕过网站登录
A、session
B、cookies
C、moonpies
D、localstorage
正确答案:
答案来历:熊猫奥鹏(www.188open.com),阅读器用来记载用户状况信息的数据叫
A、session
B、cookies
C、moonpies
D、selenium
正确答案:
第21题,假如方针网站有反爬虫声明那么对方在被爬虫爬取今后能够依据来申述运用爬虫的公司
A、效劳器日志
B、数据库日志记载
C、程序日志记载
D、效劳器监控
正确答案:,B,C,D
第22题,requests中post恳求方法的第二个参数能够为
A、字典
B、列表
C、json数据
D、字符串
正确答案:
第23题,BS4能够用来从中获取数据
A、HTML
B、XML
C、数据库
D、JSON
正确答案:,B
第24题,MongoDB中获取姓名为db的库的句子为
A、client.db
B、client(\'db\')
C、client[\'db\']
D、client{\'db\'}
正确答案:,C
答案来历:熊猫奥鹏(www.188open.com),要运用tesseract来进行图画辨认需求装置两个第三方库
A、requests
B、beautifulsoup
C、Pillow
D、pytesseract
正确答案:
第26题,Python中容器有推导式
A、列表
B、元组
C、字典
D、调集
正确答案:,C,D
第27题,网络爬虫的用处有
A、搜集数据
B、尽职查询
C、进步流量
D、进犯效劳器
正确答案:
第28题,cookies的缺陷是
A、完成自动登录
B、盯梢用户状况
C、http中明文传输
D、添加http恳求的流量
正确答案:,D
第29题,PyMongo删去操作有
A、delete
B、delete_all
C、delete_one
D、delete_many
正确答案:,D
答案来历:熊猫奥鹏(www.188open.com),下载器中心件的效果有哪些
A、替换署理IP
B、替换Cookies
C、替换User-Agent
D、自动重试
正确答案:,B,C,D
第31题,processspideroutputresponseresultoutput是鄙人载器中心件处理完结后立刻要进入某个回调函数parsexxx前调用
T、对
F、错
正确答案:
第32题,processspiderinputresponsespider是在爬虫运转yielditem或许yieldscrapyRequest的时分调用
T、对
F、错
正确答案:F
第33题,在装置Scarpy的依靠库时因为VisualC++BuildTools的装置速度很慢为了节约时刻能够和装置Twisted一起进行
T、对
F、错
正确答案:F
第34题,当Charles抓包今后在MacOS系统下能够按Command+F组合键在Windows系统下按Ctrl+F组合键翻开Charles进行查找
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第35题,MongoDB是一个关系数据库商品
T、对
F、错
正确答案:F
第36题,RoboMongo是MongoDB的管理软件
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第37题,UIAutomatorViewer与Pythonuiautomator能够一起运用
T、对
F、错
正确答案:F
第38题,需求实名认证的打码网站愈加安全牢靠
T、对
F、错
正确答案:F
第39题,PyMongoDB中排序方法sort第二个参数1表明降序
T、对
F、错
正确答案:F
第40题,署理中心件的可用署理列表必定要写在settingspy里边
T、对
F、错
正确答案:
第41题,在发送恳求时需求留意requests提交的恳求头不能与阅读器的恳求头共同由于这样才干躲藏好自己到达获取数据的意图
T、对
F、错
正确答案:F
第42题,假如经过爬虫抓取某公司网站的揭露数据剖析今后发现这个公司成绩十分好所以将数据或许剖析成果出售给某基金公司然后取得销售收入这是合法的
T、对
F、错
正确答案:
第43题,运用Charles能够轻松截获手机App和微信小程序的数据包然后开宣布直接抓取App后台和小程序后台的爬虫
T、对
F、错
正确答案:
第44题,mitmproxy的强壮之处在于它还自带一个mitmdump指令这个指令能够用来运转契合必定规矩的Python脚本
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第45题,当运转爬虫代码后呈现"Forbiddenbyrobotstxt"提示后阐明当时时刻段被爬取的网站无法拜访
T、对
F、错
正确答案:
第46题,Python中直接对浮点数进行计算有print01+02则成果为03
T、对
F、错
正确答案:F
第47题,假如方针网站自身即是供给大众查询效劳的网站那么运用爬虫是合法合规的
T、对
F、错
正确答案:
第48题,Linux环境中Virtualenv创立的虚拟Python环境中履行pip指令装置第三方库就不需求运用sudo指令了
T、对
F、错
正确答案:
第49题,通用查找引擎的方针是尽能够大的网络掩盖率查找引擎效劳器资源与网络数据资源相互匹配
T、对
F、错
正确答案:
答案来历:熊猫奥鹏(www.188open.com),requests中get恳求方法的运用为requestsget\'网址\'data=data
T、对
F、错
正确答案:
试卷总分:100 得分:100
第1题,Python操作CSV文件可经过容器的方法操作单元格
A、列表
B、元组
C、字典
D、调集
正确答案:
第2题,以下关于Charles的说法正确的是
A、Charles是一个跨渠道的HTTP抓包东西,能够截取HTTP或许HTTPS恳求的数据包
B、Charles有Windows 32/64版和Linux 64 版,可是当前还没有对Mac OS进行有用的撑持。
C、Charles上面翻滚的数据即是当前计算机建议的数据包。单击东西栏上面的黄色笤帚图标,能够清中止抓包。
D、在Charles发动时,系统自带阅读器的有些HTTP流量不会通过Charles。
正确答案:
第3题,Redis中写数据到列表中运用关键词
A、push
B、append
C、lpush
D、lappend
正确答案:
第4题,运用UIAutomator使屏幕向上翻滚一屏的操作是得到相应控件后运用指令
A、scroll_forwad
B、scroll_up
C、scroll.forward
D、scroll.vert.forward
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Python中若界说object=[12345]则printobject[4]输出
A、NULL
B、2
C、4
D、程序报错
正确答案:
第6题,Python中哪种容器一旦生成果不能修正
A、列表
B、元组
C、字典
D、调集
正确答案:
第7题,windows中创立守时使命的指令为
A、task
B、schtasks
C、createtasks
D、maketasks
正确答案:
第8题,参数headers=把恳求头增加到Scrapy恳求中使爬虫的恳求看起来像是从阅读器建议的
A、HEADER
B、HEADERS
C、HEAD
D、BODY
正确答案:
第9题,Python中把列表变换为调集需求运用函数
A、set
B、list
C、convert
D、change
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Redis中读取数据句子lrangechapter03那么表明读列表中个值
A、2
B、3
C、4
D、5
正确答案:
第11题,chrome默许翻开开发者东西的方便是
A、F5
B、F11
C、F12
D、F2
正确答案:
答案来历:熊猫奥鹏(www.188open.com),网站根目录中哪个文件里边的内容会通知爬虫哪些数据是能够爬取的哪些数据是不可以以爬取的
A、robot.txt
B、robot.html
C、robots.txt
D、robots.html
正确答案:
第13题,PyMongo中逻辑查询表明等于的符号是
A、$gt
B、$lt
C、$eq$$ne
正确答案:
第14题,运用Xpath获取文本运用
A、text
B、text()
C、content
D、content()
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Python中以下哪个容器里的元素不能重复
A、列表
B、元组
C、字典
D、调集
正确答案:
第16题,HTTP状况码401表明
A、恳求报文中能够存在语法错误
B、恳求需求经过HTTP认证
C、恳求资源的拜访被回绝
D、效劳器上没有恳求的资源
正确答案:
第17题,MongoDB中数据存储的方式相似于
A、列表
B、元组
C、字典
D、调集
正确答案:
第18题,HTTP常用状况码标明效劳器上没有恳求的资源的是
A、500
B、503
C、403
D、404
正确答案:
第19题,能够经过绕过网站登录
A、session
B、cookies
C、moonpies
D、localstorage
正确答案:
答案来历:熊猫奥鹏(www.188open.com),阅读器用来记载用户状况信息的数据叫
A、session
B、cookies
C、moonpies
D、selenium
正确答案:
第21题,假如方针网站有反爬虫声明那么对方在被爬虫爬取今后能够依据来申述运用爬虫的公司
A、效劳器日志
B、数据库日志记载
C、程序日志记载
D、效劳器监控
正确答案:,B,C,D
第22题,requests中post恳求方法的第二个参数能够为
A、字典
B、列表
C、json数据
D、字符串
正确答案:
第23题,BS4能够用来从中获取数据
A、HTML
B、XML
C、数据库
D、JSON
正确答案:,B
第24题,MongoDB中获取姓名为db的库的句子为
A、client.db
B、client(\'db\')
C、client[\'db\']
D、client{\'db\'}
正确答案:,C
答案来历:熊猫奥鹏(www.188open.com),要运用tesseract来进行图画辨认需求装置两个第三方库
A、requests
B、beautifulsoup
C、Pillow
D、pytesseract
正确答案:
第26题,Python中容器有推导式
A、列表
B、元组
C、字典
D、调集
正确答案:,C,D
第27题,网络爬虫的用处有
A、搜集数据
B、尽职查询
C、进步流量
D、进犯效劳器
正确答案:
第28题,cookies的缺陷是
A、完成自动登录
B、盯梢用户状况
C、http中明文传输
D、添加http恳求的流量
正确答案:,D
第29题,PyMongo删去操作有
A、delete
B、delete_all
C、delete_one
D、delete_many
正确答案:,D
答案来历:熊猫奥鹏(www.188open.com),下载器中心件的效果有哪些
A、替换署理IP
B、替换Cookies
C、替换User-Agent
D、自动重试
正确答案:,B,C,D
第31题,processspideroutputresponseresultoutput是鄙人载器中心件处理完结后立刻要进入某个回调函数parsexxx前调用
T、对
F、错
正确答案:
第32题,processspiderinputresponsespider是在爬虫运转yielditem或许yieldscrapyRequest的时分调用
T、对
F、错
正确答案:F
第33题,在装置Scarpy的依靠库时因为VisualC++BuildTools的装置速度很慢为了节约时刻能够和装置Twisted一起进行
T、对
F、错
正确答案:F
第34题,当Charles抓包今后在MacOS系统下能够按Command+F组合键在Windows系统下按Ctrl+F组合键翻开Charles进行查找
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第35题,MongoDB是一个关系数据库商品
T、对
F、错
正确答案:F
第36题,RoboMongo是MongoDB的管理软件
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第37题,UIAutomatorViewer与Pythonuiautomator能够一起运用
T、对
F、错
正确答案:F
第38题,需求实名认证的打码网站愈加安全牢靠
T、对
F、错
正确答案:F
第39题,PyMongoDB中排序方法sort第二个参数1表明降序
T、对
F、错
正确答案:F
第40题,署理中心件的可用署理列表必定要写在settingspy里边
T、对
F、错
正确答案:
第41题,在发送恳求时需求留意requests提交的恳求头不能与阅读器的恳求头共同由于这样才干躲藏好自己到达获取数据的意图
T、对
F、错
正确答案:F
第42题,假如经过爬虫抓取某公司网站的揭露数据剖析今后发现这个公司成绩十分好所以将数据或许剖析成果出售给某基金公司然后取得销售收入这是合法的
T、对
F、错
正确答案:
第43题,运用Charles能够轻松截获手机App和微信小程序的数据包然后开宣布直接抓取App后台和小程序后台的爬虫
T、对
F、错
正确答案:
第44题,mitmproxy的强壮之处在于它还自带一个mitmdump指令这个指令能够用来运转契合必定规矩的Python脚本
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第45题,当运转爬虫代码后呈现"Forbiddenbyrobotstxt"提示后阐明当时时刻段被爬取的网站无法拜访
T、对
F、错
正确答案:
第46题,Python中直接对浮点数进行计算有print01+02则成果为03
T、对
F、错
正确答案:F
第47题,假如方针网站自身即是供给大众查询效劳的网站那么运用爬虫是合法合规的
T、对
F、错
正确答案:
第48题,Linux环境中Virtualenv创立的虚拟Python环境中履行pip指令装置第三方库就不需求运用sudo指令了
T、对
F、错
正确答案:
第49题,通用查找引擎的方针是尽能够大的网络掩盖率查找引擎效劳器资源与网络数据资源相互匹配
T、对
F、错
正确答案:
答案来历:熊猫奥鹏(www.188open.com),requests中get恳求方法的运用为requestsget\'网址\'data=data
T、对
F、错
正确答案: