南开21春学期《网络爬虫与信息提取》在线作业-1100分 作者:周老师 分类: 南开大学 发布时间: 2021-04-19 23:53 专业辅导各院校在线、离线考核、形考、终极考核、统考、社会调查报告、毕业论文写作交流等! 联系我们:QQ客服:3326650399 439328128 微信客服①:cs80188 微信客服②:cs80189 扫一扫添加我为好友 扫一扫添加我为好友 答案来历:熊猫奥鹏(www.188open.com)-[南开大学]21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息获取》在线作业 试卷总分:100 得分:100 第1题,一般运用()东西来模仿阅读器进行爬虫恳求 A、Selenium B、Chrome C、ChromeDriver D、WebDriver 正确答案: 第2题,下面代码总共履行循环多少次(): for i in range(10):print(i ** i) A、9 B、10 C、11#0 正确答案: 第3题,Redis是()数据库 A、关系数据库 B、键值数据库 C、列存数据库 D、图数据库 正确答案: 第4题,Python中越过本次循环应用关键词() A、break B、continue C、exit D、return 正确答案: 答案来历:熊猫奥鹏(www.188open.com),打码渠道一般经过()辨认验证码。 A、人工辨认 B、机器学习辨认 C、光学字符辨认 D、深度学习辨认 正确答案: 第6题,PyMongo中逻辑查询表明等于的符号是() A、$gt B、$lt C、$eq$$ne 正确答案: 第7题,带上经过Chrome阅读器从谈论页面仿制而来的()再建议恳求,能够削减爬虫被网站封闭的概率 A、Cookie B、Html C、Headers D、CSS 正确答案: 第8题,Python中以下哪个容器里的元素不能重复() A、列表 B、元组 C、字典 D、调集 正确答案: 第9题,Redis中往调集中读数据,运用关键词() A、pop B、spop C、lpop D、range 正确答案: 答案来历:熊猫奥鹏(www.188open.com),Redis是一个开源的运用()语言编写 A、ANSI C B、C++ C、JAVA D、Python 正确答案: 第11题,能够经过()绕过网站登录。 A、session B、cookies C、moonpies D、localstorage 正确答案: 答案来历:熊猫奥鹏(www.188open.com),运用了RedisSpider作为爬虫的父类今后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。 A、Redis B、RedisSpider C、Spider D、MongoDB 正确答案: 第13题,HTTP常用状况码标明效劳器上没有恳求的资源的是() A、500 B、503 C、403 D、404 正确答案: 第14题,Redis中从调集中检查有多少个值,用关键词() A、scard B、card C、count D、distinct 正确答案: 答案来历:熊猫奥鹏(www.188open.com),选用以下()技术能够完成异步加载 A、HTML B、AJAX C、CSS D、HTTP 正确答案: 第16题,当爬虫创立好了之后,能够运用"scrapy()" 指令运转爬虫。 A、startup B、starwar C、drawl D、crawl 正确答案: 第17题,运用UI Automatorr输入文字的操作是得到相应控件后运用指令() A、settext B、set C、set_text D、text 正确答案: 第18题,要运用Python来操作UI Automator然后操控手机,需求装置一个第三方库() A、uiautomator B、automator C、ui_automator D、pyautomator 正确答案: 第19题,运用xpath方法的回来类型是() A、列表 B、元组 C、字典 D、调集 正确答案: 答案来历:熊猫奥鹏(www.188open.com),Python中列表能够用()方法在结尾增加元素 A、add B、append C、plus D、+ 正确答案: 第21题,Redis中的值能够撑持() A、列表 B、哈希 C、调集 D、有序调集 正确答案:,B,C,D 第22题,以下哪些方法归于Python写CSV文件的方法() A、writeheaders B、writeheader C、writerrows D、writerow 正确答案:,C,D 第23题,下列关于mitmproxy的运用说法正确的是() A、mitmproxy的端口为8080端口。 B、设置好署理今后,在手机上翻开一个App或许翻开一个网页,能够看到mitmproxy上面稀有据翻滚。 C、用鼠标在终端窗口上单击其间的恣意一个恳求,能够显现这个数据包的概况信息。 D、假如要拜访HTTPS网站,还需求装置mitmproxy的证书 正确答案:,B,C,D 第24题,假如爬虫爬取的是商业网站,而且方针网站运用了反爬虫机制,那么强行打破反爬虫机制能够构成() A、不合法侵入计算机系统罪 B、不合法获取计算机信息系统数据罪 C、不合法获取计算机数据罪 D、不合法获取系统罪 正确答案:,B 答案来历:熊猫奥鹏(www.188open.com),Python中一个函数能够有()个return句子 A、0 B、1 C、多个 D、2 正确答案:,B,C,D 第26题,HTTP常用状况码标明标明效劳器自身发作错误的有() A、403 B、404 C、500 D、503 正确答案:,D 第27题,假如方针网站有反爬虫声明,那么对方在被爬虫爬取今后,能够依据()来申述运用爬虫的公司 A、效劳器日志 B、数据库日志记载 C、程序日志记载 D、效劳器监控 正确答案:,B,C,D 第28题,常用的会话盯梢技术是 A、session B、cookies C、moonpies D、localstorage 正确答案:,B 第29题,Python中()与元组由相似的数据读取方法 A、字符串 B、列表 C、字典 D、调集 正确答案:,B 答案来历:熊猫奥鹏(www.188open.com),cookies的缺陷是 A、完成自动登录 B、盯梢用户状况 C、http中明文传输 D、添加http恳求的流量 正确答案:,D 第31题,Python中列表生成今后还能够往里边继续增加数据,也能够从里边删去数据; T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第32题,Redis的列表是一个单向行列 T、对 F、错 正确答案: 第33题,requests中get恳求方法的运用为requests.get(\'网址\', data=data) T、对 F、错 正确答案: 第34题,scrapy与selenium结合能够完成直接处理需求异步加载的页面 T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第35题,为了在安卓手机上装置证书,需求先发送证书到手机里边。在Charles中挑选"Help"-"SSL Proxying"-"Save Charles Root Certificate"指令,能够将Charles的证书保留到计算机桌面。 T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第36题,XPath获取出来的内容是一个SelectorList对象,它的第0个元素即是网页的源代码。 T、对 F、错 正确答案:F 第37题,当Charles抓包今后,在Mac OS系统下能够按Command+F组合键,在Windows系统下按Ctrl+F组合键翻开Charles进行查找 T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第38题,Python中直接对浮点数进行计算有print(0.1+0.2),则成果为0.3 T、对 F、错 正确答案:F 第39题,在对XPath回来的对象再次履行XPath的时分,子XPath最初需求增加斜线 T、对 F、错 正确答案:F 第40题,Python中写CSV文件的writerows方法参数为字典类型 T、对 F、错 正确答案:F 第41题,网站回来的Headers中常常有Cookies,能够用mitmdump脚本运用print函数把Cookies打印出来。 T、对 F、错 正确答案:F 第42题,在装置Scarpy的依靠库时,因为Visual C++ Build Tools的装置速度很慢,为了节约时刻,能够和装置Twisted一起进行 T、对 F、错 正确答案:F 第43题,Charles和Chrome开发者东西比较,仅仅多了一个查找功用。 T、对 F、错 正确答案:F 第44题,Scrapy的工程姓名不能运用"scrapy",不然爬虫会无法运转。除此以外工程名不受约束。 T、对 F、错 正确答案:F 第45题,在发送恳求时需求留意requests提交的恳求头不能与阅读器的恳求头共同,由于这样才干躲藏好自己到达获取数据的意图 T、对 F、错 正确答案:F 第46题,Cookies一般包括在恳求头Headers中 T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第47题,Python中比较于findall方法,search方法关于从超级大的文本里边只找第1个数据尤其有用,能够大大进步程序的运转功率。 T、对 F、错 答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com) 第48题,当运用Scarpy创立爬虫时,当爬取网易云音乐主页信息时,scrapy genspider的第二个参数直接输入"163.com"就能够了 T、对 F、错 正确答案:F 第49题,chrome开发者东西无法对数据进行查找。假如想晓得一个特定的异步加载内容来自哪个恳求,有必要在"Network"选项卡里边一个恳求一个恳求地进行检查. T、对 F、错 正确答案: 答案来历:熊猫奥鹏(www.188open.com),刺进数据时,MongoDB会自动增加一列"_id",也即是自增ID,每次自动加1 T、对 F、错 正确答案:F 南开(5584)春(11118)学期(8554) 专业辅导各院校在线、离线考核、形考、终极考核、统考、社会调查报告、毕业论文写作交流等!(非免费) 联系我们:QQ客服:3326650399 439328128 微信客服①:cs80188 微信客服②:cs80189 扫一扫添加我为好友 扫一扫添加我为好友
试卷总分:100 得分:100
第1题,一般运用()东西来模仿阅读器进行爬虫恳求
A、Selenium
B、Chrome
C、ChromeDriver
D、WebDriver
正确答案:
第2题,下面代码总共履行循环多少次():
for i in range(10):print(i ** i)
A、9
B、10
C、11#0
正确答案:
第3题,Redis是()数据库
A、关系数据库
B、键值数据库
C、列存数据库
D、图数据库
正确答案:
第4题,Python中越过本次循环应用关键词()
A、break
B、continue
C、exit
D、return
正确答案:
答案来历:熊猫奥鹏(www.188open.com),打码渠道一般经过()辨认验证码。
A、人工辨认
B、机器学习辨认
C、光学字符辨认
D、深度学习辨认
正确答案:
第6题,PyMongo中逻辑查询表明等于的符号是()
A、$gt
B、$lt
C、$eq$$ne
正确答案:
第7题,带上经过Chrome阅读器从谈论页面仿制而来的()再建议恳求,能够削减爬虫被网站封闭的概率
A、Cookie
B、Html
C、Headers
D、CSS
正确答案:
第8题,Python中以下哪个容器里的元素不能重复()
A、列表
B、元组
C、字典
D、调集
正确答案:
第9题,Redis中往调集中读数据,运用关键词()
A、pop
B、spop
C、lpop
D、range
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Redis是一个开源的运用()语言编写
A、ANSI C
B、C++
C、JAVA
D、Python
正确答案:
第11题,能够经过()绕过网站登录。
A、session
B、cookies
C、moonpies
D、localstorage
正确答案:
答案来历:熊猫奥鹏(www.188open.com),运用了RedisSpider作为爬虫的父类今后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。
A、Redis
B、RedisSpider
C、Spider
D、MongoDB
正确答案:
第13题,HTTP常用状况码标明效劳器上没有恳求的资源的是()
A、500
B、503
C、403
D、404
正确答案:
第14题,Redis中从调集中检查有多少个值,用关键词()
A、scard
B、card
C、count
D、distinct
正确答案:
答案来历:熊猫奥鹏(www.188open.com),选用以下()技术能够完成异步加载
A、HTML
B、AJAX
C、CSS
D、HTTP
正确答案:
第16题,当爬虫创立好了之后,能够运用"scrapy()" 指令运转爬虫。
A、startup
B、starwar
C、drawl
D、crawl
正确答案:
第17题,运用UI Automatorr输入文字的操作是得到相应控件后运用指令()
A、settext
B、set
C、set_text
D、text
正确答案:
第18题,要运用Python来操作UI Automator然后操控手机,需求装置一个第三方库()
A、uiautomator
B、automator
C、ui_automator
D、pyautomator
正确答案:
第19题,运用xpath方法的回来类型是()
A、列表
B、元组
C、字典
D、调集
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Python中列表能够用()方法在结尾增加元素
A、add
B、append
C、plus
D、+
正确答案:
第21题,Redis中的值能够撑持()
A、列表
B、哈希
C、调集
D、有序调集
正确答案:,B,C,D
第22题,以下哪些方法归于Python写CSV文件的方法()
A、writeheaders
B、writeheader
C、writerrows
D、writerow
正确答案:,C,D
第23题,下列关于mitmproxy的运用说法正确的是()
A、mitmproxy的端口为8080端口。
B、设置好署理今后,在手机上翻开一个App或许翻开一个网页,能够看到mitmproxy上面稀有据翻滚。
C、用鼠标在终端窗口上单击其间的恣意一个恳求,能够显现这个数据包的概况信息。
D、假如要拜访HTTPS网站,还需求装置mitmproxy的证书
正确答案:,B,C,D
第24题,假如爬虫爬取的是商业网站,而且方针网站运用了反爬虫机制,那么强行打破反爬虫机制能够构成()
A、不合法侵入计算机系统罪
B、不合法获取计算机信息系统数据罪
C、不合法获取计算机数据罪
D、不合法获取系统罪
正确答案:,B
答案来历:熊猫奥鹏(www.188open.com),Python中一个函数能够有()个return句子
A、0
B、1
C、多个
D、2
正确答案:,B,C,D
第26题,HTTP常用状况码标明标明效劳器自身发作错误的有()
A、403
B、404
C、500
D、503
正确答案:,D
第27题,假如方针网站有反爬虫声明,那么对方在被爬虫爬取今后,能够依据()来申述运用爬虫的公司
A、效劳器日志
B、数据库日志记载
C、程序日志记载
D、效劳器监控
正确答案:,B,C,D
第28题,常用的会话盯梢技术是
A、session
B、cookies
C、moonpies
D、localstorage
正确答案:,B
第29题,Python中()与元组由相似的数据读取方法
A、字符串
B、列表
C、字典
D、调集
正确答案:,B
答案来历:熊猫奥鹏(www.188open.com),cookies的缺陷是
A、完成自动登录
B、盯梢用户状况
C、http中明文传输
D、添加http恳求的流量
正确答案:,D
第31题,Python中列表生成今后还能够往里边继续增加数据,也能够从里边删去数据;
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第32题,Redis的列表是一个单向行列
T、对
F、错
正确答案:
第33题,requests中get恳求方法的运用为requests.get(\'网址\', data=data)
T、对
F、错
正确答案:
第34题,scrapy与selenium结合能够完成直接处理需求异步加载的页面
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第35题,为了在安卓手机上装置证书,需求先发送证书到手机里边。在Charles中挑选"Help"-"SSL Proxying"-"Save Charles Root Certificate"指令,能够将Charles的证书保留到计算机桌面。
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第36题,XPath获取出来的内容是一个SelectorList对象,它的第0个元素即是网页的源代码。
T、对
F、错
正确答案:F
第37题,当Charles抓包今后,在Mac OS系统下能够按Command+F组合键,在Windows系统下按Ctrl+F组合键翻开Charles进行查找
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第38题,Python中直接对浮点数进行计算有print(0.1+0.2),则成果为0.3
T、对
F、错
正确答案:F
第39题,在对XPath回来的对象再次履行XPath的时分,子XPath最初需求增加斜线
T、对
F、错
正确答案:F
第40题,Python中写CSV文件的writerows方法参数为字典类型
T、对
F、错
正确答案:F
第41题,网站回来的Headers中常常有Cookies,能够用mitmdump脚本运用print函数把Cookies打印出来。
T、对
F、错
正确答案:F
第42题,在装置Scarpy的依靠库时,因为Visual C++ Build Tools的装置速度很慢,为了节约时刻,能够和装置Twisted一起进行
T、对
F、错
正确答案:F
第43题,Charles和Chrome开发者东西比较,仅仅多了一个查找功用。
T、对
F、错
正确答案:F
第44题,Scrapy的工程姓名不能运用"scrapy",不然爬虫会无法运转。除此以外工程名不受约束。
T、对
F、错
正确答案:F
第45题,在发送恳求时需求留意requests提交的恳求头不能与阅读器的恳求头共同,由于这样才干躲藏好自己到达获取数据的意图
T、对
F、错
正确答案:F
第46题,Cookies一般包括在恳求头Headers中
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第47题,Python中比较于findall方法,search方法关于从超级大的文本里边只找第1个数据尤其有用,能够大大进步程序的运转功率。
T、对
F、错
答案联系QQ:3326650399 微信:cs80188 熊猫奥鹏(www.188open.com)
第48题,当运用Scarpy创立爬虫时,当爬取网易云音乐主页信息时,scrapy genspider的第二个参数直接输入"163.com"就能够了
T、对
F、错
正确答案:F
第49题,chrome开发者东西无法对数据进行查找。假如想晓得一个特定的异步加载内容来自哪个恳求,有必要在"Network"选项卡里边一个恳求一个恳求地进行检查.
T、对
F、错
正确答案:
答案来历:熊猫奥鹏(www.188open.com),刺进数据时,MongoDB会自动增加一列"_id",也即是自增ID,每次自动加1
T、对
F、错
正确答案:F
专业辅导各院校在线、离线考核、形考、终极考核、统考、社会调查报告、毕业论文写作交流等!(非免费)
联系我们:QQ客服:3326650399 439328128 微信客服①:cs80188 微信客服②:cs80189
扫一扫添加我为好友 扫一扫添加我为好友