Scrapy的Request与Response

Scrapy框架 2018-12-22 1230

# Request对象在我们写爬虫,爬取一页的数据需要重新发送一个请求的时候调用。这个需要传递一些参数,其中比较常见的参数有:  
# Request中的meta是比如在列表页中,我获取了标题和作者,那么在详情页中就可以  
# 共享此数据  
# Request的参数解析:  
# url:这个request对象发送请求的url  
# callback:在下载器下载完对应的数据后执行的回调函数  
# method:请求的方法。默认为GET方法,可以设置其他方法  
# headers:请求头,对于一些固定的设置,放在setting.py中指定就可以了。对于那些非固定的,就可以在发送请求时指定。  
# meta:比较常用。用于在不同的请求之间传递数据用。  
# encoding:编码。默认为utf-8,使用默认就可以了  
# dot_filter:表示不由调度器过滤。在执行多次重复的请求时用的比较多  
# errback:在发生错误时执行的函数。

# Response对象一般是由Scrapy给你自动构建。因此开发者不需要关心如何创建Request对象,  
# 而是如何使用它。Request对象有很多属性,可以用来提取数据,主要有以下属性:  
# meta:从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接。  
# encoding:返回当前字符串编码和解码格式  
# text:将返回的数据作为unicode字符串返回  
# body:将返回的数据作为bytes字符串返回  
# xpath:xpath选择器  
# css:css选择器  

标签:Scrapy框架

文章评论

评论列表

已有0条评论