本章将告诉你该如何去对request模块进行二次封装,暂时并不会告诉你HTTP协议及原理、URL等相关。当然你会使用然后在来阅读此文章一定会另有所获。我已经迫不及待要告诉你这个小秘密,以及想与你交流了。没时间解释了,快来一起和我一起探讨相关的内容吧
官方文档 对requests的定义为:Requests 唯一的一个非转基因 的 Python HTTP 库,人类可以安全享用。
使用Python写做爬虫的小伙伴一定使用过requests这个模块,初入爬虫的小伙伴也一定写过N个重复的requests,这是你的疑问。当然也一直伴随着我,最近在想对requests如何进行封装一下,让他支持支持通用的函数。若需要使用,直接调用即可。
那么问题来了,如果要写个供自己使用通用的请求函数将会有几个问题
requests的请求方式(GET\POST\INPUT等等)
智能识别网站的编码,避免出现乱码
支持文本、二进制(图片、视频等为二进制内容)
以及还需要傻瓜一点,那就是网站的Ua(Ua:User-Agent,基本上网站都会验证接受到请求的Ua。来初步判断是爬虫还是用户)
那么咱们就针对以上问题开干吧
Requests的安装
在确保python环境搭建完成后直接使用pip或者conda命令进行安装,安装命令如下:
1 2 3 4 5
pip install requests conda install requests pip install requests -i https://pypi.tuna.tsinghua.edu.cn/simple/
安装完成后,效果图如下:
初探requests基本使用
HTTP 中最常见的请求之一就是 GET 请求,下面我们来详细了解利用 requests 库构建 GET 请求的方法。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
import requestsresponse = requests.get('http://httpbin.org/get' ) print("response.status_code:" , response.status_code) print("response.headers:" , response.headers) print("response.request.headers:" , response.request.headers) print("response.content:" , response.content) print("response.text" , response.text) response.status_code: 200 response.headers: {'Date' : 'Thu, 12 Nov 2020 13:38:05 GMT' , 'Content-Type' : 'application/json' , 'Content-Length' : '306' , 'Connection' : 'keep-alive' , 'Server' : 'gunicorn/19.9.0' , 'Access-Control-Allow-Origin' : '*' , 'Access-Control-Allow-Credentials' : 'true' } response.request.headers: {'User-Agent' : 'python-requests/2.24.0' , 'Accept-Encoding' : 'gzip, deflate' , 'Accept' : '*/*' , 'Connection' : 'keep-alive' } response.content: b'{\n "args": {}, \n "headers": {\n "Accept": "*/*", \n "Accept-Encoding": "gzip, deflate", \n "Host": "httpbin.org", \n "User-Agent": "python-requests/2.24.0", \n "X-Amzn-Trace-Id": "Root=1-5fad3abd-7516d60b3e951824687a50d8"\n }, \n "origin": "116.162.2.166", \n "url": "http://httpbin.org/get"\n}\n' { "args" : {}, "headers" : { "Accept" : "*/*" , "Accept-Encoding" : "gzip, deflate" , "Host" : "httpbin.org" , "User-Agent" : "python-requests/2.24.0" , "X-Amzn-Trace-Id" : "Root=1-5fad3abd-7516d60b3e951824687a50d8" }, "origin" : "116.162.2.166" , "url" : "http://httpbin.org/get" }
requests基本使用已经经过简单的测试了,是否有一点点feel呢?接下来我们直接将它封装为一个函数以供随时调用
示例如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
import requestsurls = 'http://httpbin.org/get' def downloader (url, headers=None) : response = requests.get(url, headers=headers) return response print("downloader.status_code:" , downloader(url=urls).status_code) print("downloader.headers:" , downloader(url=urls).headers) print("downloader.request.headers:" , downloader(url=urls).request.headers) print("downloader.content:" , downloader(url=urls).content) print("downloader.text" , downloader(url=urls).text)
以上我们就把,请求方法封装成了一个函数。将基本的url,headers以形参的方式暴露出来,我们只需传入需要请求的url即可发起请求,至此一个简单可复用的请求方法咱们就完成啦。
完~~~
以上照顾新手的就基本完成了,接下来我们搞点真家伙。
二次封装
请求函数的封装
由于请求方式并不一定(有可能是GET也有可能是POST),所以我们并不能智能
的确定它是什么方式发送请求的。
Requests中request方法以及帮我们实现了这个方法。我们将他的请求方式暴露出来,写法如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14
urls = 'http://httpbin.org/get' def downloader (url, method=None, headers=None) : _method = "GET" if not method else method response = requests.request(url, method=_method, headers=headers) return response print("downloader.status_code:" , downloader(url=urls).status_code) print("downloader.headers:" , downloader(url=urls).headers) print("downloader.request.headers:" , downloader(url=urls).request.headers) print("downloader.content:" , downloader(url=urls).content) print("downloader.text" , downloader(url=urls).text)
由于大部分都是GET方法,所以我们定义了一个默认的请求方式。如果需要修改请求方式,只需在调用时传入相对应的方法即可。例如我们可以这样
1
downloader(urls, method="POST" )
文本编码问题
解决由于request的误差判断而造成解码错误,而得到乱码。
此误差造成的原因是可能是响应头的Accept-Encoding
,另一个是识别错误
此时我们需要借用Python中C语言编写的cchardet
这个包来识别响应文本的编码。安装它
1 2
pip install cchardet -i https://pypi.tuna.tsinghua.edu.cn/simple/
1 2 3 4 5 6 7 8 9 10
encoding = cchardet.detect(response.content)['encoding' ] def downloader (url, method=None, headers=None) : _method = "GET" if not method else method response = requests.request(url, method=_method, headers=headers) encoding = cchardet.detect(response.content)['encoding' ] return response.content.decode(encoding)
区分二进制与文本的解析
在下载图片、视频等需获取到其二进制内容。而下载网页文本需要进行encode。
同理,我们只需要将一个标志传进去,从而达到分辨的的效果。例如这样
1 2 3 4 5
def downloader (url, method=None, headers=None, binary=False) : _method = "GET" if not method else method response = requests.request(url, method=_method, headers=headers) encoding = cchardet.detect(response.content)['encoding' ] return response.content if binary else response.content.decode(encoding)
默认Ua
在很多时候,我们拿ua又是复制。又是加引号构建key-value格式。这样有时候仅仅用requests做个测试。就搞的麻烦的很。而且请求过多了,直接就被封IP了。没有自己的ip代理,没有钱又时候还真有点感觉玩不起爬虫。
为了减少被封禁IP的概率什么的,我们添加个自己的Ua池。Ua池的原理很简单,内部就是采用随机的Ua,从而减少被发现的概率
.至于为什么可以达到这这样的效果,在这里仅作简单介绍。详细可能要从计算机网络原理说起。
结论就是你一个公司里大多采用的都是同一个外网
ip去访问目标网址。那么就意味着可能你们公司有N个人使用同一个ip去访问目标网址。而封禁做区分的一般由ip访问频率和浏览器的指纹和在一起的什么鬼东东。简单理解为Ua+ip访问频率达到峰值,你IP就对方关小黑屋了。
构建自己的ua池,去添加默认的请求头,
Ua有很多,这里就不放出来了,如果有兴趣可以直接去源码 里面拿。直接说原理:构造很多个Ua,然后随机取用。从而降低这个同一访问频率:同时也暴露端口方便你自己传入header
1 2 3 4 5 6 7 8 9
from powerspider.tools.Ua import uaimport requestsdef downloader (url, method=None, header=None, binary=False) : _headers = header if header else {'User-Agent' : ua()} _method = "GET" if not method else method response = requests.request(url, method=_method, headers=_headers) encoding = cchardet.detect(response.content)['encoding' ] return response.content if binary else response.content.decode(encoding)
那么基本的文件都已经解决了,不过还不完美。异常处理,错误重试,日志什么都没。这怎么行呢。活既然干了,那就干的漂漂亮亮的。
来让我们加入进来这些东西
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
import cchardetfrom retrying import retryfrom powerspider import loggerfrom powerspider.tools.Ua import uafrom requests import request, RequestException@retry(stop_max_attempt_number=3, retry_on_result=lambda x: x is None, wait_fixed=2000) def downloader (url, method=None, header=None, timeout=None, binary=False, **kwargs) : logger.info(f'Scraping {url} ' ) _header = {'User-Agent' : ua()} _maxTimeout = timeout if timeout else 5 _headers = header if header else _header _method = "GET" if not method else method try : response = request(method=_method, url=url, headers=_headers, **kwargs) encoding = cchardet.detect(response.content)['encoding' ] if response.status_code == 200 : return response.content if binary else response.content.decode(encoding) elif 200 < response.status_code < 400 : logger.info(f"Redirect_URL: {response.url} " ) logger.error('Get invalid status code %s while scraping %s' , response.status_code, url) except RequestException as e: logger.error(f'Error occurred while scraping {url} , Msg: {e} ' , exc_info=True ) if __name__ == '__main__' : print(downloader("https://www.baidu.com/" , "GET" ))
至此,我们的对Requests二次封装,构造通用的请求函数就已经完成了。
源码地址:https://github.com/PowerSpider/PowerSpider/tree/dev
期待下次再见