投稿    登录
  博主录制的Python3爬虫视频教程已发布!详情请戳Python3爬虫视频教程!希望大家支持!非常感谢!

Python爬虫入门六之Cookie的使用

Python 崔庆才 206727浏览 132评论

大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用。

为什么要使用Cookie呢?

Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)

比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。

在此之前呢,我们必须先介绍一个opener的概念。

1.Opener

当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。

如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。

2.Cookielib

cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对象来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。

它们的关系:CookieJar —-派生—->FileCookieJar  —-派生—–>MozillaCookieJar和LWPCookieJar

1)获取Cookie保存到变量

首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下

我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下

2)保存Cookie到文件

在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到

FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存

关于最后save方法的两个参数在此说明一下:

官方解释如下:

ignore_discard: save even cookies set to be discarded. 

ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists

由此可见,ignore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中cookies已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文件中,我们查看一下内容,附图如下

QQ截图20150215215136

 3)从文件中获取Cookie并访问

那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下

设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。

 4)利用cookie模拟网站登录

下面我们以我们学校的教育系统为例,利用cookie实现模拟登录,并将cookie信息保存到文本文件中,来感受一下cookie大法吧!

注意:密码我改了啊,别偷偷登录本宫的选课系统 o(╯□╰)o

以上程序的原理如下

创建一个带有cookie的opener,在访问登录的URL时,将登录后的cookie保存下来,然后利用这个cookie来访问其他网址。

如登录之后才能查看的成绩查询呀,本学期课表呀等等网址,模拟登录就这么实现啦,是不是很酷炫?

好,小伙伴们要加油哦!我们现在可以顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节我们去会会正则表达式!

转载请注明:静觅 » Python爬虫入门六之Cookie的使用

喜欢 (802)or分享 (0)

想结交更多的朋友吗?

来进击的Coder瞧瞧吧

进击的Coder

QQ群号 99350970 立即加入

进击的Coder灌水太多?

这里是纯粹的技术领地

激进的Coder

QQ群号 627725766 立即加入

想找人聊天解闷?想要学习干货?

微信公众号进击的Coder为你打造

进击的Coder

微信公众号 扫一扫关注

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请狠狠点击下面的

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(132)个小伙伴在吐槽
  1. 楼主,求更新为Py3系列~ python2跟着这个系列教程,感觉博主写得很好,求py3版本的,。
    Youth霖2016-06-12 23:37 回复
    • py3准备写成书咯
      崔庆才丨静觅2016-06-30 00:49 回复
  2. 都是怎么找到这些资料的啊,google吗
    匿名2016-06-02 11:13 回复
  3. 也是刚学,不过上周接触了scrapy,往后学你就会了吧
    匿名2016-06-02 11:12 回复
  4. 话说我们教务系统,有验证码怎么破
    匿名2016-05-26 17:35 回复
  5. 话说我们教务系统,有验证码怎么破
    却梦蒹葭2016-05-26 17:35 回复
    • 用 pytesser
      崔庆才丨静觅2016-06-30 00:51 回复
  6. 是否思路是:要先登录一次山大的选课网,保存相应的cookies,然后借由这个新保存的cookies来登陆选课网站之下的其他所有网站,而免去最开始的登陆过程? 而且我理解的爬虫是从一个网站开始,遍历里面所有我们感兴趣的链接。如果每个网站都是需要一个指定网址的,都需要我们自己通过浏览器访问后记下网址来实现网站内容抓取,是否失去了爬虫的意义? 同时在查看评论的时候也萌生疑问:对于登陆验证码应该如何处理?如果没有验证码,岂不是我们都能实现12306抢票功能了? 我只是初学,临时想到了这么多,望请各位前辈不吝赐教!
    匿名2016-05-22 10:13 回复
  7. 是否思路是:要先登录一次山大的选课网,保存相应的cookies,然后借由这个新保存的cookies来登陆选课网站之下的其他所有网站,而免去最开始的登陆过程? 而且我理解的爬虫是从一个网站开始,遍历里面所有我们感兴趣的链接。如果每个网站都是需要一个指定网址的,都需要我们自己通过浏览器访问后记下网址来实现网站内容抓取,是否失去了爬虫的意义? 同时在查看评论的时候也萌生疑问:对于登陆验证码应该如何处理?如果没有验证码,岂不是我们都能实现12306抢票功能了? 我只是初学,临时想到了这么多,望请各位前辈不吝赐教!
    芝导2016-05-22 10:13 回复
    • 也是刚学,不过上周接触了scrapy,往后学你就会了吧
      男9138806162016-06-02 11:12 回复
  8. 用Chrome查看元素,可以找到
    紧到长不帅inter2016-04-27 13:56 回复
  9. postdata = urllib.urlencode({ 'stuid':'201200131012', 'pwd':'23342321' }) 请问这句话里面的key,stuid和pwd是怎么得到的呢?
    的人反应mfgf2016-04-14 20:04 回复
    • 用Chrome查看元素,可以找到
      匿名2016-04-27 13:56 回复
  10. <tr class=f1> <td>验证码:</td> <td style=position:relative;><input name=imageCodeName class=textbox2 type=text size=10/> <div style=position:absolute; top:6px; left:115px;> <img width=60 height=25 data-original='/cas/codeimage' style=cursor: pointer; onclick=this.src='/cas/codeimage?'+Math.floor(Math.random()*100) /> </div> </td> </tr>这是我们学校的验证码, 应该怎么做呢
    匿名2016-03-28 11:26 回复
  11. <tr class=f1> <td>验证码:</td> <td style=position:relative;><input name=imageCodeName class=textbox2 type=text size=10/> <div style=position:absolute; top:6px; left:115px;> <img width=60 height=25 data-original='/cas/codeimage' style=cursor: pointer; onclick=this.src='/cas/codeimage?'+Math.floor(Math.random()*100) /> </div> </td> </tr>这是我们学校的验证码, 应该怎么做呢
    心如止水2016-03-28 11:26 回复
  12. 楼主,你好,我用下边方法登录知乎 #coding=utf-8 import urllib import urllib2 url = 'https://www.zhihu.com/#signin' user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36' values = {'account':'****','password':'*****' } headers = { 'User-Agent' : user_agent,'Referer':'http://www.zhihu.com/topic','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8'} print headers data = urllib.urlencode(values) request = urllib2.Request(url, data, headers) response = urllib2.urlopen(request) page = response.read() 为什么一直403禁止访问
    匿名2016-02-03 20:25 回复
  13. 楼主,你好,我用下边方法登录知乎 #coding=utf-8 import urllib import urllib2 url = 'https://www.zhihu.com/#signin' user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36' values = {'account':'****','password':'*****' } headers = { 'User-Agent' : user_agent,'Referer':'http://www.zhihu.com/topic','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8'} print headers data = urllib.urlencode(values) request = urllib2.Request(url, data, headers) response = urllib2.urlopen(request) page = response.read() 为什么一直403禁止访问
    秋风2016-02-03 20:25 回复
  14. 博主,太爱你了。
    赵蓉蓉2016-01-30 05:10 回复
  15. 博主你好,有几个问题想问一下: 1,登录时要输入验证号怎么办呀? 2,我把文章最后一个程序的网址换成了微博登录的网址后,然后再利用程序登录我微博的个人相册的网址,最后将爬到的数据存到了本地的一个html文件中,最后我用浏览器打开刚才程序爬到的数据,但是没有看到和微博个人相册一样的界面,怎么判定程序是否成功的爬取了想要的数据呢?
    TYOUKAI_2016-01-13 16:08 回复
1 2 3 4 5 6