投稿    登录
  您好,欢迎光临崔庆才的博客,祝大家新年快乐,鸡年大吉!

Python爬虫入门三之Urllib库的基本使用

Python 崔庆才 229313浏览 51评论

那么接下来,小伙伴们就一起和我真正迈向我们的爬虫之路吧。

1.分分钟扒一个网页下来

怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒一个网页下来。

是的你没看错,真正的程序就两行,把它保存成 demo.py,进入该文件的目录,执行如下命令查看运行结果,感受一下。

2015-02-13 00:09:09 的屏幕截图

看,这个网页的源码已经被我们扒下来了,是不是很酸爽?

2.分析扒网页的方法

那么我们来分析这两行代码,第一行

首先我们调用的是urllib2库里面的urlopen方法,传入一个URL,这个网址是百度首页,协议是HTTP协议,当然你也可以把HTTP换做FTP,FILE,HTTPS 等等,只是代表了一种访问控制协议,urlopen一般接受三个参数,它的参数如下:

第一个参数url即为URL,第二个参数data是访问URL时要传送的数据,第三个timeout是设置超时时间。

第二三个参数是可以不传送的,data默认为空None,timeout默认为 socket._GLOBAL_DEFAULT_TIMEOUT

第一个参数URL是必须要传送的,在这个例子里面我们传送了百度的URL,执行urlopen方法之后,返回一个response对象,返回信息便保存在这里面。

response对象有一个read方法,可以返回获取到的网页内容。

如果不加read直接打印会是什么?答案如下:

直接打印出了该对象的描述,所以记得一定要加read方法,否则它不出来内容可就不怪我咯!

3.构造Request

其实上面的urlopen参数可以传入一个request请求,它其实就是一个Request类的实例,构造时需要传入Url,Data等等的内容。比如上面的两行代码,我们可以这么改写

运行结果是完全一样的,只不过中间多了一个request对象,推荐大家这么写,因为在构建请求时还需要加入好多内容,通过构建一个request,服务器响应请求得到应答,这样显得逻辑上清晰明确。

4.POST和GET数据传送

上面的程序演示了最基本的网页抓取,不过,现在大多数网站都是动态网页,需要你动态地传递参数给它,它做出对应的响应。所以,在访问时,我们需要传递数据给它。最常见的情况是什么?对了,就是登录注册的时候呀。

把数据用户名和密码传送到一个URL,然后你得到服务器处理之后的响应,这个该怎么办?下面让我来为小伙伴们揭晓吧!

数据传送分为POST和GET两种方式,两种方式有什么区别呢?

最重要的区别是GET方式是直接以链接形式访问,链接中包含了所有的参数,当然如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。POST则不会在网址上显示所有的参数,不过如果你想直接查看提交了什么就不太方便了,大家可以酌情选择。

POST方式:

上面我们说了data参数是干嘛的?对了,它就是用在这里的,我们传送的数据就是这个参数data,下面演示一下POST方式。

我们引入了urllib库,现在我们模拟登陆CSDN,当然上述代码可能登陆不进去,因为CSDN还有个流水号的字段,没有设置全,比较复杂在这里就不写上去了,在此只是说明登录的原理。一般的登录网站一般是这种写法。

我们需要定义一个字典,名字为values,参数我设置了username和password,下面利用urllib的urlencode方法将字典编码,命名为data,构建request时传入两个参数,url和data,运行程序,返回的便是POST后呈现的页面内容。

注意上面字典的定义方式还有一种,下面的写法是等价的

以上方法便实现了POST方式的传送

GET方式:

至于GET方式我们可以直接把参数写到网址上面,直接构建一个带参数的URL出来即可。

你可以print geturl,打印输出一下url,发现其实就是原来的url加?然后加编码后的参数

和我们平常GET访问方式一模一样,这样就实现了数据的GET方式传送。

本节讲解了一些基本使用,可以抓取到一些基本的网页信息,小伙伴们加油!

转载请注明:静觅 » Python爬虫入门三之Urllib库的基本使用

喜欢 (1070)or分享 (0)

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请狠狠点击下面的

  1. 运行时报错:p1 = soup1.select(name=lt)[0][value]NameError: name ‘lt’ is not defined这是为什么呢?望回复

  2. 博主, 用你的方法登陆后,重新回到登陆界面, 查看页面发现“该参数可以理解成每个需要登录的用户都有一个流水号。只有有了webflow发放的有效的流水号,用户才可以说明是已经进入了webflow流程。否则,没有流水号的情况下,webflow会认为用户还没有进入webflow流程,从而会重新进入一次webflow流程,从而会重新出现登录界面。”,这个是什么原理?

  3. 求问post的例子用python3怎么写,我改的代码如下:
    import urllib.parse
    import urllib.request

    values = {"userName":"xxxxx","password":"xxxxxx"}
    data = urllib.parse.urlencode(values)
    req = urllib.request.Request("https://passport.baidu.com/v2/?login",data)

    response = urllib.request.urlopen(req)
    print (response.read())
    但是运行出现了most recent call last的错误,不知道是什么情况,求教

  4. 你用的是2.x还是3.x,我用2.7不行
    /usr/local/python27/lib/python2.7/site-packages/requests/packages/urllib3/util/ssl_.py:318: SNIMissingWarning: An HTTPS request has been made, but the SNI (Subject Name Indication) extension to TLS is not available on this platform. This may cause the server to present an incorrect TLS certificate, which can cause validation failures. You can upgrade to a newer version of Python to solve this. For more information, see https://urllib3.readthedocs.org/en/latest/security.html#snimissingwarning.
    SNIMissingWarning
    /usr/local/python27/lib/python2.7/site-packages/requests/packages/urllib3/util/ssl_.py:122: InsecurePlatformWarning: A true SSLContext object is not available. This prevents urllib3 from configuring SSL appropriately and may cause certain SSL connections to fail. You can upgrade to a newer version of Python to solve this. For more information, see https://urllib3.readthedocs.org/en/latest/security.html#insecureplatformwarning.
    InsecurePlatformWarning

  5. 乱码解决
    1.自己在.py声明# -*- coding: utf-8 -*-
    2.自己在文本编辑器声明 utf-8 wihtout bom
    3.自己在cmd声明 首先输入
    chcp 65001 就是换成UTF-8代码页
    chcp 936 可以换回默认的GBK

  6. Pingback: 荷露叮咚网络学苑 | Python数据分析学习路径图(120天Get新技能) | 荷露叮咚大数据

  7. CSDN登录新方法,因为通过浏览器抓包发现需要传递一些值的内容,BS4可以用正则代替,思路是:打开当前登录页面,用正则获取里面的lt、execution所对应的值,然后赋值一下给data(要发送的内容集合,可能解释不恰当)
    import requests
    from bs4 import BeautifulSoup

    url = ‘http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn’

    sess = requests.session()#群里问了一下说是【保存持久会话】

    html1 = sess.get(url).text #效果等同于urlopen(xxx).read(),返回上面url里的内容

    soup1 = BeautifulSoup(html1)#用bs4方法,没了解过,就理解成构建页面。

    p1 = soup1.select([name=lt])[0][value] #这里找lt的值
    p2 = soup1.select([name=execution])[0][value] #这里找execution的值

    data = {
    lt: p1,
    execution: p2,
    _eventId: submit,
    username: 帐号,
    password: 密码
    }

    r = sess.post(url, data) 使用post的方法

    msg = BeautifulSoup(sess.get(‘http://msg.csdn.net/’).text)
    print msg

  8. 不知道为什么运行结果,中文乱码,怎么解决呢?知道的能说一下吗?
    python2.7+windows

  9. 比喻并不完全恰當:HTML應該只能算是bone(骨頭),html+css才能算骨架,這樣比喻如何:上皮組織+結締組織=html+css、js=肌組織+神經組織