前面介绍了正则表达式的相关用法,但是一旦正则表达式写的有问题,得到的可能就不是我们想要的结果了。而且对于一个网页来说,都有一定的特殊结构和层级关系,而且很多节点都有 id
或 class
来作区分,所以借助它们的结构和属性来提取不也可以吗?
这一节中,我们就来介绍一个强大的解析工具 Beautiful Soup,它借助网页的结构和属性等特性来解析网页。有了它,我们不用再去写一些复杂的正则表达式,只需要简单的几条语句,就可以完成网页中某个元素的提取。
废话不多说,接下来就来感受一下 Beautiful Soup 的强大之处吧。
1. 简介
简单来说,Beautiful Soup 就是 Python 的一个 HTML 或 XML 的解析库,可以用它来方便地从网页中提取数据。官方解释如下:
Beautiful Soup 提供一些简单的、Python 式的函数来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
Beautiful Soup 自动将输入文档转换为 Unicode 编码,输出文档转换为 UTF-8 编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时你仅仅需要说明一下原始编码方式就可以了。
Beautiful Soup 已成为和 lxml、html6lib 一样出色的 Python 解释器,为用户灵活地提供不同的解析策略或强劲的速度。
所以说,利用它可以省去很多烦琐的提取工作,提高了解析效率。
2. 准备工作
在开始之前,请确保已经正确安装好了 Beautiful Soup 和 lxml,如果没有安装,可以参考第 1 章的内容。
3. 解析器
Beautiful Soup 在解析时实际上依赖解析器,它除了支持 Python 标准库中的 HTML 解析器外,还支持一些第三方解析器(比如 lxml)。表 4-3 列出了 Beautiful Soup 支持的解析器。
表 4-3 Beautiful Soup 支持的解析器
解析器
使用方法
优势
劣势
Python 标准库
BeautifulSoup(markup, "html.parser")
Python 的内置标准库、执行速度适中、文档容错能力强
Python 2.7.3 及 Python 3.2.2 之前的版本文档容错能力差
lxml HTML 解析器
BeautifulSoup(markup, "lxml")
速度快、文档容错能力强
需要安装 C 语言库
lxml XML 解析器
BeautifulSoup(markup, "xml")
速度快、唯一支持 XML 的解析器
需要安装 C 语言库
html5lib
BeautifulSoup(markup, "html5lib")
最好的容错性、以浏览器的方式解析文档、生成 HTML5 格式的文档
速度慢、不依赖外部扩展
通过以上对比可以看出,lxml 解析器有解析 HTML 和 XML 的功能,而且速度快,容错能力强,所以推荐使用它。
如果使用 lxml,那么在初始化 Beautiful Soup 时,可以把第二个参数改为 lxml
即可:
1 |
from bs4 import BeautifulSoup |
在后面,Beautiful Soup 的用法实例也统一用这个解析器来演示。
4. 基本用法
下面首先用实例来看看 Beautiful Soup 的基本用法:
1 |
html = """ |
运行结果如下:
1 |
<html> |
这里首先声明变量 html
,它是一个 HTML 字符串。但是需要注意的是,它并不是一个完整的 HTML 字符串,因为 body
和 html
节点都没有闭合。接着,我们将它当作第一个参数传给 BeautifulSoup
对象,该对象的第二个参数为解析器的类型(这里使用 lxml
),此时就完成了 BeaufulSoup
对象的初始化。然后,将这个对象赋值给 soup
变量。
接下来,就可以调用 soup
的各个方法和属性解析这串 HTML 代码了。
首先,调用 prettify()
方法。这个方法可以把要解析的字符串以标准的缩进格式输出。这里需要注意的是,输出结果里面包含 body
和 html
节点,也就是说对于不标准的 HTML 字符串 BeautifulSoup
,可以自动更正格式。这一步不是由 prettify()
方法做的,而是在初始化 BeautifulSoup
时就完成了。
然后调用 soup.title.string
,这实际上是输出 HTML 中 title
节点的文本内容。所以,soup.title
可以选出 HTML 中的 title
节点,再调用 string
属性就可以得到里面的文本了,所以我们可以通过简单调用几个属性完成文本提取,这是不是非常方便?
5. 节点选择器
直接调用节点的名称就可以选择节点元素,再调用 string
属性就可以得到节点内的文本了,这种选择方式速度非常快。如果单个节点结构层次非常清晰,可以选用这种方式来解析。
选择元素
下面再用一个例子详细说明选择元素的方法:
1 |
html = """ |
运行结果如下:
1 |
<title>The Dormouse's story</title> |
这里依然选用刚才的 HTML 代码,首先打印输出 title
节点的选择结果,输出结果正是 title
节点加里面的文字内容。接下来,输出它的类型,是 bs4.element.Tag
类型,这是 Beautiful Soup 中一个重要的数据结构。经过选择器选择后,选择结果都是这种 Tag
类型。Tag
具有一些属性,比如 string
属性,调用该属性,可以得到节点的文本内容,所以接下来的输出结果正是节点的文本内容。
接下来,我们又尝试选择了 head
节点,结果也是节点加其内部的所有内容。最后,选择了 p
节点。不过这次情况比较特殊,我们发现结果是第一个 p
节点的内容,后面的几个 p
节点并没有选到。也就是说,当有多个节点时,这种选择方式只会选择到第一个匹配的节点,其他的后面节点都会忽略。
提取信息
上面演示了调用 string
属性来获取文本的值,那么如何获取节点属性的值呢?如何获取节点名呢?下面我们来统一梳理一下信息的提取方式。
(1) 获取名称
可以利用 name
属性获取节点的名称。这里还是以上面的文本为例,选取 title
节点,然后调用 name
属性就可以得到节点名称:
1 |
print(soup.title.name) |
运行结果如下:
1 |
title |
(2) 获取属性
每个节点可能有多个属性,比如 id
和 class
等,选择这个节点元素后,可以调用 attrs
获取所有属性:
1 |
print(soup.p.attrs) |
运行结果如下:
1 |
{'class': ['title'], 'name': 'dromouse'} |
可以看到,attrs
的返回结果是字典形式,它把选择的节点的所有属性和属性值组合成一个字典。接下来,如果要获取 name
属性,就相当于从字典中获取某个键值,只需要用中括号加属性名就可以了。比如,要获取 name
属性,就可以通过 attrs['name']
来得到。
其实这样有点烦琐,还有一种更简单的获取方式:可以不用写 attrs
,直接在节点元素后面加中括号,传入属性名就可以获取属性值了。样例如下:
1 |
print(soup.p['name']) |
运行结果如下:
1 |
dromouse |
这里需要注意的是,有的返回结果是字符串,有的返回结果是字符串组成的列表。比如,name
属性的值是唯一的,返回的结果就是单个字符串。而对于 class
,一个节点元素可能有多个 class
,所以返回的是列表。在实际处理过程中,我们要注意判断类型。
(3) 获取内容
可以利用 string
属性获取节点元素包含的文本内容,比如要获取第一个 p
节点的文本:
1 |
print(soup.p.string) |
运行结果如下:
1 |
The Dormouse's story |
再次注意一下,这里选择到的 p
节点是第一个 p
节点,获取的文本也是第一个 p
节点里面的文本。
嵌套选择
在上面的例子中,我们知道每一个返回结果都是 bs4.element.Tag
类型,它同样可以继续调用节点进行下一步的选择。比如,我们获取了 head
节点元素,我们可以继续调用 head
来选取其内部的 head
节点元素:
1 |
html = """ |
运行结果如下:
1 |
<title>The Dormouse's story</title> |
第一行结果是调用 head
之后再次调用 title
而选择的 title
节点元素。然后打印输出了它的类型,可以看到,它仍然是 bs4.element.Tag
类型。也就是说,我们在 Tag
类型的基础上再次选择得到的依然还是 Tag
类型,每次返回的结果都相同,所以这样就可以做嵌套选择了。
最后,输出它的 string
属性,也就是节点里的文本内容。
关联选择
在做选择的时候,有时候不能做到一步就选到想要的节点元素,需要先选中某一个节点元素,然后以它为基准再选择它的子节点、父节点、兄弟节点等,这里就来介绍如何选择这些节点元素。
(1) 子节点和子孙节点
选取节点元素之后,如果想要获取它的直接子节点,可以调用 contents
属性,示例如下:
1 |
html = """ |
运行结果如下:
1 |
['\n Once upon a time there were three little sisters; and their names were\n ', <a class="sister" href="http://example.com/elsie" id="link1"> |
可以看到,返回结果是列表形式。p
节点里既包含文本,又包含节点,最后会将它们以列表形式统一返回。
需要注意的是,列表中的每个元素都是 p
节点的直接子节点。比如第一个 a
节点里面包含一层 span
节点,这相当于孙子节点了,但是返回结果并没有单独把 span
节点选出来。所以说,contents
属性得到的结果是直接子节点的列表。
同样,我们可以调用 children
属性得到相应的结果:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
<list_iterator object at 0x1064f7dd8> |
还是同样的 HTML 文本,这里调用了 children
属性来选择,返回结果是生成器类型。接下来,我们用 for
循环输出相应的内容。
如果要得到所有的子孙节点的话,可以调用 descendants
属性:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
<generator object descendants at 0x10650e678> |
此时返回结果还是生成器。遍历输出一下可以看到,这次的输出结果就包含了 span
节点。descendants
会递归查询所有子节点,得到所有的子孙节点。
(2) 父节点和祖先节点
如果要获取某个节点元素的父节点,可以调用 parent
属性:
1 |
html = """ |
运行结果如下:
1 |
<p class="story"> |
这里我们选择的是第一个 a
节点的父节点元素。很明显,它的父节点是 p
节点,输出结果便是 p
节点及其内部的内容。
需要注意的是,这里输出的仅仅是 a
节点的直接父节点,而没有再向外寻找父节点的祖先节点。如果想获取所有的祖先节点,可以调用 parents
属性:
1 |
html = """ |
运行结果如下:
1 |
<class 'generator'> |
可以发现,返回结果是生成器类型。这里用列表输出了它的索引和内容,而列表中的元素就是 a
节点的祖先节点。
(3) 兄弟节点
上面说明了子节点和父节点的获取方式,如果要获取同级的节点(也就是兄弟节点),应该怎么办呢?示例如下:
1 |
html = """ |
运行结果如下:
1 |
Next Sibling |
可以看到,这里调用了 4 个属性,其中 next_sibling
和 previous_sibling
分别获取节点的下一个和上一个兄弟元素,next_siblings
和 previous_siblings
则分别返回所有前面和后面的兄弟节点的生成器。
(4) 提取信息
前面讲解了关联元素节点的选择方法,如果想要获取它们的一些信息,比如文本、属性等,也用同样的方法,示例如下:
1 |
html = """ |
运行结果如下:
1 |
Next Sibling: |
如果返回结果是单个节点,那么可以直接调用 string
、attrs
等属性获得其文本和属性;如果返回结果是多个节点的生成器,则可以转为列表后取出某个元素,然后再调用 string
、attrs
等属性获取其对应节点的文本和属性。
6. 方法选择器
前面所讲的选择方法都是通过属性来选择的,这种方法非常快,但是如果进行比较复杂的选择的话,它就比较烦琐,不够灵活了。幸好,Beautiful Soup 还为我们提供了一些查询方法,比如 find_all()
和 find()
等,调用它们,然后传入相应的参数,就可以灵活查询了。
find_all()
find_all
,顾名思义,就是查询所有符合条件的元素。给它传入一些属性或文本,就可以得到符合条件的元素,它的功能十分强大。
它的 API 如下:
1 |
find_all(name , attrs , recursive , text , **kwargs) |
(1)name
我们可以根据节点名来查询元素,示例如下:
1 |
html=''' |
运行结果如下:
1 |
[<ul class="list" id="list-1"> |
这里我们调用了 find_all()
方法,传入 name
参数,其参数值为 ul
。也就是说,我们想要查询所有 ul
节点,返回结果是列表类型,长度为 2,每个元素依然都是 bs4.element.Tag
类型。
因为都是 Tag
类型,所以依然可以进行嵌套查询。还是同样的文本,这里查询出所有 ul
节点后,再继续查询其内部的 li
节点:
1 |
for ul in soup.find_all(name='ul'): |
运行结果如下:
1 |
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>] |
返回结果是列表类型,列表中的每个元素依然还是 Tag
类型。
接下来,就可以遍历每个 li
,获取它的文本了:
1 |
for ul in soup.find_all(name='ul'): |
运行结果如下:
1 |
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>] |
(2)attrs
除了根据节点名查询,我们也可以传入一些属性来查询,示例如下:
1 |
html=''' |
运行结果如下:
1 |
[<ul class="list" id="list-1" name="elements"> |
这里查询的时候传入的是 attrs
参数,参数的类型是字典类型。比如,要查询 id
为 list-1
的节点,可以传入 attrs={'id': 'list-1'}
的查询条件,得到的结果是列表形式,包含的内容就是符合 id
为 list-1
的所有节点。在上面的例子中,符合条件的元素个数是 1,所以结果是长度为 1 的列表。
对于一些常用的属性,比如 id
和 class
等,我们可以不用 attrs
来传递。比如,要查询 id
为 list-1
的节点,可以直接传入 id
这个参数。还是上面的文本,我们换一种方式来查询:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
[<ul class="list" id="list-1"> |
这里直接传入 id='list-1'
,就可以查询 id
为 list-1
的节点元素了。而对于 class
来说,由于 class
在 Python 里是一个关键字,所以后面需要加一个下划线,即 class_='element'
,返回的结果依然还是 Tag
组成的列表。
(3)text
text
参数可用来匹配节点的文本,传入的形式可以是字符串,可以是正则表达式对象,示例如下:
1 |
import re |
运行结果如下:
1 |
['Hello, this is a link', 'Hello, this is a link, too'] |
这里有两个 a
节点,其内部包含文本信息。这里在 find_all()
方法中传入 text
参数,该参数为正则表达式对象,结果返回所有匹配正则表达式的节点文本组成的列表。
find()
除了 find_all()
方法,还有 find()
方法,只不过后者返回的是单个元素,也就是第一个匹配的元素,而前者返回的是所有匹配的元素组成的列表。示例如下:
1 |
html=''' |
运行结果如下:
1 |
<ul class="list" id="list-1"> |
这里的返回结果不再是列表形式,而是第一个匹配的节点元素,类型依然是 Tag
类型。
另外,还有许多查询方法,其用法与前面介绍的 find_all()
、find()
方法完全相同,只不过查询范围不同,这里简单说明一下。
find_parents()
和find_parent()
:前者返回所有祖先节点,后者返回直接父节点。find_next_siblings()
和find_next_sibling()
:前者返回后面所有的兄弟节点,后者返回后面第一个兄弟节点。find_previous_siblings()
和find_previous_sibling()
:前者返回前面所有的兄弟节点,后者返回前面第一个兄弟节点。find_all_next()
和find_next()
:前者返回节点后所有符合条件的节点,后者返回第一个符合条件的节点。find_all_previous()
和find_previous()
:前者返回节点后所有符合条件的节点,后者返回第一个符合条件的节点。
7. CSS 选择器
Beautiful Soup 还提供了另外一种选择器,那就是 CSS 选择器。如果对 Web 开发熟悉的话,那么对 CSS 选择器肯定也不陌生。如果不熟悉的话,可以参考 http://www.w3school.com.cn/cssref/css_selectors.asp 了解。
使用 CSS 选择器时,只需要调用 select()
方法,传入相应的 CSS 选择器即可,示例如下:
1 |
html=''' |
运行结果如下:
1 |
|
这里我们用了 3 次 CSS 选择器,返回的结果均是符合 CSS 选择器的节点组成的列表。例如,select('ul li')
则是选择所有 ul
节点下面的所有 li
节点,结果便是所有的 li
节点组成的列表。
最后一句打印输出了列表中元素的类型。可以看到,类型依然是 Tag
类型。
嵌套选择
select()
方法同样支持嵌套选择。例如,先选择所有 ul
节点,再遍历每个 ul
节点,选择其 li
节点,样例如下:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>] |
可以看到,这里正常输出了所有 ul
节点下所有 li
节点组成的列表。
获取属性
我们知道节点类型是 Tag
类型,所以获取属性还可以用原来的方法。仍然是上面的 HTML 文本,这里尝试获取每个 ul
节点的 id
属性:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
list-1 |
可以看到,直接传入中括号和属性名,以及通过 attrs
属性获取属性值,都可以成功。
获取文本
要获取文本,当然也可以用前面所讲的 string
属性。此外,还有一个方法,那就是 get_text()
,示例如下:
1 |
from bs4 import BeautifulSoup |
运行结果如下:
1 |
Get Text: Foo |
可以看到,二者的效果完全一致。
到此,Beautiful Soup 的用法基本就介绍完了,最后做一下简单的总结。
- 推荐使用 lxml 解析库,必要时使用 html.parser。
- 节点选择筛选功能弱但是速度快。
- 建议使用
find()
或者find_all()
查询匹配单个结果或者多个结果。 - 如果对 CSS 选择器熟悉的话,可以使用
select()
方法选择。