本节我们就来了解下使用深度学习识别滑动验证码的方法。
1. 准备工作
我们这次主要侧重于完成利用深度学习模型来识别验证码缺口的过程,所以不会侧重于讲解深度学习模型的算法,另外由于整个模型实现较为复杂,本节也不会从零开始编写代码,而是倾向于把代码提前下载下来进行实操练习。
所以在最后,请提前代码下载下来,仓库地址为:https://github.com/Python3WebSpider/DeepLearningSlideCaptcha2,利用 Git 把它克隆下来:
1 |
git clone https://github.com/Python3WebSpider/DeepLearningSlideCaptcha2.git |
运行完毕之后,本地就会出现一个 DeepLearningImageCaptcha2 的文件夹,就证明克隆成功了。
克隆完毕之后,请切换到 DeepLearningImageCaptcha2 文件夹,安装必要的依赖库:
1 |
pip3 install -r requirements.txt |
运行完毕之后,本项目运行所需要的依赖库就全部安装好了。
以上准备工作都完成之后,那就让我们就开始本节正式的学习吧。
2. 目标检测
识别滑动验证码缺口的这个问题,其实可以归结为目标检测问题。那什么叫目标检测呢?在这里简单作下介绍。
目标检测,顾名思义,就是把我们想找的东西找出来。比如给一张「狗」的图片,如图所示:
我们想知道这只狗在哪,它的舌头在哪,找到了就把它们框选出来,这就是目标检测。
经过目标检测算法处理之后,我们期望得到的图片是这样的:
可以看到这只狗和它的舌头就被框选出来了,这就完成了一个不错的目标检测。
现在比较流行的目标检测算法有 R-CNN、Fast R-CNN、Faster R-CNN、SSD、YOLO 等,感兴趣可以了解一下,当然不太了解对本节要完成的目标也没有什么影响。
当前做目标检测的算法主要有两种方法,有一阶段式和两阶段式,英文叫做 One stage 和 Two stage,简述如下:
- Two Stage:算法首先生成一系列目标所在位置的候选框,然后再对这些框选出来的结果进行样本分类,即先找出来在哪,然后再分出来是啥,俗话说叫「看两眼」,这种算法有 R-CNN、Fast R-CNN、Faster R-CNN 等,这些算法架构相对复杂,但准确率上有优势。
- One Stage:不需要产生候选框,直接将目标定位和分类的问题转化为回归问题,俗话说叫「看一眼」,这种算法有 YOLO、SSD,这些算法虽然准确率上不及 Two stage,但架构相对简单,检测速度更快。
所以这次我们选用 One Stage 的有代表性的目标检测算法 YOLO 来实现滑动验证码缺口的识别。
YOLO,英文全称叫做 You Only Look Once,取了它们的首字母就构成了算法名,
目前 YOLO 算法最新的版本是 V5 版本,应用比较广泛的是 V3 版本,这里算法的具体流程我们就不过多介绍了,感兴趣的可以搜一下相关资料了解下,另外也可以了解下 YOLO V1-V3 版本的不同和改进之处,这里列几个参考链接:
- YOLO V3 论文:https://pjreddie.com/media/files/papers/YOLOv3.pdf
- YOLO V3 介绍:https://zhuanlan.zhihu.com/p/34997279
- YOLO V1-V3 对比介绍:https://www.cnblogs.com/makefile/p/yolov3.html
3. 数据准备
像上一节介绍的一样,要训练深度学习模型也需要准备训练数据,数据也是分为两部分,一部分是验证码图像,另一部分是数据标注,即缺口的位置。但和上一节不一样的是,这次标注不再是单纯的验证码文本了,因为这次我们需要表示的是缺口的位置,缺口对应的是一个矩形框,要表示一个矩形框,至少需要四个数据,如左上角点的横纵坐标 x、y,矩形的宽高 w、h,所以标注数据就变成了四个数字。
所以,接下来我们就需要准备一些验证码图片和对应的四位数字的标注了,比如下图的滑动验证码:
好,那接下来我们就完成这两步吧,第一步就是收集验证码图片,第二步就是标注缺口的位置并转为我们想要的四位数字。
在这里我们的示例网站是 https://captcha1.scrape.center/,打开之后点击登录按钮便会弹出一个滑动验证码,如图所示:
我们需要做的就是单独将滑动验证码的图像保存下来,也就是这个区域:
怎么做呢?靠手工截图肯定不太可靠,费时费力,而且不好准确定位边界,会导致存下来的图片有大有小。为了解决这个问题,我们可以简单写一个脚本来实现下自动化裁切和保存,就是仓库中的 collect.py 文件,代码如下:
1 |
from selenium import webdriver |
在这里我们先定义了一个循环,循环次数为 COUNT 次,每次循环都使用 Selenium 启动一个浏览器,然后打开目标网站,模拟点击登录按钮触发验证码弹出,然后截取验证码对应的节点,再用 screenshot 方法将其保存下来。
我们将其运行:
1 |
python3 collect.py |
运行完了之后我们就可以在 data/captcha/images/
目录获得很多验证码图片了,样例如图所示:
获得验证码图片之后,我们就需要进行数据标注了,这里推荐的工具是 labelImg,GitHub 地址为 https://github.com/tzutalin/labelImg,使用 pip3 安装即可:
1 |
pip3 install labelImg |
安装完成之后可以直接命令行运行:
1 |
labelImg |
这样就成功启动了 labelImg:
点击 Open Dir
打开 data/captcha/images/
目录,然后点击左下角的 Create RectBox
创建一个标注框,我们可以将缺口所在的矩形框框选出来,框选完毕之后 labelImg 就会提示保存一个名称,我们将其命名为 target,然后点击 OK,如图所示:
这时候我们可以发现其保存了一个 xml 文件,内容如下:
1 |
<annotation> |
其中可以看到 size 节点里有三个节点,分别是 width、height、depth,分别代表原验证码图片的宽度、高度、通道数。另外 object 节点下的 bndbox 节点就包含了标注缺口的位置,通过观察对比可以知道 xmin、ymin 指的就是左上角的坐标,xmax、ymax 指的就是右下角的坐标。
我们可以用下面的方法简单进行下数据处理:
1 |
import xmltodict |
这里我们定义了一个 parse_xml 方法,这个方法首先读取了 xml 文件,然后使用 xmltodict 库就可以将 XML 字符串转为 JSON,然后依次读取出验证码的宽高信息,缺口的位置信息,最后返回了想要的数据格式—— 缺口左上角的坐标和宽高相对值,以元组的形式返回。
都标注完成之后,对每个 xml 文件调用此方法便可以生成想要的标注结果了。
在这里,我已经将对应的标注结果都处理好了,可以直接使用,路径为 data/captcha/labels,如图所示:
每个 txt 文件对应一张验证码图的标注结果,内容类似如下:
1 |
0 0.6153846153846154 0.275 0.16596774 0.24170968 |
第一位 0 代表标注目标的索引,由于我们只需要检测一个缺口,所以索引就是 0;第 2、3 位代表缺口的左上角的位置,比如 0.615 则代表缺口左上角的横坐标在相对验证码的 61.5% 处,乘以验证码的宽度 520,结果大约就是 320,即左上角偏移值是 320 像素;第 4、5 代表缺口的宽高相对验证码图片的占比,比如第 5 位 0.24 乘以验证码的高度 320,结果大约是 77,即缺口的高度大约为 77 像素。
好了,到此为止数据准备阶段就完成了。
4. 训练
为了更好的训练效果,我们还需要下载一些预训练模型。预训练的意思就是已经有一个提前训练过的基础模型了,我们可以直接使用提前训练好的模型里面的权重文件,我们就不用从零开始训练了,只需要基于之前的模型进行微调就好了,这样既可以节省训练时间,又可以有比较好的效果。
YOLOV3 的训练要加载预训练模型才能有不错的训练效果,预训练模型下载命令如下:
1 |
bash prepare.sh |
注意:在 Windows 下请使用 Bash 命令行工具如 Git Bash 来运行此命令。
执行这个脚本,就能下载 YOLO V3 模型的一些权重文件,包括 yolov3 和 weights 还有 darknet 的 weights,在训练之前我们需要用这些权重文件初始化 YOLO V3 模型。
接下来就可以开始训练了,执行如下脚本:
1 |
bash train.sh |
注意:在 Windows 下请同样使用 Bash 命令行工具如 Git Bash 来运行此命令。
同样推荐使用 GPU 进行训练,训练过程中我们可以使用 TensorBoard 来看看 loss 和 mAP 的变化,运行 TensorBoard:
1 |
tensorboard --logdir='logs' --port=6006 --host 0.0.0.0 |
注意:请确保已经正确安装了本项目的所有依赖库,其中就包括 TensorBoard,安装成功之后便可以使用 tensorboard 命令。
运行此命令后可以在 http://localhost:6006 观察到训练过程中的 loss 变化。
loss_1 变化类似如下:
val_mAP 变化类似如下:
可以看到 loss 从最初的非常高下降到了很低,准确率也逐渐接近 100%。
这是训练过程中的命令行的一些输出结果:
1 |
---- [Epoch 99/100, Batch 27/29] ---- |
这里显示了训练过程中各个指标的变化情况,如 loss、recall、precision、confidence 等,分别代表训练过程的损失(越小越好)、召回率(能识别出的结果占应该识别出结果的比例,越高越好)、精确率(识别出的结果中正确的比率,越高越好)、置信度(模型有把握识别对的概率,越高越好),可以作为参考。
5. 测试
训练完毕之后会在 checkpoints 文件夹生成 pth 文件,这就是一些模型文件,和上一节的 best_model.pkl 是一样的原理,只不过表示形式略有不同,我们可直接使用这些模型来预测生成标注结果。
要运行测试,我们可以先在测试文件夹 data/captcha/test
放入一些验证码图片:
样例验证码如下:
要运行测试,执行如下脚本:
1 |
bash detect.sh |
该脚本会读取测试文件夹所有图片,并将处理后的结果输出到 data/captcha/result
文件夹,控制台输出了一些验证码的识别结果。
同时在 data/captcha/result
生成了标注的结果,样例如下:
可以看到,缺口就被准确识别出来了。
实际上,detect.sh 是执行了 detect.py 文件,在代码中有一个关键的输出结果如下:
1 |
bbox = patches.Rectangle((x1 + box_w / 2, y1 + box_h / 2), box_w, box_h, linewidth=2, edgecolor=color, facecolor="none") |
这里 bbox 指的就是最终缺口的轮廓位置,同时 x1 就是指的轮廓最左侧距离整个验证码最左侧的横向偏移量,即 offset。通过这两个信息,我们就能得到缺口的关键位置了。
有了目标滑块位置之后,我们便可以进行一些模拟滑动操作从而实现通过验证码的检测了。
6. 总结
本节主要介绍了训练深度学习模型来识别滑动验证码缺口的整体流程,最终我们成功实现了模型训练过程,并得到了一个深度学习模型文件。
利用这个模型,我们可以输入一张滑动验证码,模型便会预测出其中的缺口的位置,包括偏移量、宽度等,最后可以通过缺口的信息绘制出对应的位置。
和上一节一样,本节介绍的内容也可以进一步优化:
- 当前模型的预测过程是通过命令行执行的,但在实际使用的时候可能并不太方便,可以考虑将预测过程对接 API 服务器暴露出来,比如对接 Flask、Django、FastAPI 等把预测过程实现为一个支持 POST 请求的接口,接口可以接收一张验证码图片,返回验证码的文本信息,这样会使得模型更加方便易用。
本节代码:https://github.com/Python3WebSpider/DeepLearningSlideCaptcha2。