投稿    登录
  《Python3网络爬虫开发实战》赠书活动正在进行中!详情请戳赠书活动!欢迎参与!非常感谢!

TensorFlow MNIST高级学习

Python 崔庆才 1128浏览 5评论

上一节使用了最简单的网络来处理了 MNIST 数据集,但只有 92% 的正确率,接下来我们使用卷积神经网络来实现更高的正确率。

权重初始化

在上一节初始化 w 和 b 的时候,我们使用了置零初始化。但在卷积神经网络中,我们需要在初始化的时候权重加入少量噪声来打破对称性和避免零梯度,偏置项直接使用一个较小的正数来避免节点输出恒为零的问题。

所以权重我们可以使用截尾正态分布函数 truncated_normal() 来生成初始化张量,我们可以给它指定均值或标准差,均值默认是 0, 标准差默认是 1,例如我们生成一个 [10] 的张量,代码如下:

结果如下:

另外 constant() 方法是用于生成常量的方法,例如生成一个 [10] 的常量张量,代码如下:

结果如下:

所以这里我们可以将这两个方法封装成一个函数来尝试:

卷积

这次我们需要使用卷积神经网络来处理图片,所以这里的核心部分就是卷积和池化了,首先我们来了解一下卷积和池化。

卷积常用的方法为 conv2d() ,它的 API 如下:

这个方法是 TensorFlow 实现卷积常用的方法,也是搭建卷积神经网络的核心方法,参数介绍如下:

  • input,指需要做卷积的输入图像,它要求是一个 Tensor,具有 [batch_size, in_height, in_width, in_channels] 这样的 shape,具体含义是 [batch_size 的图片数量, 图片高度, 图片宽度, 输入图像通道数],注意这是一个 4 维的 Tensor,要求类型为 float32 和 float64 其中之一。
  • filter,相当于 CNN 中的卷积核,它要求是一个 Tensor,具有 [filter_height, filter_width, in_channels, out_channels] 这样的shape,具体含义是 [卷积核的高度,卷积核的宽度,输入图像通道数,输出通道数(即卷积核个数)],要求类型与参数 input 相同,有一个地方需要注意,第三维 in_channels,就是参数 input 的第四维。
  • strides,卷积时在图像每一维的步长,这是一个一维的向量,长度 4,具有 [stride_batch_size, stride_in_height, stride_in_width, stride_in_channels] 这样的 shape,第一个元素代表在一个样本的特征图上移动,第二三个元素代表在特征图上的高、宽上移动,第四个元素代表在通道上移动。
  • padding,string 类型的量,只能是 SAME、VALID 其中之一,这个值决定了不同的卷积方式。
  • use_cudnn_on_gpu,布尔类型,是否使用 cudnn 加速,默认为true。

返回的结果是 [batch_size, out_height, out_width, out_channels] 维度的结果。

我们这里拿一张 3×3 的图片,单通道(通道为1)的图片,拿一个 1×1 的卷积核进行卷积:

结果如下:

很清晰,一张图片,拿一个 1×1 的核去做卷积,得到的结果输出是 3×3 的,输出通道为 1,batch_size 照旧。

再将卷积核扩大,用一个 3×3 的卷积核:

结果如下:

最后输出的是一个 1×1 的值。

将图片扩大为 7×7,卷积核仍然使用 3×3:

结果如下:

最后输出的是一个 5×5 的值。

这时如果我们把 padding 模式改为 SAME,表示卷积核可以停留在图像边缘:

结果如下:

则输出的内容和原图像是相同的。

这时如果更改 batch_size 和 out_channels,比如 batch_size 修改为 3,out_channels 修改为 6:

结果如下:

输出结果的 batch_size 和 out_channels 会随之变化。

当 strides 的步长不为 1 的时候,我们将 stride_in_height 和 stride_in_width 修改为 2,相当于每次移动两步:

结果如下:

最后我们用一个例子来感受一下:

这里 input、filter 通过指定 shape 的方式调用 random_normal() 方法进行随机初始化,input 的维度为 [2, 4, 4, 5],即 batch_size 为 2,图片是 4×4,输入通道数为 5,卷积核大小为 2×2,输入通道 5,输出通道 2,步长为 1,padding 方式选用 VALID,最后输出得到输出的 shape 和结果。

结果如下:

可以看到 input 维度为 [2, 4, 4, 5],filter 维度为 [2, 2, 5, 2] 时,生成的结果维度为 [2, 3, 3, 2]。

池化

池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果。

在这里介绍一个常用的最大值池化 max_pool() 方法,其 API 如下:

是CNN当中的最大值池化操作,其实用法和卷积很类似。

参数介绍如下:

  • value,需要池化的输入,一般池化层接在卷积层后面,所以输入通常是 feature map,依然是 [batch_size, height, width, channels] 这样的shape。
  • ksize,池化窗口的大小,取一个四维向量,一般是 [batch_size, height, width, channels],因为我们不想在 batch 和 channels 上做池化,所以这两个维度设为了1。
  • strides,和卷积类似,窗口在每一个维度上滑动的步长,一般也是 [stride_batch_size, stride_height, stride_width, stride_channels]。
  • padding,和卷积类似,可以取 VALID、SAME,返回一个 Tensor,类型不变,shape 仍然是 [batch_size, height, width, channels] 这种形式。

在这里输入为 [3, 7, 7, 2],池化窗口设置为 [1, 2, 2, 1],步长为 [1, 1, 1, 1],padding 模式设置为 VALID。

结果如下:

类似的原理,我们可以得到这样的的结果。

卷积和池化

所以了解了以上卷积和池化方法的用法,我们可以定义如下两个工具方法:

这两个方法分别实现了卷积和池化,并设置了默认步长和核大小。

接下来就让我们开始神经网络的构建吧。

初始化

首先我们需要初始化一些数据,包括输入的 x 和对一个的标注 y_label:

第一层卷积

现在我们可以开始实现第一层了。它由一个卷积接一个 max pooling 完成。卷积在每个 5×5 的 patch 中算出 32 个特征。卷积的权重张量形状是 [5, 5, 1, 32],前两个维度是 patch 的大小,接着是输入的通道数目,最后是输出的通道数目,而对于每一个输出通道都有一个对应的偏置量,我们首先初始化 w 和 b

为了用这一层,我们把 x 变成一个四维向量,其第 2、3 维对应图片的宽、高,最后一维代表图片的颜色通道数,因为是灰度图所以这里的通道数为 1,如果是彩色图,则为 3。

随后我们需要对图片做 reshape 操作,将其

我们把 x_reshape 和权值向量进行卷积,加上偏置项,然后应用 ReLU 激活函数,最后进行 max pooling:

第二层卷积

现在我们已经实现了一层卷积,为了构建一个更深的网络,我们再继续增加一层卷积,将通道数变成 64,所以这里的初始化权重和偏置为:

随后我们把上一层池化结果 h_pool1 和权值向量进行卷积,加上偏置项,然后应用 ReLU 激活函数,最后进行 max pooling:

密集连接层

现在,图片尺寸减小到7×7,我们再加入一个有 1024 个神经元的全连接层,用于处理整个图片。我们把池化层输出的张量 reshape 成一些向量,乘上权重矩阵,加上偏置,然后对其使用 ReLU。

Dropout

为了减少过拟合,我们在输出层之前加入 dropout。我们用一个 placeholder 来代表一个神经元的输出在 dropout 中保持不变的概率。这样我们可以在训练过程中启用 dropout,在测试过程中关闭 dropout。 TensorFlow 的 tf.nn.dropout 操作除了可以屏蔽神经元的输出外,还会自动处理神经元输出值的 scale,所以用 dropout 的时候可以不用考虑 scale。

输出层

最后,我们添加一个 Softmax 输出层,这里我们需要将 1024 维转为 10 维,所以需要声明一个 [1024, 10] 的权重和 [10] 的偏置:

训练和评估模型

为了进行训练和评估,我们使用与之前简单的单层 Softmax 神经网络模型几乎相同的一套代码,只是我们会用更加复杂的 Adam 优化器来做梯度最速下降,在 feed_dict 中加入额外的参数 keep_prob 来控制 dropout 比例,然后每 100次 迭代输出一次日志:

运行

以上代码,在最终测试集上的准确率大概是99.2%。

运行结果:

结语

本节我们实现了卷积神经网络来处理图像相关问题,将准确率大大提高,可见神经网络是非常强大的。

本节代码

本节代码地址为:https://github.com/AIDeepLearning/MNIST

转载请注明:静觅 » TensorFlow MNIST高级学习

喜欢 (8)or分享 (0)

想学更多爬虫知识?《Python3网络爬虫开发实战》这本书也许更适合你~

了解详情or立即购买

我的个人微信公众号

扫码或搜索:进击的Coder

进击的Coder

微信公众号 扫一扫关注

想结交更多的朋友吗?

来进击的Coder瞧瞧吧

进击的Coder

QQ群号 99350970 立即加入

进击的Coder灌水太多?

这里是纯粹的技术领地

激进的Coder

QQ群号 627725766 立即加入

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请狠狠点击下面的

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(5)个小伙伴在吐槽
  1. Link exchange is nothing else however it is only placing the other person's web site link on your page at suitable place and other person will also do similar in favor of you.
  2. I'm really enjoying the design and layout of your blog. It's a very easy on the eyes which makes it much more enjoyable for me to come here and visit more often. Did you hire out a designer to create your theme? Superb work!
  3. I go to see everyday a few websites and sites to read content, except this website provides quality based posts.
  4. Have you ever thought about including a little bit more than just your articles? I mean, what you say is important and everything. But just imagine if you added some great visuals or videos to give your posts more, "pop"! Your content is excellent but with pics and clips, this blog could certainly be one of the very best in its niche. Superb blog!
    minecraft2018-10-07 13:39 回复
  5. Today, I went to the beach front with my kids. I found a sea shell and gave it to my 4 year old daughter and said "You can hear the ocean if you put this to your ear." She put the shell to her ear and screamed. There was a hermit crab inside and it pinched her ear. She never wants to go back! LoL I know this is totally off topic but I had to tell someone!
    minecraft2018-10-06 08:36 回复