站长网 应用 “猜画小歌”的一些细节和分析

“猜画小歌”的一些细节和分析

Quickdraw的CNN-RNN模型 猜画小歌用到的quickdraw模型本质上是一个分类模型,输入是笔画的点的坐标信息和每笔起始的标识信息,应用几个级联的一维卷积,再使用 BiLSTM 层并对结果进行求和,最后使用Softmax层进行分类。 整个网络结构如图: \ 模型结构 开

 Quickdraw的CNN-RNN模型

 

  "猜画小歌"用到的quickdraw模型本质上是一个分类模型,输入是笔画的点的坐标信息和每笔起始的标识信息,应用几个级联的一维卷积,再使用 BiLSTM 层并对结果进行求和,最后使用Softmax层进行分类。

 

  整个网络结构如图:

 

  \

 

  模型结构

 

  开源数据和代码详见后面参考文档。整个网络比较简单,而且用其默认的参数最终的模型准确率在75%,如下图,不算是一个要求较高的场景,效果已经足够好。

 

  这里分享笔者注意到的有几个有意思的小细节(高手轻拍)。

 

  小细节

 

  数据预处理

 

  对于stroke-3(x,y,n),Google默认使用的TFRecord数据对坐标做了归一化与差值处理。

 

  # 1. Size normalization.

  lower = np.min(np_ink[:, 0:2], axis=0)

  upper = np.max(np_ink[:, 0:2], axis=0)

  scale = upper – lower scale[scale == 0] = 1

  np_ink[:, 0:2] = (np_ink[:, 0:2] – lower) / scale

  # 2. Compute deltas. np_ink[1:, 0:2] -=

  np_ink[0:-1, 0:2]

  np_ink = np_ink[1:, :]

 

  为什么归一化?

 

  类似于输入层BN的作用,将数据的分布由原来激活函数的收敛区调整到梯度较大的区域

 

  只关心画的笔画走势,而不关心画的大小,也就是说画一个大圆和画一个小圆在输入数据层面没有太大区别

 

  为什么差值处理?

 

  忽略起始坐标位置的影响,也就是说在画布的中间和四个角落开始作画同一个形状,在输入数据层面没有太大区别

 

  卷积层

 

  使用多个一维卷积(conv1d)级联,并使用线性激活函数,没有使用pooling层。

 

  线性激活改为relu,准确率降了点,为73%

 

  线性激活改为relu+加上pooling层(size=4,strides=4),准确率又降了点,为70%

 

  为什么线性激活和去掉pooling层效果提升2-3个点?

 

  pooling层有哪些作用:

 

  降低参数量,事实上增加了pooling层使得训练时间缩短了一大半;

 

  保持特征局部不变性,貌似我们的输入不是复杂的图片像素信息,而是笔画信息,而且做了差值处理,也不太需要局部不变性;

 

  减少冗余,去除噪声,对于简笔画来说,可能作用也不是特别明显。

 

  笔者(单纯的)理解简笔画已经是人类对于物体的高度抽象了,因此没有必要在用复杂的CNN网络去抽象特征,并且全局的特征有后面的RNN层获取。

 

  小思考

 

  Google 16年11月就推出了QuickDraw网页版,最近只是借助小程序又火了一把,之前已经获取过大量真实的用户数据,并用于这次小程序效果的优化。

 

  模型还能用来做啥?

 

  最近看到了一片研究这份简笔画数据中不同国家的人的绘画顺序与其国家文字的关系的文章,而且时序分类模型在异常分析、手写体识别、语音识别、文本分类等领域有大量的研究和进展。

本文来自网络,不代表站长网立场,转载请注明出处:https://www.tzzz.com.cn/html/yidong/yy/2021/0710/12577.html

作者: dawei

【声明】:站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。
联系我们

联系我们

0577-28828765

在线咨询: QQ交谈

邮箱: xwei067@foxmail.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部