cnn可以访问了,cnn10

本文介绍CNN的经典网络。 包括LeNet、AlexNet、VGG、谷歌net和ResNet。 与本文相关的一些概念,请参阅前面写的文章《CNN相关概念的理解》。LeNet

网络结构如下。

LeNet用于手写数字识别,输出包括10个类别,网络结构参数如下。

输入层: 13232图像

kernal size:55,parameters:(55 )6=156个,包含Conv1 Layer个过滤器

subsamplinglayer :平均轮询,大小: 22,活动: sigmoid

con v3 layer:kernal size:55,包含16个过滤器

subsamplinglayer :平均轮询,大小: 22

con V5层: kernal size:5*5,包含120个过滤器

fullyconnectedlayer:activation function:sigmoid

输出层: Gaussian connection

网络有两个缺点。 1、过度拟合。 2、计算量大。

AlexNet

网络结构如下。

与LeNet相比,AlexNet使用了以下优化策略:

1、数据增强。 包括水平翻转、随机裁剪、平移转换、颜色和照明转换。

2、激活函数ReLU。

3、Dropout,减少拟合。

4、多GPU并行计算。

但是,没有解决LeNet留下的计算量大、参数多的问题。 其中计算量集中在卷积层,参数集中在所有连接层。

VGG

网络结构如下。

网络变更如下。

1、使用卷积组。

2、卷积核变小,使用33个卷积核。

感受野:有2个33卷积核代替55卷积核,感受野相同。

最大池化层: pool_size=22,strides=2*2。

网络特征:输出特征图数量加倍,输出特征图维度尺寸加倍。

VGG网络践行了“神经网络越深越好”的理念。

补充填充的知识

“valid”填充3360否填充

“same”填充3360填充sothattheoutputdimensionisthesameastheinput

NIN

网络结构如下。

NIN网络引入了以下改进:

1、多层感知卷积

2、全球平均池化

3、去除参数多的全连接层,33卷积芯改为11

GoogleNet

网络结构如下。

卷积的inception结构如下:

inception v1加11后计算量减少,参数增加; 深度变深,非线性增加了。

inception v2的小卷积,将55置换为2个33,导入BN

inception v3体积积分解,77=71 17

谷歌net没有全连接层,而是有一层,应该从1024迁移到1000输出维。 全局平均池化维(7*7)取决于上一层输出特性图的维。

ResNet

网络结构如下。

残差网络的残差块结构可分为两类:

1、双层残差块。

2、瓶颈结构、三层残差块、层数增加,第一个11卷积核作用是减少计算量,第二个11卷积核作用是保持维数一致。

残差网络由五组残差块组成,每个inception的第一个模块shortcut需要在步骤2中进行降维。 其他模块是直接加法。 残差网络改善了梯度消失的问题。

总结:

1、网络结构越来越深,精度越来越高(性能) ) )。

2、卷积功能越来越强,精度越来越高(性能)。

3、计算和存储量不随网络层的增加而线性增长。 引入1*1卷积核,断开所有连接。

赛车每天赚1000的方法

3、去除参数多的全连接层,33卷积芯改为11

GoogleNet

网络结构如下。

卷积的inception结构如下:

inception v1加11后计算量减少,参数增加; 深度变深,非线性增加了。

inception v2的小卷积,将55置换为2个33,导入BN

inception v3体积积分解,77=71 17

谷歌net没有全连接层,而是有一层,应该从1024迁移到1000输出维。 全局平均池化维(7*7)取决于上一层输出特性图的维。

ResNet

网络结构如下。

残差网络的残差块结构可分为两类:

1、双层残差块。

2、瓶颈结构、三层残差块、层数增加,第一个11卷积核作用是减少计算量,第二个11卷积核作用是保持维数一致。

残差网络由五组残差块组成,每个inception的第一个模块shortcut需要在步骤2中进行降维。 其他模块是直接加法。 残差网络改善了梯度消失的问题。

总结:

1、网络结构越来越深,精度越来越高(性能) ) )。

2、卷积功能越来越强,精度越来越高(性能)。

3、计算和存储量不随网络层的增加而线性增长。 引入1*1卷积核,断开所有连接。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注