blog.csdn.net/xbinworld:算法机器学习技术交流,从深度学习结构到Google的Inception和Xception
欢迎转载,请指出:本文来自bin列/。技术交换QQ组:欢迎加入对算法和机器学习技术感兴趣的学生。
上一篇文章谈到了深度学习方法(10):卷积神经网络结构的结构 -in,of the系列网络,这是关于本文的,且仍然存在的。 (提示,人们仍然给出了很多好主意。我希望读者和朋友和我可以提出自己的想法并在理解纸张时实现它。)
如果您想看到,只需将其拉到末端并具有手绘图即可。
V1-V4 V1:
V1口头说。在先前的深度学习方法(5)中:CNN的卷积神经网络CNN模型的经典模型,vgg,深层介绍。这是另一个创新点:
图1
为了提高CNN的网络功能,例如分类的准确性,总体想法是增加网络。例如,它确实比早期的LENET大得多,但是它纯粹是在增加网络 - 就像每层数量增加一倍一样 - 但是这样做有两个缺点 -too许多参数易于拟合,而数量则是网络计算的数量将变得越来越大。
以下重点:目前,许多工作证明是,如果您想增强网络功能,则可以:增加网络的深度并增加网络的宽度;但是,为了减少过度拟合,您还必须减少免费参数。因此,自然存在网络结构的第一个版本 - 在同一层中,有不同的卷积模板,卷积1* 1,3* 3,5* 5。它也是一个混合模型。因为Max本身也具有特征性的提取,并且与卷积不同,因此作为分支,不会过分拟合参数。但是,直接这样做,整个网络计算量将很大,并且水平不会加深。因此,在3*3和5*5卷积之前进行1*1卷积以减少输入数量。网络变得更深,计算量同时较小。 (每次卷积之后,都有恢复)
V2-V3:
V2和V3相对较近,因此您不会绝对区分它,您可以看到。让我们谈谈创新点:
首先,有两层堆叠的3*3,而不是5*5层。我们可以看到,参数的数量较少,计算量较小,但是层的数量变得更暗,效果更好:
使用1*3和3*1卷积替换3*3卷积。计算量要少得多,深度变得更深,并且想法是相同的。 (实际上,1*n和n*1替换n*n,n可以更改)
将其放在结构中,以下是原始的
下图5-6-7是一个改进的版本:
整体网络结构:
我们看到在整个过程中不使用它,而是在图像相对较小的图像中使用,并且图5-6-7的结构依次使用,并且适用于不同尺寸的图像。
v4:
V4可以研究模块结合吗?发现的结构可以极大地加速培训,同时提高了性能。获取A-V2网络。同时,可以设计更深入,更优化的V4模型,以实现性能可比的v2
-v1和-v2全部用于此结构,差异在下图中的评论中。
本文是各种微型结构的变化。我对在此处发布没有兴趣。我希望读者能移动论文,找到相应的图形号码,然后看看。
实际上,我也有疑问。尽管纸总是可以说出一些方法,但结果确实有一些改进,但是它的设计采用完全不同的微型结构,用于不同级别。这会在模式下太统一吗?它是否以更简洁和统一的方式实现相同的效果?我相信有。我觉得V1的模型非常简单,并且跳跃结构也非常简单,美丽,但是当V4是V4时,结构发生了太大变化。很难理解为什么有必要? **
就像我们过去参加电影推荐比赛一样。最终结果通常是多模型的混合,但我个人对最有效的单个模型的样子最感兴趣。
非常新的工作,前面提到的许多网络,那么网络的限制是什么?极端版本之一是如下:
1*1卷积后,对每个卷积进行3*3*3的独立卷积,然后进行。据认为,每个转换都与交叉无关。
作者的建议,或简而言之,是以下方式:首先做 -conv,然后超过1*1的卷积,中间没有依赖,最后是relu。
上面提到的两个结构之间的区别,本文中的本段非常明显:
整个网络结构:
好的,作为记录和指导,本文在这里,让每个人都找到更多的结构设计思想。
参考信息
以下参考文章的数据部分也带来了测试错误
进行,6.67%的测试错误
批次:偏移深处,4.8%的测试错误
for,3.5%的测试错误
-v4, - 和ON,3.08%的测试错误
:深处
简短 - 对V4在网络模型中的作用和结构的完整分析
在CNN中
页:
[1]