网站首页 > 技术文章 正文
2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,在ImageNet大赛上一举夺魁,开启了深度学习的时代,后来大量比AlexNet更快速更准确的卷积神经网络结构相继出现。
AlexNet的结构图和一些参数:
卷积层:5层
全连接层:3层
深度:8层
参数个数:6000万
神经元个数:65万
AlexNet以显著的优势赢得了2012年的ILSVRC比赛,top5错误率降低至16.4%。相比较第二名26.2%的成绩,错误率有了巨大的提升。
AlexNet将LeNet的思想发扬光大,把CNN应用到了很深很宽的网络结构中。主要新技术点为:
使用Relu函数作为CNN的激活函数,验证其效果在较深的网络上超过了Sigmoid,解决了Sigmoid在深层网络的梯度弥散问题。
训练时使用Dropout随机忽略一些神经元,避免过拟合
在CNN中使用了叠加的最大池化层,提升了特征的丰富性
提出了LRN层,对局部神经元的活动创建竞争机制,使其影响大的值变化相对大,抑制反馈较小的神经元,增强模型泛化能力
使用CUDA加速了深度网络的训练
超参数
AlexNet网络中
输入的图片尺寸为224x224
第一个卷积层conv1:卷积核11x11,步长为4,卷积核个数为96
后接一个LRN层
最大池化层3x3, 步长为2
之后的卷积层尺寸都为5x5或者3x3,步长为1,具体的参数见图所示
我们发现,卷积层虽然计算量大,但是参数量较小,只占据AlexNet总参数的很小一部分。可以通过较小的参数量提取有效的特征。
AlexNet每层超参数和参数数量
AlexNet作为开创者依旧有着很多值得学习参考的地方,它为后续的CNN甚至是R-CNN等其他网络都定下了基调。
猜你喜欢
- 2024-10-03 Inception系列之Inception_v2 inception v2
- 2024-10-03 谷歌力作:神经网络训练中的Batch依赖性很烦?那就消了它
- 2024-10-03 Java树结构 Java树结构数据导出easyexcel
- 2024-10-03 「干货」泌尿外科腹腔镜手术入路,齐了
- 2024-10-03 泌尿外科腹腔镜手术入路,全在这了
- 2024-10-03 机器不学习:深度卷积模型 不要再问1x1卷积核的问题啦
- 2024-10-03 归一化方法总结 归一化bn
- 2024-10-03 RSTP和STP的状态角色一览 rstp相比stp的优点
- 2024-10-03 深度学习之重读经典(三)VGGNet 重读经典的意义
- 2024-10-03 深度学习之重读经典(二)AlexNet 重拾经典深度阅读
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)