网站首页 > 技术文章 正文
要坚持一件事情,还是得看兴趣,平时除了上班就是看看网络上的技术资料。接着上一篇继续讲解基础名词。
池化层:
对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征,如下:
池化操作一般有两种,一种是Avy Pooling,一种是max Pooling,如下:
同样地采用一个2*2的filter,max pooling是在每一个区域中寻找最大值,这里的stride=2,最终在原特征图中提取主要特征得到右图。
(Avy pooling现在不怎么用了(其实就是平均池化层),方法是对每一个2*2的区域元素求和,再除以4,得到主要特征),而一般的filter取2*2,最大取3*3,stride取2,压缩为原来的1/4.
注意:这里的pooling操作是特征图缩小,有可能影响网络的准确度,因此可以通过增加特征图的深度来弥补(这里的深度变为原来的2倍)。
全连接层:
连接所有的特征,将输出值送给分类器(如softmax分类器)。
CNN网络中前几层的卷积层参数量占比小,计算量占比大;而后面的全连接层正好相反,大部分CNN网络都具有这个特点。因此我们在进行计算加速优化时,重点放在卷积层;进行参数优化、权值裁剪时,重点放在全连接层。
大家可以仔细看一下文中的图片,不理解的地方到公司公众号里面留言,我空闲了统一来解答。希望能够把技术转化为生产资料,而不是单纯的代码语言。
猜你喜欢
- 2024-10-09 智能座舱算法基础之深度学习篇 智能座舱概念设计
- 2024-10-09 干货:建筑业工程量计算必备公式(四)
- 2024-10-09 太顶了?我竟然用3天学会pytorch常用十大算法
- 2024-10-09 做了一件疯狂的事,我居然给上幼儿园的娃讲明白了深度学习
- 2024-10-09 卷积神经网络-如何计算卷积层中对应参数个数?
- 2024-10-09 上采样层、下采样层是什么、对应算法都有那些
- 2024-10-09 深度学习深度学习(十七)卷积层的另外一个类型-池化
- 2024-10-09 关于污泥回流的知识点汇总,及计算公式总结
- 2024-10-09 深度学习基础知识点归纳总结 深度学习基础知识点
- 2024-10-09 深入解析卷积神经网络的池化层:优化特征提取与减少计算量
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)