网站首页 > 技术文章 正文
卷积神经网络层(Convolutional Neural Network,CNN)是一种特殊的深层前馈网络,一般包括数据输入层、卷积层、激活层、下采样层和全连接层。
卷积层是卷积神经网络中重要的单元,它的构成是一系列对数据进行滤波的卷积核,其本质就是图像的局部区域与卷积核的权值加权求和的线性叠加过程。图像I作为输入,使用二维的卷积核K进行卷积,则卷积过程可表示为:
其中,I(i,j)为图像在(i,j)位置的值,S(i,j)为卷积运算后得到的特征图。
激活卷积操作是线性的,只能进行线性的映射,表达能力有限。因此针对非线性映射问题的处理是,需要引入非线性激活函数。对于处理不同的非线性问题,引入的激活函数也不同,常用的主要有sigmoid、tanh、relu等。
Sigmoid函数表达式为:
Tanh函数表达式为:
Relu函数的表达式为:
下采样层又叫池化层,一般会放在几个卷积层之后,来减小特征图像的大小。池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。一般池化层有三个功能:一是降低特征维度,池化操作相当于又进行了一次特征提取过程,可以去除冗余信息,减小下一层的数据处理量。二是为了防止过拟合,池化操作获得更为抽象的信息,提高泛化性。三是保持特征不变性,池化操作保留最重要的特征。
全连接层通常放在卷积神经网络的尾部,层与层之间所有的神经元都有权值连接。目的是将网络中学习到的特征全部映射到样本的标记空间,从而进行类别判断。Softmax函数通常用在神经网络的最后一层,作为分类器的输出,softmax函数输出的每个值的范围都在(0,1)之间。
有一些经典高效的CNN模型,例如:VGGNet、ResNet、AlexNet等,都已广泛应用于图像识别领域。
喜欢本文的话,欢迎关注活在信息时代哦:)
猜你喜欢
- 2024-09-29 「动手学计算机视觉」第十五讲:卷积神经网络之LeNet
- 2024-09-29 卷积神经网络与Transformer结合,视频帧合成新架构
- 2024-09-29 用CNN做基础模型,可变形卷积InternImage实现检测分割新纪录
- 2024-09-29 卷积神经网络图片分类模型之Inception v1
- 2024-09-29 卷积神经网络:超越传统技术的人工智能模型
- 2024-09-29 利用pytorch CNN手写字母识别神经网络模型识别多手写字母(A-Z)
- 2024-09-29 paddle几行代码轻松实现CNN卷积神经网络在MNIST上的图像分类
- 2024-09-29 级联金字塔结构卷积神经网络 卷积神经网络结构示意图
- 2024-09-29 人工智能Keras CNN卷积神经网络的图片识别
- 2024-09-29 图像的处理原理:CNN(卷积神经网络)的实现过程
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)