计算机系统应用教程网站

网站首页 > 技术文章 正文

一文读懂FNN、CNN、RNN、TDNN、FSMN、Attention、Transformer

btikc 2024-09-06 17:59:20 技术文章 44 ℃ 0 评论

经典模型结构总结,大道至简,探寻最本质之处。


前馈神经网络(FNN, Feedforword Neural Network)

卷积神经网络(CNN, Convolutional Neural Network)

循环神经网络(RNN, Recurrent Neural Network)

Simple RNN

长短时记忆网络(LSTM, Long Short-Term Memory Network)

LSTM 网络引入门控机制( Gating Mechanism) 来控制信息传递的路径

延时神经网络(TDNN, Time-Delay Neural Network)

第一层权重数:16维特征输入*3帧视野*3个隐层节点=166

第二层权重数:3维隐层节点*10帧视野*4个输出节点=120

可以看作是卷积核比较大的卷积操作,第一层,卷积核16*3;第二层卷积核3*10

FSMN(Feedforward Sequential Memory Network)

FSMN其实就是在FNN基础上,加了一个记忆模块,数学表达式如下。

注意力机制

Transformer

这个模型虽然有点复杂,但其实就是FNN、Attention的堆叠,B站上有详细讲解。

参考资料

[1] GitHub - nndl/nndl.github.io: 《神经网络与深度学习》 邱锡鹏著 Neural Network and Deep Learning

关注、点赞、收藏是对我最大的支持,谢谢^v^?

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表