计算机系统应用教程网站

网站首页 > 技术文章 正文

循环神经网络的使用RNN和LSTM rnn循环神经网络的原理

btikc 2024-11-01 11:25:00 技术文章 9 ℃ 0 评论

专栏推荐




(此处已添加圈子卡片,请到今日头条客户端查看)

RNN

ht = tαnh(Wih*Xt+bih+whh*ht-1+bhh)

在pytorch中我们使用nn.RNN()就可以创建出RNN神经网络,它有如下参数:

input_size表示输入xt的特征维度

hidden_size表示输出ht的特征维度,或者理解为隐藏层的神经元数

num_layers表示RNN网络的层数,默认是1层

nonlinearity表示非线性激活函数的选择,默认tanh,当然也可以选择relu

bias表示是否使用偏置,默认是Ture,使用

batch_first这个参数是决定网络输入的维度顺序,默认是(seq,batch,feature)输入,seq表示序列长度,batch表示批量,feature表示特征维度,我们也可以将其修改为(batch,seq,feature),只用将这个参数设置为True

dropout个参数接受一个0~1的数值,这个dropout层会在除了最后一层之外的其他输出层加上

bidirectional默认的False,如果我们要是使用双向循环网络的话,那么我们就可以设置这个参数是True

以上就是使用nn.RNN()的一些使用参数

当我们创建好一个RNN网络之后,我们要出入到神经网络数据,神经网络会接收一个序列输入xt,还有一个记忆输入h0,这个记忆输入的维度是(lαyers * direction, batch, hidde),其中layers表示RNN的层数,direction表示RNN的方向,如果双向就是2,如果单向那么就是1,batch表示批量,hidden表示输出维度,还有一点隐藏网络记忆输出的维度也是(lαyers * direction, batch, hidden)

RNN的输出维度是(seq,batch, hidden * diredion),

建立输入维度是20,输出维度是50,两层层的单项RNN网络

Rnn=nn.RNN(input_size=20,hidden_size=50,num_layers=2)

输入20,可以简单的理解为一个RNN模块的输入层的神经元数是20

输出50,可以简单的理解为一个RNN模块的输出层的神经元数是50,也可以理解为隐藏层为50个神经元

Wih为(50*20)

Whh为(50*50)

当我们创建这样的神经网络的时候,我们就可以往这个网络中输入数据了,但要注意维度

因为创建网络的时候,已经指定了input_size=30了,所以我们输入的feature也应该是30,假如输入的维度xt是100,32,20,这个表示序列长度是100,也就是一个样本的长度,有32个样本,然后样本中的每个词的维度是32

然后还可以指定h0的维度2 , 32 , 50。,2表示层数*方向数。32表示样本数,50表示隐藏层的维数。如果在传入网络的时候不特别注明隐藏状态问,那么初始的隐藏状态默认参数全 是 0

input = Variable(torch.randn(100,32,20))

h0 = Variable (torch. randn (2 , 32 , 50))

将数据输入到网络中

output,hn=RNN(input,h0)

此时output的维度是100,32,50,50是输出层的神经元个数

此时hn的维度是2 , 32 , 50

LSTM

LSTM中的维度是普通RNN的四倍,可以理解为wih的维度为(50x4, 20)它的隐藏状态除了h0以外,还多了一个C0它们合在一起成为网络的隐藏状态,而且它们的大小完全一样,就是 (1αyer * direction, batch, hidden),

lstm=nn.LSTM(input_size=20,hidden_size=50,num_layers=2)

创建一个lstm神经网络,它的输入层的神经元是20,输出层的神经元数是50,层数是2层

input = Variable(torch.randn(100,32,20))

out, (hn, cn) = lstm(input)

out100,32,50

hn2,32,50

cn2,32,50

GRU号LSTM相似,先它的隐藏状态参数不再是标准 RNNrr叫的 4 倍,而是 3 倍,可以理解为wih的维度为(50x3,20),而且此时网络的隐藏状态也不在是h0和c0,而只有h0.

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表