基本数据Tensor可以完成前向传播,想要完成神经网络的训练,还需要反向传播和梯度更新。pytorch提供了自动求导机制autograph。
创建tensor时,通过require_grad表示是否进行求导,默认为False。
tensor默认有两个属性,一个是grad,即梯度,一个是grad_fn即tensor正向传播的函数,实例如图。
现在我们建立一个最简单的人工神经元,y = w * x + b.实例如下。通过backward函数反向计算。
基本数据Tensor可以完成前向传播,想要完成神经网络的训练,还需要反向传播和梯度更新。pytorch提供了自动求导机制autograph。
创建tensor时,通过require_grad表示是否进行求导,默认为False。
tensor默认有两个属性,一个是grad,即梯度,一个是grad_fn即tensor正向传播的函数,实例如图。
现在我们建立一个最简单的人工神经元,y = w * x + b.实例如下。通过backward函数反向计算。
本文暂时没有评论,来添加一个吧(●'◡'●)