计算机系统应用教程网站

网站首页 > 技术文章 正文

神经网络中常用激活函数与其导函数总结实现与可视化分析

btikc 2024-09-05 12:32:13 技术文章 8 ℃ 0 评论

神经网络中激活函数发挥着非常重要的作用,在处理简单的线性可分的数据集的时候我们不需要用到激活函数仅仅依靠线性分类器就可以解决问题,但是实际生活中的绝大多数的场景并不是这样简单的,那么简单的线性分类器就没有办法起到很好的效果了,此时常用的处理手段有两种:

1、借助于转化策略将低维空间线性不可分的数据映射到高维空间中,使得其变得线性可分,此时依旧可以基于线性分类器完成建模处理,例如:SVM就是这样的策略

2、引入激活函数,让模型能够学习非线性的复杂映射关系,这样得到的模型也能够处理复杂的问题。一个好的激活函数能够提升模型的表达能力。

今天我不是在这里花时间来讲解什么是激活函数,或者是激活函数主要是用来做什么的?或者是激活函数是怎么实现这样的功能的。今天主要是花一点时间,对自己平时工作中使用到的或者是接触到的激活函数做一个简单的总结,以便于后续的复习等工作,一些比较重要的激活函数以及相应的导函数曲线和取值范围对于从事深度学习等工作的人来说还是很有必要去学习掌握好的,所以今天就来总结学习记录一下,不一定面面俱到,欢迎感兴趣的人来补充。

本篇博客的内容主要总结了8种激活函数,分别为:sigmoid,tanh,relu,leakyrelu,elu,softplus,softsign,selu。下面我们先来分别看一下各个激活函数对应的曲线以及导函数曲线:

1、sigmoid激活函数

2、tanh激活函数

3、relu激活函数

4、leakyrelu激活函数

5、elu激活函数

6、softplus激活函数

7、softsign激活函数

8、selu激活函数

从上面单个激活函数与其导函数曲线上我们对于激活函数的形状有一个比较清晰直观的了解了,接下来,为了方便对比各个激活函数,我们将其绘制在同一幅图像中,具体如下:

不同的激活函数都有其特定的使用场景,以及优缺点,新的激活函数往往是基于某个激活函数的不足进行的改进而提出的,目的都是为了更好地实现神经网络模型的训练优化达到更好的效果。

下面是上述数据的具体实现:

#!usr/bin/env python
# encoding:utf-8
from __future__ import division
 
"""
__Author__:沂水寒城
功能: Python实现神经网络中常用激活函数曲线与导函数曲线绘制
激活函数的作用:
 激活函数向神经元中引入了非线性因素,使得神经网络可以逼近任意非线性函数,能应用到诸多非线性场景中。
"""
 
 
 
import numpy as np
import matplotlib.pyplot as plt
color_list=['#CD853F','#DC143C','#00FF7F','#FF6347','#8B008B','#00FFFF','#0000FF','#8B0000','#FF8C00',
 '#1E90FF','#00FF00','#FFD700','#008080','#008B8B','#8A2BE2','#228B22','#FA8072','#808080']
 
 
def tanh(x):
 '''
 定义tanh函数
 '''
 return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
 
 
def tanhDerivative(x):
 '''
 定义tanh导函数
 '''
 return 1-tanh(x)*tanh(x)
 
 
def sigmoid(x):
 '''
 定义sigmoid函数
 '''
 return 1.0/(1.0+np.exp(-x))
 
 
def sigmoidDerivative(x):
 '''
 定义sigmoid导函数
 '''
 return sigmoid(x)*(1-sigmoid(x))
 
 
def relu(x):
 '''
 定义relu函数
 '''
 return np.where(x<0,0,x)
 
 
def reluDerivative(x):
 '''
 定义relu的导函数
 '''
 return np.where(x<0,0,1)
 
 
def leakyrelu(x,a=0.01):
 '''
 定义leakyrelu函数
 leakyrelu激活函数是relu的衍变版本,主要就是为了解决relu输出为0的问题
 '''
 return np.where(x<0,a*x,x)
 
 
def leakyreluDerivative(x,a=0.01):
 '''
 定义leakyrelu导函数
 '''
 return np.where(x<0,a,1)
 
 
 
def elu(x,a=0.01):
 '''
 定义elu函数
 elu和relu的区别在负区间,relu输出为0,而elu输出会逐渐接近-α,更具鲁棒性。
 elu激活函数另一优点是它将输出值的均值控制为0(这一点确实和BN很像,BN将分布控制到均值为0,标准差为1)
 '''
 return np.where(x<0,a*(np.exp(x)-1),x)
 
 
def eluDerivative(x,a=0.01):
 '''
 定义elu导函数
 '''
 return np.where(x<0,a*np.exp(x),1)
 
 
def softplus(x):
 '''
 定义softplus函数
 '''
 return np.log(np.exp(x)+1)
 
 
def softplusDerivative(x):
 '''
 定义softplus导函数
 '''
 return sigmoid(x)
 
 
def softsign(x):
 '''
 定义softsign函数
 '''
 return x/(np.abs(x)+1)
 
 
def softsignDerivative(x):
 '''
 定义softsign导函数
 '''
 return 1/(1+abs(x)*abs(x))
 
 
def selu(x):
 '''
 定义selu函数
 '''
 alpha=1.6732632423543772848170429916717
 scale=1.0507009873554804934193349852946
 return np.where(x<0,scale*alpha*(np.exp(x)-1),scale*x)
 
 
def seluDerivative(x):
 '''
 定义selu导函数
 '''
 alpha=1.6732632423543772848170429916717
 scale=1.0507009873554804934193349852946
 return np.where(x<0,alpha*np.exp(x),scale)
 
 
def allFuncPloter(start=-10,end=10,save_path='tanh.png'):
 '''
 所有激活函数曲线绘制
 '''
 x=np.arange(start,end,0.1)
 y1,y11=sigmoid(x),sigmoidDerivative(x)
 y2,y22=tanh(x),tanhDerivative(x)
 y3,y33=relu(x),reluDerivative(x)
 y4,y44=leakyrelu(x,a=0.01),leakyreluDerivative(x)
 y5,y55=elu(x,a=0.01),eluDerivative(x)
 y6,y66=softplus(x),softplusDerivative(x)
 y7,y77=softsign(x),softsignDerivative(x)
 y8,y88=selu(x),seluDerivative(x)
 data=[[y1,y11],[y2,y22],[y3,y33],[y4,y44],[y5,y55],[y6,y66],[y7,y77],[y8,y88]]
 label=['sigmoid','tanh','relu','leakyrelu','elu','softplus','softsign','selu']
 plt.clf()
 plt.figure(figsize=(10,8))
 for i in range(len(data)):
 plt.plot(x,data[i][0],label=label[i],c=color_list[i])
 plt.plot(x,data[i][1],label=label[i]+'Derivative',c=color_list[i])
 plt.legend(loc='best',ncol=2)
 plt.savefig(save_path)
 
 
def singleFuncPloter(start=-10,end=10,name='tanh'):
 '''
 单个指定激活函数曲线绘制
 '''
 x=np.arange(start,end,0.1)
 y1,y11=sigmoid(x),sigmoidDerivative(x)
 y2,y22=tanh(x),tanhDerivative(x)
 y3,y33=relu(x),reluDerivative(x)
 y4,y44=leakyrelu(x,a=0.01),leakyreluDerivative(x)
 y5,y55=elu(x,a=0.01),eluDerivative(x)
 y6,y66=softplus(x),softplusDerivative(x)
 y7,y77=softsign(x),softsignDerivative(x)
 y8,y88=selu(x),seluDerivative(x)
 data=[[y1,y11],[y2,y22],[y3,y33],[y4,y44],[y5,y55],[y6,y66],[y7,y77],[y8,y88]]
 label=['sigmoid','tanh','relu','leakyrelu','elu','softplus','softsign','selu']
 plt.clf()
 #plt.figure(figsize=(10,8))
 i=label.index(name)
 plt.plot(x,data[i][0],label=label[i],c=color_list[i])
 plt.plot(x,data[i][1],label=label[i]+'Derivative',c=color_list[i+1])
 plt.legend(loc='best',ncol=2)
 plt.savefig(name+'.png')
 
 
if __name__ == '__main__':
 allFuncPloter(start=-10,end=10,save_path='all.png')
 
 for name in ['sigmoid','tanh','relu','leakyrelu','elu','softplus','softsign','selu']:
 singleFuncPloter(start=-10,end=10,name=name)

学习记录一下,备忘!

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表