机器学习的最大任务之一是分类。我们需要创建一个可以分隔两种(或更多种)实例的边界。例如,我们想要构建一个分类器,可以将人分类为违约者和非违约者。在数学上,我们试图想象/识别n维空间(特征空间)中的边界,该边界可以将一个类(违约者)与另一个类(非违约者)分开。
图中的每个点代表一个人(实例/行)。每个点/人/实例都有三个特征(收入,年龄和专业经验(以年为单位)),因此特征空间是三维空间(X,Y,Z)。蓝色点(人)是非违约者,而红色点(人)是违约者。
我们的目标是识别可以分离类别的边界(蓝色和红色,它意味着违约者和非违约者)。在这里,我们可以很容易地想象一个可以分离类的简单位置。这意味着它需要一个简单的平面(数学上,平面是aX + bY + cZ + d = 0,其中要找出系数a,b,c,d)。
换句话说,通过使用此边界/分类器,我们可以预测任何新点(X,Y,Z)的类。逻辑是aX + bY + cZ + d> 0是一个类(这里是蓝色类)的点,否则是另一个类(这里是红色类)
在现实生活中,总是存在非线性,在X,Y,Z的极值处弯曲。例如,您的收入每年超过25万卢比,违约的可能性总是非常低。收入在70万至100万美元之间的人违约的几率不同,而收入在32万至35万美元之间的人违约的几率相差不大。它是非线性的。(10万:INR:印度卢比)
因此,为了介绍非线性,我们引入了激活函数(sigmoid,双曲正切)
为简单起见,我们试图根据二维特征空间(X和Y)预测一个类(Z)。如上所述,现实生活中的问题主要是非线性的。我们需要激活函数。
Sigmoid函数可以将任何值更改为0到1之间的值,而双曲正切值将值更改为介于-1和1之间的值.Relu,leakyRelu,ELU是激活函数的高级版本。
因此边界从平面变为非线性位置变为单独的类
您已经了解了激活函数、非线性和边界的重要性/相关性。
在下一节中,我们将看到中间层的重要性,特别是当我们需要复杂的边界来分离类时
在这里我们可以看到每个层/步骤中的值是如何变化的。我们只需要一个函数逼近边界就可以分离类。函数逼近一般是非线性函数(即线性函数与非线性(激活)函数)的组合。
下一层是X和Y的线性函数。根据系数a、b、c、d(初始初值,优化后的最优值)和偏差值,制作不同的函数/图,如图所示,激活函数将值/图形squashes 。一开始我们不知道正确的/最优的系数值,这样最终的函数就可以近似边界来分离类。这就是为什么我们需要反向传播来调整系数/权重,以得到系数/权重的最优值。
希望您喜欢神经网络的视觉理解
想象一下,这些类型的图可能需要非常非线性和复杂的边界。您可以想象为什么我们需要更多层和激活函数来创建边界。
本文暂时没有评论,来添加一个吧(●'◡'●)