网站首页 技术文章 第1063页
-
吴恩达深度学习笔记(37)-神经网络的权重初始化再解析
神经网络的权重初始化(WeightInitializationforDeepNetworksVanishing/Explodinggradients)上节课,我们学习了深度神经网络如何产生梯度消失和梯度爆炸问题,最终针对该问题...
2024-09-05 btikc 技术文章 9 ℃ 0 评论 -
「过拟合」也能废物利用:高清重建3D物体表面,参数减少99%
鱼羊发自凹非寺量子位报道|公众号QbitAI听到过拟合...
2024-09-05 btikc 技术文章 11 ℃ 0 评论 -
Pytorch深度学习1:使用Pytorch实现三种常用的激活函数
激活函数在深度学习中的作用非常大,如果没有激活函数,所有的模型都将只是线性变换。Pytorch中实现了多种激活函数,例如常见的ReLU、sigmoid和tanh。往往不同的模型,使用的激活函数对最终模型效果影响还是很大的。如何选取最佳的...
2024-09-05 btikc 技术文章 9 ℃ 0 评论 -
深度学习中常见激活函数以及什么时候该使用激活函数
一、简介如今的互联网提供了大量的信息。我们只需要通过Google就可以找到这些信息。而我其中最重要的一个挑战是区分相关信息和非相关信息。当我们的大脑充满了信息的时候,它会第一时间区分哪些是有用信息哪些是无用信息。因此,在神经网络中我们也需要...
2024-09-05 btikc 技术文章 10 ℃ 0 评论 -
深度学习的秘密武器:用 PyTorch 的 torch.nn.ReLU 打造高效模型
前言在深度学习模型中,激活函数扮演着至关重要的角色。它们不仅帮助引入非线性,使得神经网络能够学习复杂的模式,还对网络的性能和训练速度有直接影响。ReLU(RectifiedLinearUnit)是最常用的激活函数之一,本篇文章将深入探讨...
2024-09-05 btikc 技术文章 10 ℃ 0 评论 -
SiPESC.PHM故障诊断方法(二)——DCGAN生成对抗网络
在结构健康监测领域,传统方法常依赖预设的物理模型和专家经验来判断故障。但随着工程结构越来越复杂,环境条件也更加多变,这些方法开始显得力不从心。特别是当数据量巨大且故障模式多样时,传统方法往往难以及时、准确地检测和诊断故障。因此,研究者们...
2024-09-05 btikc 技术文章 8 ℃ 0 评论 -
一种自适应参数化的ReLU激活函数
本文在综述一些常用激活函数和注意力机制理论的基础上,解读了一种“注意力机制下的新型激活函数”,即“自适应参数化修正线性单元”(AdaptivelyParametricRectifierLinearUnit,APReLU)。激活函数...
2024-09-05 btikc 技术文章 7 ℃ 0 评论 -
神经网络中常用激活函数与其导函数总结实现与可视化分析
神经网络中激活函数发挥着非常重要的作用,在处理简单的线性可分的数据集的时候我们不需要用到激活函数仅仅依靠线性分类器就可以解决问题,但是实际生活中的绝大多数的场景并不是这样简单的,那么简单的线性分类器就没有办法起到很好的效果了,此时常用的处理...
2024-09-05 btikc 技术文章 8 ℃ 0 评论 -
CycleGAN
一种主题的风格转换成另外一种主题的风格,其他位置还能保持不变,比如...
2024-09-05 btikc 技术文章 8 ℃ 0 评论 -
26种神经网络激活函数可视化
选自GitHub作者:DavidSheehan机器之心编译在本文中,作者对包括Relu、Sigmoid在内的26种激活函数做了可视化,并附上了神经网络的相关属性,为大家了解激活函数提供了很好的资源。...
2024-09-05 btikc 技术文章 11 ℃ 0 评论
- 控制面板
- 网站分类
- 最新留言