网站首页 log_softmax
-
新手教程:在新应用中实践深度学习的最佳建议
选自arXiv作者:LeslieN.Smith机器之心编译参与:JaneW、黄小天本报告对希望在没有用过深度学习算法的应用软件上进行深度神经网络尝试的人群提供了实用建议。为了使项目更易于管理,这些建议被分成了几个阶段,每个阶段都包含了...
2024-10-12 btikc 技术文章 19 ℃ 0 评论 -
一个新的基于样本数量计算的的高斯 softmax 函数
softmax函数在机器学习中无处不在:当远离分类边界时,它假设似然函数有一个修正的指数尾。但是新数据可能不适合训练数据中使用的z值范围。如果出现新的数据点softmax将根据指数拟合确定其错误分类的概率;错误分类的机会并不能保证遵循...
2024-10-12 btikc 技术文章 47 ℃ 0 评论 -
TensorFlow和PyTorch相继发布最新版,有何变化
原文来源:GitHub「机器人圈」编译:嗯~阿童木呀、多啦A亮Tensorflow主要特征和改进在Tensorflow库中添加封装评估量。所添加的评估量列表如下:1.深度神经网络分类器(DNNClassifier)2.深度神经网络回归...
2024-10-12 btikc 技术文章 19 ℃ 0 评论 -
来自特斯拉AI总监的“秘方”:这些训练神经网络的小技巧不能忽略
栗子晓查编译量子位出品|公众号QbitAI同学,现在有一份33条神经网络训练秘笈,摆在你面前。AI大佬AndrejKarpathy(简称AK),刚刚发布了一篇长长长长博客,苦口婆心地列举了33条技巧和注意事项,全面避免大家...
2024-10-12 btikc 技术文章 19 ℃ 0 评论 -
小型深度学习框架 | TinyGrad,不到1K行代码(附代码下载)
...
2024-10-12 btikc 技术文章 64 ℃ 0 评论 -
Pytorch损失函数简明教程 pytorch loss function
损失度量对于神经网络非常重要。由于所有机器学习模型都是这样或那样的优化问题,因此损失是要最小化的目标函数。在神经网络中,优化是通过梯度下降和反向传播来完成的。但什么是损失函数,它们如何影响你的神经网络?推荐:用NSDT设计器快速搭...
2024-10-12 btikc 技术文章 58 ℃ 0 评论 -
深度学习实战第四课 深度学习基础教程
本文是fastai课程第4课笔记,上来先是前3课学生做的一些优秀笔记:ImprovingthewayweworkwithlearningrateTheCyclicalLearningRatetechniqueExplo...
2024-10-12 btikc 技术文章 19 ℃ 0 评论 -
Python pytorch 深度学习神经网络 softmax线性回归分类学习笔记
#暑期创作大赛#这里是我理解完交叉熵损失函数,优化算法后,在实现代码过程中出现各种奇怪的错误,主要就维度是不对,要么就是数据类型不对,最后找到了原因后,回来写的。有种很郁闷的心情,原因竟然是大多数教程所给的交叉熵函数算法公式和pytorc...
2024-10-12 btikc 技术文章 44 ℃ 0 评论 -
收藏!PyTorch常用代码段合集 pytorch 编程
本文是PyTorch常用代码段合集,涵盖基本配置、张量处理、模型定义与操作、数据处理、模型训练与测试等5个方面,还给出了多个值得注意的Tips,内容非常全面。PyTorch最好的资料是官方文档。本文是PyTorch常用代码段,在参考资料[1...
2024-10-12 btikc 技术文章 19 ℃ 0 评论 -
深度神经网络模型训练中的最新tricks总结【原理与代码汇总】
计算机视觉主要问题有图像分类、目标检测和图像分割等。针对图像分类任务,提升准确率的方法路线有两条,一个是模型的修改,另一个是各种数据处理和训练的技巧(tricks)。图像分类中的各种技巧对于目标检测、图像分割等任务也有很好的作用,因此值得好...
2024-10-12 btikc 技术文章 22 ℃ 0 评论
- 控制面板
- 网站分类
- 最新留言