网站首页 技术文章 第127页
-
理解机器学习中的正则化与模型复杂度
引言本篇文章将通过支持向量机(SVM)这个主题来探讨机器学习中的一些关键概念,包括软间隔、结构风险最小化、经验风险最小化、以及如何从不同角度理解正则化。我们还会讨论正则化项对模型复杂度的影响,并解释为什么在某些情况下,即使只有一类数据,损失...
2025-01-04 btikc 技术文章 14 ℃ 0 评论 -
探索贝叶斯视角下的L1和L2正则化
介绍与背景今天我们将从贝叶斯概率的角度深入探讨L1和L2正则化。虽然在前篇文章中我们已经从拉格朗日对偶和权重衰减的角度介绍了这两种正则化方法,但这次我们的重点将放在贝叶斯理论的应用上。通过这种方式,我们可以更直观地理解先验概率、后验概率、最...
2025-01-04 btikc 技术文章 14 ℃ 0 评论 -
图解机器学习——高斯核函数集正则化方法
模型:J=argmin(phi*t-yn)^2+(lambda*t^2)/2也即给近似加上正则化约束t的最优解:t_opt=(phi'*phi+lambda*I)\phi*yn%%...
2025-01-04 btikc 技术文章 15 ℃ 0 评论 -
一文读懂正则化:LASSO回归、Ridge回归、ElasticNet 回归
你可能听说过“Ridge”、“Lasso”和“ElasticNet”这样的术语。这些技术术语背后的基本概念都是正规化。在这篇文章中我们将详细进行说明。一般情况下,使用正则化的目的是缓解过拟合。正则化的主要好处是减轻过拟合,因为正则化模型能...
2025-01-04 btikc 技术文章 15 ℃ 0 评论 -
深度学习:L1 L2正则化为什么可以解决过拟合问题
限时打折...
2025-01-04 btikc 技术文章 15 ℃ 0 评论 -
深入理解L1和L2正则化
引言这篇文章我们将探讨机器学习中两个核心议题——优化和正则化。...
2025-01-04 btikc 技术文章 10 ℃ 0 评论 -
22数据预处理:归一化-正则化
前言在前一篇文章中已经和大家分享过了...
2025-01-04 btikc 技术文章 11 ℃ 0 评论 -
L1 和 L2 正则化:从权重衰减的角度理解
引言上一次我们从拉格朗日乘数法的角度去理解了L1和L2正则化,这一次我们将继续从权重的衰减角度来重新理解这个问题。深入探讨权重衰减...
2025-01-04 btikc 技术文章 8 ℃ 0 评论 -
什么是正则化
关注公众号【真智AI】...
2025-01-04 btikc 技术文章 11 ℃ 0 评论 -
全面讨论泛化 (generalization) 和正则化 (regularization)
来源:PaperWeekly本文约5800字,建议阅读9分钟本文全面地讨论机器学习和深度学习中的泛化(generalization)/正则化(regularization)。模型泛化能力,是设计和评估一个机器学习or深度学习方法时无比重...
2025-01-04 btikc 技术文章 11 ℃ 0 评论
- 控制面板
- 网站分类
- 最新留言