白盒模型和黑盒模型,就是人工智能的两种算法,白盒顾名思义,可以用人的理解,就是决策树,叶子大于5放左边,叶子小于五放右边,然后继续往下一层,就是无限的分类,可以理解,而黑盒模型就不一样了,是机器学习,多层神经网络,每个层的一定数量神经元全连接,数据反复自己的调参,加权重,也就是什么数据重要,什么不重要,但都要,只是分量不一样,然后还会根据结果是否准确率高再删除一些数据,再进行反向调参,正向叫线性编程,反向就是回归,反正就是倒腾几百万次,数据变来变去,人无法理解,最后出来一个模型,就可以跟现有数据高度吻合
这是一个白盒模型,决策树,可以一层层的分类,容易理解。
正则化(regularization):原理、方法与应用
在机器学习和深度学习中,过拟合(overfit)
是模型训练的核心挑战之一
——
模型在训练数据上表现极佳,但在未见过的测试数据上泛化能力差。正则化正是解决这一问题的关键技术,其核心思想是通过在损失函数中引入
“惩罚项”,限制模型参数的复杂度,迫使模型学习更简单、更具泛化性的特征,而非死记硬背训练数据中的噪声。
一、正则化的核心目标与本质
1.
核心目标
平衡
“模型拟合能力”
与
“泛化能力”:避免模型因过度追求训练误差最小化,而忽略对新数据的适应性。
控制模型复杂度:复杂度过高的模型(如高次多项式、深层神经网络)易学习训练数据中的噪声,正则化通过约束参数规模降低复杂度。
2.
本质理解
正则化的本质是
**“奥卡姆剃刀原理”
在机器学习中的体现
**——
在多个能拟合数据的模型中,选择
“最简单”(参数更简洁、特征更通用)的模型,其泛化能力通常更强。例如:用多项式拟合数据时,一次函数(y=ax+b)比五次函数(y=ax?+bx?+...+e)更简单,若两者在训练数据上误差接近,一次函数对新数据的预测更稳定。
二、经典正则化方法(针对传统机器学习)
传统机器学习(如线性回归、逻辑回归、支持向量机)中,正则化主要通过对模型参数的
“范数惩罚”
实现,常见有
l1、l2
正则化,以及两者结合的
elastic
。
1.
l2
正则化(岭回归,ridge
regression)
原理
l2
请勿开启浏览器阅读模式,否则将导致章节内容缺失及无法阅读下一章。
相邻推荐:神州镇魔录 野草不是白月光 重生换亲做侍妾,冷戾佛子沦陷了 荒年吃撑了,极品亲戚求当洗脚婢 娱乐:回到过去,靠国足起家 重生2000,开局表白高冷女同桌 七零玄学假千金,硬汉大佬追着宠 修仙,从五百年后开始 偷听心声后,主角团的剧情全变了 都重生两次了,谁还当受气包啊? 穿书恶后母,带商城养娃 无上至尊仙魔变 视频通古代各朝老祖宗都疯狂了 姐姐死后,我献祭己身化最凶邪魔 御兽:从LV999开始 未来式修仙 小狐狸患肌肤饥渴症!要糙汉贴贴 八卦阵上修仙路 八十岁正是闯荡娱乐圈的年纪 死神之一刀双魂