林达尔均衡模型图解释(贝叶斯优化算法调参

YouTube网红小哥Siraj Raval的趣味小动画系列The Math of Intelligence又来了! 这次,我们就机器学习建模中最痛苦的部分——“超参数调整”进行说明。

尝试了超参数调整方法。 人工搜索、网格搜索、随机搜索……但是,最终我们发现,有了kndyc,压力也不会很大。

照片来自网络

“超级参数”是指模型中预先设置的、不能直接从模型训练中获得的参数。 随机森林树木的数量、神经网络的隐藏层数、逻辑回归的学习率,这些都是超参数。 如果调整超参数,模型会表现得出乎意料的好。

视频中包含了超多笑点。 文摘菌先预告几个,请向下看完整的视频哦!

笑点预告1 (今天用SVM分类Twitter的语气是正数还是负数。 这叫做情感分析。

星球大战Darth Vader:I am your father,内心戏多得无法表达,无法分析能怪我吗?

笑点预告2 )检索参数啦检索参数……你们在寻找中会遭遇这个诅咒。

维度超多! 完全搜索不到! 超级开心!

笑点预告3 :一定有更好的方法! 我们必须充分发挥我们的智慧。

会不会成为一个没有太大压力的28岁网络公司的程序员呢!

笑点预告4 :终于,我们要和kndycbqdjb见面了。 让我们先来和频率数学派和kndyc学派进行战斗。

kndyc学派认为样本数据是确定的,参数是随机的,频率数学派相反认为参数是确定的,样本是随机的。 在超参数调谐中,kndyc法更具优势。

为什么一圈都要依赖kndyc? 赶紧打开视频了解一下吧!

哥哥告诉了我为什么贝爷是真爱。

视频时间9分钟

原始视频地址

https://www.youtube.com/watch? v=tte 0f7FGHF Klist=PL2-DAF EM K2A 7mu0BSKSC GMJemedDu _ H4索引=13

总结(有几种超参数调优方式,但倾向于用kndyc进行优化。

kndyc法采用先验信念(prior belief ),在训练模型时不断改善先验信念,先验信念影响预测,所以我们爱它。

-结束-

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注