openSL-又一个WordPress站点openSL

欢迎光临
一起学习,一起进步

【今日观点】 贝叶斯的进进一步理解

关于之前的硬币并不是均匀分布的理论,如何反证呢?这要提到假设检验的理论: 我们通常在假设某一前提下,得到事件的分布概率,且存在某小概率事件在某区间内发生。最后我们通过实际实验(n次伯努利试验)验证我们的概率。当然我们在验证过程中需要保证一个...

机器学习

再谈roc曲线

admin@opensl.tk阅读(5)评论(0)赞(0)

再次研读机器学习,对于roc曲线有了更深入的了解: 实际上roc曲线得来是通过tpr和fpr分别做y,x轴填充的曲线图。 这个图是怎么取得的呢?实际上是先训练出一个模型(二分类判定模型),然后通过改变判定的临界值。以逻辑斯汀回归为例:就是先...

贝叶斯的进进一步理解-openSL
杂记

贝叶斯的进进一步理解

admin@opensl.tk阅读(8)评论(0)赞(0)

关于之前的硬币并不是均匀分布的理论,如何反证呢?这要提到假设检验的理论: 我们通常在假设某一前提下,得到事件的分布概率,且存在某小概率事件在某区间内发生。最后我们通过实际实验(n次伯努利试验)验证我们的概率。当然我们在验证过程中需要保证一个...

ravel与flatten之辨-openSL
python学习文档

ravel与flatten之辨

admin@opensl.tk阅读(8)评论(0)赞(0)

如图,可以看到,在这里实际上ravel和flatten不同之处在于,一个返回拷贝值,一个返回视图(reference,引用,指针),所以会得到不一样的结果。

机器学习

关于机器学习学习效率的优化

admin@opensl.tk阅读(7)评论(0)赞(0)

这几日在做机器学习实验时候,发现自写的随机梯度下降方法实现和sklearn包中方法相比速率差太多,1个ms级,1个μs级,就去看了下sklearn源码。发现它的代码使用的cython包写的。这激起了我对此的兴趣。我查阅了相关文档。 以下来自...

关于梯度的调试-openSL
机器学习

关于梯度的调试

admin@opensl.tk阅读(7)评论(0)赞(0)

一、梯度下降法的调试  1)疑问 / 难点 如何确定梯度下降法的准确性? 损失函数的变量 theta 在某一点上对应的梯度是什么? 在更负责的模型中,求解梯度更加不易; 有时候,推导出公式后,并将其运用到程序中,但当程序运行时,有时对梯度的...

程序与设计模式

闭包的概念

admin@opensl.tk阅读(18)评论(0)赞(0)

闭包这个概念第一次出现在1964年的《The Computer Journal》上,由P. J. Landin在《The mechanical evaluation of expressions》一文中提出了applicative expr...

机器学习

进一步理解熵的概念

admin@opensl.tk阅读(18)评论(0)赞(0)

最开始阅读最大熵模型一篇时,遇到了熵这个概念。一开始,局限在了物化角度上的熵,实际上,这里有了新的意义-信息熵。不同于物化上的熵,信息熵有着新的理论以及计算方式。 自信息与熵 在信息论中,熵用来衡量一个随机事件的不确定性。假设对一个随机变量...

机器学习

贝叶斯推断的进一步理解

admin@opensl.tk阅读(26)评论(0)赞(0)

近期,再次研读机器学习经典算法,在阅读到逻辑斯汀回归时,又一次的遇到了贝叶斯估计。逻辑斯汀回归用后验概率作为回归结果。 那么到底什么是先验概率,什么是后验概率呢? 在我看来,先验概率就是人们根据经验或者甚至随机的给定的一个概率值,可能不准。...