machine learning

Hello,大家好,双十一真的很累,一直在加班,忙里偷闲看了A systematic study of the class imbalance problem in convolutional neural networks,感觉paper呈现的研究内容感觉很一般,但是,paper中关于imbalanced data的solution方法倒是写的很不错,也勾起了我对于这一块总结的欲望。之前也写过一篇关于imbalanced data的paper notes,但是对于这一块的具体方法总结还不是很足够,于是用这篇paper为主线好好sum up一计。

我们来一起看看。

Read More

最近和优男一起聊到了L1和L2 regularization,期间遇到了很多没有想明白的问题,加上最近工作有些忙,空余时间用来倒腾新到货的小米路由器,只能趁周末自己研究研究,下面和大家分享一下regularization中一些深入的问题。不讨论基础知识,直接上干货。

Read More

上次我们一起聊到了gradient descent和newton’s method,而且我们已经知道了gradient descent和newton’s method都是convex optimization的好方法,这次我们就跳出convex optimization,从更大的unconstrained optimization角度来探讨下这两种方法之间的关联和区别。

Read More

记得我在和优男一起研究logistic regression的时候,他问了我几个非常尖锐的问题,让我顿时哑口无言

  • 怎么保证logistic regression通过gradient descent找到的是最优解;
  • 为什么logistic regression可以用newton’s method呢?
  • Newton’s method中Hessian matrix必须positive definite有什么意义呢,log cost function能保证吗?

这些细节问题,说实话我也没有认真的想过。在夸奖他之余,我们也一起开始了研究,希望从中学习到一些更深层的东西,趁着现在有个blog分享给大家

Read More

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×