#gradient descent

大家好,最近在学习Andrew Ng的Deep learning课程,于是决定写一些learning notes来recap和mark一下学到的知识,避免遗忘。由于该课程的course1比较基础,我个人认为没有mark的必要,所以从course2开始,按照week来mark.

Read More

OK,今天我们来review一篇经典的paper,这篇paper是3年前facebook的研究成果,关于gbt和lr的结合,这个搭配对于近几年的CTR预测以及推荐系统的发展都产生了深远的影响。虽然已经很难被称为一篇新paper了,但是还是值得我们去看看。

我们一起简单看看这篇paper的核心point.

Read More

上次我们一起聊到了gradient descent和newton’s method,而且我们已经知道了gradient descent和newton’s method都是convex optimization的好方法,这次我们就跳出convex optimization,从更大的unconstrained optimization角度来探讨下这两种方法之间的关联和区别。

Read More

记得我在和优男一起研究logistic regression的时候,他问了我几个非常尖锐的问题,让我顿时哑口无言

  • 怎么保证logistic regression通过gradient descent找到的是最优解;
  • 为什么logistic regression可以用newton’s method呢?
  • Newton’s method中Hessian matrix必须positive definite有什么意义呢,log cost function能保证吗?

这些细节问题,说实话我也没有认真的想过。在夸奖他之余,我们也一起开始了研究,希望从中学习到一些更深层的东西,趁着现在有个blog分享给大家

Read More

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×