上次我们一起聊到了gradient descent和newton’s method,而且我们已经知道了gradient descent和newton’s method都是convex optimization的好方法,这次我们就跳出convex optimization,从更大的unconstrained optimization角度来探讨下这两种方法之间的关联和区别。
上次我们一起聊到了gradient descent和newton’s method,而且我们已经知道了gradient descent和newton’s method都是convex optimization的好方法,这次我们就跳出convex optimization,从更大的unconstrained optimization角度来探讨下这两种方法之间的关联和区别。
记得我在和优男一起研究logistic regression的时候,他问了我几个非常尖锐的问题,让我顿时哑口无言
这些细节问题,说实话我也没有认真的想过。在夸奖他之余,我们也一起开始了研究,希望从中学习到一些更深层的东西,趁着现在有个blog分享给大家
我终于把blog搭建起来了!
这是一个属于Asir 自己的博客,在这里我会写一些技术分享,记录自己平时学到的东西,也会整点吐槽或者鸡汤.总之,有了一个真正的属于自己的天地,可以随便整,这种感觉非常棒.
其实自己在博客园也尝试过一次,可是体验并不是很理想,在这里我并没有抨击的意思,因为自己搭建起来的成就感那不是一点两点.希望后面可以趁热打铁,开启blog之旅.
Update your browser to view this website correctly. Update my browser now