Hi all,今天和大家分享一篇比较新的paper,是关于一种新的activation function,关于我们知道的activation function,有sigmoid,tanh,ReLU以及ReLU的一些变种,那我们今天来看看这种新提出的activation function到底有什么特色。
Hi all,今天和大家分享一篇比较新的paper,是关于一种新的activation function,关于我们知道的activation function,有sigmoid,tanh,ReLU以及ReLU的一些变种,那我们今天来看看这种新提出的activation function到底有什么特色。
再次感谢优男,向我提出了又一个尖锐的问题,使得我有机会思考和研究,并且最终可以看到这篇paper,并且最后可以分享给大家。
我个人在工作之中遇到过imbalanced data的问题,我只是直观的感受到,imbalanced data的最后效果往往不是很棒,网上也只是给出了oversampling和undersampling的建议,并没有提及这其中的一些缘故,今天我们一起通过这篇paper来学习学习。
OK,今天我们来review一篇经典的paper,这篇paper是3年前facebook的研究成果,关于gbt和lr的结合,这个搭配对于近几年的CTR预测以及推荐系统的发展都产生了深远的影响。虽然已经很难被称为一篇新paper了,但是还是值得我们去看看。
我们一起简单看看这篇paper的核心point.
Update your browser to view this website correctly. Update my browser now