不知不觉来到第三周的课程了,大家加油!这周的主要内容是hyperparameter selection和batch normal的问题,我们一起来看看这一周的内容!
不知不觉来到第三周的课程了,大家加油!这周的主要内容是hyperparameter selection和batch normal的问题,我们一起来看看这一周的内容!
Update your browser to view this website correctly. Update my browser now
大家好,最近在学习Andrew Ng的Deep learning课程,于是决定写一些learning notes来recap和mark一下学到的知识,避免遗忘。由于该课程的course1比较基础,我个人认为没有mark的必要,所以从course2开始,按照week来mark. Data set在ma
不知不觉来到第三周的课程了,大家加油!这周的主要内容是hyperparameter selection和batch normal的问题,我们一起来看看这一周的内容! Hyperparameter selectionHyperparameter selection在machine learning中是
大家好,课程来到了第二周,这周主要是一些优化方法,使得整个neural networks可以更快更好的工作,我们一起来recap一下。 Mini-batch gradient descent这一节我就不打算写了,比较基础,其实mini-batch gradient descent是batch gra
Hi all,course3来到了week2,本周的课程依然主要是关于一些learning strategy,这些方法相当实用。虽然不是什么具体的算法,但都都是Ng在科研和工作中积累下来的宝贵经验,对于实际问题十分有效。 我们一起来看看。 Error analysisCarry out error
课程3主要讲的是deep learning中的一些strategy,这些strategy可以帮助我们快速的分析模型所存在的问题,避免我们的优化方向有偏差而导致的人力以及时间的浪费,这一点对于团队尤其重要。 我们一起来recap一下week1的课程 Orthogonalization对于ML task
Welome to superAsir’s Notes.All the cover images are downloaded from PEXELS. 📖 M.E. from BUAA 💻 Software Developer/Data Scientist 🇨🇳 Beijing, Chin