深度学习免费课程

免费课程



这个课程真的不错,,将很多细节讲的很透彻。。

Google 的首席科学家兼 Google 智囊团技术经理 Vincent Vanhoucke
















SOFTMAX





ONE HOT ENCODING


one hot encoding 在分类特别多的时候有点吃力(数万种类)  

种类太多,太多0.用one hot encoding 效率太低,

应该采用embeddings 技术解决


Cross-entropy



注意这里智能将softmax 后的向量放入LOG中,,应该log 中不能为0.而softmax 能够确保分量都》 0.



这种方法叫多项式逻辑分类,


目标,是找满足条件的W,B


LOSS




优化LOSS


多种方案可以解决这个优化问题:

   Gradient Descent


数值计算稳定性(numerical stability)






均值化:



the sigma determine the order of magnitude of output at the initial point of optimization

the sigma determine the peak of your initial probability distribution.








OPTIMIZATION 过程,,求偏导数,,梯度下降

数据集




使用更多其他的测试集,就不行

原因:是多次训练测试,已经让Trainning 了解到了Test data


应对方案:


Validation data set size






总结


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 从明天起做个幸福的人 喂马劈柴周游世界 从明天起关心粮食和蔬菜 我有一所房子 面朝大海春暖花开 从明天起和每一个亲...
    舞语阅读 181评论 0 0