这个课程真的不错,,将很多细节讲的很透彻。。
Google 的首席科学家兼 Google 智囊团技术经理 Vincent Vanhoucke
SOFTMAX
ONE HOT ENCODING
one hot encoding 在分类特别多的时候有点吃力(数万种类)
种类太多,太多0.用one hot encoding 效率太低,
应该采用embeddings 技术解决
Cross-entropy
注意这里智能将softmax 后的向量放入LOG中,,应该log 中不能为0.而softmax 能够确保分量都》 0.
这种方法叫多项式逻辑分类,
目标,是找满足条件的W,B
LOSS
优化LOSS
多种方案可以解决这个优化问题:
Gradient Descent
数值计算稳定性(numerical stability)
均值化:
the sigma determine the order of magnitude of output at the initial point of optimization
the sigma determine the peak of your initial probability distribution.
OPTIMIZATION 过程,,求偏导数,,梯度下降
数据集
使用更多其他的测试集,就不行
原因:是多次训练测试,已经让Trainning 了解到了Test data
应对方案: