1、深度学习如何解决过拟合
dropout:减少参数,模型复杂度减低
batchnorm:每一层做归一化,使参数的绝对值变小
2、梯度消失,爆炸如何产生,如何解决?
产生:反向传播+梯度下降
解决:减小层数;调整学习率;跳过连接(shortcut),lstm,batchnorm
3、rnn梯度消失有何不同
维度不同:时间维度(会消失),纵向维度
含义不同:重要信息的消失
4、交叉熵的由来
熵:-plogp
kl散度:|pa-pb|
交叉熵:palogpb
5、监督学习
6、判别式模型与生成式模型
7、偏差与方差以及过拟合
8、如何解决过拟合
9、xgboost原理
10、xgboost并行
11、xgboost特征分裂
高频面试题
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 今天青石的票圈出镜率最高的,莫过于张艺谋的新片终于定档了。 一张满溢着水墨风的海报一次次的出现在票圈里,也就是老谋...