大佬的面试问题解析

原帖链接:
https://www.nowcoder.com/discuss/97549?type=0&order=0&pos=6&page=2

1.gbdt,xgboost,lgbm的区别(阿里,头条)
参考之前整理过的帖子:https://www.jianshu.com/p/f73a80c22198

2.梯度下降法,牛顿法,拟牛顿法区别(阿里)
https://www.cnblogs.com/shixiangwan/p/7532830.html

3.SGD,ADAM区别(百度)
https://www.jianshu.com/p/70e04c02985c

4.什么是梯度消失,饱和,如何改善(阿里)
https://blog.csdn.net/qq_25737169/article/details/78847691
总结了以下几个方面:
1)预训练加微调
2)梯度剪切、正则
3)relu、leakrelu、elu等激活函数
4)batchnorm
5)残差结构
6)LSTM

5.lr的推导(腾讯)

6.SVM目标函数,为什么转为对偶(腾讯,百度)
https://www.zhihu.com/question/282506397/answer/427041794
主要是为了得到内积的形式,方便引入核函数

7.定义class mlp(头条)

8.kd tree(腾讯)

9.FFM的优化(百度)

10.解释RESNET(百度,阿里)
https://zhuanlan.zhihu.com/p/31852747

11.mapreduce思想(腾讯)

12.解释BN(头条,百度)
https://blog.csdn.net/malefactor/article/details/51476961

13.非结构化文本处理方法(阿里)

14.bagging.boosting.stacking区别(阿里)

15.CNN与RNN的区别(阿里)

16.如何防止过拟合(头条)

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容