深度学习面试

1、贝叶斯公式、贝叶斯原理、分离散和连续情况来描述具体过程、Laplace校准
2、逻辑回归和线性回归:目标函数为最大似然函数,写出最大似然函数(二分类,结果的sigmoid, 这里有一个概率表示的trick, 就是用上标表示, 多分类用softmax)
3、梯度下降法对LR的训练,列举所知的优化器:SGD、Adam, RMSProp
4、过拟合的解决方案:

  • 减少feature个数(人工定义留多少个feature、算法选取这些feature)
  • 正则化(留下所有的feature,但对于部分feature定义其parameter非常小),在cost上加 lamea(sigma(w^2)),同时w的更新变为w:=w-rate* 1/m*sigmamxi+ (lamea/m)w。注意:这里的w0不受正则化影响

5、knn分类原理
6、KD树:原理,复杂度,KNN的应用

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 40,130评论 12 145
  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,575评论 4 65
  • ML & DM 集成学习 模型融合 ensemble http://wakemeup.space/?p=109 E...
    章鱼哥呀阅读 1,890评论 0 6
  • 本章节主要介绍机器学习传统算法的监督学习部分。监督学习算法主要解决回归和分类两大问题。只能做回归的算法是线性回归,...
    阿阿阿阿毛阅读 8,571评论 0 6
  • 时间: 2017年11月26日 地点:天津豆丁公寓 作者:阮博杰 1.我怎么如此幸运,早上那个阿姨提前喊我起床的时...
    阮博杰阅读 165评论 0 0