最近在看王喆的知乎专栏,第三、四、十三篇都是Youtube的经典论文DNN:https://zhuanlan.zhihu.com/p/52169807https://zhua...

最近在看王喆的知乎专栏,第三、四、十三篇都是Youtube的经典论文DNN:https://zhuanlan.zhihu.com/p/52169807https://zhua...
好久没写了,看了一下中间隔了居然有一个月,这种没有活水流入的生活,确实会让人feel bad; 这篇要讲到DQN,主要是Nature2015那版(在这之前还有一版NIPS20...
Q-learning: 这里并不知道为啥每一轮都要初始化s,但是在每一轮需要采取动作的每一步(step)要做的事情如下: 根据epsilon-greedy策略在当前状态s选择...
from:https://www.jianshu.com/p/295d7a8ebe48 都说要做强化学习先要搞明白马尔可夫决策过程,也还没明白为啥,先弄明白是啥吧。 一个马尔...
通过上一节的zhihu链接明白了从这开始讲ee,以及后面讲rl的原因,都是源自这个zhihu专栏:https://zhuanlan.zhihu.com/p/32311522?...
bandit基础看了一下并不是很难,先记录一下,文集里没有贴个公众号地址吧:https://mp.weixin.qq.com/s?src=11×tamp=16358...
参考:https://www.jianshu.com/p/6173dbde4f53 NCF全称Neural Collaborative Filtering,讲道理第一遍看的时...
文集里的下一篇是AUC,应该也是我看的第一篇了,重新看了之后,梳理了一些易忘的和以前没考虑过的,再拎出来写一下。 1.为什么AUC的最低值为0.5 根据文章链接出的回答:ht...
Deepfm是把FM和DNN并行了,但是其实FM和DNN还有一种串行模式,接下来要讲的这三种就是; 先说PNN,老规矩先放图(https://www.jianshu.com/...
这是上一篇W&D留下的一个坑,填一下吧。 先从FTRL要解决的逻辑回归简单说起,逻辑回归的损失函数是logloss(公式就不列了),那为什么搞这么个loss而不搞熟悉亲切的m...
虽然叫Wide&Deep等,但是这个等也是DeepFM和DCN这种大名鼎鼎的模型,下面分别介绍一下。 1.Wide&Deep Wide&Deep的背景是说模型既需要记忆也需要...
也是深度学习面试常考的东西,BN、LN、GN、IN等各种N,参考文章:https://zhuanlan.zhihu.com/p/115949091 定义其实一张图基本就能说明...
上一篇说了一下改进梯度的最优化算法,下面说一下自适应学习率算法,以及两者的结合。自适应学习率算法主要是相对不同参数和训练的不同阶段有不同的学习率。 1.自适应学习率算法 ——...
深度学习优化器应该是面试都会常考的东西,很惭愧到现在才搞清楚,基于这个blog:https://blog.csdn.net/BVL10101111/article/detai...
这篇LR+GBDT的文章https://www.jianshu.com/p/4680ac3503d8其实没怎么讲LR,全都是在讲GBDT怎么做特征工程 其实就是构造多棵树,然...
也是一篇早就要写的文章,对 https://www.jianshu.com/p/152ae633fb00 和 https://www.jianshu.com/p/781cde...
老早就改总结的一篇了 参考: https://www.cnblogs.com/wmx24/p/10157154.html https://mp.weixin.qq.com/s...
想学习推荐系统,如何从小白成为高手(https://www.zhihu.com/question/23194692)里有一个回答说: “关于推荐系统,如果忘掉所有的公式和代码...
https://www.jianshu.com/p/a245201d3dbe 1.平均值预测:全局平均、用户平均、物品平均、同类平均 2.领域评测:还是通过用户对其他物品的评...
今天粗略看了一遍SVD:https://zhuanlan.zhihu.com/p/37038542,既然看了就总结一下 1.用处:降维、压缩空间 2.解释:什么是奇异值分解 ...