240 发简信
IP属地:北京
  • PRML第一章读书小结

    PRML第一章读书小结     第一章用例子出发,较为简单的引入了概率论、模型、决策、损失、信息论的问题,作为机器学习从业者,读PRML除了巩固...

  • 强化学习简介及马尔科夫决策过程

    1. 什么是强化学习   强化学习(reinforcement learning, RL)是近年来大家提的非常多的一个概念,那么,什么叫强化学习...

  • 论文研读:基于统计重加权的方法减少通用回复

    论文研读:基于统计重加权的方法减少通用回复 会议名称:EMNLP2018 文章题目:Towards Less Generic Responses...

  • 论文研读:基于统计重加权的方法减少通用回复

    论文研读:基于统计重加权的方法减少通用回复 会议名称:EMNLP2018 文章题目:Towards Less Generic Responses...

  • 复杂模型可解释性方法——LIME

    一、模型可解释性     近年来,机器学习(深度学习)取得了一系列骄人战绩,但是其模型的深度和复杂度远远超出了人类理解的范畴,或者称之为黑盒(机...

  • 局部敏感哈希LSH(Locality-Sensitive Hashing)——海量数据相似性查找技术

    一、 前言     最近在工作中需要对海量数据进行相似性查找,即对微博全量用户进行关注相似度计算,计算得到每个用户关注相似度最高的TOP-N个用...

  • markdown公式转为知乎格式

        在知乎中写技术类文章,经常会用到markdown知乎文章可以导入markdown格式,但是不支持Latex公式。知乎大神提供了替代方案:...

  • Resize,w 360,h 240
    一文读懂极大似然

    在机器学习中,我们经常要利用极大似然法近似数据整体的分布,本篇文章通过介绍极大似然法及其一些性质,旨在深入浅出地解释清楚极大似然法。 0. 贝叶...