240 发简信
IP属地:北京
  • 120
    提升树算法

    提升方法采用加法模型(基函数的线性组合)和前向分步算法。 基本分类器或者,是由一个根结点直接连接两个叶结点的简单决策树,即决策树桩。提升树是以二叉分类树或二叉回归树为基本分类...

  • 120
    决策树实现

    基于ID3算法的信息增益来实现 使用Pickle模块存储决策树 pickle是为了序列化/反序列化一个对象的,可以把一个对象持久化存储。 比如你有一个对象,想下次运行程序的时...

  • 120
    决策树算法

    ID3算法 使用信息增益选择特征,递归构建决策树。 ID3相当于用极大似然法进行概率模型的选择(最大熵模型)。 输入:训练数据集D,特征集A,阈值 输出:决策树T (1)若D...

  • LaTeX:导数相关符号

    日常编写公式用到太多各类导数符号了!必须要总结在这里: (1)偏导符号:\partial x 效果: 和 (2)求导符号:\mathrm{d} x 效果: 和 (3)撇形...

  • 120
    优化算法

    优化算法框架 优化算法经历了SGD->SGDM->NAG->AdaGrad->AdaDelta->Adam->Nadam的发展。 定义框架:待优化参数,目标函数,初始学习率 ...

  • 熵的相关概念

    信息量(自信息) 信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大。 因此一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。 信息量公式 1....

  • 反向传播实现

    sklearn源码中反向传播算法的实现sklearn/neural_network/multilayer_perceptron.py 参数初始化 参数定义 输入X:特征,形状...

  • 120
    反向传播算法

    神经网络 参数定义 :从层l-1的第i个神经元指向层l的第j个神经元的权重。注意i和j的顺序。 输入层关系式 定义为层l的第j个神经元的输出值。输入层(即l=1)表示为 隐藏...

  • 180
    墩er ·

    楼主,非常感谢你的分享,我学到了很多。
    有一点疑问:
    def vectorize_dic(dic,ix=None,p=None,n=0,g=0)
    我理解的是:每条数据的one-hot编码的结果应该是一个(用户index向量+物品index向量)拼凑的向量,每个向量有且仅有两个非0值才对。
    我看你的 vectorize_dic结果使用todense变换后,第一行数据有个2,其他全是0值,后面这些行的数据我也没看出是用户和物品的索引是怎么组合的。您能帮忙解答下吗?

  • 120
    推荐系统遇上深度学习(一)--FM模型理论和实践

    1、FM背景 在计算广告和推荐系统中,CTR预估(click-through rate)是非常重要的一个环节,判断一个商品的是否进行推荐需要根据CTR预估的点击率来进行。在进...