 发简信
    
    发简信
  
   
    
  LightGBM 摘要 Gradient Boosting Decision Tree (GBDT)非常流行却鲜有实现,只有像XGBoost和p...
 
    
  embedding:以较少的维度表示每个类别,并且还可以一定的表现出不同类别变量之间的关系 embedding的理解 4.1 word2vec:...
 
    
  首先介绍三种类型的聚类方法: 原型聚类:假设聚类结构能够通过一组原型求解。通常算法先对原型进行初始化,然后进行迭代求解。不同的原型表示、不同的迭...
 
    
  image-20200404101747244.pngimage-20200404101811276.png 对数几率回归的损失函数为:imag...
 
    
  自信息简单来说,自信息表述的是随机变量的某个事件发生带来的信息量(一个事件)image-20200403221749825.png 信息熵信息熵...
 
    
  多元函数的泰勒展开式image-20200403212859301.png 牛顿法牛顿法是梯度下降法的进一步发展,梯度利用目标函数的一阶偏导数信...
 
    
  bagging: 对训练样本进行自助采样,产生若干个不同的子集,再从每个数据子集中训练出一个基学习器,再将这些基学习器进行结合。 Bagging...
 
    
  XGBoost 摘要 提升树是一种非常高效和广泛应用的机器学习算法。在这篇文章中,我们描述了一个名为XGBoost的可扩展的端到端的提升树模型,...
 
    
  在CTR比赛中,我们常常会使用“第几次交互”、“倒数第几次交互”等特征,这就需要使用到排序功能。rank函数极为方便。 rank函数返回从小到大...