1. foreword TSA比赛中,开始整的LR,把原始特征one-hot处理后输入LR训练。过了段时间开始搞RF和XGB,再后面搞LightGBM。 2. lightGB...
1. foreword TSA比赛中,开始整的LR,把原始特征one-hot处理后输入LR训练。过了段时间开始搞RF和XGB,再后面搞LightGBM。 2. lightGB...
GIL blablabla concurrent blablabla 简单地说就是作为可能是仅有的支持多线程的解释型语言(perl的多线程是残疾,PHP没有多线程),Pyth...
传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。传统G...
初看Xgboost,翻了多篇博客发现关于xgboost原理的描述实在难以忍受,缺乏逻辑性,写一篇供讨论。 ——以下是抛砖引玉。 观其大略,而后深入细节,一开始扎进公式反正我是...
xgboost入门非常经典的材料,虽然读起来比较吃力,但是会有很大的帮助: 英文原文链接:https://www.analyticsvidhya.com/blog/2016/...
本文译自Olivier Moindrot的[blog](Triplet Loss and Online Triplet Mining in TensorFlow),英语好的可...
如果想要开启日志,别忘记设置: >>>importlogging>>>logging.basicConfig(format='%(asctime)s : %(levelnam...
总的来讲,一个完整的文本分类器主要由两个阶段,或者说两个部分组成:一是将文本向量化,将一个字符串转化成向量形式;二是传统的分类器,包括线性分类器,SVM, 神经网络分类器等等...
浅显来讲,LDA方法的考虑是,对于一个多类别的分类问题,想要把它们映射到一个低维空间,如一维空间从而达到降维的目的,我们希望映射之后的数据间,两个类别之间“离得越远”,且类别...
====================正==========文==================== 如果你想记录日志,请不要忘记设置: >>> import loggi...
Preliminaries All the examples can be directly copied to your Python interpreter shell....
基本功 Python 开发 控制语句(if, for, while, pass, assert, with, yield, import, in) 类型(object, li...
lda先验为0的时候就是plsa,lda只不过是plsa加了dirichlet 先验,一个是MLE,一个是bayesian。数据量很多时,bayesian 趋向于mle。 而...
隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利...
首先通俗的解释下Topic模型LDA:假如我们需要写一篇关于新上市汽车的文章,首先需要确定文章大概的主题,比如要写这辆汽车的动力、外观、内饰。确定完主题之后,就要下笔了,下笔...
如果真要做全面介绍的话,有可能是一部专著的篇幅。即使是做综述性的介绍,一篇三五十页的论文也可以写成了。所以我一直想怎么能从头到尾把这个问题logically串连起来。正好这段...
曾经面试的时候被问到过这么一个问题,怎么向一个没有任何计算机、数学、统计等基础的人介绍下什么是AUC,当时我败北了。不过后来我有一天顿悟了,为了检验我的顿悟是否有效,特此一答...
什么是SVM? 当然首先看一下wiki. Support Vector Machinesare learning models used for classification...
3.1、摘要 在前面两篇文章中,分别介绍和讨论了朴素贝叶斯分类与贝叶斯网络两种分类算法。这两种算法都以贝叶斯定理为基础,可以对分类及决策问题进行概率推断。在这一篇文章中,将讨...