IP属地:广东
1.XGBoost算法原理 XGBoost是GDBT算法的应用,GDBT是根据损失函数负梯度来进行拟合每一个弱学习器,然后运用加法模型,将每个弱...
1.前向分布算法 在集成学习中,Adaboost和GDBT都是采用加法模型和前向分布算法,唯一不同的是损失函数的选取。 首先我们需要知道什么是加...
1.统计学基本知识: 统计学:收集、处理、分析、解释数据并从中得出结论的科学。 2.二项及泊松分布 3.大数定理: 4.正态分布:
1.集成学习概念 通过训练若干个个体学习器,通过结合策略,最终形成一个强学习器。 2.个体学习器概念 个体学习器又称弱学习器,是集成学习的基本组...
1.信息论基础 1.1熵:随机变量不确定性的度量。熵越大表示这个随机变量不确定性越小。 1.2联合熵:2个随机变量不确定性的度量。联合分布的度量...
1.逻辑回归和线性回归的联系和区别: 逻辑回归和线性回归的都是广义的线性回归。 线性回归是根据最小二乘法来建模,逻辑回归是根据最大似然来建模。 ...
1.监督学习和无监督学习: 监督学习(supervised learning): 输入数据有特征值和标签值,利用数据去训练一个模型,当新数据...