主要涉及树模型
Supported Metrics
MSE
deviance
RMSE
MAE
R2
RMSLE
classification Metrics
misclassification
mean_per_class_error
logloss
MSE
AUC
The Essentials
x : 自变量的名称或者在数据集中的位置
y:应变量的名称或者在数据集中的位置
training_frame:数据集
ignore_con s t_cols:如果列完全一样,忽略掉列
Effort
epoch DL 遍历样本的次数
ntrees RF GBM 多少棵树
max_iterations 最大迭代次数
seed 随即种子
Scoring and Validation
validation_frame 验证集合
score_each_iteration RF,GBM 默认是F,如果是T,会更平凡的计算得分
score_tree_interval RF,GBM
Early Stopping
stopping_metric (定义损失函数:默认logloss和deviance) RF,GBM,DL
stopping_tolerance (定义最小的提升度,0.01 意味着如果模型的提升没有1%以上就不进行了)RF,GBM,DL
stopping_rounds 我也不知道啥意思
max_runtimes_secs 模型最大允许的训练时间
classification_stop 如果训练误差小于这个,则停止训练模型
regression_stop 如何MSE小于这个,则停止训练模型
max_active_predictors 当模型的正确预测大于指定数量的时候,停止训练模型
overwrite_with_best_model 返回的模型是最好的模型,这个参数默认是True
checkpoint
model_id 为你的模型定一个名字
checkpoint 结合model_id 一起用的
Cross Validation
nfolds 多少折交叉验证
fold_assignment 如何去划分数据 Random Modulo Stratified
fold_colunm 不太理解这个参数
keep_cross_validation_fold_assignment # 交叉验证中你可以知道那些数据是训练,那些数据是验证
Data Weighting
balance_class 如果是T,那么会平衡数据
class_sampling_factors 设置标签的权重
max_after_balance_size 配合balance_class,一起用,设置平衡的比例
iris.h2o
iris.part <- h2o.splitFrame(iris.h2o,c(0.6,0.2))
iris.train <- iris.part[[1]]
iris.test <- iris.part[[2]]
iris.valid <- iris.part[[3]]
m1 <- h2o.randomForest(1:4,5,iris.train,model_id = 'RF.1')
h2o.confusionMatrix(m1)
m2 <- h2o.randomForest(1:4,5,iris.train,model_id = 'RF.banlance',balance_classes = T)
h2o.confusionMatrix(m2)
Sampling Generalizing
For tree algorithms the parameters are about two things
- Use all col?
- User all row?
metries 有多少变量会构建树模型 RF
col_sample_rate 类似上面,针对与GBM
sample_rate 选取多少数据构建模型
Regression
distribution 选择响应变量的分布 gaussian bernoulli multinomial
loss 损失函数 DL Quadratic Absolute Huber
Glm
family 选择广义线性模型的族 gaussian,poisson ,gamma