分类--逻辑回归,朴素贝叶斯,决策树,随机森林,GDBT,XGBoost
分类评估--正确率,精度,召回率,F1值,roc值
模型选择--网格搜索,交叉验证
param = {"penalty": ["l1", "l2"]}
# penalty:设置正则化项,其取值为'l1'或'l2',默认为'l2'。
# C:正则化强度,C越大,权重越小。
gc = LogisticRegression()
gc = GridSearchCV(gc, param_grid=param, cv=10)
gc.fit(x_train, y_train)
print("选择最好模型预测的准确率为:", gc.score(x_test, y_test))
print("交叉验证的最好参数", gc.best_params_)
print("在交叉验证当中验证的最好结果", gc.best_score_)
print("gc选择了的模型是:", gc.best_estimator_)
print("每次交叉验证的结果为:", gc.cv_results_)
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。