XGboost 基线模型及部分参数优化

1 模型原理及调参参考

调参:XGBoost参数调优完全指南
原理:xgboost入门与实战(原理篇)

2 输出基线模型

对二分类问题,数据整理与其它模型无异。此处仍针对titanic :

import numpy as np
import pandas as pd
from xgboost import XGBClassifier
from sklearn.cross_validation import KFold
from sklearn.grid_search import GridSearchCV
from sklearn.metrics import accuracy_score


## 导入全部数据
data_train = pd.read_csv("c:/Users/chai/Downloads/train.csv")
data_test = pd.read_csv("c:/Users/chai/Downloads/test.csv")

Survived = data_train['Survived'].copy()
train_df = data_train.drop('Survived', axis=1)

traindex = train_df.index
testdex = data_test.index


data_all = pd.concat([data_train,data_test],ignore_index = True)
data_all.describe()


#直接计算衍生变量
data_all['FamilySize'] = data_all.SibSp + data_all.Parch +1
data_all['NameLength'] = data_all.Name.apply(len)
data_all['IsAlone'] = 0
data_all['IsAlone'][data_all['FamilySize'] == 1] = 1   
## 或 df.loc[df['FamilySize'] == 1, 'IsAlone'] = 1
data_all['TicketLen'] = data_all.Ticket.apply(len)
data_all.head()


df = data_all

df['Title']=0
df['Title']=df.Name.str.extract('([A-Za-z]+)\.') #lets extract the Salutations
df['Title'].replace(['Mlle','Mme','Ms','Dr','Major','Lady','Countess','Jonkheer','Col','Rev','Capt','Sir','Don','Dona'],
                          ['Miss','Miss','Miss','Mr','Mr','Mrs','Mrs','Other','Other','Other','Mr','Mr','Mr','Mr'],inplace=True)

df.loc[(df.Age.isnull())&(df.Title=='Mr'),'Age']= 33
df.loc[(df.Age.isnull())&(df.Title=='Mrs'),'Age']=36
df.loc[(df.Age.isnull())&(df.Title=='Master'),'Age']=5
df.loc[(df.Age.isnull())&(df.Title=='Miss'),'Age']=22
df.loc[(df.Age.isnull())&(df.Title=='Rare'),'Age']=46

df.head()

df.Embarked = df.Embarked.fillna(df.Embarked.mode().iloc[0])
# Continuous Variable
df['Fare'] = df['Fare'].fillna(df['Fare'].mean())

from sklearn import preprocessing
for col in ['Fare','Age','NameLength']:
    transf = df[col].values.reshape(-1,1)
    scaler = preprocessing.StandardScaler().fit(transf)
    df[col] = scaler.transform(transf)

#增加标准化:
for col in ['NameLength','TicketLen','Parch','FamilySize','SibSp']:
    transf = df[col].values.reshape(-1,1)
    scaler = preprocessing.StandardScaler().fit(transf)
    df[col] = scaler.transform(transf)

    
df['cabinfix']=1
df['cabinfix'][df['Cabin'].isnull()] = 0
df.head()


#哑变量相关:Sex\ Pclass \ Embarked ,

dum_Embarked = pd.get_dummies(data_all.Embarked,prefix = 'embarked')
dum_Sex = pd.get_dummies(data_all.Sex,prefix = 'sex')
dum_Pclass = pd.get_dummies(data_all.Pclass,prefix = 'pclass')
dum_nametitle = pd.get_dummies(df['Title'],prefix = 'title')
df = pd.concat([df,dum_Embarked,dum_Sex,dum_Pclass,dum_nametitle],axis=1)

df = df.drop(['Name','Sex','Embarked','Title','Pclass','Ticket','Cabin'],axis = 1)
df.head()

#拆分成两个数据集:
df_train_fix = df[df.Survived.notnull()]
df_train_fix.describe()
var_to_use = 'Age|Fare|Parch|SibSp|FamilySize|Namelength|TicketLen|cabinfix|embarked_.*|sex_.*|pclass_.*|title_.*'
all_data = df_train_fix.filter(regex=var_to_use)
X = all_data.as_matrix()[:,:]
y = df_train_fix['Survived'].as_matrix()
df_train_fix.info()


# 初始化xgb的分类器
clf2f =XGBClassifier(learning_rate=0.1,silent=True, objective='binary:logistic')

# 设置boosting迭代计算次数
param_test = {'n_estimators': list(np.arange(38, 80, 2)),'min_child_weight':[2,3,4,5],'gamma':(0.08,0.1,0.12)}
g2f_search = GridSearchCV(estimator = clf2f,max_depath = 4, param_grid = param_test,scoring='accuracy', cv=10)
g2f_search.fit(X, y)
# 输出网格搜索结果
g2f_search.grid_scores_,g2f_search.best_params_,g2f_search.best_score_

结果输出:

#预测评价。
df_test_fix = df[df.Survived.isnull()]
test_data = df_test_fix.filter(regex= var_to_use)
test_X = test_data.as_matrix()[:,:]
predict_y = g2f_search.predict(test_X)
result = pd.DataFrame({'PassengerId':df_test_fix['PassengerId'].as_matrix(), 'Survived':predict_y.astype(np.int32)})
result.head(30)
result.to_csv("D:/kaggle/20180520gamma0.1.csv", index=False)

# {'max_depth': 5, 'min_child_weight': 3, 'n_estimators': 40},0.8462401795735129) --- 过拟合,0.78468
# {'gamma': 0.1, 'max_depth': 4, 'min_child_weight': 4, 'n_estimators': 44}, 0.8451178451178452) ---- 0.7799

在更新特征工程过程后,虽然交叉验证的评分上升,但线上成绩出现下降,过拟合问题突出。

以上代码的结果最终存在过拟合问题,线上成绩不理想。

参考这一篇 XGBoost调参技巧(二)Titanic实战Top9% 中的特征工程过程(仅做简单的哑变量处理!共7个变量) 最终结果输出微调后,线上可达到0.806.

*调参部分小结:

  • 参数重要程度排序:待确认、待学习
  • max_depth 树的深度,越大越容易过拟合;
  • n_estimators 树的颗数
  • learning_rate=0.1 学习速度,一开始可以快一些,后续稳定后再调整
  • gamma 节点分裂所需的最小损失函数下降值
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,651评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,468评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,931评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,218评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,234评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,198评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,084评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,926评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,341评论 1 311
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,563评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,731评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,430评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,036评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,676评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,829评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,743评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,629评论 2 354

推荐阅读更多精彩内容