银行风控案例-python学习笔记

银行风控案例-python学习笔记

标签:LRPYTHONmachine learning

2016-02-14 14:562005人阅读评论(1)收藏举报


前言:

风险控制是挖掘中最为常见的应用,属于监督学习的“分类器”使用案例。

我们通过以往历史数据判断用户违约的概率。

本文使用了Logistic Regression 方法完成案例。

注:

根据CDA课程自己总结的学习笔记。使用的是ipython,数据及代码都已上传至个人网盘http://pan.baidu.com/s/1ntR2tmD。

如果有任何问题或错误欢迎各位指正 liedward@qq.com谢谢。

风控模型开发流程

·        数据抽取

·        数据探索

·        建模数据准备

·        变量选择

·        模型开发与验证

·        模型部署

·        模型监督

加载包:

importos

importsys

importstring

importpymysql

importnumpyasnp

importpandasaspd

importstatsmodels.apiassm

importmatplotlib.pyplotasplt

%matplotlibinline

importseabornassns

importsklearn.cross_validationascross_validation

importsklearn.treeastree

importsklearn.ensembleasensemble

importsklearn.linear_modelaslinear_model

importsklearn.svmassvm

importsklearn.feature_selectionasfeature_selection

importsklearn.metricsasmetrics

数据抽取

model_data=pd.read_csv("credit_develop.csv")

model_data.head()#查看数据格式

读取数据后查看大致数据的情况,主要看每个字段的格式属性。比如Branch_of_Bank等字段为分类变量,后续需要进行虚拟化变量处理。

数据探索

数据探索是建模人员了解特征时使用的方法,可以通过数据表或是图形的方式了解整体数据。

model_data.describe().T

查看数据的分布。

data=model_data["Credit_Score"].dropna()#去除缺失值

sns.distplot(data)

查看信用分数的分布情况

plt.boxplot(data)

利用箱线图查看数据离散情况

model_data=model_data.drop_duplicates()#去除重复项

填充缺失值

model_data = model_data.fillna(model_data.mean()) #用均值来填充

变量相似度分析,变量聚类

simpler=np.random.randint(0,len(model_data),size=50)

sns.clustermap(model_data.iloc[simpler,3:].T,col_cluster=False,row_cluster=True)

生成模型训练/测试数据集

将分类变量变为虚拟变量

Area_Classification_dummy=pd.get_dummies(model_data["Area_Classification"],prefix="Area_Class")

model_data.join(Area_Classification_dummy)

model_data.join(model_data[="Branch"))

·        分成目标变量和应变量

target=model_data["target"]

pd.crosstab(target,"target")

data=model_data.ix[ :,'Age':]

·        分成训练集和测试集,比例为6:4

train_data, test_data, train_target, test_target = cross_validation.train_test_split(data, target, test_size=0.4, random_state=0)

筛选变量

因为使用的是普通的罗吉斯回归,所以变量筛选变得尤为重要。如果筛选不当会产生过拟合或是欠拟合现象。(当然可以使用一些更高级的算法完成筛选功能)首先使用最原始的方法线性相关系数。

corr_matrix=model_data.corr(method='pearson')

corr_matrix=corr_matrix.abs()

sns.set(rc={"figure.figsize": (10,10)})

sns.heatmap(corr_matrix,square=True,cmap="Blues")

corr=model_data.corr(method='pearson').ix["target"].abs()

corr.sort(ascending=False)

corr.plot(kind="bar",title="corr",figsize=[12,6])

·        使用随机森林方法来选择模型模型变量

rfc = ensemble.RandomForestClassifier(criterion='entropy', n_estimators=3, max_features=0.5, min_samples_split=5)

rfc_model=rfc.fit(train_data,train_target)

rfc_model.feature_importances_

rfc_fi=pd.DataFrame()

rfc_fi["features"] =list(data.columns)

rfc_fi["importance"] =list(rfc_model.feature_importances_)

rfc_fi=rfc_fi.set_index("features",drop=True)

rfc_fi.sort_index(by="importance",ascending=False).plot(kind="bar",title="corr",figsize=[12,6])

5.模型训练

使用原始变量进行logistic回归

In [39]:

logistic_model=linear_model.LogisticRegression()

logistic_model.fit(train_data,train_target)

Out[39]:

LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,

intercept_scaling=1, penalty='l2', random_state=None, tol=0.0001)

In [40]:

test_est=logistic_model.predict(test_data)

train_est=logistic_model.predict(train_data)

In [41]:

test_est_p=logistic_model.predict_proba(test_data)[:,1]

train_est_p=logistic_model.predict_proba(train_data)[:,1]

In [42]:

printmetrics.classification_report(test_target,test_est)

precision    recall  f1-score  support

0      0.68      0.61      0.64      2825

1      0.64      0.71      0.67      2775

avg / total      0.66      0.66      0.66      5600

In [43]:

printmetrics.classification_report(train_target,train_est)

precision    recall  f1-score  support

0      0.67      0.63      0.65      4175

1      0.66      0.70      0.68      4225

avg / total      0.67      0.67      0.66      8400

In [44]:

metrics.zero_one_loss(test_target,test_est)

Out[44]:

0.34053571428571427

In [45]:

metrics.zero_one_loss(train_target,train_est)

Out[45]:

0.33476190476190482

目标样本和非目标样本的分数分布

In [46]:

red,blue=sns.color_palette("Set1",2)

sns.kdeplot(test_est_p[test_target==1],shade=True,color=red)

sns.kdeplot(test_est_p[test_target==0],shade=True,color=blue)

Out[47]:

ROC曲线

[python]view plaincopy

fpr_test, tpr_test, th_test = metrics.roc_curve(test_target, test_est_p)

fpr_train, tpr_train, th_train = metrics.roc_curve(train_target, train_est_p)

plt.figure(figsize=[6,6])

plt.plot(fpr_test, tpr_test, color=blue)

plt.plot(fpr_train, tpr_train, color=red)

plt.title('ROC curve')

其他机器学习算法

[python]view plaincopy

lr = linear_model.LogisticRegression()

lr_scores = cross_validation.cross_val_score(lr, train_data, train_target, cv=5)

print("logistic regression accuracy:")

print(lr_scores)

clf = tree.DecisionTreeClassifier(criterion='entropy', max_depth=8, min_samples_split=5)

clf_scores = cross_validation.cross_val_score(clf, train_data, train_target, cv=5)

print("decision tree accuracy:")

print(clf_scores)

rfc = ensemble.RandomForestClassifier(criterion='entropy', n_estimators=3, max_features=0.5, min_samples_split=5)

rfc_scores = cross_validation.cross_val_score(rfc, train_data, train_target, cv=5)

print("random forest accuracy:")

print(rfc_scores)

etc = ensemble.ExtraTreesClassifier(criterion='entropy', n_estimators=3, max_features=0.6, min_samples_split=5)

etc_scores = cross_validation.cross_val_score(etc, train_data, train_target, cv=5)

print("extra trees accuracy:")

print(etc_scores)

gbc = ensemble.GradientBoostingClassifier()

gbc_scores = cross_validation.cross_val_score(gbc, train_data, train_target, cv=5)

print("gradient boosting accuracy:")

print(gbc_scores)

svc = svm.SVC()

svc_scores = cross_validation.cross_val_score(svc, train_data, train_target, cv=5)

print("svm classifier accuracy:")

print(svc_scores)

abc = ensemble. AdaBoostClassifier(n_estimators=100)

abc_scores = cross_validation.cross_val_score(abc, train_data, train_target, cv=5)

print("abc classifier accuracy:")

print(abc_scores)

[python]view plaincopy

logistic regression accuracy:

[0.667857140.654166670.653571430.655357140.65833333]

decision tree accuracy:

[0.741071430.756547620.739880950.730357140.73690476]

random forest accuracy:

[0.71250.721428570.711904760.720833330.68809524]

extra trees accuracy:

[0.669642860.707142860.68273810.677380950.67797619]

gradient boosting accuracy:

[0.782142860.780357140.772023810.760714290.75119048]

svm classifier accuracy:

[0.502976190.505952380.506547620.502976190.50297619]

abc classifier accuracy:

[0.767857140.764880950.769047620.749404760.75]

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,753评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,668评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,090评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,010评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,054评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,806评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,484评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,380评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,873评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,021评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,158评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,838评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,499评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,044评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,159评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,449评论 3 374
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,136评论 2 356

推荐阅读更多精彩内容