一、数据准备
数据准备阶段,筛选不同时间段(方便评估模型稳定性)具有贷后表现的样本,正负样本比例大概在8:2左右(也可以按实际比例筛选),样本成分可以是整个行业所有场景的样本,也可以单个场景的样本,建模样本数量标准至少2万以上,5万-10万满足要求,10万以上效果最佳,如果2万以下仅可筛选测试标签(样本量少建模会造成过拟合或者欠拟合导致模型不准确)。
二、标签取数及筛选阶段
Step1:根据回溯日期进行标签取数,必须不包含回溯日期当天(当前标签值T+1时间更新,确保模型上线和线下效果一致)。
Step2:取好的标签数据进行数据分组,分组方法包括等距,等频,最优卡方,最优IV值等等。
Step3:计算分组之后标签的WOE值和IV值,选取IV值大于0.1的标签。
Step4:计算标签的相关系数以及方差膨胀系数(剔除相关性和共线性的影响)相关系数标准可根据标签数量选取0.8和0.9作为标准,保留IV值更高的标签,方差膨胀系数标准为5或者10。
最终保留标签30-60(不同的建模方法标签数量不同)个标签进行模型训练
三、模型训练
目前常用逻辑回归、随机森林、GBDT和XGBOOST等等,其中逻辑回归可以输出系数,规则可以复现,模型部署相对简单,效果相比于其他算法略差,但稳定性更强。其他算法属于黑盒算法,效果相对于逻辑回归更好,但稳定性较差。建议逻辑归回作为基础,其他算法效果作为调优参考。
逻辑归回算法:输入标签分区的woe值,输出模型规则(模型系数)。
XGBOOST,GBDT等:输入标签原始值(可以根据标签量不进行相关性和共线性剔除),输出模型文件.m文件。
根据预测的模型结果进行分数映射,计算方式,其中A,B可以根据最终分数分布进行调整。
四、模型部署
[1] 逻辑回归模型,由于逻辑回归模型规则可以复现,所以可以对规则进行拆分,命中区间得到对应的分数,将标签对应的分数加总的规则形式进行部署,优点不需要嵌入python,部署方便,逻辑简单,占用资源少等优点。缺点模型效果略差。
[2] XGBOOST,GBDT等部署,由于输出文件为黑盒的.m文件,所以部署需要进行数据库和Python交互,最后映射分数,所以部署相对复杂,占用资源较多等缺点,但具有模型效果好等优点。
五、模型监控
需要针对模型稳定性监控,例如模型分数稳定性,标准产品标签等等,主要用于防止标签和模型分数发生重大变化,导致商户策略失效,误判率增加。
方法:PSI稳定指标;其计算逻辑如下:
监控指标:当天与一周前的PSI值,当天与一月之前的PSI值,当前与3个月前的PSI值等等。
六、模型更新
当模型需要更新时,按照数据准备,标签取数及筛选,模型训练等规范进行,考虑模型的稳定性和效果。
标准:模型稳定性达到要求(PSI值和训练集测试集效果相当)以及模型效果提升情况。
新模型要求一:
[1] 当监控指标发现模型分数PSI达到更新模型阈值,训练新的模型达到以下条件即可更新:模型效果大于等于旧模型且稳定性达到要求,否则重新训练模型。
[2] 当要探索更高模型效果时,训练新的模型效果高于旧模型KS值0.03以上模型且稳定性达到要求,否则重新训练模型。
新模型要求二:新的模型需要测试过去一月业务数据(不包含训练样本),对比分析新旧模型效果,达到要求即可部署更新上线。