15、Poisson回归的梯度提升回归树

15、Poisson回归的梯度提升回归树

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

from sklearn.datasets import fetch_openml

plt.rcParams['font.sans-serif'] = ['SimHei']

plt.rcParams['axes.unicode_minus'] = False

df = fetch_openml(data_id=41214, as_frame=True).frame

#泊松分布模拟频率

df["Frequency"] = df["ClaimNb"] / df["Exposure"]

print("Average Frequency = {}"

      .format(np.average(df["Frequency"], weights=df["Exposure"])))

print("Fraction of exposure with zero claims = {0:.1%}"

      .format(df.loc[df["ClaimNb"] == 0, "Exposure"].sum() /

              df["Exposure"].sum()))

from sklearn.pipeline import make_pipeline

from sklearn.preprocessing import FunctionTransformer, OneHotEncoder

from sklearn.preprocessing import StandardScaler, KBinsDiscretizer

from sklearn.compose import ColumnTransformer

log_scale_transformer = make_pipeline(

    FunctionTransformer(np.log, validate=False),

    StandardScaler()

)

linear_model_preprocessor = ColumnTransformer(

    [

        ("passthrough_numeric", "passthrough",

            ["BonusMalus"]),

        ("binned_numeric", KBinsDiscretizer(n_bins=10),

            ["VehAge", "DrivAge"]),

        ("log_scaled_numeric", log_scale_transformer,

            ["Density"]),

        ("onehot_categorical", OneHotEncoder(),

            ["VehBrand", "VehPower", "VehGas", "Region", "Area"]),

    ],

    remainder="drop",

)

from sklearn.dummy import DummyRegressor

from sklearn.pipeline import Pipeline

from sklearn.model_selection import train_test_split

df_train, df_test = train_test_split(df, test_size=0.33, random_state=0)

dummy = Pipeline([

    ("preprocessor", linear_model_preprocessor),

    ("regressor", DummyRegressor(strategy='mean')),

]).fit(df_train, df_train["Frequency"],

      regressor__sample_weight=df_train["Exposure"])

from sklearn.metrics import mean_squared_error

from sklearn.metrics import mean_absolute_error

from sklearn.metrics import mean_poisson_deviance

def score_estimator(estimator, df_test):

    #在测试集上给一个估计量打分

    y_pred = estimator.predict(df_test)

    print("MSE: %.3f" %

          mean_squared_error(df_test["Frequency"], y_pred,

                            sample_weight=df_test["Exposure"]))

    print("MAE: %.3f" %

          mean_absolute_error(df_test["Frequency"], y_pred,

                              sample_weight=df_test["Exposure"]))

    # 忽略非积极预测,因为它们对泊松越轨。

    mask = y_pred > 0

    if (~mask).any():

        n_masked, n_samples = (~mask).sum(), mask.shape[0]

        print(f"WARNING: Estimator yields invalid, non-positive predictions "

              f" for {n_masked} samples out of {n_samples}. These predictions "

              f"are ignored when computing the Poisson deviance.")

    print("mean Poisson deviance: %.3f" %

          mean_poisson_deviance(df_test["Frequency"][mask],

                                y_pred[mask],

                                sample_weight=df_test["Exposure"][mask]))

print("Constant mean frequency evaluation:")

score_estimator(dummy, df_test)

from sklearn.linear_model import Ridge

ridge_glm = Pipeline([

    ("preprocessor", linear_model_preprocessor),

    ("regressor", Ridge(alpha=1e-6)),

]).fit(df_train, df_train["Frequency"],

      regressor__sample_weight=df_train["Exposure"])

from sklearn.linear_model import PoissonRegressor

n_samples = df_train.shape[0]

poisson_glm = Pipeline([

    ("preprocessor", linear_model_preprocessor),

    ("regressor", PoissonRegressor(alpha=1e-12, max_iter=300))

])

poisson_glm.fit(df_train, df_train["Frequency"],

                regressor__sample_weight=df_train["Exposure"])

print("PoissonRegressor evaluation:")

score_estimator(poisson_glm, df_test)

from sklearn.ensemble import HistGradientBoostingRegressor

from sklearn.preprocessing import OrdinalEncoder

tree_preprocessor = ColumnTransformer(

    [

        ("categorical", OrdinalEncoder(),

            ["VehBrand", "VehPower", "VehGas", "Region", "Area"]),

        ("numeric", "passthrough",

            ["VehAge", "DrivAge", "BonusMalus", "Density"]),

    ],

    remainder="drop",

)

poisson_gbrt = Pipeline([

    ("preprocessor", tree_preprocessor),

    ("regressor", HistGradientBoostingRegressor(loss="poisson",

                                                max_leaf_nodes=128)),

])

poisson_gbrt.fit(df_train, df_train["Frequency"],

                regressor__sample_weight=df_train["Exposure"])

print("Poisson Gradient Boosted Trees evaluation:")

score_estimator(poisson_gbrt, df_test)

fig, axes = plt.subplots(nrows=2, ncols=4, figsize=(16, 6), sharey=True)

fig.subplots_adjust(bottom=0.2)

n_bins = 20

for row_idx, label, df in zip(range(2),

                              ["train", "test"],

                              [df_train, df_test]):

    df["Frequency"].hist(bins=np.linspace(-1, 30, n_bins),

                        ax=axes[row_idx, 0])

    axes[row_idx, 0].set_title("Data")

    axes[row_idx, 0].set_yscale('log')

    axes[row_idx, 0].set_xlabel("y (observed Frequency)")

    axes[row_idx, 0].set_ylim([1e1, 5e5])

    axes[row_idx, 0].set_ylabel(label + " samples")

    for idx, model in enumerate([ridge_glm, poisson_glm, poisson_gbrt]):

        y_pred = model.predict(df)

        pd.Series(y_pred).hist(bins=np.linspace(-1, 4, n_bins),

                              ax=axes[row_idx, idx+1])

        axes[row_idx, idx + 1].set(

            title=model[-1].__class__.__name__,

            yscale='log',

            xlabel="y_pred (predicted expected Frequency)"

        )

plt.tight_layout()


©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,427评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,551评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,747评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,939评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,955评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,737评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,448评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,352评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,834评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,992评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,133评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,815评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,477评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,022评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,147评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,398评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,077评论 2 355

推荐阅读更多精彩内容

  • 17、频率模型-泊松分布 from functools import partial import numpy a...
    凌晨思索阅读 454评论 0 0
  • 22、梯度提升OOB估计 import numpy as np import matplotlib.pyplot ...
    凌晨思索阅读 262评论 0 0
  • 23、梯度提升正则化 import numpy as np import matplotlib.pyplot as...
    凌晨思索阅读 364评论 0 0
  • Scrapy爬虫与机器学习之三:房屋挂牌价格预测 本文在前期抓取房产中介二手房某区域所有2453套房屋基础上,使用...
    DT数据说阅读 422评论 0 0
  • 假设你去随机问很多人一个很复杂的问题,然后把它们的答案合并起来。通常情况下你会发现这个合并的答案比一个专家的答案要...
    城市中迷途小书童阅读 2,507评论 0 1