LightGBM和XGBoost实现时间序列预测(2019-04-02)

LightGBM是最近最常见的一类算法,在kaggle比赛中经常被用来做预测和回归,由于性能比较好有着“倚天剑”的称号,而XGBoost则被称为屠龙刀。今天,我们就抛砖引玉,做一个简单的教程,如何用这倚天剑和屠龙刀来预测时间序列。参数没有调到最佳的预测效果,根据不同的数据集,同学们可以自己调参。

1.环境搭建

我们运行的环境是下载anaconda,然后在里面安装keras以及lightgbm,打开spyder运行程序即可。其中下载anaconda和安装keras的教程在我们另一个博客“用CNN做电能质量扰动分类(2019-03-28)”中写过了,这里就不赘述了。至于安装lightgbm的教程可以看“https://zhuanlan.zhihu.com/p/38361330”,基本上一句话总结就是“在Anaconda Prompt中输入pip install lightgbm 按Enter即可”

2.数据集下载

下载时间序列数据集和程序。其中,网盘连接是:

https://pan.baidu.com/s/1atjv-Juq9j8dW_x5RKUohg,密码是“ivhz”。

“nihe.csv”是我自己做的一个时间序列的数据集,一共有1000行4列其中,1-3列可以认为是X,第4列认为是Y。我们现在要做的就是训练3个X和Y之间的关系,然后给定X去预测Y。

3.预测

把下载的nihe.csv文件放到spyder 的默认路径下,我的默认路径是“D:\Matlab2018a\42”,新建一个.py文件,把程序放进去,运行即可。运行结束后,forecasttestY变量就是测试集的预测值。


4.程序

1)LightGBM的程序如下:

import lightgbm as lgbm

from sklearn import metrics

from sklearn import model_selection

import numpy as np

#1构建模型

model = lgbm.LGBMRegressor(

    objective='regression',

    max_depth=5,

    num_leaves=25,

    learning_rate=0.007,

    n_estimators=1000,

    min_child_samples=80,

    subsample=0.8,

    colsample_bytree=1,

    reg_alpha=0,

    reg_lambda=0,

    random_state=np.random.randint(10e6))

import numpy as np

#2导入数据

from pandas import read_csv

dataset = read_csv('nihe.csv')

values = dataset.values

from sklearn.preprocessing import MinMaxScaler

scaler= MinMaxScaler(feature_range=(0, 1))

XY= scaler.fit_transform(values)

Featurenum=3

X= XY[:,0:Featurenum]   

Y = XY[:,Featurenum]

n_train_hours1 = 800

n_train_hours2 = 900

trainX = X[:n_train_hours1, :]

trainY =Y[:n_train_hours1]

validX=X[n_train_hours1:n_train_hours2, :]

validY=Y[n_train_hours1:n_train_hours2]

testX = X[n_train_hours2:, :]

testY =Y[n_train_hours2:]

#3构建、拟合、预测

model.fit(

        trainX,

        trainY,

        eval_set=[(trainX, trainY), (validX, validY)],

        eval_names=('fit', 'val'),

        eval_metric='l2',

        early_stopping_rounds=200,

        verbose=False)

forecasttestY0 = model.predict(testX)

Hangnum=len(forecasttestY0)

forecasttestY0 = np.reshape(forecasttestY0, (Hangnum, 1))

#4反变换

from pandas import concat

inv_yhat =np.concatenate((testX,forecasttestY0), axis=1)

inv_y = scaler.inverse_transform(inv_yhat)

forecasttestY = inv_y[:,Featurenum]


2)XGBoost的程序如下:

import xgboost as xgb

from xgboost import plot_importance

from matplotlib import pyplot as plt

from sklearn.model_selection import train_test_split

import numpy as np

#1. load dataset

from pandas import read_csv

dataset = read_csv('nihe.csv')

values = dataset.values

#2.tranform data to [0,1]  3个属性,第4个是待预测量

from sklearn.preprocessing import MinMaxScaler

scaler= MinMaxScaler(feature_range=(0, 1))

XY= scaler.fit_transform(values)

Featurenum=3

X= XY[:,0:Featurenum]   

Y = XY[:,Featurenum]

#3.split into train and test sets 950个训练集,剩下的都是验证集

n_train_hours1 = 800

n_train_hours2 = 900

trainX = X[:n_train_hours1, :]

trainY =Y[:n_train_hours1]

validX=X[n_train_hours1:n_train_hours2, :]

validY=Y[n_train_hours1:n_train_hours2]

testX = X[n_train_hours2:, :]

testY =Y[n_train_hours2:]

#3构建、拟合、预测

model = xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:gamma')

model.fit(trainX, trainY)

forecasttestY0 = model.predict(testX)

Hangnum=len(forecasttestY0)

forecasttestY0 = np.reshape(forecasttestY0, (Hangnum, 1))

plot_importance(model)

plt.show()

#4反变换

from pandas import concat

inv_yhat =np.concatenate((testX,forecasttestY0), axis=1)

inv_y = scaler.inverse_transform(inv_yhat)

forecasttestY = inv_y[:,Featurenum]

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353

推荐阅读更多精彩内容