其他分享
首页 > 其他分享> > 实验报告--(灰度预测+LinearSVR)与ARIMA

实验报告--(灰度预测+LinearSVR)与ARIMA

作者:互联网

灰度预测+LinearSVR

 1 import pandas as pd
 2 import numpy as np
 3 from sklearn.linear_model import Lasso
 4 
 5 inputfile = './data/data.csv'  # 输入的数据文件
 6 data = pd.read_csv(inputfile)  # 读取数据
 7 
 8 lasso = Lasso(1000)  # 调用Lasso()函数,设置λ的值为1000
 9 lasso.fit(data.iloc[:,0:13],data['y'])
10 
11 data = data.iloc[:, 0:13]
12 
13 mask = lasso.coef_ != 0  # 返回一个相关系数是否为零的布尔数组
14 outputfile ='./tmp/new_reg_data.csv'  # 输出的数据文件
15 new_reg_data = data.iloc[:, mask]  # 返回相关系数非零的数据
16 new_reg_data.to_csv(outputfile)  # 存储数据
17 print('输出数据的维度为:',new_reg_data.shape)  # 查看输出数据的维度

 

 1 import matplotlib.pyplot as plt
 2 from sklearn.svm import LinearSVR
 3 
 4 inputfile = './tmp/new_reg_data_GM11.xls'  # 灰色预测后保存的路径
 5 data = pd.read_excel(inputfile)  # 读取数据
 6 feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']  # 属性所在列
 7 data_train = data.iloc[0:20].copy()  # 取2014年前的数据建模 
 8 data_mean = data_train.mean()
 9 data_std = data_train.std()
10 data_train = (data_train - data_mean)/data_std  # 数据标准化
11 x_train = data_train[feature].values  # 属性数据
12 y_train = data_train['y'].values  # 标签数据
13 
14 linearsvr = LinearSVR()  # 调用LinearSVR()函数
15 linearsvr.fit(x_train,y_train)
16 x = ((data[feature] - data_mean[feature])/data_std[feature]).values  # 预测,并还原结果。
17 data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
18 outputfile = './tmp/new_reg_data_GM11_revenue.xls'  # SVR预测后保存的结果
19 data.to_excel(outputfile)
20 
21 print('真实值与预测值分别为:\n',data[['y','y_pred']]) 
22 
23 fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*'])  # 画出预测结果图
24 plt.show()

 

 

AERIMA

 1 import pandas as pd
 2 import numpy as np
 3 import matplotlib.pyplot as plt
 4 
 5 plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
 6 plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
 7 
 8 inputfile = './data/data.csv'  # 输入的数据文件
 9 data = pd.read_csv(inputfile)  # 读取数据
10 
11 datetime = range(1994, 2014)
12 # X = list(datetime)
13 X = []
14 for i in datetime:
15     X.append(str(i))
16 
17 y = data['y']
18 
19 # 时序图
20 plt.figure(figsize=(10, 6))
21 plt.plot(X, y)
22 plt.scatter(X, y)
23 plt.show()

 

1 pre_data = pd.DataFrame()
2 pre_data['X'] = X
3 pre_data['y'] = y
4 pre_data.set_index('X', inplace=True)
5 pre_data.head()

 

 from statsmodels.graphics.tsaplots import plot_acf plot_acf(pre_data).show() 

1 # 平稳性检测
2 from statsmodels.tsa.stattools import adfuller as ADF
3 print('原始序列的ADF检验结果为:', ADF(pre_data['y']))
4 # 返回值依次为adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore

 


可以看到p值为1,数据不平稳。

 1 import warnings
 2 warnings.filterwarnings("ignore")
 3 
 4 # 差分后的结果
 5 D_data = pre_data.diff().dropna()
 6 D_data.columns = ['y差分']
 7 D_data.plot()  # 时序图
 8 plt.show()
 9 plot_acf(D_data).show()  # 自相关图
10 from statsmodels.graphics.tsaplots import plot_pacf
11 plot_pacf(D_data).show()  # 偏自相关图
12 print('差分序列的ADF检验结果为:', ADF(D_data['y差分']))  # 平稳性检测

 


一阶差分后,依旧不平稳。之后尝试提高差分阶数,依旧达不到平稳,说明该数据不适合ARIMA模型。
感受ARIMA算法,实验继续>>>

1 from statsmodels.stats.diagnostic import acorr_ljungbox
2 print('差分序列的白噪声检验结果为:', acorr_ljungbox(D_data, lags=1))  # 返回统计量和p值

 


白噪声检验也未通过

 1 from statsmodels.tsa.arima_model import ARIMA
 2 
 3 
 4 # 定阶
 5 pre_data['y'] = pre_data['y'].astype(float) 
 6 pmax = int(len(D_data)/10)  # 一般阶数不超过length/10
 7 qmax = int(len(D_data)/10)  # 一般阶数不超过length/10
 8 bic_matrix = []  # BIC矩阵
 9 for p in range(pmax+1):
10   tmp = []
11   for q in range(qmax+1):
12     try:  # 存在部分报错,所以用try来跳过报错。
13       tmp.append(ARIMA(pre_data, (p,1,q)).fit().bic)
14     except:
15       tmp.append(None)
16   bic_matrix.append(tmp)
17 
18 bic_matrix = pd.DataFrame(bic_matrix)  # 从中可以找出最小值
19 
20 p,q = bic_matrix.stack().astype('float64').idxmin()  # 先用stack展平,然后用idxmin找出最小值位置。
21 print('BIC最小的p值和q值为:%s、%s' %(p,q)) 
22 
23 model = ARIMA(pre_data, (0,1,1)).fit()  
24 print('模型报告为:\n', model.summary2())
25 print('预测未来2年(2014和2015),其预测结果、标准误差、置信区间如下:\n', model.forecast(2))

 

 

标签:pre,10,plt,--,ARIMA,train,灰度,import,data
来源: https://www.cnblogs.com/hrunjie/p/16110700.html