PyTorch搭建LSTM实现多变量多步长时序负荷预测_第1页
PyTorch搭建LSTM实现多变量多步长时序负荷预测_第2页
PyTorch搭建LSTM实现多变量多步长时序负荷预测_第3页
PyTorch搭建LSTM实现多变量多步长时序负荷预测_第4页
PyTorch搭建LSTM实现多变量多步长时序负荷预测_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第PyTorch搭建LSTM实现多变量多步长时序负荷预测目录I.前言II.数据处理III.LSTM模型IV.训练和预测V.源码及数据

I.前言

在前面的两篇文章PyTorch搭建LSTM实现时间序列预测(负荷预测)和PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)中,我们利用LSTM分别实现了单变量单步长时间序列预测和多变量单步长时间序列预测。

本篇文章主要考虑用PyTorch搭建LSTM实现多变量多步长时间序列预测。

系列文章:

PyTorch搭建双向LSTM实现时间序列负荷预测

PyTorch搭建LSTM实现多变量时序负荷预测

PyTorch深度学习LSTM从input输入到Linear输出

PyTorch搭建LSTM实现时间序列负荷预测

II.数据处理

数据集为某个地区某段时间内的电力负荷数据,除了负荷以外,还包括温度、湿度等信息。

本文中,我们根据前24个时刻的负荷以及该时刻的环境变量来预测接下来4个时刻的负荷(步长可调)。

defload_data(file_name):

globalMAX,MIN

df=pd.read_csv(os.path.dirname(os.getcwd())+'/data/new_data/'+file_name,encoding='gbk')

columns=df.columns

df.fillna(df.mean(),inplace=True)

MAX=np.max(df[columns[1]])

MIN=np.min(df[columns[1]])

df[columns[1]]=(df[columns[1]]-MIN)/(MAX-MIN)

returndf

classMyDataset(Dataset):

def__init__(self,data):

self.data=data

def__getitem__(self,item):

returnself.data[item]

def__len__(self):

returnlen(self.data)

defnn_seq(file_name,B,num):

print('dataprocessing...')

data=load_data(file_name)

load=data[data.columns[1]]

load=load.tolist()

data=data.values.tolist()

seq=[]

foriinrange(0,len(data)-24-num,num):

train_seq=[]

train_label=[]

forjinrange(i,i+24):

x=[load[j]]

forcinrange(2,8):

x.append(data[j][c])

train_seq.append(x)

forjinrange(i+24,i+24+num):

train_label.append(load[j])

train_seq=torch.FloatTensor(train_seq)

train_label=torch.FloatTensor(train_label).view(-1)

seq.append((train_seq,train_label))

#print(seq[-1])

Dtr=seq[0:int(len(seq)*0.7)]

Dte=seq[int(len(seq)*0.7):len(seq)]

train_len=int(len(Dtr)/B)*B

test_len=int(len(Dte)/B)*B

Dtr,Dte=Dtr[:train_len],Dte[:test_len]

train=MyDataset(Dtr)

test=MyDataset(Dte)

Dtr=DataLoader(dataset=train,batch_size=B,shuffle=False,num_workers=0)

Dte=DataLoader(dataset=test,batch_size=B,shuffle=False,num_workers=0)

returnDtr,Dte

其中num表示需要预测的步长,如num=4表示预测接下来4个时刻的负荷。

任意输出其中一条数据:

(tensor([[0.5830,1.0000,0.9091,0.6957,0.8333,0.4884,0.5122],

[0.6215,1.0000,0.9091,0.7391,0.8333,0.4884,0.5122],

[0.5954,1.0000,0.9091,0.7826,0.8333,0.4884,0.5122],

[0.5391,1.0000,0.9091,0.8261,0.8333,0.4884,0.5122],

[0.5351,1.0000,0.9091,0.8696,0.8333,0.4884,0.5122],

[0.5169,1.0000,0.9091,0.9130,0.8333,0.4884,0.5122],

[0.4694,1.0000,0.9091,0.9565,0.8333,0.4884,0.5122],

[0.4489,1.0000,0.9091,1.0000,0.8333,0.4884,0.5122],

[0.4885,1.0000,0.9091,0.0000,1.0000,0.3256,0.3902],

[0.4612,1.0000,0.9091,0.0435,1.0000,0.3256,0.3902],

[0.4229,1.0000,0.9091,0.0870,1.0000,0.3256,0.3902],

[0.4173,1.0000,0.9091,0.1304,1.0000,0.3256,0.3902],

[0.4503,1.0000,0.9091,0.1739,1.0000,0.3256,0.3902],

[0.4502,1.0000,0.9091,0.2174,1.0000,0.3256,0.3902],

[0.5426,1.0000,0.9091,0.2609,1.0000,0.3256,0.3902],

[0.5579,1.0000,0.9091,0.3043,1.0000,0.3256,0.3902],

[0.6035,1.0000,0.9091,0.3478,1.0000,0.3256,0.3902],

[0.6540,1.0000,0.9091,0.3913,1.0000,0.3256,0.3902],

[0.6181,1.0000,0.9091,0.4348,1.0000,0.3256,0.3902],

[0.6334,1.0000,0.9091,0.4783,1.0000,0.3256,0.3902],

[0.6297,1.0000,0.9091,0.5217,1.0000,0.3256,0.3902],

[0.5610,1.0000,0.9091,0.5652,1.0000,0.3256,0.3902],

[0.5957,1.0000,0.9091,0.6087,1.0000,0.3256,0.3902],

[0.6427,1.0000,0.9091,0.6522,1.0000,0.3256,0.3902]]),tensor([0.6360,0.6996,0.6889,0.6434]))

数据格式为(X,Y)。其中X一共24行,表示前24个时刻的负荷值和该时刻的环境变量。Y一共四个值,表示需要预测的四个负荷值。需要注意的是,此时input_size=7,output_size=4。

III.LSTM模型

这里采用了深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)中的模型:

classLSTM(nn.Module):

def__init__(self,input_size,hidden_size,num_layers,output_size,batch_size):

super().__init__()

self.input_size=input_size

self.hidden_size=hidden_size

self.num_layers=num_layers

self.output_size=output_size

self.num_directions=1

self.batch_size=batch_size

self.lstm=nn.LSTM(self.input_size,self.hidden_size,self.num_layers,batch_first=True)

self.linear=nn.Linear(self.hidden_size,self.output_size)

defforward(self,input_seq):

h_0=torch.randn(self.num_directions*self.num_layers,self.batch_size,self.hidden_size).to(device)

c_0=torch.randn(self.num_directions*self.num_layers,self.batch_size,self.hidden_size).to(device)

#print(input_seq.size())

seq_len=input_seq.shape[1]

#input(batch_size,seq_len,input_size)

input_seq=input_seq.view(self.batch_size,seq_len,self.input_size)

#output(batch_size,seq_len,num_directions*hidden_size)

output,_=self.lstm(input_seq,(h_0,c_0))

#print('output.size=',output.size())

#print(self.batch_size*seq_len,self.hidden_size)

output=output.contiguous().view(self.batch_size*seq_len,self.hidden_size)#(5*30,64)

pred=self.linear(output)#pred()

#print('pred=',pred.shape)

pred=pred.view(self.batch_size,seq_len,-1)

pred=p

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论