登录
首页 >  文章 >  python教程

Python怎么用PyTorch做股票时间序列预测_LSTM长短时记忆网络与序列遮挡对齐

时间:2026-05-05 23:03:47 285浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Python怎么用PyTorch做股票时间序列预测_LSTM长短时记忆网络与序列遮挡对齐》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

PyTorch LSTM输入必须是(seq_len, batch_size, features)格式,常见错误是误用(batch_size, seq_len, features);正确做法为滑窗后调用permute(1,0,2),并确保归一化、标签对齐与逆变换规范。

Python怎么用PyTorch做股票时间序列预测_LSTM长短时记忆网络与序列遮挡对齐

PyTorch LSTM输入必须是3D张量,shape=(seq_len, batch_size, features),不是(batch_size, seq_len, features)

这是最常卡住新手的第一步:LSTM层默认按时间步(seq_len)维度循环,所以它要求第一个维度是序列长度。如果你把数据读成 df.values 后直接 torch.tensor(),大概率得到 (N, 5) 形状,再用 view()reshape() 错误地压成 (batch_size, seq_len, features),就会触发 RuntimeError: input.size(-1) must be equal to input_size

正确做法是先按时间滑窗切出样本,再用 permute(1, 0, 2) 调轴:

def create_sequences(data, seq_len):
    xs, ys = [], []
    for i in range(len(data) - seq_len):
        x = data[i:i+seq_len]  # shape: (seq_len, features)
        y = data[i+seq_len][0]  # 预测下一个开盘价(标量)
        xs.append(x)
        ys.append(y)
    return torch.tensor(xs).float(), torch.tensor(ys).float()
<h1>得到的是 (n_samples, seq_len, features)</h1><p>X, y = create_sequences(scaled_data, seq_len=60)</p><h1>LSTM要的是 (seq_len, n_samples, features)</h1><p>X = X.permute(1, 0, 2)  # ✅ 关键一步
y = y.unsqueeze(1)  # 变成 (n_samples, 1),方便后续loss计算</p>

nn.LSTM时别漏掉batch_first=False的隐含约定

PyTorch默认 batch_first=False,即输入/输出形状按 (seq_len, batch, hidden) 解释。但很多人在定义模型后,看到 DataLoader 输出的 X(seq_len, batch, features),就以为 LSTM 输出也是同样顺序 —— 实际上,nn.LSTMoutput(所有时间步的 h_t)默认仍是 (seq_len, batch, hidden_size),而 h_n(最后一层最后时刻的隐藏态)是 (num_layers * num_directions, batch, hidden_size)

常见错误:直接取 output[-1] 做回归预测,结果维度错乱或梯度消失。正确做法是:

  • 如果只用最后一时间步预测,取 output[-1](此时 shape 是 (batch, hidden_size),因为 output 已被自动 squeeze 过?不,没squeeze —— 所以得用 output[-1, :, :]
  • 更稳妥的是用 h_n[-1](最后一层的最终隐藏态),再接 nn.Linear
  • 若设了 batch_first=True,则所有输入/输出都变成 (batch, seq_len, ...),但要注意和前面 permute 步骤冲突 —— 别混用

训练时要用torch.nn.utils.rnn.pad_sequence处理变长序列,但股票序列通常等长,遮挡(masking)反而容易画蛇添足

标题里提到“序列遮挡对齐”,容易让人联想到 NLP 中的 pad_packed_sequence + pack_padded_sequence 流程。但股票日线/分钟线数据天然等长(你滑窗出来的每个样本都是固定 seq_len),根本不需要 padding,也无需遮挡。

强行加 pack_padded_sequence 不仅无效,还会引入两个坑:

  • 输入必须按长度降序排列,否则报错 ValueError: lengths array must be sorted in decreasing order
  • 打包后 LSTM 输出的 output 是 packed 格式,必须用 pad_packed_sequence 解包才能索引,徒增复杂度

结论:除非你在做事件驱动型异构序列(比如按成交笔数截断),否则跳过所有 packing / masking 相关代码。专注归一化、滑窗、permute、LSTM + Linear 即可。

验证集泄露和标签对齐是比模型结构更致命的问题

很多实现把 y 设为“下一天收盘价”,但用 StandardScaler 对全量数据拟合后再切分训练/验证集,导致验证集信息泄漏;或者把 X[i]y[i] 时间戳没对齐(比如 X[i] 是第1–60天,y[i] 却取了第61天的最高价而非对应收盘价)。

实操要点:

  • scaler 必须只在训练集上 fit_transform,验证/测试集只用 transform
  • 滑窗函数里确保 y 确实是 X 最后一个时间步的**下一时刻目标变量**,且类型一致(例如都用 close,别混用 openclose
  • 预测时别忘了对输出做 scaler.inverse_transform —— 但注意:scaler 是对单列拟合的,y_pred(N, 1),必须 reshape 成 (N, 1) 才能逆变换,否则报错 Reshape your data

模型再深,输在数据对齐上就全白搭。尤其时间序列,错一个 offset,整个回测就崩。

好了,本文到此结束,带大家了解了《Python怎么用PyTorch做股票时间序列预测_LSTM长短时记忆网络与序列遮挡对齐》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>