机器学习笔记-LSTM(长短时记忆网络)
itomcoil 2024-12-22 18:53 37 浏览
一 简介
LSTM网络,即长短期记忆网络,是循环神经网络(RNN)的一种高级形式,擅长捕捉数据中的长期依赖关系。
二 实现
(1)数据集:
百度网盘链接:https://pan.baidu.com/s/1oHPLWcs3XnFqJnJfKcLStQ
提取码:clyz
(2)环境:pytorch、sklearn、pandas、matplotlib、numpy
(3)导入包:
import pandas as pd
from matplotlib import pyplot as plt # 结果可视化
from torch import nn
import time
import matplotlib.pyplot as plt
import numpy as np
from typing import Tuple
from sklearn.preprocessing import MinMaxScaler
import torch
(4)设置显示中文:
plt.rcParams['font.sans-serif'] = 'SimHei'
plt.rcParams['axes.unicode_minus'] = False
(5)定义网络:
class LSTM_Regression(nn.Module):
"""
使用LSTM进行回归
参数:
- input_size: 输入维度
- hidden_size: 隐藏层维度
- output_size: 输出维度
- num_layers: cell的层数
- dropout: 遗忘率
- learning_rate: 学习率
- batch_size: 批大小
"""
def __init__(self, input_size, hidden_size, output_size=1, num_layers=2, dropout=0.2, learning_rate=0.001, batch_size=32):
super().__init__()
self.lstm = nn.LSTM(input_size, hidden_size, num_layers) # LSTM层
self.fc = nn.Linear(hidden_size, output_size) # 全连接层
def forward(self, _x):
x, _ = self.lstm(_x) # 输入数据和隐藏层输出
s, b, h = x.shape # 输入数据的形状
x = x.view(s * b, h) # 展开输入数据
x = self.fc(x) # 全连接层
x = x.view(s, b, -1) # 还原输入数据的形状
return x
(6)定义数据集:
def create_dataset(data, days_for_train=5) -> Tuple[np.array, np.array]:
"""
根据给定的序列data,生成数据集
数据集分为输入和输出,每一个输入的长度为days_for_train,每一个输出的长度为1。
也就是说用days_for_train天的数据,对应下一天的数据。
若给定序列的长度为d,将输出长度为(d-days_for_train+1)个输入/输出对
"""
dataset_x, dataset_y = [], []
for i in range(len(data) - days_for_train):
_x = data[i:(i + days_for_train)]
dataset_x.append(_x)
dataset_y.append(data[i + days_for_train])
return (np.array(dataset_x), np.array(dataset_y))
(7)读取并查看数据:
# 读取数据
data = pd.read_csv('D:/myfile/myWorkSpace/参与的项目/备品备件-07.05/0708预处理/0718_datas/02/电力负荷.csv')
# 转换为时间格式
data['出库日期'] = pd.to_datetime(data['出库日期'])
# print(data.head())
df = data.rename(columns={'出库日期': 'ds', '数量和': 'y'})
plt.plot(df['y'])
plt.show()
(8)MinMaxScaler数据归一化
# 创建一个MinMaxScaler实例
scaler = MinMaxScaler()
# 使用fit_transform方法来拟合数据并进行转换
df_normalized = scaler.fit_transform(df['y'].values.reshape(-1, 1))
plt.plot(df_normalized)
plt.show()
(9)获取并打印数据集:
dataset_x, dataset_y = create_dataset(df_normalized, DAYS_FOR_TRAIN)
print(dataset_x.shape, dataset_y.shape)
(10)数据集准备:
train_size = int(len(dataset_x) * 0.8)
train_x = dataset_x[:train_size]
train_y = dataset_y[:train_size]
# 将数据改变形状,RNN 读入的数据维度是 (seq_size, batch_size, feature_size)
train_x = train_x.reshape(-1, 1, DAYS_FOR_TRAIN)
train_y = train_y.reshape(-1, 1, 1)
# 转为pytorch的tensor对象
train_x = torch.from_numpy(train_x).to(torch.float32)
train_y = torch.from_numpy(train_y).to(torch.float32)
(11)使用模型:
model = LSTM_Regression(DAYS_FOR_TRAIN, 60, output_size=1, num_layers=2, dropout=0.2, learning_rate=0.001, batch_size=32)
(12)开始训练:
train_loss = []
loss_function = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=1e-2, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)
for i in range(200):
out = model(train_x)
loss = loss_function(out, train_y)
loss.backward()
optimizer.step()
optimizer.zero_grad()
train_loss.append(loss.item())
(13)绘制损失曲线:
# loss曲线
plt.figure()
plt.plot(train_loss, 'b', label='loss')
plt.title("Train_Loss_Curve")
plt.ylabel('train_loss')
plt.xlabel('epoch_num')
plt.legend()
plt.show()
(14)模型评估:
model = model.eval() # 转换成评估模式
# 注意这里用的是全集 模型的输出长度会比原数据少DAYS_FOR_TRAIN 需要填充使长度相等
dataset_x = dataset_x.reshape(-1, 1, DAYS_FOR_TRAIN)
dataset_x = torch.from_numpy(dataset_x).to(torch.float32) # 转为pytorch的tensor对象
pred_test = model(dataset_x) # 全量训练集
pred_test = pred_test.view(-1).data.numpy()
pred_test = np.concatenate((np.zeros(DAYS_FOR_TRAIN), pred_test)) # 填充0 使长度相同
(15)逆变换预测结果:
# 逆变换预测结果
preds = scaler.inverse_transform(pred_test.reshape(-1, 1))
reals = scaler.inverse_transform(df_normalized.reshape(-1, 1))
(16)绘图(预测值-实际值):
(17)计算准确率:
# 计算准确率
errors = abs(preds - reals)
errors_01 = [e < t * 0.01 for e, t in zip(errors, reals)]
errors_03 = [e < t * 0.03 for e, t in zip(errors, reals)]
errors_05 = [e < t * 0.05 for e, t in zip(errors, reals)]
errors_10 = [e < t * 0.10 for e, t in zip(errors, reals)]
errors_15 = [e < t * 0.15 for e, t in zip(errors, reals)]
count_01 = np.mean(errors_01)
count_03 = np.mean(errors_03)
count_05 = np.mean(errors_05)
count_10 = np.mean(errors_10)
count_15 = np.mean(errors_15)
print("误差 1%: ", count_01)
print("误差 3%: ", count_03)
print("误差 5%: ", count_05)
print("误差 10%: ", count_10)
print("误差 15%: ", count_15)
三 小结
模型没有进行任何处理,直接预测的结果较好,如果想进一步提高模型的精度,需要进行参数调整:
- 隐藏状态维度(hidden size/dimension):定义LSTMLSTM记忆细胞的容量。较大的隐藏尺寸可以捕获更复杂的信息,但也会增加计算成本和过拟合的风险。
- 层数(num_layers):LSTM层的数量。增加层数可以学习更深层次的特征表示,但也可能带来梯度消失/爆炸问题,并增加训练时间和计算资源需求。
- 学习率(learning rate):这是优化器在梯度下降过程中更新权重的步长。选择合适的学习率很关键,过高可能导致训练不稳定,过低则收敛速度慢。常见的初始学习率范围为10e-2至10e?4,并可能在训练过程中动态调整。
- 批量大小(batch size):每次迭代时处理的数据样本数量。较大的批量可以加速计算,但可能会导致泛化能力降低和内存需求增加。较小的批量提供了更好的泛化能力,但训练速度较慢。
- 激活函数:虽然不是直接的超参数,但选择不同的激活函数(如tanh、ReLU或softsign)会影响模型的训练动态和性能。
- 优化器(optimizer):如Adam、RMSprop、SGD等,不同的优化器有不同的更新规则,影响学习效率和最终性能。
- dropout比例:在训练过程中随机“丢弃”一部分神经元以减少过拟合,常见的dropout比例为0.2至0.5。
- 序列长度(sequence length):对于时间序列数据,决定输入序列的长度,可能影响模型理解和捕捉长期依赖的能力。
相关推荐
- 《Queendom》宣布冠军!女团MAMAMOO四人激动落泪
-
网易娱乐11月1日报道据台湾媒体报道,南韩女团竞争回归的生死斗《Queendom》昨(10/31)晚播出大决赛,并以直播方式进行,6组女团、女歌手皆演唱新歌,并加总前三轮的赛前赛、音源成绩与直播现场投...
- 正确复制、重写别人的代码,不算抄袭
-
我最近在一篇文章提到,工程师应该怎样避免使用大量的库、包以及其他依赖关系。我建议的另一种方案是,如果你没有达到重用第三方代码的阈值时,那么你就可以自己编写代码。在本文中,我将讨论一个在重用和从头开始编...
- HTML DOM tr 对象_html event对象
-
tr对象tr对象代表了HTML表格的行。HTML文档中出现一个<tr>标签,就会创建一个tr对象。tr对象集合W3C:W3C标签。集合描述W3Ccells返回...
- JS 打造动态表格_js如何动态改变表格内容
-
后台列表页最常见的需求:点击表头排序+一键全选。本文用原生js代码实现零依赖方案,涵盖DOM查询、排序算法、事件代理三大核心技能。效果速览一、核心思路事件入口:为每个<th>绑...
- 连肝7个晚上,总结了66条计算机网络的知识点
-
作者|哪吒来源|程序员小灰(ID:chengxuyuanxiaohui)计算机网络知识是面试常考的内容,在实际工作中经常涉及。最近,我总结了66条计算机网络相关的知识点。1、比较http0....
- Vue 中 强制组件重新渲染的正确方法
-
作者:MichaelThiessen译者:前端小智来源:hackernoon有时候,依赖Vue响应方式来更新数据是不够的,相反,我们需要手动重新渲染组件来更新数据。或者,我们可能只想抛开当前的...
- 为什么100个前端只有1人能说清?浏览器重排/重绘深度解析
-
面试现场的"致命拷问""你的项目里做过哪些性能优化?能具体讲讲重排和重绘的区别吗?"作为面试官,我在秋招季连续面试过100多位前端候选人,这句提问几乎成了必考题。但令...
- HTML DOM 介绍_dom4j html
-
HTMLDOM(文档对象模型)是一种基于文档的编程接口,它是HTML和XML文档的编程接口。它可以让开发人员通过JavaScript或其他脚本语言来访问和操作HTML和XML文档...
- JavaScript 事件——“事件流和事件处理程序”的注意要点
-
事件流事件流描述的是从页面中接收事件的顺序。IE的事件流是事件冒泡流,而NetscapeCommunicator的事件流是事件捕获流。事件冒泡即事件开始时由最具体的元素接收,然后逐级向上传播到较为不...
- 探秘 Web 水印技术_水印制作网页
-
作者:fransli,腾讯PCG前端开发工程师Web水印技术在信息安全和版权保护等领域有着广泛的应用,对防止信息泄露或知识产品被侵犯有重要意义。水印根据可见性可分为可见水印和不可见水印(盲水印)...
- 国外顶流网红为流量拍摄性侵女学生?仅被封杀三月,回归仍爆火
-
曾经的油管之王,顶流网红DavidDobrik复出了。一切似乎都跟他因和成员灌酒性侵女学生被骂到退网之前一样:住在950万美元的豪宅,开着20万美元的阿斯顿马丁,每条视频都有数百万观看...人们仿佛...
- JavaScript 内存泄漏排查方法_js内存泄漏及解决方法
-
一、概述本文主要介绍了如何通过Devtools的Memory内存工具排查JavaScript内存泄漏问题。先介绍了一些相关概念,说明了Memory内存工具的使用方式,然后介绍了堆快照的...
- 外贸独立站,网站优化的具体内容_外贸独立站,网站优化的具体内容有哪些
-
Wordpress网站优化,是通过优化代码、数据库、缓存、CSS/JS等内容,提升网站加载速度、交互性和稳定性。网站加载速度,是Google搜索引擎的第一权重,也是SEO优化的前提。1.优化渲染阻塞。...
- 这8个CSS工具可以提升编程速度_css用什么编译器
-
下面为大家推荐的这8个CSS工具,有提供函数的,有提供类的,有提取代码的,还有收集CSS的统计数据的……请花费两分钟的时间看完这篇文章,或许你会找到意外的惊喜,并且为你的编程之路打开了一扇新的大门。1...
- vue的理解-vue源码 历史 简介 核心特性 和jquery区别 和 react对比
-
一、从历史说起Web是WorldWideWeb的简称,中文译为万维网我们可以将它规划成如下的几个时代来进行理解石器时代文明时代工业革命时代百花齐放时代石器时代石器时代指的就是我们的静态网页,可以欣...
- 一周热门
- 最近发表
- 标签列表
-
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)
- shutil.copy() (33)