51建模网官方网站,厦门优秀的网站设计,常宁网站建设,wordpress更改域名后回归预测 | MATLAB实现Attention-GRU多输入单输出回归预测----注意力机制融合门控循环单元#xff0c;即TPA-GRU#xff0c;时间注意力机制结合门控循环单元 目录 回归预测 | MATLAB实现Attention-GRU多输入单输出回归预测----注意力机制融合门控循环单元#xff0c;即TPA-G…回归预测 | MATLAB实现Attention-GRU多输入单输出回归预测----注意力机制融合门控循环单元即TPA-GRU时间注意力机制结合门控循环单元 目录 回归预测 | MATLAB实现Attention-GRU多输入单输出回归预测----注意力机制融合门控循环单元即TPA-GRU时间注意力机制结合门控循环单元效果一览基本介绍模型结构程序设计参考资料 效果一览 基本介绍 MATLAB实现Attention-GRU多输入单输出回归预测(注意力机制融合门控循环单元也可称呼TPA-GRU时间注意力机制结合门控循环单元)将注意力机制( attention mechanism) 引入GRU( gated recurrent unit) 模型之中最后将特征数据集划分为训练集、验证集和测试集训练集用于训练模型确定最优模型参数验证集和测试集用于对模型效果进行评估。 模型结构 相较于LSTMGRU网络比较大的改动在于: (1)GRU网络将单元状态与输出合并为隐藏状态依靠隐藏状态来传输信息。 (2) GRU网络将LSTM 中的遗忘门和输入门整合成为了一个更新门限。正是由于这两个创新点的引入使得GU 模型较LSTM 模型具有如下优点: 参数量减少了三分之一不容易发生过拟合的现象在一些情况下可以省略dropout 环节; 在训练数据很大的时候可以有效减少运算时间加速迭代过程提升运算效率; 从计算角度看其可扩展性有利于构筑较大的模型。同时GRU继承了LSTM 处理梯度问题的能力其门结构可以有效过滤掉无用信息捕捉输入数据的长期依赖关系在处理序列问题上具有非常出色的表现。 注意力机制是深度学习中的一种仿生机制它的提出是由人类观察环境的习惯规律所总结而来的人类在观察环境时大脑往往只关注某几个特别重要的局部获取需要的信息构建出关于环境的描述而注意力机制正是如此其本质就是对关注部分给予较高权重从而获取更有效的信息从数学意义上来说它可以理解为是一种加权求和。注意力机制的主要作用包括: ( 1) 对输入序列的不同局部赋予不同的权重。 ( 2) 对于不同的输出序列局部给输入局部不一样赋权规划。 程序设计
完整程序和数据下载私信博主回复Attention-GRU多输入单输出回归预测。
%% 注意力参数
Attentionweight params.attention.weight; % 计算得分权重
Ht GRU_Y(:, :, end); % 参考向量
num_time size(GRU_Y, 3); % 时间尺度%% 注意力得分
socre dlarray;
for i 1: num_time - 1A extractdata(squeeze(GRU_Y(:, :, i)));A repmat(A, [1, 1, num_hidden]);A permute(A, [1, 3, 2]);A dlarray(A, SCB);B squeeze(sum(A .* dlarray(Attentionweight, SC), 1));C squeeze(sum(B .* Ht, 1));socre [socre; C];
end
%% 注意力得分
a sigmoid(socre);
Vt 0;
for i 1: num_time - 1Vt Vt a(i, :) .* GRU_Y(:, :, i);
end
%% 注意力机制
bias1 params.attenout.bias1;
bias2 params.attenout.bias2;
weight1 params.attenout.weight1;
weight2 params.attenout.weight2;
HVT fullyconnect(Vt, weight1, bias1) fullyconnect(Ht, weight2, bias2);
%% 全连接层
LastBias params.fullyconnect.bias1;
LastWeight params.fullyconnect.weight1;
%% 注意力参数初始化
params.attention.weight gpuArray(dlarray(0.01 * randn(num_hidden, num_hidden)));
%% 注意力权重初始化
params.attenout.weight1 gpuArray(dlarray(0.01 * randn(num_hidden, num_hidden)));
params.attenout.weight2 gpuArray(dlarray(0.01 * randn(num_hidden, num_hidden)));参考资料 [1] https://blog.csdn.net/kjm13182345320/article/details/127944569?spm1001.2014.3001.5502 [2] https://blog.csdn.net/kjm13182345320/article/details/127944537?spm1001.2014.3001.5502