深度学习算法informer(时序预测)(五)(informer整体模型)

整体架构如图

代码如下

lass Informer(nn.Module):def __init__(self, enc_in, dec_in, c_out, seq_len, label_len, out_len, factor=5, d_model=512, n_heads=8, e_layers=3, d_layers=2, d_ff=512, dropout=0.0, attn='prob', embed='fixed', freq='h', activation='gelu', output_attention = False, distil=True, mix=True,device=torch.device('cuda:0')):super(Informer, self).__init__()self.pred_len = out_lenself.attn = attnself.output_attention = output_attention# Encodingself.enc_embedding = DataEmbedding(enc_in, d_model, embed, freq, dropout)self.dec_embedding = DataEmbedding(dec_in, d_model, embed, freq, dropout)# AttentionAttn = ProbAttention if attn=='prob' else FullAttention# Encoderself.encoder = Encoder([EncoderLayer(AttentionLayer(Attn(False, factor, attention_dropout=dropout, output_attention=output_attention), d_model, n_heads, mix=False),d_model,d_ff,dropout=dropout,activation=activation) for l in range(e_layers)],[ConvLayer(d_model) for l in range(e_layers-1)] if distil else None,norm_layer=torch.nn.LayerNorm(d_model))# Decoderself.decoder = Decoder([DecoderLayer(AttentionLayer(Attn(True, factor, attention_dropout=dropout, output_attention=False), d_model, n_heads, mix=mix),AttentionLayer(FullAttention(False, factor, attention_dropout=dropout, output_attention=False), d_model, n_heads, mix=False),d_model,d_ff,dropout=dropout,activation=activation,)for l in range(d_layers)],norm_layer=torch.nn.LayerNorm(d_model))# self.end_conv1 = nn.Conv1d(in_channels=label_len+out_len, out_channels=out_len, kernel_size=1, bias=True)# self.end_conv2 = nn.Conv1d(in_channels=d_model, out_channels=c_out, kernel_size=1, bias=True)self.projection = nn.Linear(d_model, c_out, bias=True)def forward(self, x_enc, x_mark_enc, x_dec, x_mark_dec, enc_self_mask=None, dec_self_mask=None, dec_enc_mask=None):enc_out = self.enc_embedding(x_enc, x_mark_enc)# x_enc.shape# torch.Size([32, 96, 1])# x_mark_enc.shape# torch.Size([32, 96, 4])# enc_out.shape# torch.Size([32, 96, 512])enc_out, attns = self.encoder(enc_out, attn_mask=enc_self_mask)# enc_out.shape# torch.Size([32, 48, 512])dec_out = self.dec_embedding(x_dec, x_mark_dec)# x_dec.shape, x_mark_dec.shape# (torch.Size([32, 72, 1]), torch.Size([32, 72, 4]))# dec_out.shape# torch.Size([32, 72, 512])dec_out = self.decoder(dec_out, enc_out, x_mask=dec_self_mask, cross_mask=dec_enc_mask)# dec_out.shape# torch.Size([32, 72, 512])dec_out = self.projection(dec_out)# dec_out.shape# torch.Size([32, 72, 1])# dec_out = self.end_conv1(dec_out)# dec_out = self.end_conv2(dec_out.transpose(2,1)).transpose(1,2)if self.output_attention:return dec_out[:,-self.pred_len:,:], attnselse:return dec_out[:,-self.pred_len:,:]   # torch.Size([32, 24, 1])

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/31420.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

判断101 - 200之间有多少个素数,并输出所有素数。

题目:判断101 - 200之间有多少个素数,并输出所有素数。 解法一:程序分析:判断素数的方法:用一个数分别去除2到sqrt(这个数),如果能被整除,则表明此数不是素数,反之是素数。 void ma…

鸿蒙开发通信与连接:【@ohos.wifi (WLAN)】

WLAN 说明: 本模块首批接口从API version 6开始支持。后续版本的新增接口,采用上角标单独标记接口的起始版本。 导入模块 import wifi from ohos.wifi;wifi.isWifiActive isWifiActive(): boolean 查询WLAN是否已激活。 需要权限: ohos.p…

stable diffusion 模型和lora融合

炜哥的AI学习笔记——SuperMerger插件学习 - 哔哩哔哩接下来学习的插件名字叫做 SuperMerger,它的作用正如其名,可以融合大模型或者 LoRA,一般来说会结合之前的插件 LoRA Block Weight 使用,在调整完成 LoRA 模型的权重后使用改插件进行重新打包。除了 LoRA ,Checkpoint 也…

PCL 拟合二维椭圆(迭代法)

文章目录 一、简介二、实现代码三、实现效果参考资料一、简介 一般情况,我们会用椭圆拟合二维点,用椭球拟合三维点。在n维中,这些对象被称为超椭球体,由二次方程隐式定义 超椭球的中心是n1向量C,nn矩阵S是正定的,n1向量X是超椭球上的任意点。矩阵S可以用特征分解,S = R…

ATFX Connect四度加冕!荣膺2024最佳机构业务经纪商奖

近期,知名经纪商ATFX凭借在公益、科技、教育及媒体领域的一系列创新营销举措,掀起一波营销热潮,品牌联动效应显著。日前,ATFX又以实力而赢得一项新荣誉。全球知名媒体Holiston Media举办的2024环球金融大奖 (Global Forex Awards …

网站安全防护怎么做?

引言:在当今数字化的时代,网络安全已经成为个人、企业乃至整个社会的一项关键挑战。随着互联网的普及和信息技术的迅猛发展,我们的生活和工作方式日益依赖于各种互联网服务和数据交换。然而,这种依赖也带来了越来越多的安全威胁和…

瞭解代理伺服器主要使用的是什麼協議

代理伺服器可以使用多種協議來實現其功能。以下是幾種常見的代理協議,包括它們的工作原理、應用場景以及優缺點。 1. HTTP代理 最常見的代理協議之一,主要用於處理網頁流覽請求。 工作原理:HTTP代理伺服器接收客戶端的HTTP請求&#xff0c…

分层Agent

分层Teams 分层Agent创建tool研究团队工具文档编写团队工具 通用能力定义Agent团队研究团队文档编写团队 添加图层 分层Agent 在前面的示例(Agent管理)中,我们引入了单个管理节点的概念,用于在不同工作节点之间路由工作。 但是&a…

C++堆栈的区别?两者大小有限制吗?【面试】

C堆栈的区别: 内存分配方式: 堆:由程序员手动分配和释放,如果程序员不释放,程序结束时可能由操作系统(OS)回收。堆的分配方式类似于链表。栈:由编译器自动分配和释放,主要存放函数的参数值和局部…

安全加固 MariaDB 和 MySQL 数据库

安全加固 MariaDB 和 MySQL 数据库 在今天的网络环境中,保护数据库安全至关重要,特别是像 MariaDB 和 MySQL 这样的流行数据库。本文将介绍一些关键的安全加固步骤,以确保数据库系统的安全性和稳定性。 1. 数据库版本和基础设置 首先&…

C++(26): 原子操作(std::atomic)

目录 1. 简述 2. 什么是原子操作 3. C原子操作 4. std::atomic_flag 5. std::atomic (1)操作 (2)赋值(store)、读取(load)与交换(exchange) &#xff…

Java学习笔记(一)Java内容介绍、程序举例、DOS命令、Java跨平台特性的本质

Hi i,m JinXiang ⭐ 前言 ⭐ 本篇文章主要介绍Java内容介绍、程序举例、DOS命令、Java跨平台特性的本质详细介绍以及部分理论知识 🍉欢迎点赞 👍 收藏 ⭐留言评论 📝私信必回哟😁 🍉博主收将持续更新学习记录获,友友们有任何问题可以在评论区留言 目录 1、内容介绍…

STM32学习和实践笔记(37):DMA实验

1.DMA简介 DMA,全称是Direct Memory Access,中文意思为直接存储器访问。DMA可用于实现外设与存储器之间或者存储器与存储器之间数据传输的高效性。 之所以高效,是因为DMA传输数据移动过程无需CPU直接操作,这样节省的 CPU 资源就可…

小白教程:使用IntelliJ IDEA的HTTP Client进行接口验证

问题背景 这段时间使用开发一些Rest API相关的功能,准备做一些接口的简单测试,快速的验证一下API功能是否正常,正好觉得IntelliJ IDEA中的HTTP Client功能非常方便,它允许我们直接在编辑器中操作,正好记录一下。 解决…

小程序使用接口wx.getLocation配置

开通时需详细描述业务,否则可能审核不通过 可能需要绑定腾讯位置服务,新建应该,绑定到小程序 配置 权限声明:在使用wx.getLocation前,需要在app.json的permission字段中声明对用户位置信息的使用权限,并提…

掘金淘宝API:揭秘店铺商品详情的智能获取秘籍

引言 在浩瀚的电商世界里,淘宝作为中国的电商巨头,不仅为买家提供了琳琅满目的商品选择,更为开发者开启了数据宝藏的大门。通过淘宝API,你能够轻松获取店铺所有商品的详尽信息,无论是为了市场分析、价格监控&#xff…

大数据学习-大数据介绍

意义 从海量的数据中分析出海量数据背后的价值 需要分析海量的数据,就需要存储、计算和分析 那就需要分布式多台计算机合适的工具来处理数据 工具 特点 大数据的核心工作:从海量的、高增长的、多类别的、信息密度低的数据中挖掘出高质量的结果 数据存储…

【CS.AI】决策树算法介绍: 原理与案例实现

文章目录 1. 简介1.1 决策树的基本原理核心概念: 2. 决策树的应用案例2.1 金融行业中的信用评分2.2 医疗诊断中的应用2.3 零售行业中的市场营销 3. 决策树的优缺点优点:缺点: 4. Python代码示例5 结论 [toc] ![在这里插入图片描述 1. 简介 决策树是一种常见且强大的机器学习算…

!=和!==的区别

在JavaScript中,! 和 ! 是两种不同类型的比较运算符,它们之间的主要区别在于它们如何处理比较中的类型转换(也称为“强制类型转换”或“宽松比较”与“严格比较”)。 !(宽松比较): 如果两个操作数的类型不同…

本地部署 ChatTTS

本地部署 ChatTTS 0. ChatTTS 简介1. ChatTTS 亮点2. 创建虚拟环境3. 克隆代码4. 安装依赖5. 快速开始6. 访问 0. ChatTTS 简介 ChatTTS 是一款专门为对话场景(例如 LLM 助手)设计的文本转语音模型。 1. ChatTTS 亮点 对话式 TTS: ChatTTS 针对对话式…