【轴承RUL预测代码】基于DRSN(深度残差收缩网络)

news2024/11/26 1:47:03

DRSN(深度残差收缩网络)和完整Transformer(encoder+decoder)

  • DRSN(深度残差收缩网络)
    • 模型的代码
    • 模型的打印
    • 训练与预测
      • 训练集的可视化:
      • 测试集的可视化:
    • DRSN-TCN的效果

DRSN(深度残差收缩网络)

此次模型是应一位网友提出,怎么将其应用到我们的RUL预测领域中。当时候提出需求的时候,我也不太懂,后面花了两三天写出来了基础代码(就是模型个部分结构基本是固定),后续有花了2天时间修改出来了。比如构建DRSN的Block结构,DRSN与TCN的结合等等。下面参照一些博客大佬写的内容1234

模型的代码


class DRSN(nn.Module):
 def __init__(self, input_size, hidden_size, output_size):
     super(DRSN, self).__init__()

     self.resnet1 = ResNetBlock(input_size, hidden_size)
     self.resnet2 = ResNetBlock(hidden_size, hidden_size)
 	 self.resnet3 = ResNetBlock(hidden_size, hidden_size)
 	  
     self.soft_threshold = SoftThreshold(hidden_size)
   
     self.attention = Attention(hidden_size)
   
     self.linear = nn.Linear(hidden_size, output_size)

 def forward(self, x):

     x = self.resnet1(x)
     x = self.resnet2(x)
     x = self.resnet3(x)
     
     x = self.soft_threshold(x)

     x = self.attention(x)
    
     x = self.linear(x)
     return x


class ResNetBlock(nn.Module):
 def __init__(self, in_channels, out_channels):
     super(ResNetBlock, self).__init__()
  
     self.conv1 = nn.Conv1d(in_channels, out_channels, kernel_size=3, padding=1)
     self.conv2 = nn.Conv1d(out_channels, out_channels, kernel_size=3, padding=1)

     self.bn1 = nn.BatchNorm1d(out_channels)
     self.bn2 = nn.BatchNorm1d(out_channels)
   
     self.relu = nn.ReLU()

 def forward(self, x):

     identity = x
  
     x = self.conv1(x)
     x = self.bn1(x)
     x = self.relu(x)

     x = self.conv2(x)
     x = self.bn2(x)

     x += identity
     x = self.relu(x)
     return x


class SoftThreshold(nn.Module):
 def __init__(self, num_features):
     super(SoftThreshold, self).__init__()
     # 初始化阈值学习参数
     self.thresholds = nn.Parameter(torch.zeros(num_features))

 def forward(self, x):
     
     x = torch.sign(x) * torch.max(torch.abs(x) - self.thresholds, torch.zeros_like(x))
     return x


class Attention(nn.Module):
 def __init__(self, hidden_size):
     super(Attention, self).__init__()
     
     self.linear = nn.Linear(hidden_size, 1)

 def forward(self, x):
     # 计算注意力权重
     weights = self.linear(x)
     weights = torch.softmax(weights, dim=1)
     # 添加注意力权重
     x = x * weights
     return x


模型的打印

==========================================================================================
Layer (type:depth-idx)                   Output Shape              Param #
==========================================================================================
DRSN                                     [128, 1]                  --
├─ResNetBlock: 1-1                       [128, 128, 16]            --
│    └─Conv1d: 2-1                       [128, 128, 16]            25,472
│    └─BatchNorm1d: 2-2                  [128, 128, 16]            256
│    └─ReLU: 2-3                         [128, 128, 16]            --
│    └─Conv1d: 2-4                       [128, 128, 16]            49,280
│    └─BatchNorm1d: 2-5                  [128, 128, 16]            256
│    └─Conv1d: 2-6                       [128, 128, 16]            8,576
│    └─LeakyReLU: 2-7                    [128, 128, 16]            --
├─ResNetBlock: 1-2                       [128, 32, 16]             --
│    └─Conv1d: 2-8                       [128, 32, 16]             12,320
│    └─BatchNorm1d: 2-9                  [128, 32, 16]             64
│    └─ReLU: 2-10                        [128, 32, 16]             --
│    └─Conv1d: 2-11                      [128, 32, 16]             3,104
│    └─BatchNorm1d: 2-12                 [128, 32, 16]             64
│    └─Conv1d: 2-13                      [128, 32, 16]             4,128
│    └─LeakyReLU: 2-14                   [128, 32, 16]             --
├─ResNetBlock: 1-3                       [128, 16, 16]             --
│    └─Conv1d: 2-15                      [128, 16, 16]             1,552
│    └─BatchNorm1d: 2-16                 [128, 16, 16]             32
│    └─ReLU: 2-17                        [128, 16, 16]             --
│    └─Conv1d: 2-18                      [128, 16, 16]             784
│    └─BatchNorm1d: 2-19                 [128, 16, 16]             32
│    └─Conv1d: 2-20                      [128, 16, 16]             528
│    └─LeakyReLU: 2-21                   [128, 16, 16]             --
├─SoftThreshold: 1-4                     [128, 16, 16]             16
├─Attention: 1-5                         [128, 16, 16]             --
│    └─Linear: 2-22                      [128, 16, 1]              17
├─Linear: 1-6                            [128, 1]                  17
├─Sigmoid: 1-7                           [128, 1]                  --
==========================================================================================
Total params: 106,498
Trainable params: 106,498
Non-trainable params: 0
Total mult-adds (M): 216.66
==========================================================================================
Input size (MB): 0.54
Forward/backward pass size (MB): 14.70
Params size (MB): 0.43
Estimated Total Size (MB): 15.66
==========================================================================================

最后还有与TCN的结合

===============================================================================================
Layer (type:depth-idx)                        Output Shape              Param #
===============================================================================================
DRSN                                          [128, 1]                  --
├─TemporalConvNet: 1-1                        [128, 32, 16]             --
│    └─Sequential: 2-1                        [128, 32, 16]             --
│    │    └─TemporalBlock: 3-1                [128, 64, 16]             33,984
│    │    └─TemporalBlock: 3-2                [128, 32, 16]             13,920
│    │    └─TemporalBlock: 3-3                [128, 32, 16]             9,280
├─SoftThreshold: 1-2                          [128, 16, 32]             32
├─Attention: 1-3                              [128, 16, 32]             --
│    └─Linear: 2-2                            [128, 16, 1]              33
├─Linear: 1-4                                 [128, 1]                  33
├─Sigmoid: 1-5                                [128, 1]                  --
===============================================================================================
Total params: 57,282
Trainable params: 57,282
Non-trainable params: 0
Total mult-adds (M): 114.99
===============================================================================================
Input size (MB): 0.54
Forward/backward pass size (MB): 12.60
Params size (MB): 0.23
Estimated Total Size (MB): 13.37
===============================================================================================

训练与预测

这还是以PHM2012轴承的工况一的七个轴承为例,Bearing1-1和Beanring1-2做训练,后面Bearing1-3到Bearing15这五个做预测.,使用的特征还是之前的示例数据EMD分解后的IMF分量的6个统计特征。

训练集的可视化:

Bearing1-1
请添加图片描述

测试集的可视化:

请添加图片描述

请添加图片描述
请添加图片描述
请添加图片描述
请添加图片描述

DRSN-TCN的效果

训练集可视化:
请添加图片描述

请添加图片描述
请添加图片描述
洽谈轴承效果还是比较差,这里就不放图了。总体来说,还是需要对DRSN与TCN的结合进行优化。


  1. 深度残差收缩网络(DRSN ↩︎

  2. 深度残差收缩网络:一种面向强噪声数据的深度学习方法 ↩︎

  3. 残差网络?收缩?深度残差收缩网络看这篇就够了 ↩︎

  4. 另类注意力机制之深度残差收缩网络(附代码) ↩︎

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/724724.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

贝叶斯与认知——读《贝叶斯的博弈》有感

关于对贝叶斯与认知问题的相关思考 一、贝叶斯定理二、贝叶斯与认知的本质三、经验的偏见四、总结 自古以来,人们就在思考知识来自何处,“冯翼惟象,何以识之?”,对此的思考逐渐发展成哲学的认识论分支。德国哲学家康德…

二十三种设计模式第十六篇--观察者模式

观察者模式是一种行为型设计模式,它建立了一种对象间的一对多依赖关系,使得当一个对象的状态发生变化时,所有依赖于它的对象都会得到通知并自动更新。这种模式可以实现对象间的松耦合通信,提高系统的可扩展性和灵活性。 观察者模…

开源白盒 静态代码分析对比

背景 源代码安全检测是安全开发流程(SDL)中非常重要的一部分,在58集团的CI/CD流程里面临每天几千数量级的构建及发布,白盒检测的自动化能力显得极为重要。白盒扫描从漏洞发现的需求转变为了需要适应企业CI/CD流程的白盒建设需求&…

Win2008 IIS TLS1.0升级到TLS1.2或TLS1.3

最近chrome和Edege浏览器已经把TLS 1.0标记为不安全了。 如果是开发网站,而使用的TLS 1.0,则直接打开不网站,也没有醒目的提示,你很难知道问题所在,总以为是SSL安装失败了,其实是TSL版本太低了。 如果是开…

密码学学习笔记(六):Hash Functions - 哈希函数2

哈希函数是怎么构成的? Merkle–Damgrd结构 哈希函数需要能够处理任意长度的输入。许多散列函数,例如MD5、SHA-1、SHA-2,都是由构建块(称为压缩函数)组成的,这些构建块可以处理特定的块大小,并…

SSM 整合 Shiro 安全框架【快速入门】

一、搭建ssm工程&#x1f349; 1.创建工程&#x1f95d; 更改web路径 创建所需目录 2.引入依赖&#x1f95d; <project xmlns"http://maven.apache.org/POM/4.0.0" xmlns:xsi"http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation"h…

LVS+Keepalived负载均衡高可用群集

目录 一、Keepalived高可用详解 1.应用场景 2.介绍和原理简介 3.主要模块和作用 二、LVSkeepalived配置实例&#xff08;抢占模式&#xff09; 1.配置NFS共享存储器 2.配置节点web服务&#xff08;两台的配置相同&#xff09; 3.配置主备LVSkeepalived负载调度器 三、非…

JAVA判断当前时间是否为节假日、周末、工作日,简单有效!

JAVA判断当前时间是否为节假日、周末、工作日 需求 有这么个需求&#xff0c;需要判断拿到的这个日期是否为节假日&#xff0c;周末&#xff0c;工作日&#xff0c;然后做剩下的操作。 话不多说&#xff0c;上代码 1.首先需要拿到节假日api 节假日API地址 2.拿到接口&…

Open3d计算点云切片

computePlane()给出三个点计算平面方程参数 设通过P1&#xff0c;P2&#xff0c;P3三点的平面方程为A(x - x1) B(y - y1) C(z - z1) 0 。化简为一般式&#xff1a;Ax By Cz D 0。 将P1(x1,y1,z1)点数值代入方程Ax By Cz D 0。 即可得到&#xff1a;Ax1 By 1 Cz1 D…

css之文字宽度自适应、width、fit、content

文章目录 效果图htmlcss解析width 效果图 html <div><div class"width_600"><div class"d_f ai_c bc_1296db padding_7 radius_8 cursor_pointer" style"width: fit-content;"><img class"width_26 height_26" …

ps通道抠图

相信我们在抠图的时候都遇到过这种问题&#xff1a; 在扣取一些像树木、毛发等类似图像的时候&#xff0c;用魔棒或者快速选择工具根本抠不完整&#xff08;图1&#xff09;&#xff0c;而且就算抠出来也是毛毛刺刺的&#xff0c;使用效果很拉跨。而通道抠图&#xff08;图2&a…

真的不想知道文档翻译在线翻译怎么弄才简单吗

从前有一个小明&#xff0c;他是一名国际商人。他需要将公司的商业计划书翻译成多种语言&#xff0c;以便在海外市场推销。但是&#xff0c;他并不会所有需要的语言&#xff0c;于是他开始寻找一种方法来进行文档翻译。终于&#xff0c;他找到了一种文档翻译的有效方法&#xf…

Dynamsoft Barcode Reader crack

Dynamsoft Barcode Reader crack SDK经过重构&#xff0c;与DynamsoftCaptureVision(DCV)体系结构集成&#xff0c;该体系结构包括&#xff1a; ImageSourceAdapter(ISA)-标准输入接口&#xff0c;用于将来自不同来源的图像数据转换为标准输入图像数据。此外&#xff0c;ISA结合…

2023第七届河南省高等学校信息安全对抗大赛-御网杯-ISCC2023线下赛-misc(详解-思路-脚本)

芜湖~ 是真累呀 原本一天的时间 硬打了一天半 还是那句话 不评价 各位道友心中自有公论 我misc手又发现一个小小的非预期 哎 没想到线下也有这种情况 欧克 以下是我自己的一些思路和解析 有什么问题或者建议随时都可以联系我 2023第七届河南省高等学校信息安全对抗大赛-御…

医疗设备中的直线导轨使用哪种润滑脂?

直线导轨属于滚动功能部件&#xff0c;看似普通&#xff0c;却是大多数医疗设备的核心功能部件之一&#xff0c;也是保障医疗设备精度的基础&#xff0c;需要具备高精度、高耐磨、高顺畅等性能&#xff0c;对生产企业的研发实力、制造工艺及技术水平提出相当大的挑战&#xff0…

计算机体系结构基础知识介绍之缓存性能的十大进阶优化之关键词优先和提前重启以减少失误处罚、合并写入缓冲区以减少惩罚(五)

优化五&#xff1a;关键词优先&#xff0c;提前重启&#xff0c;减少漏判 处理器通常一次只需要缓存块中的一个字&#xff08;word&#xff09;。不要等待整个块被加载&#xff0c;而是在请求的字到达后就立即发送给处理器&#xff0c;并让处理器继续执行&#xff0c;同时填充…

安装TESSY测试软件,装D盘就没问题,装C盘就报这个错误了

环境&#xff1a; Win10 专业版 TESSY4.3 问题描述&#xff1a; 安装TESSY测试软件&#xff0c;装D盘就没问题&#xff0c;装C盘就报这个错误了 解决方案&#xff1a; 1.看了报错说明&#xff0c;之前安装的文件夹名字有空格 2.在C盘重新建立一个文件夹&#xff0c;文件夹…

android设备树理解

一、根据lunch 查找具体的dts文件 比如&#xff1a;lunch msm8953_64-userdebug 下面的1 和 2 借鉴自&#xff1a; 如何找到kernel所用的dtsi_百度知道 1、找具体本系统需要的dts文件 然后在out/target/product/msm8953_64/obj/KERNEL_OBJ的.config 里去找这个CONFIG_ARC…

Mybatis XML文件转换SQL

toSQL Mybatis XML 转换为 SQL语句 源码地址: https://github.com/huxuekuo/toSQL 使用方法 可以在IDEA plugin 中搜索 toSQL使用源码编译后的jar, 在IDEA plugin 中添加在releases中下载jar文件 转换效果展示 <select id"findPage" parameterType"map&…

【正点原子STM32连载】 第五十章 FATFS实验 摘自【正点原子】STM32F103 战舰开发指南V1.2

1&#xff09;实验平台&#xff1a;正点原子stm32f103战舰开发板V4 2&#xff09;平台购买地址&#xff1a;https://detail.tmall.com/item.htm?id609294757420 3&#xff09;全套实验源码手册视频下载地址&#xff1a; http://www.openedv.com/thread-340252-1-1.html# 第五…