神经网络 | 基于多种神经网络模型的轴承故障检测

news2024/11/15 12:11:26

Hi,大家好,我是半亩花海。本文主要源自《第二届全国技能大赛智能制造工程技术项目比赛试题(样题) 模块 E 工业大数据与人工智能应用》,基于给出的已知轴承状态的振动信号样本,对数据进行分析,建立轴承故障诊断模型,对未知状态的振动信号样本进行预测,判断该样本属于哪种状态。


目录

技术描述

任务说明

任务一

一、导入必要库

二、读取并处理训练数据

三、绘制比例分布饼图

任务二

一、导入必要库

二、数据预处理

2.1 数据切片和分层抽样

2.2 轴承振动信号检视-时域分析

2.3 频域功率谱的分布

三、模型构建与训练

3.1 循环神经网络模型 (RNN)

3.3.1 构建 RNN 模型

3.3.2 训练 RNN 模型

3.1.3 可视化训练结果 (RNN)

3.2 卷积神经网络模型 (CNN)

3.2.1 构建 CNN 模型

3.2.2 训练 CNN 模型

3.2.3 可视化训练结果 (CNN)

3.3 多层感知器模型 (MLP)

3.3.1 构建 MLP 模型

3.3.2 训练 MLP 模型

3.3.3 可视化训练结果 (MLP)

四、模型预测

4.1 数据预处理

4.2 模型预测和结果保存

五、结果分析


技术描述

轴承是当代机械设备中一种重要零部件。它的主要功能是支撑机械旋转体,降低其运动过程中的摩擦系数,并保证其回转精度。由于轴承的关键作用和广泛使用,其健康状况直接影响着所在设备运行的稳定性与安全性,因此轴承故障的早期诊断具有重要意义。

传统的轴承故障诊断方法包括听声音、手持设备点检和测温度等,但是这些方法的缺点是对人的经验与感觉强依赖,难以传承和标准化,且实时性和精确性较差,往往检测到故障时故障已经很严重了。为了克服这些传统轴承故障诊断方法的缺点,现在轴承故障诊断的研究领域主要聚焦在将振动分析和大数据、人工智能等技术相结合,采用机理+数据驱动的方法来提升轴承故障诊断的效果。

常见的轴承故障如下图所示:

本试题的任务是基于给出的已知轴承状态(包括健康状态和不同故障状态)的振动信号样本,对数据进行分析,建立轴承故障诊断模型,对未知状态的振动信号样本进行预测,判断该样本属于哪种状态。

所提供的数据中包含 4 种不同状态的轴承振动信号样本,包括健康状态和 3 种不同的故障状态。每个样本为一组连续采集的轴承振动信号,下表为轴承振动信号的基本信息。

采样率50Hz
轴承转速13.33Hz
每组振动信号长度40960

每一组振动信号样本对应一个轴承状态标签,下表为 4 种不同轴承状态的标签和相应的说明。

标签说明
normal健康
inner内圈故障
outer外圈故障
roller滚动体故障

数据分为样本数据、样本标签和测试数据,样本数据混合了4种状态的样本,样本标签是各样本对应的轴承状态,测试数据是未知状态待检测的样本。数据存储在工业大数据平台中(有需要训练集和测试集的朋友可以在评论区或者私信我,train.csvtest_data.csv 文件如下)。


任务说明

任务一

从工业大数据平台中查询数据,分析各种状态类型轴承样本的数量,制作一张比例分布饼图,要求有图例和占比数字标签。


一、导入必要库

import pandas as pd
import matplotlib.pyplot as plt
import warnings

warnings.filterwarnings("ignore")  # 忽略警告信息
# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']  # 设置黑体样式
plt.rcParams['axes.unicode_minus'] = False  # 正常显示负号

二、读取并处理训练数据

train_data = pd.read_csv('train.csv')
labels = train_data['label']  # 提取标签列
print(train_data)
# 统计各标签数量并转换为字典
count_dict = labels.value_counts().to_dict()


三、绘制比例分布饼图

# 提取标签和对应的数量用于饼图
labels = list(count_dict.keys())
sizes = list(count_dict.values())
colors = ['blue', 'green', 'red', 'yellow']  # 为每个扇形定义颜色

# 制作比例分布饼图
fig, ax = plt.subplots(figsize=(6, 6))  # 创建一个大小为6x6的figure对象
ax.pie(sizes, labels=labels, colors=colors, autopct='%1.1f%%', startangle=90, textprops={'fontsize': 12})  # 在ax上绘制饼图
# ax = plt.gca()  # 返回坐标轴
ax.legend(loc='upper right', bbox_to_anchor=(1.1, 1.1), fontsize=10)  # 添加图例
ax.axis('equal')  # 保持纵横比相等, 确保饼图呈圆形
plt.title('轴承状态类型比例分布', fontsize=15)  # 设置饼图标题

plt.show()  # 显示饼图


任务二

对样本数据进行分析,使用 Python 编程语言建立人工智能预测模型,通过模型判断测试数据对应的轴承状态,并保存在如下格式要求的文件中。


一、导入必要库

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import train_test_split
from tensorflow.keras.layers import Conv1D, SimpleRNN, MaxPooling1D, Flatten, Dense, Dropout
from tensorflow.keras.utils import to_categorical
from tensorflow.keras import Sequential
from collections import defaultdict
import warnings

warnings.filterwarnings("ignore")  # 忽略警告信息
# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']  # 设置黑体样式
plt.rcParams['axes.unicode_minus'] = False  # 正常显示负号

二、数据预处理

2.1 数据切片和分层抽样
# 读取训练数据
data = pd.read_csv('train.csv')

# 将标签编码为数字
label_encoder = LabelEncoder()
data['label'] = label_encoder.fit_transform(data['label'])

# 数据切片处理
X = []
y = []
for i in range(len(data)):
    row = data.iloc[i, 1:].values  # 选择第i行的所有列(除第1列), 再将 DataFrame 行转换为 NumPy 数组
    row_reshaped = np.reshape(row[:len(row) // 512 * 512], (-1, 512))  # 将一维数组 row 切片并重新形状为一个二维数组, 每行包含512个元素
    X.extend(row_reshaped)  # 将二维数据展开成一维数组
    y.extend(np.tile(data.iloc[i, 0], row_reshaped.shape[0]))  # 在给定方向上重复数组: np.tile(要重复的数组, 重复的次数)
X = np.array(X)
y = np.array(y)

# 对标签进行独热编码
y = to_categorical(y)

# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42)  # 设置测试集占比25%, 随机种子42
2.2 轴承振动信号检视-时域分析

通过检视数据对信号进行时域分析,可以看到数据集中收集的是一个维度的振动信号,不同的标签对应的信号振幅应该有所不同。

f, ax = plt.subplots(2,2,figsize=(32,16))
state_list = ['normal', 'inner', 'outer', 'roller']
for i in range(2):
    for j in range(2):
        current_ax = ax[j][i]
        current_ax.title.set_text(state_list[2*j+i])
        # 提取数据
        current_data = list(data[data.label==2*j+i].iloc[0][1:513])
        # 绘制线图,并设置线宽、标记大小
        sns.lineplot(data=current_data, ax=current_ax, linewidth=2, markersize=10)
        # 调整横轴和纵轴刻度标签的字体大小
        current_ax.tick_params(axis='x', labelsize=16)
        current_ax.tick_params(axis='y', labelsize=16)
        # 调整标题的字体大小
        current_ax.title.set_fontsize(24)
plt.show()  # 显示图形

2.3 频域功率谱的分布

通过快速傅立叶变换对频域的功率谱做一个快速的可视化。

f, ax = plt.subplots(2,2,figsize=(32,16))
state_list = ['normal', 'inner', 'outer', 'roller']
for i in range(2):
    for j in range(2):
        current_ax = ax[j][i]
        current_ax.title.set_text(state_list[2*j+i])
        # 提取数据
        current_data = data[data.label==2*j+i].iloc[0][1:513]
        # 计算FFT
        fft = np.fft.fft(current_data)
        # 绘制线图,并设置线宽、标记大小
        sns.lineplot(data=(fft.real ** 2 - fft.imag ** 2), ax=current_ax, linewidth=2, color='red')
        # 调整横轴和纵轴刻度标签的字体大小
        current_ax.tick_params(axis='x', labelsize=16)
        current_ax.tick_params(axis='y', labelsize=16)
        # 调整标题的字体大小
        current_ax.title.set_fontsize(24)
plt.show()  # 显示图形


三、模型构建与训练

3.1 循环神经网络模型 (RNN)

循环神经网络 (Recurrent Neural Network,RNN) 是一类具有短期记忆能力的神经网络。在循环神经网络中,神经元不但可以接受其它神经元的信息,也可以接受自身的信息,形成具有环路的网络结构。RNN具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。

RNN 网络中第 t 次的隐含层状态的计算公式为:

S_t = f(W*S_{t-1} + U*X_t)

RNN 网络的特点:

  • 这里的W,U,V在每个时刻都是相等的(权重共享)
  • 隐藏状态可以理解为: S=f(现有的输入+过去记忆总结)

以下是一种典型的 RNN 结构中 Hidden Layer 层级展开图:

3.3.1 构建 RNN 模型
# 构建RNN模型
rnn_model = Sequential()
rnn_model.add(SimpleRNN(64, activation='relu', input_shape=(512, 1), return_sequences=True))  # SimpleRNN层, 64个单元, 激活函数ReLU, 输入形状(512, 1)
rnn_model.add(MaxPooling1D(pool_size=2))  # 一维最大池化层, 窗口大小为2
rnn_model.add(Flatten())  # 将多维数据展平为一维
rnn_model.add(Dense(128, activation='relu'))  # 全连接层, 4个神经元, 激活函数为relu
rnn_model.add(Dropout(0.5))  # Dropout层, 丢弃率为0.5, 减少过拟合风险
rnn_model.add(Dense(4, activation='softmax'))  # 全连接层, 4个神经元, 激活函数为softmax
rnn_model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])  # 编译RNN模型 (交叉熵损失函数, Adam优化器,评估指标为准确率)
3.3.2 训练 RNN 模型
# 训练RNN模型
history = rnn_model.fit(X_train.reshape(-1, 512, 1), y_train, epochs=30, batch_size=32,
                        validation_data=(X_test.reshape(-1, 512, 1), y_test))

3.1.3 可视化训练结果 (RNN)
# 绘制RNN模型的损失率和准确率曲线
plt.figure(figsize=(8, 5))
plt.plot(history.history['loss'], color='orange', label='training_loss')  # 训练集损失率
plt.plot(history.history['val_loss'], color='red', label='val_loss')  # 验证集损失率
plt.plot(history.history['accuracy'], color='green', label='training_acc')  # 训练集准确率
plt.plot(history.history['val_accuracy'], color='blue', label='val_acc')  # 验证集准确率
plt.title('RNN Model')
plt.legend(fontsize=11)
plt.xlabel('Epochs', fontsize=12)
plt.ylabel('RNN_loss/acc', fontsize=12)
plt.ylim(0, 1)  # 设置纵坐标范围为0-1
plt.show()

3.2 卷积神经网络模型 (CNN)

CNN 网络是一种带有卷积结构的前馈神经网络,卷积结构可以减少深层网络占用的内存量,其中三个关键操作——局部感受野、权值共享、池化层,有效的减少了网络的参数个数,缓解了模型的过拟合问题。

CNN 网络的主要结构如下:

输入层卷积层激活层池化层光栅化全连接层激活层输出层
输入数据使用卷积核特征提取和映射非线性映射下采样降维展开像素, 联接全连接层在尾部进行拟合, 减少特征损失非线性映射输出结果

CNN 网络的结构可视化如下:

3.2.1 构建 CNN 模型
# 构建CNN模型
Conv1D_model = Sequential()
Conv1D_model.add(Conv1D(filters=64, kernel_size=3, activation='relu', input_shape=(512, 1)))  # 一维卷积层, 64个滤波器, 大小3, 激活函数relu, 输入形状(512, 1)
Conv1D_model.add(MaxPooling1D(pool_size=2))  # 一维最大池化层, 窗口大小为2
Conv1D_model.add(Flatten())  # 将多维数据展平为一维
Conv1D_model.add(Dense(128, activation='relu'))  # 全连接层, 128个神经元, 激活函数relu
Conv1D_model.add(Dropout(0.5))  # Dropout层, 丢弃率为0.5, 减少过拟合风险
Conv1D_model.add(Dense(4, activation='softmax'))  # 全连接层, 4个神经元, 激活函数为softmax
Conv1D_model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])  # 编译CNN模型 (交叉熵损失函数, Adam优化器,评估指标为准确率)
3.2.2 训练 CNN 模型
# 训练CNN模型
history = Conv1D_model.fit(X_train.reshape(-1, 512, 1), y_train, epochs=30, batch_size=32,
                           validation_data=(X_test.reshape(-1, 512, 1), y_test))

3.2.3 可视化训练结果 (CNN)
# 绘制CNN模型的损失率和准确率曲线
plt.figure(figsize=(8, 5))
plt.plot(history.history['loss'], color='orange', label='training_loss')  # 训练集损失率
plt.plot(history.history['val_loss'], color='red', label='val_loss')  # 验证集损失率
plt.plot(history.history['accuracy'], color='green', label='training_acc')  # 训练集准确率
plt.plot(history.history['val_accuracy'], color='blue', label='val_acc')  # 验证集准确率
plt.title('CNN Model')
plt.legend(fontsize=11)
plt.xlabel('Epochs', fontsize=12)
plt.ylabel('CNN_loss/acc', fontsize=12)
plt.ylim(0, 1)  # 设置纵坐标范围为0-1
plt.show()

3.3 多层感知器模型 (MLP)

多层感知器也叫人工神经网络,除了输入层和输出层,它中间可以有多个隐层,最简单的 MLP 只含一个隐层,即三层的结构。MLP 神经网络属于前馈神经网络的一种。在网络训练过程中,需要通过反向传播算法计算梯度,将误差从输出层反向传播回输入层,用于更新网络参数。

MLP 模型的结构如下:

3.3.1 构建 MLP 模型
# 构建MLP模型
mlp_model = Sequential()
mlp_model.add(Dense(256, activation='relu', input_shape=(512,)))  # 全连接层,256个神经元,激活函数ReLU,输入形状(512,)
mlp_model.add(Dropout(0.5))  # Dropout层,丢弃率为0.5,减少过拟合风险
mlp_model.add(Dense(128, activation='relu'))  # 全连接层,128个神经元,激活函数ReLU
mlp_model.add(Dropout(0.5))  # Dropout层
mlp_model.add(Dense(64, activation='relu'))  # 全连接层,64个神经元,激活函数ReLU
mlp_model.add(Dropout(0.5))  # Dropout层
mlp_model.add(Dense(4, activation='softmax'))  # 输出层,4个神经元(对应4个类别),激活函数Softmax
mlp_model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])  # 编译MLP模型 (交叉熵损失函数, Adam优化器,评估指标为准确率)
3.3.2 训练 MLP 模型
# 训练MLP模型
history = mlp_model.fit(X_train.reshape(-1, 512), y_train, epochs=50, batch_size=32,
                            validation_data=(X_test.reshape(-1, 512), y_test))

3.3.3 可视化训练结果 (MLP)
# 绘制MLP模型的损失率和准确率曲线
plt.figure(figsize=(8, 5))
plt.plot(history.history['loss'], color='orange', label='training_loss')  # 训练集损失率
plt.plot(history.history['val_loss'], color='red', label='val_loss')  # 验证集损失率
plt.plot(history.history['accuracy'], color='green', label='training_acc')  # 训练集准确率
plt.plot(history.history['val_accuracy'], color='blue', label='val_acc')  # 验证集准确率
plt.title('MLP Model')
plt.legend(fontsize=11)
plt.xlabel('Epochs', fontsize=12)
plt.ylabel('MLP_loss/acc', fontsize=12)
plt.ylim(0, 1)  # 设置纵坐标范围为0-1
plt.show()


四、模型预测

4.1 数据预处理
# 读取测试数据
test_data = pd.read_csv('test_data.csv')

# 测试集数据预处理
X_test = []
sample_names = []
for i in range(len(test_data)):
    row = test_data.iloc[i, 1:].values
    row_reshaped = np.reshape(row[:len(row) // 512 * 512], (-1, 512))
    X_test.extend(row_reshaped)
    sample_names.extend([f"sample {i}"] * row_reshaped.shape[0])
X_test = np.array(X_test)
4.2 模型预测和结果保存
# 定义一个模型预测并结果保存的函数
def predict_and_save(model, X_test, output_filename):
    # 使用模型进行预测
    predictions = model.predict(X_test)
    # 获取预测结果中概率最高的类别
    predicted_labels = np.argmax(predictions, axis=1)

    # 定义类别映射关系,将数值标签映射到相应的类别
    labels_mapping = {0: 'normal', 1: 'inner', 2: 'outer', 3: 'roller'}
    predicted_classes = [labels_mapping[label] for label in predicted_labels]

    # 创建包含样本名和预测类别的 DataFrame
    final_predictions = pd.DataFrame({'name': sample_names, 'type': predicted_classes})
    # 对每个样本取众数(出现频率最高的类别)
    final_predictions = final_predictions.groupby('name')['type'].agg(lambda x: x.mode().iat[0]).reset_index()

    # 从样本名中提取样本编号并对 DataFrame 进行排序
    final_predictions['name'] = final_predictions['name'].apply(lambda x: int(x.split(' ')[-1]))
    final_predictions = final_predictions.sort_values(by='name')

    # 格式化样本名并将结果保存到 csv 文件中(不保存行索引)
    final_predictions['name'] = final_predictions['name'].apply(lambda x: f"sample {x}")
    final_predictions.to_csv(output_filename, index=False)


# 调用 predict_and_save 函数对模型进行预测并保存结果
predict_and_save(rnn_model, X_test.reshape(-1, 512, 1), 'test_rnn.csv')
predict_and_save(Conv1D_model, X_test.reshape(-1, 512, 1), 'test_cnn.csv')
predict_and_save(mlp_model, X_test.reshape(-1, 512), 'test_mlp.csv')


五、结果分析

通过读取每个模型的测试结果文件,输出各个标签的数量,并且以直方图来可视化三个模型的标签数量。结果显示 RNN、CNN 和 MLP 模型预测的结果相同

# 读取各个模型的测试结果文件
rnn_result = pd.read_csv('test_rnn.csv')
cnn_result = pd.read_csv('test_cnn.csv')
mlp_result = pd.read_csv('test_mlp.csv')

# 输出各个标签的数量
def output_label_counts(result, model_name):
    label_counts = result['type'].value_counts()
    print(f"\n{model_name} Label Counts:")
    for label in ['normal', 'inner', 'outer', 'roller']:
        count = label_counts.get(label, 0)
        print(f"{label}: {count}")

output_label_counts(rnn_result, 'RNN')
output_label_counts(cnn_result, 'CNN')
output_label_counts(mlp_result, 'MLP')

# 可视化各个模型的标签数量(直方图)
plt.figure(figsize=(8, 5))
def plot_label_counts(result, model_name, index, color):
    label_counts = result['type'].value_counts()
    counts_in_order = [label_counts.get(label, 0) for label in ['normal', 'inner', 'outer', 'roller']]
    
    plt.bar(np.arange(len(counts_in_order)) + 0.2 * index, counts_in_order, width=0.2, label=model_name, color=color)

# 绘制三个模型的直方图并指定颜色
plot_label_counts(rnn_result, 'RNN', 0, 'blue')
plot_label_counts(cnn_result, 'CNN', 1, 'green')
plot_label_counts(mlp_result, 'MLP', 2, 'orange')

# 添加图例、标题和标签
plt.legend()
plt.title('Label Counts Comparison')
plt.xlabel('Label')
plt.ylabel('Count')
plt.xticks(np.arange(4) + 0.2, ['normal', 'inner', 'outer', 'roller'], rotation=45, ha='right')
plt.show()

RNN Label Counts:

normal: 6

inner: 13

outer: 14

roller: 15

CNN Label Counts:

normal: 6

inner: 13

outer: 14

roller: 15

MLP Label Counts:

normal: 6

inner: 13

outer: 14

roller: 15

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1431327.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

极速上手:使用Jmeter轻松实现N种参数化

参数化的方式: 一、使用用户自定义变量 一种方式:直接在测试计划中添加用户自定义变量 另外一种方式:配置元件——用户自定义变量 示例:用户自定义变量,登录手机号码 在接口请求的时候,进行引用 请求之后&…

Avalonia学习(二十二)-数据库操作端

开始项目式的例子,但是不方便给大家贴代码了。 内容很多,只能演示一个界面,例子上传。 我不擅长界面美化和配色,有兴趣的可以继续完善,当前实现mysql。 最近所有样例的地址: GitHub - jinyuttt/Avalonia…

本地缓存Ehcache的应用实践 | 京东云技术团队

java本地缓存包含多个框架,其中常用的包括:Caffeine、Guava Cache和Ehcache, 其中Caffeine号称本地缓存之王,也是近年来被众多程序员推崇的缓存框架,同时也是SpringBoot内置的本地缓存实现。但是除了Caffeine之外&…

1893_文本化以及协议的思考

全部学习汇总: g_unix: UNIX系统学习笔记 (gitee.com) 004_文本化以及协议 关于这一点描述的确是很有感触,python等脚本语言中的列表、字典等设计的确是在做数据处理的时候很好的帮手。如果类似的处理需要在C的环境中处理,显然是要麻烦得多。…

React 面试题

1、组件通信的方式 父组件传子组件:通过props 的方式 子组件传父组件:父组件将自身函数传入,子组件调用该函数,父组件在函数中拿到子组件传递的数据 兄弟组件通信:找到共同的父节点,用父节点转发进行通信 …

如何利用 AI 做乘法,制作一款龙年贺卡小程序

2022 年底 AIGC 的出现,让 2023 年成为通用人工智能元年。 这是最好的时代,利用 AI,之前仅能存在幻想中的事物落地成现实。 只需要寥寥几句话,就可以描绘一张斑斓的画,真实而又丰富的画。 目前 AI 生图的大模型不多…

IDEA插件ChatGPT - Easycode安装使用

IDEA插件ChatGPT - Easycode简介 ChatGPT - Easycode 是一个由 OpenAI 开发的 IntelliJ IDEA 插件,它可以利用 ChatGPT 的强大语言生成能力,帮助开发人员提高编码效率。 主要功能: 代码生成:可以根据自然语言描述生成代码,支持多种编程语言,包括 Java、Python、JavaSc…

春节宅家必备!仅需26元/月,与好友共战《幻兽帕鲁》!

开放世界游戏《幻兽帕鲁》1 月 19 日推出抢先体验版之后,热度连日居高不下,其发售仅 6 天销量就突破了 800 万份,在线人数更是突破了 200 万大关。 因为游戏自身优化问题,不少玩家也遭遇了卡顿、闪退、延迟高等问题。针对此&#…

PPT、PDF全文档翻译相关产品调研笔记

主要找一下是否有比较给力的全文档翻译 文章目录 1 百度翻译2 小牛翻译3 腾讯交互翻译4 DeepL5 languagex6 云译科技7 快翻:qtrans8 simplifyai9 officetranslator10 火山引擎翻译-无文档翻译1 百度翻译 地址: https://fanyi.baidu.com/ 配套的比较完善,对于不同行业也有区…

UPCX项目被选为2024多哈世界游泳锦标赛和世联世界杯的官方赞助商

2024年2月2日晚,世界泳联官方针对英国队夺得 2024 年多哈世界游泳锦标赛第一枚奖表示庆祝! 据悉,UPCX 项目已被选为 2024 年多哈世界游泳锦标赛和世界泳联游泳世界杯巡回赛的官方区块链支付赞助商。 在两项国际重大赛事期间,运动…

计算机网络第4章(网络层)

4.1、网络层概述 简介 网络层的主要任务是实现网络互连,进而实现数据包在各网络之间的传输 这些异构型网络N1~N7如果只是需要各自内部通信,他们只要实现各自的物理层和数据链路层即可 但是如果要将这些异构型网络互连起来,形成一个更大的互…

云计算概述(云计算类型、技术驱动力、关键技术、特征、特点、通用点、架构层次)(二)

云计算概述(二) (云计算类型、技术驱动力、关键技术、特征、特点、通用点、架构层次) 目录 零、00时光宝盒 一、云计算类型(以服务的内容或形态来分) 二、云计算的12种技术驱动力 三、云计算的关键技术 四、云计…

HiveSQL题——collect_set()/collect_list()聚合函数

一、collect_set() /collect_list()介绍 collect_set()函数与collect_list()函数属于高级聚合函数(行转列),将分组中的某列转换成一个数组返回,常与concat_ws()函数连用实现字段拼接效果。 collect_list:收集并形成lis…

Python 轻量级定时任务调度:APScheduler

简述 APscheduler (Advanced Python Scheduler),作用为按指定的时间规则执行指定的作业。提供了基于日期date、固定时间间隔interval 、以及类似于Linux上的定时任务crontab类型的定时任务。该框架不仅可以添加、删除定时任务,还可以将任务存储到数据库…

【实证分析】地级市-资本存量测算结果数据集(含计算公式及原始数据)( 2003-2021年)

该数据为地级市资本存量测算(2003-2021年),提供了中国地级市在该期间内资本存量的详细测算结果,包括两种基于2011年和2006年基期的测算方式。该数据集利用了从城市统计年鉴和中国统计年鉴获取的固定资产投资数据及其增速&#xff…

布隆过滤器有什么用?什么原理?如何使用?

1 前言 布隆过滤器相信大家没用过的话,也已经听过了。 布隆过滤器主要是为了解决海量数据的存在性问题。对于海量数据中判定某个数据是否存在且容忍轻微误差这一场景(比如缓存穿透、海量数据去重)来说,非常适合。 2 什么是布隆…

docker elasticsearch8启动失败

docker elasticsearch8.12.0启动后提示这个,并且始终无法访问localhost:9200 received plaintext http traffic on an https channel, closing connection Netty4HttpChannel 解决方案:重新创建 elasticsearch容器,加上 -e xpack.security.…

智能边缘计算网关实现高效数据处理与实时响应-天拓四方

在当今时代,数据已经成为驱动业务决策的关键因素。然而,传统的数据处理方式往往存在延迟,无法满足实时性要求。此时,智能边缘计算网关应运而生,它能够将数据处理和分析的能力从中心服务器转移至设备边缘,大…

26条prompt规则应用于大模型

1、引入动机 llm大模型在回答一些问题上表现出了惊人的能力,例如数学逻辑推理,代码生成,问题答复等。提词工程是和大预言模型交流的一门艺术。 大模型的返回结合和用户的指令和输入直接相关prompts是用户和大模型沟通的一种编码方式 一般地…

5+单基因+免疫浸润+单细胞+实验,思路简单易复现

今天给同学们分享一篇生信文章“HOPX is a tumor-suppressive biomarker that corresponds to T cell infiltration in skin cutaneous melanoma”,这篇文章发表在Cancer Cell Int期刊上,影响因子为5.8。 结果解读: 低HOPX表达表明SKCM预后不…