【机器学习】机器学习与时间序列分析的融合应用与性能优化新探索

news2024/9/20 16:58:17

在这里插入图片描述
在这里插入图片描述

文章目录

    • 引言
    • 第一章:机器学习在时间序列分析中的应用
      • 1.1 数据预处理
        • 1.1.1 数据清洗
        • 1.1.2 数据归一化
        • 1.1.3 数据增强
      • 1.2 模型选择
        • 1.2.1 自回归模型
        • 1.2.2 移动平均模型
        • 1.2.3 长短期记忆网络
        • 1.2.4 卷积神经网络
      • 1.3 模型训练
        • 1.3.1 梯度下降
        • 1.3.2 随机梯度下降
        • 1.3.3 Adam优化器
      • 1.4 模型评估与性能优化
        • 1.4.1 模型评估指标
        • 1.4.2 超参数调优
        • 1.4.3 增加数据量
        • 1.4.4 模型集成
    • 第二章:时间序列分析的具体案例分析
      • 2.1 股票价格预测
        • 2.1.1 数据预处理
        • 2.1.2 模型选择与训练
        • 2.1.3 模型评估与优化
      • 2.2 气象预报
        • 2.2.1 数据预处理
        • 2.2.2 模型选择与训练
        • 2.2.3 模型评估与优化
    • 第三章:性能优化与前沿研究
      • 3.1 性能优化
        • 3.1.1 特征工程
        • 3.1.2 超参数调优
        • 3.1.3 模型集成
      • 3.2 前沿研究
        • 3.2.1 强化学习在时间序列分析中的应用
        • 3.2.2 联邦学习与隐私保护
        • 3.2.3 自监督学习在时间序列分析中的应用
    • 结语

引言

时间序列分析是统计学和机器学习中的一个重要领域,旨在对时间序列数据进行建模和预测。时间序列数据在金融市场预测、气象预报、经济指标分析和工业设备监测等领域广泛存在。随着深度学习技术的发展,机器学习在时间序列分析中的应用越来越广泛。本文将详细介绍机器学习在时间序列分析中的应用,包括数据预处理、模型选择、模型训练和性能优化。通过具体的案例分析,展示机器学习技术在时间序列分析中的实际应用,并提供相应的代码示例。
在这里插入图片描述

第一章:机器学习在时间序列分析中的应用

1.1 数据预处理

在时间序列分析应用中,数据预处理是机器学习模型成功的关键步骤。时间序列数据通常具有时间依赖性和噪声,需要进行清洗、归一化和数据增强等处理。

1.1.1 数据清洗

数据清洗包括处理缺失值、异常值和噪声等。

import pandas as pd
import numpy as np

# 加载时间序列数据
data = pd.read_csv('timeseries_data.csv', index_col='date', parse_dates=True)

# 处理缺失值
data.fillna(method='ffill', inplace=True)

# 处理异常值
data = data[(np.abs(data - data.mean()) <= (3 * data.std()))]

# 去除噪声
data['smoothed'] = data['value'].rolling(window=5).mean()
1.1.2 数据归一化

数据归一化可以消除不同时间序列之间的量纲差异,使模型更容易学习。

from sklearn.preprocessing import MinMaxScaler

# 数据归一化
scaler = MinMaxScaler()
data_normalized = scaler.fit_transform(data[['value']])
data['normalized'] = data_normalized
1.1.3 数据增强

数据增强通过对训练数据进行随机变换,如时间平移、缩放等,增加数据的多样性,提高模型的泛化能力。

def add_noise(data, noise_level=0.1):
    noise = np.random.randn(len(data)) * noise_level
    return data + noise

# 数据增强
data['noisy'] = add_noise(data['normalized'])

1.2 模型选择

在时间序列分析中,常用的机器学习模型包括自回归模型(AR)、移动平均模型(MA)、长短期记忆网络(LSTM)和卷积神经网络(CNN)等。不同模型适用于不同的任务和数据特征,需要根据具体应用场景进行选择。

1.2.1 自回归模型

自回归模型(AR)适用于线性时间序列数据,通过历史数据的线性组合进行预测。

from statsmodels.tsa.ar_model import AutoReg

# 训练自回归模型
model = AutoReg(data['value'], lags=5)
model_fit = model.fit()

# 预测
predictions = model_fit.predict(start=len(data), end=len(data)+10)
print(predictions)
1.2.2 移动平均模型

移动平均模型(MA)适用于线性时间序列数据,通过历史预测误差的线性组合进行预测。

from statsmodels.tsa.arima_model import ARMA

# 训练移动平均模型
model = ARMA(data['value'], order=(0, 5))
model_fit = model.fit(disp=False)

# 预测
predictions = model_fit.predict(start=len(data), end=len(data)+10)
print(predictions)
1.2.3 长短期记忆网络

长短期记忆网络(LSTM)适用于处理序列数据,能够捕捉时间序列中的长距离依赖关系,适用于非线性时间序列数据。

from keras.models import Sequential
from keras.layers import LSTM, Dense

# 数据准备
def create_dataset(data, look_back=1):
    X, Y = [], []
    for i in range(len(data)-look_back-1):
        a = data[i:(i+look_back), 0]
        X.append(a)
        Y.append(data[i + look_back, 0])
    return np.array(X), np.array(Y)

look_back = 3
X, Y = create_dataset(data_normalized, look_back)

# 数据分割
X_train, X_test = X[:int(len(X)*0.8)], X[int(len(X)*0.8):]
Y_train, Y_test = Y[:int(len(Y)*0.8)], Y[int(len(Y)*0.8):]

# 构建LSTM模型
model = Sequential()
model.add(LSTM(50, input_shape=(look_back, 1)))
model.add(Dense(1))

# 编译模型
model.compile(optimizer='adam', loss='mean_squared_error')

# 训练模型
model.fit(X_train, Y_train, epochs=100, batch_size=1, validation_data=(X_test, Y_test))
1.2.4 卷积神经网络

卷积神经网络(CNN)能够捕捉时间序列中的局部模式,适用于具有局部依赖关系的时间序列数据。

from keras.layers import Conv1D, MaxPooling1D, Flatten

# 构建CNN模型
model = Sequential()
model.add(Conv1D(filters=64, kernel_size=2, activation='relu', input_shape=(look_back, 1)))
model.add(MaxPooling1D(pool_size=2))
model.add(Flatten())
model.add(Dense(50, activation='relu'))
model.add(Dense(1))

# 编译模型
model.compile(optimizer='adam', loss='mean_squared_error')

# 训练模型
model.fit(X_train, Y_train, epochs=100, batch_size=1, validation_data=(X_test, Y_test))

1.3 模型训练

模型训练是机器学习的核心步骤,通过优化算法最小化损失函数,调整模型参数,使模型在训练数据上表现良好。常见的优化算法包括梯度下降、随机梯度下降和Adam优化器等。

1.3.1 梯度下降

梯度下降通过计算损失函数对模型参数的导数,逐步调整参数,使损失函数最小化。

import numpy as np

# 定义损失函数
def loss_function(y_true, y_pred):
    return np.mean((y_true - y_pred) ** 2)

# 梯度下降优化
def gradient_descent(X, y, learning_rate=0.01, epochs=1000):
    m, n = X.shape
    theta = np.zeros(n)
    for epoch in range(epochs):
        gradient = (1/m) * X.T.dot(X.dot(theta) - y)
        theta -= learning_rate * gradient
    return theta

# 训练模型
theta = gradient_descent(X_train, Y_train)
1.3.2 随机梯度下降

随机梯度下降在每次迭代中使用一个样本进行参数更新,具有较快的收敛速度和更好的泛化能力。

def stochastic_gradient_descent(X, y, learning_rate=0.01, epochs=1000):
    m, n = X.shape
    theta = np.zeros(n)
    for epoch in range(epochs):
        for i in range(m):
            gradient = X[i].dot(theta) - y[i]
            theta -= learning_rate * gradient * X[i]
    return theta

# 训练模型
theta = stochastic_gradient_descent(X_train, Y_train)
1.3.3 Adam优化器

Adam优化器结合了动量和自适应学习率的优点,能够快速有效地优化模型参数。

from keras.optimizers import Adam

# 编译模型
model.compile(optimizer=Adam(learning_rate=0.001), loss='mean_squared_error')

# 训练模型
model.fit(X_train, Y_train, epochs=100, batch_size=1, validation_data=(X_test, Y_test))

1.4 模型评估与性能优化

模型评估是衡量模型在测试数据上的表现,通过计算模型的均方误差(MSE)、均方根误差(RMSE)和平均绝对误差(MAE)等指标,评估模型的性能。性能优化包括调整超参数、增加数据量和模型集成等方法。

1.4.1 模型评估指标

常见的模型评估指标包括均方误差(MSE)、均方根误差(RMSE)和平均绝对误差(MAE)等。

from sklearn.metrics import mean_squared_error, mean_absolute_error
import math

# 预测
y_pred = model.predict(X_test)

# 计算评估指标
mse = mean_squared_error(Y_test, y_pred)
rmse = math.sqrt(mse)
mae = mean_absolute_error(Y_test, y_pred)

print(f'MSE: {mse}')
print(f'RMSE: {rmse}')
print(f'MAE: {mae}')


1.4.2 超参数调优

通过网格搜索(Grid Search)和随机搜索(Random Search)等方法,对模型的超参数进行调优,找到最优的参数组合。

from sklearn.model_selection import GridSearchCV

# 定义超参数网格
param_grid = {
    'batch_size': [1, 16, 32],
    'epochs': [50, 100, 200],
    'optimizer': ['adam', 'sgd']
}

# 网格搜索
grid_search = GridSearchCV(estimator=model, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error')
grid_search.fit(X_train, Y_train)

# 输出最优参数
best_params = grid_search.best_params_
print(f'Best parameters: {best_params}')

# 使用最优参数训练模型
model = model.set_params(**best_params)
model.fit(X_train, Y_train, epochs=100, validation_data=(X_test, Y_test))
1.4.3 增加数据量

通过数据增强和采样技术,增加训练数据量,提高模型的泛化能力和预测性能。

from imblearn.over_sampling import SMOTE

# 数据增强
smote = SMOTE(random_state=42)
X_resampled, y_resampled = smote.fit_resample(X_train, Y_train)

# 训练模型
model.fit(X_resampled, y_resampled, epochs=100, validation_data=(X_test, Y_test))
1.4.4 模型集成

通过模型集成的方法,将多个模型的预测结果进行组合,提高模型的稳定性和预测精度。常见的模型集成方法包括Bagging、Boosting和Stacking等。

from sklearn.ensemble import VotingRegressor

# 构建模型集成
ensemble_model = VotingRegressor(estimators=[
    ('ar', AutoReg(data['value'], lags=5)),
    ('ma', ARMA(data['value'], order=(0, 5))),
    ('lstm', model)
])

# 训练集成模型
ensemble_model.fit(X_train, Y_train)

# 预测与评估
y_pred = ensemble_model.predict(X_test)

第二章:时间序列分析的具体案例分析

2.1 股票价格预测

股票价格预测是时间序列分析中的经典问题,通过分析历史价格数据,预测未来的价格走势。以下是股票价格预测的具体案例分析。

2.1.1 数据预处理

首先,对股票价格数据进行预处理,包括数据清洗、归一化和数据增强。

# 加载股票价格数据
data = pd.read_csv('stock_prices.csv', index_col='date', parse_dates=True)

# 数据清洗
data.fillna(method='ffill', inplace=True)

# 数据归一化
scaler = MinMaxScaler()
data_normalized = scaler.fit_transform(data[['close']])
data['normalized'] = data_normalized

# 数据增强
data['noisy'] = add_noise(data['normalized'])
2.1.2 模型选择与训练

选择合适的模型进行训练,这里以LSTM为例。

# 数据准备
look_back = 3
X, Y = create_dataset(data_normalized, look_back)

# 数据分割
X_train, X_test = X[:int(len(X)*0.8)], X[int(len(X)*0.8):]
Y_train, Y_test = Y[:int(len(Y)*0.8)], Y[int(len(Y)*0.8):]

# 构建LSTM模型
model = Sequential()
model.add(LSTM(50, input_shape=(look_back, 1)))
model.add(Dense(1))

# 编译模型
model.compile(optimizer='adam', loss='mean_squared_error')

# 训练模型
model.fit(X_train, Y_train, epochs=100, batch_size=1, validation_data=(X_test, Y_test))
2.1.3 模型评估与优化

评估模型的性能,并进行超参数调优和数据增强。

# 评估模型
y_pred = model.predict(X_test)
mse = mean_squared_error(Y_test, y_pred)
rmse = math.sqrt(mse)
mae = mean_absolute_error(Y_test, y_pred)

print(f'MSE: {mse}')
print(f'RMSE: {rmse}')
print(f'MAE: {mae}')

# 超参数调优
param_grid = {
    'batch_size': [1, 16, 32],
    'epochs': [50, 100, 200],
    'optimizer': ['adam', 'sgd']
}
grid_search = GridSearchCV(estimator=model, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error')
grid_search.fit(X_train, Y_train)
best_params = grid_search.best_params_
print(f'Best parameters: {best_params}')

# 使用最优参数训练模型
model = model.set_params(**best_params)
model.fit(X_train, Y_train, epochs=100, validation_data=(X_test, Y_test))

# 数据增强
smote = SMOTE(random_state=42)
X_resampled, y_resampled = smote.fit_resample(X_train, Y_train)
model.fit(X_resampled, y_resampled, epochs=100, validation_data=(X_test, Y_test))

2.2 气象预报

气象预报通过分析历史气象数据,预测未来的天气变化,广泛应用于农业、交通和防灾减灾等领域。以下是气象预报的具体案例分析。

2.2.1 数据预处理
# 加载气象数据
data = pd.read_csv('weather_data.csv', index_col='date', parse_dates=True)

# 数据清洗
data.fillna(method='ffill', inplace=True)

# 数据归一化
scaler = MinMaxScaler()
data_normalized = scaler.fit_transform(data[['temperature']])
data['normalized'] = data_normalized

# 数据增强
data['noisy'] = add_noise(data['normalized'])
2.2.2 模型选择与训练

选择合适的模型进行训练,这里以CNN为例。

# 数据准备
look_back = 3
X, Y = create_dataset(data_normalized, look_back)

# 数据分割
X_train, X_test = X[:int(len(X)*0.8)], X[int(len(X)*0.8):]
Y_train, Y_test = Y[:int(len(Y)*0.8)], Y[int(len(Y)*0.8):]

# 构建CNN模型
model = Sequential()
model.add(Conv1D(filters=64, kernel_size=2, activation='relu', input_shape=(look_back, 1)))
model.add(MaxPooling1D(pool_size=2))
model.add(Flatten())
model.add(Dense(50, activation='relu'))
model.add(Dense(1))

# 编译模型
model.compile(optimizer='adam', loss='mean_squared_error')

# 训练模型
model.fit(X_train, Y_train, epochs=100, batch_size=1, validation_data=(X_test, Y_test))
2.2.3 模型评估与优化

评估模型的性能,并进行超参数调优和数据增强。

# 评估模型
y_pred = model.predict(X_test)
mse = mean_squared_error(Y_test, y_pred)
rmse = math.sqrt(mse)
mae = mean_absolute_error(Y_test, y_pred)

print(f'MSE: {mse}')
print(f'RMSE: {rmse}')
print(f'MAE: {mae}')

# 超参数调优
param_grid = {
    'batch_size': [1, 16, 32],
    'epochs': [50, 100, 200],
    'optimizer': ['adam', 'sgd']
}
grid_search = GridSearchCV(estimator=model, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error')
grid_search.fit(X_train, Y_train)
best_params = grid_search.best_params_
print(f'Best parameters: {best_params}')

# 使用最优参数训练模型
model = model.set_params(**best_params)
model.fit(X_train, Y_train, epochs=100, validation_data=(X_test, Y_test))

# 数据增强
smote = SMOTE(random_state=42)
X_resampled, y_resampled = smote.fit_resample(X_train, Y_train)
model.fit(X_resampled, y_resampled, epochs=100, validation_data=(X_test, Y_test))

第三章:性能优化与前沿研究

3.1 性能优化

3.1.1 特征工程

通过特征选择、特征提取和特征构造,优化模型的输入,提高模型的性能。

from sklearn.feature_selection import SelectKBest, f_classif

# 特征选择
selector = SelectKBest(score_func=f_classif, k=10)
X_selected = selector.fit_transform(X, y)
3.1.2 超参数调优

通过网格搜索和随机搜索,找到模型的最优超参数组合。

from sklearn.model_selection import RandomizedSearchCV

# 随机搜索
param_dist = {
    'n_estimators': [50, 100, 150],
    'max_depth': [3, 5,

 7, 10],
    'min_samples_split': [2, 5, 10]
}
random_search = RandomizedSearchCV(estimator=RandomForestClassifier(), param_distributions=param_dist, n_iter=10, cv=5, scoring='accuracy')
random_search.fit(X_train, y_train)
best_params = random_search.best_params_
print(f'Best parameters: {best_params}')

# 使用最优参数训练模型
model = RandomForestClassifier(**best_params)
model.fit(X_train, y_train)

# 预测与评估
y_pred = model.predict(X_test)
3.1.3 模型集成

通过模型集成,提高模型的稳定性和预测精度。

from sklearn.ensemble import StackingRegressor

# 构建模型集成
stacking_model = StackingRegressor(estimators=[
    ('ar', AutoReg(data['value'], lags=5)),
    ('ma', ARMA(data['value'], order=(0, 5))),
    ('lstm', model)
])

# 训练集成模型
stacking_model.fit(X_train, Y_train)

# 预测与评估
y_pred = stacking_model.predict(X_test)

3.2 前沿研究

3.2.1 强化学习在时间序列分析中的应用

强化学习通过与环境的交互,不断优化策略,在动态系统和实时决策中具有广泛的应用前景。

3.2.2 联邦学习与隐私保护

联邦学习通过在不交换数据的情况下进行联合建模,保护用户数据隐私,提高时间序列分析系统的安全性和公平性。

3.2.3 自监督学习在时间序列分析中的应用

自监督学习通过生成伪标签进行训练,提高模型的表现,特别适用于无监督数据的大规模训练。

结语

机器学习作为时间序列分析领域的重要技术,已经在多个应用场景中取得了显著的成果。通过对数据的深入挖掘和模型的不断优化,机器学习技术将在时间序列分析中发挥更大的作用,推动预测与决策技术的发展。

以上是对机器学习在时间序列分析中的理论、算法与实践的全面介绍,希望能够为从事相关研究和应用的人员提供有益的参考。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1904613.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

简介空间复杂度

我们承接上一篇博客。我们写了时间复杂度之后&#xff0c;我们就要来介绍一下另一个相关复杂度了。空间复杂度。我觉得大家应该对空间复杂度认识可能比较少一些。我就是这样&#xff0c;我很少看见题目中有明确要求过空间复杂度的。但确实有这个是我们不可忽视的&#xff0c;所…

el-date-picker 设置默认值为当前日期

this.listQuery.Date new Date().toISOString().substr(0, 10); <el-date-picker v-model"listQuery.Date" format"yyyy-MM-dd" value-format"yyyy-MM-dd" type"date" placeholder"选择日期" change"getList()&qu…

电源纹波相关

什么是纹波&#xff1f;什么是噪声&#xff1f; 这种叠加在直流稳定量上的交流分量就称为纹波。 纹波的危害 电源纹波能影响设备性能和稳定性 纹波会导致电器上产生谐波&#xff0c;降低电源的使用效率&#xff1b; 高频电源纹波可能会产生浪涌电压或电流&#xff0c;影响设…

【解决方案】笔记本电脑屏幕亮度调节失效(Dell G15 5510 使用Fn调节)

目前解决方案&#xff1a;使用驱动总裁&#xff08;其他的驱动安装软件应该也可以&#xff0c;个人觉得这个好用&#xff09;&#xff0c;更新显卡驱动即可。如图所示本人更新了Intel UHD Graphics核显驱动&#xff0c;功能回复正常。 使用Fn快捷键调节亮度如图所示&#xff0…

Zabbix 的部署和自定义监控内容

前言 一个完整的项目的业务架构包括 客户端 -> 防火墙 -> 负载均衡层&#xff08;四层、七层 LVS/HAProxy/nginx&#xff09; -> Web缓存/应用层&#xff08;nginx、tomcat&#xff09; -> 业务逻辑层(php/java动态应用服务) -> 数据缓存/持久层&#xff08;r…

使用AOP思想实现开闭原则下的流水日志输出

主要实现思想&#xff1a; 通过实现Convert接口来抽取公共组件&#xff0c;获取想要的标准模型。 现在有两个订单场景&#xff0c;一个保存订单&#xff0c;一个为更新订单。构造如下的服务类&#xff1a; import org.springframework.stereotype.Service;Service public clas…

VSCode神仙插件——CodeSnap (好看的代码截图)

1 安装 2 使用 选中要截图的代码,右键 此时右侧会出现代码截图的预览图 如果要将截图保存到本地,则点击上图红色框中的图标 也可以点击下面截的图,CtrlC复制,然后就可以CtrlV粘贴到其他应用程序里了

Pycharm python解释器 unsupported python 3.1 解决

Pycharm 环境 unsupported python 3.1解决 1. 问题重现2. 原因分析3. 解决方法 1. 问题重现 之前使用Pycharm 2024.1.1的时候&#xff0c;环境配置的Python 3.11.9&#xff0c;现在改成使用Pycharm 2020.2.2&#xff0c;结果Python解释器显示“unsupported python 3.1”&#…

GIT 使用相关技巧记录

目录 1、commit 用户信息变更 全局用户信息&#xff08;没有特殊配置的情况下默认直接用全局信息&#xff09; 特定仓库用户信息&#xff08;只针对于当前项目&#xff09; 方法一&#xff1a;修改config文件 方法二&#xff1a;命令方式 2、idea同一代码推向多个远端仓库…

如何在Ubuntu环境下使用加速器配置Docker环境

一、安装并打开加速器 这个要根据每个加速器的情况来安装并打开&#xff0c;一般是会开放一个代理端口&#xff0c;比如1087 二、安装Docker https://docs.docker.com/engine/install/debian/#install-using-the-convenience-script 三、配置Docker使用加速器 3.1 修改配置…

搜索广告召回技术在美团的实践

内容整理自美团技术沙龙第81期《美团在广告算法领域的探索及实践》&#xff08;B站视频&#xff09;。本文首先介绍了美团搜索广告的三个阶段&#xff1a;多策略关键词挖掘、分层召回体系、生成式召回&#xff1b;然后重点介绍了生成式关键词召回、多模态生成式向量召回、生成式…

MyBatis中二级缓存的配置与实现原理

大家好&#xff0c;我是王有志&#xff0c;一个分享硬核 Java 技术的金融摸鱼侠&#xff0c;欢迎大家加入 Java 人自己的交流群“共同富裕的 Java 人”。 上一篇文章《MyBatis中一级缓存的配置与实现原理》中&#xff0c;我们已经掌握了 MyBatis 一级缓存的配置&#xff08;虽然…

14-40 剑和诗人14 - 为什么机器学习需要合成数据

​​​​​​ 数据是人工智能的命脉。如果没有高质量、有代表性的训练数据&#xff0c;我们的机器学习模型将毫无用处。但随着神经网络规模越来越大、人工智能项目越来越雄心勃勃&#xff0c;人们对数据的需求也越来越大&#xff0c;我们面临着一场危机——现实世界的数据收集和…

STM32-ADC+DMA

本内容基于江协科技STM32视频学习之后整理而得。 文章目录 1. ADC模拟-数字转换器1.1 ADC模拟-数字转换器1.2 逐次逼近型ADC1.3 ADC框图1.4 ADC基本结构1.5 输入通道1.6 规则组的转换模式1.6.1 单次转换&#xff0c;非扫描模式1.6.2 连续转换&#xff0c;非扫描模式1.6.3 单次…

C语言中32位浮点数的格式

以 GNU C为例&#xff0c;它遵循 IEEE 754-2008标准中制定的浮点表示规范。在该规范中定义了 5种不同大小的基础二进制浮点格式&#xff0c;包括&#xff1a;16位&#xff0c;32位&#xff0c;64位&#xff0c;128位&#xff0c;256位。其中&#xff0c;32位的格式被用作标准 C…

基于PSOGWO-CNN-BiLSTM数据回归预测(多输入单输出)-粒子群结合灰狼算法优化-CNN-BiLSTM

基于PSOGWO-CNN-BiLSTM数据回归预测(多输入单输出)-粒子群结合灰狼算法优化-CNN-BiLSTM 1.数据均为Excel数据&#xff0c;直接替换数据就可以运行程序。 2.所有程序都经过验证&#xff0c;保证程序可以运行。 3.具有良好的编程习惯&#xff0c;程序均包含简要注释。 获取方式…

恢复出厂设置后如何从 iPhone 恢复数据

在 iPhone 恢复出厂设置后&#xff0c;所有数据都会被删除&#xff0c;并且 iPhone 将恢复到原始出厂设置&#xff0c;这意味着您的所有 iPhone 数据&#xff0c;包括照片、视频、联系人和应用程序都将消失。 幸运的是&#xff0c;如果您有备份可以恢复&#xff0c;这并不一定…

JavaSe系列二十七: Java正则表达式

正则表达式 为什么要学习正则表达式再提几个问题解决之道-正则表达式正则表达式基本介绍介绍 正则表达式底层实现实例分析 正则表达式语法基本介绍元字符-转义号 \\\\元字符-字符匹配符元字符-选择匹配符元字符-限定符元字符-定位符分组非贪婪匹配 应用实例对字符串进行如下验证…

cloudflare tunnels tcp

这里是官网的说明Cloudflare Tunnel Cloudflare Zero Trust docs 根据实际情况安装环境 tunnels除了http,https协议是直接暴露公网&#xff0c;tcp是类似ssh端口转发。 在需要内网穿透的局域网找一条机子部署代理 我这边是window cloudflared tunnel login #生成一个身份校…

【论文阅读】-- Visual Analytics for Model Selection in Time Series Analysis

时间序列分析中模型选择的可视化分析 摘要1 引言2 相关工作3 问题表征3.1 Box-Jenkins 方法论3.2 ARIMA 和季节性 ARIMA 模型3.3 模型规范3.4 模型拟合3.5 模型诊断 4 需求分析5 VA 用于时间序列分析中的模型选择5.1 VA选型流程说明5.2 TiMoVA 原型5.2.1 实施选择5.2.2 图形用户…