时间序列异常检测(adtk)

news2024/11/26 12:14:55

1. 获取时间序列数据

         未安装adtk的先安装:pip install adtk

2.阈值检测

adtk.detector.ThresholdAD(low=None, high=None)

参数:

low:下限,小于此值,视为异常

high:上限,大于此值,视为异常

原理:通过认为设定上下限来识别异常

总结:固定阈值算法

from adtk.detector import ThresholdAD
from adtk.visualization import plot
threshold_ad = ThresholdAD(high=750, low=200)
anomalies = threshold_ad.detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

  3.分位数检测

adtk.detector.QuantileAD(low=None, high=None)

参数:

low:分位下限,范围(0,1),当low=0.25时,表示Q1

high:分位上限,范围(0,1),当high=0.75时,表示Q3

原理:通过历史数据计算出给定low与high对应的分位值Q_low,Q_high,小于Q_low或大于Q_high,视为异常

总结:分位阈值算法

from adtk.detector import QuantileAD
from adtk.visualization import plot
quantile_ad = QuantileAD(high=0.98, low=0.02)
anomalies = quantile_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

 4.四分位数范围检测

adtk.detector.InterQuartileRangeAD(c=3.0)

InterQuartileRangeAD另一个广泛使用的基于简单历史统计的检测器是基于四分位距 (IQR)。当值超出定义的范围时[Q1−c×IQR, Q3+c×IQR] 在哪里 IQR=Q3−Q1是 25% 和 75% 分位数之间的差异。在只有一小部分甚至没有训练数据异常的情况下,此检测器通常优于 QuantileAD。

参数:

c:分位距的系数,用来确定上下限,可为float,也可为(float,float)

原理: 当c为float时,通过历史数据计算出 Q3+cIQR 作为上限值,大于上限值视为异常 当c=(float1,float2)时,通过历史数据计算出 (Q1-c1IQR, Q3+c2*IQR) 作为正常范围,不在正常范围视为异常

总结:箱线图算法

from adtk.detector import InterQuartileRangeAD
from adtk.visualization import plot
iqr_ad = InterQuartileRangeAD(c=2)
anomalies = iqr_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

5.广义ESD检测

adtk.detector.GeneralizedESDTestAD(alpha=0.05)

请注意,广义 ESD 测试的一个关键假设是正态值服从近似正态分布。请仅在此假设成立时使用此检测器。

参数:

alpha:显著性水平 (Significance level),alpha越小,表示识别出的异常约有把握是真异常 原理:将样本点的值与样本的均值作差后除以样本标准差,取最大值,通过t分布计算阈值,对比阈值确定异常点 计算步骤简述:

设置显著水平alpha,通常取0.05 指定离群比例h,若h=5%,则表示50各样本中存在离群点数为2 计算数据集的均值mu与标准差sigma,将所有样本与均值作差,取绝对值,再除以标准差,找出最大值,得到esd_1 在剩下的样本点中,重复步骤3,可以得到h个esd值 为每个esd值计算critical value: lambda_i (采用t分布计算) 统计每个esd是否大于lambda_i,大于的认为你是异常

先检测数据是否服从正态分布

from scipy.stats import kstest
# 正态分布检验
def KsNormDetect(df):
    u = df['y'].mean()                     # 计算均值
    std = df['y'].std()                    # 计算标准差
    res=kstest(df, 'norm', (u, std))[1]    # 计算P值
    if res<=0.05:           # 判断p值是否服从正态分布,p<=0.05 则服从正态分布,否则不服从。
        print('该列数据服从正态分布------------')
        print('均值为:%.3f,标准差为:%.3f' % (u, std))
        return 1
    else:
        return 0

该列数据服从正态分布------------
均值为:537.113,标准差为:94.769

from adtk.detector import GeneralizedESDTestAD
from adtk.visualization import plot
esd_ad = GeneralizedESDTestAD(alpha=0.01)
anomalies = esd_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

 6. 滑动窗口分位数检测

adtk.detector.PersistAD(window=1, c=3.0, side=‘both’, min_periods=None, agg=‘median’)

PersistAD将每个时间序列值与其先前的值进行比较。在内部,它被实现为带有转换器DoubleRollingAggregate的管道网络。

参数:

window:参考窗长度,可为int, str
c:分位距倍数,用于确定上下限范围
side:检测范围,为’positive’时检测突增,为’negative’时检测突降,为’both’时突增突降都检测
min_periods:参考窗中最小个数,小于此个数将会报异常,默认为None,表示每个时间点都得有值
agg:参考窗中的统计量计算方式,因为当前值是与参考窗中产生的统计量作比较,所以得将参考窗中的数据计算成统计量,默认’median’,表示去参考窗的中位值
原理:

用滑动窗口遍历历史数据,将窗口后的一位数据与参考窗中的统计量做差,得到一个新的时间序列s1;
计算s1的(Q1-cIQR, Q3+cIQR) 作为正常范围;
若当前值与它参考窗中的统计量之差,不在2中的正常范围内,视为异常。
调参:

window:越大,模型越不敏感,不容易被突刺干扰
c:越大,对于波动大的数据,正常范围放大较大,对于波动较小的数据,正常范围放大较小
min_periods:对缺失值的容忍程度,越大,越不允许有太多的缺失值
agg:统计量的聚合方式,跟统计量的特性有关,如 'median’不容易受极端值影响
总结:先计算一条新的时间序列,再用箱线图作异常检测

from adtk.detector import PersistAD
from adtk.visualization import plot
#捕捉短期异常
persist_ad = PersistAD(c=3, side='both',window=2,)
anomalies = persist_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

 7.水平移位检测

adtk.detector.LevelShiftAD(window, c=6.0, side=‘both’, min_periods=None)

LevelShiftAD通过跟踪彼此相邻的两个滑动时间窗口的中值之间的差异来检测值水平的变化。它对瞬时尖峰不敏感,如果经常发生嘈杂的异常值,它可能是一个不错的选择。在内部,它被实现为带有转换器DoubleRollingAggregate的管道网络。

参数:

window:支持(10,5),表示使用两个相邻的滑动窗,左侧的窗中的中位值表示参考值,右侧窗中的中位值表示当前值

c:越大,对于波动大的数据,正常范围放大较大,对于波动较小的数据,正常范围放大较小,默认6.0

side:检测范围,为’positive’时检测突增,为’negative’时检测突降,为’both’时突增突降都检测

min_periods:参考窗中最小个数,小于此个数将会报异常,默认为None,表示每个时间点都得有值

原理: 该模型用于检测突变情况,相比于PersistAD,其抗抖动能力较强,不容易出现误报

from adtk.detector import LevelShiftAD
from adtk.visualization import plot
level_shift_ad = LevelShiftAD(c=3, side='both', window=(6,3))
anomalies = level_shift_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_markersize=5, anomaly_color='red', anomaly_tag="marker");

 8.波动率转换检测

adtk.detector.VolatilityShiftAD(window, c=6.0, side=‘both’, min_periods=None,agg='std')

VolatilityShiftAD通过跟踪彼此相邻的两个滑动时间窗口的标准偏差之间的差异来检测波动率水平的变化。在内部,它被实现为带有转换器DoubleRollingAggregate的管道网络。

c:用于根据历史数据确定正常范围界限的因子 四分位范围。默认值:6.0。

9.自回归检测

adtk.detector.autoregression_ad(n_steps, step_size, c,regressor,side)

默认;regressor = LinearRegression()

AutoregressionAD检测时间序列中自回归行为的异常变化。在内部,它被实现为带有转换器Retrospect和RegressionResidual的管道网络。

from adtk.detector import AutoregressionAD
from adtk.visualization import plot
autoregression_ad = AutoregressionAD(n_steps=7, step_size=7, c=3.0)
anomalies = autoregression_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_markersize=1, anomaly_color='red', anomaly_tag="marker", anomaly_markersize=2);

 10.最小集群检测(多变量)

adtk.detector.MinClusterDetector(model)

MinClusterDetector将多元时间序列视为高维空间中的独立点,将它们划分为集群,并将最小集群中的值标识为异常。这可能有助于捕获高维空间中的异常值。

from adtk.detector import MinClusterDetector
from sklearn.cluster import KMeans
min_cluster_detector = MinClusterDetector(KMeans(n_clusters=5))
anomalies = min_cluster_detector.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1.5, ts_markersize=3, anomaly_color='red', anomaly_alpha=0.5, curve_group='all');

 11.离群点检测(多变量)

OutlierDetector执行多变量与时间无关的异常值检测并将异常值识别为异常。多元异常值检测算法可以是 scikit-learn 或其他遵循相同 API 的包中的算法。使用OutlierDetectorscikit-learn 局部异常值因子模型。

from adtk.detector import OutlierDetector
from adtk.visualization import plot
from sklearn.neighbors import LocalOutlierFactor
outlier_detector = OutlierDetector(LocalOutlierFactor(contamination=0.01))
anomalies = outlier_detector.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_color='red', anomaly_alpha=0.3, curve_group='all');

12.季节性检测

adtk.detector.SeasonalAD(freq=None, side=‘both’, c=3.0, trend=False)

SeasonalAD检测异常违反季节性模式。在内部,它被实现为带有转换器 ClassicSeasonalDecomposition的管道网络。

SeasonalAD主要是根据ClassicSeasonalDecomposition来处理,判断。

参数:

freq:季节性周期
c:越大,对于波动大的数据,正常范围放大较大,对于波动较小的数据,正常范围放大较小,默认6.0
side:检测范围,为’positive’时检测突增,为’negative’时检测突降,为’both’时突增突降都检测
trend: 是否考虑趋势

from adtk.detector import SeasonalAD

seasonal_ad = SeasonalAD(c=5.0, side="both")
anomalies = seasonal_ad.fit_detect(s)
plot(s, anomaly=anomalies, ts_markersize=1, anomaly_color='red', anomaly_tag="marker", anomaly_markersize=2);

13.回归检测(多变量)

RegressionAD通过跟踪回归误差检测多元序列之间通常关系的异常违反。在内部,它被实现为带有变压器RegressionResidual的管道网络。

from adtk.detector import RegressionAD
from sklearn.linear_model import LinearRegression
regression_ad = RegressionAD(regressor=LinearRegression(), target="y", c=3.0)
anomalies = regression_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_color='red', anomaly_alpha=0.3, curve_group='all');

14.Pca检测

PcaAD【多变量】 PcaAD对多变量时间序列(每个时间点作为高维空间中的一个向量)执行主成分分析 (PCA) 并跟踪这些向量的重构误差。当正常点应该位于较低等级的流形上而异常点不是时,此检测器可能会有所帮助。在内部,它被实现为带有转换器 PcaReconstructionError的管道。

from adtk.detector import PcaAD
pca_ad = PcaAD(k=0)
anomalies = pca_ad.fit_detect(df)
plot(df, anomaly=anomalies, ts_linewidth=1, ts_markersize=3, anomaly_color='red', anomaly_alpha=0.3, curve_group='all');

15. adtk特征工程

转换器transformer 转换器是转换时间序列以便提取有用信息的组件。它也可以解释为特征工程组件。

RollingAggregate RollingAggregate沿时间序列滚动滑动窗口并使用选定的操作进行聚合。常见的例子包括移动平均线、滚动标准差等。

from adtk.transformer import RollingAggregate
s_transformed = RollingAggregate(agg='std', window=5).transform(df)
plot(s_transformed, ts_linewidth=1, ts_markersize=4)

 

DoubleRollingAggregate[滚动两(多)个窗口] DoubleRollingAggregate沿时间序列并排滚动两个滑动窗口,使用选定的操作进行聚合,并跟踪两个窗口之间聚合指标的差异。这可能有助于跟踪时间序列中统计行为的变化。

from adtk.transformer import DoubleRollingAggregate
s_transformed = DoubleRollingAggregate(
    agg="quantile",
    agg_params={"q": [0.1, 0.5, 0.9]},
    window=15,
    diff="l2").transform(df)
s_transformed.columns=["Diff rolling quantiles (mm)"]
plot(pd.concat([df, s_transformed], axis=1));

16. 经典季节分解

经典季节分解(ClassicSeasonalDecomposition) Detector — ADTK 0.6.2 documentation

ClassicSeasonalDecomposition将系列分解为趋势部分(可选)、季节性部分和剩余部分。残差部分可能有助于识别季节性模式的异常偏差。

from adtk.transformer import ClassicSeasonalDecomposition
s_transformed = ClassicSeasonalDecomposition().fit_transform(df)
s_transformed.columns=["Seasonal decomposition residual"]
plot(pd.concat([df, s_transformed], axis=1), ts_markersize=1);

17.回顾

Retrospect(回顾) Retrospect返回具有追溯值的数据帧,即时间 t 的行包括 (tk)'s 处的值,其中 k's 由用户指定。这种变压器对于应考虑滞后效应的情况可能很有用。

from adtk.transformer import Retrospect
df_r = Retrospect(n_steps=2, step_size=20, till=50).transform(df)
plot(pd.concat([df, df_r], axis=1), curve_group="all");

18.回归残差(多变量)

RegressionResidual对多元序列执行回归并返回回归残差。这可能有助于识别系列之间通常关系的异常违反。

19.Pca投影(多变量)

PcaProjection 将多元序列转换为具有前 k 个主成分的表示。

from adtk.transformer import PcaProjection
s = PcaProjection(k=1).fit_transform(df)
plot(pd.concat([df, s], axis=1), ts_linewidth=1, ts_markersize=3, curve_group=[('y'), "pc0"]);

 20.PCa重建(多变量)

PcaReconstruction 将一个多元序列投影到由其前 k 个主成分跨越的超平面上。

PcaReconstructionError PcaReconstructionError 将多元序列投影到由其前 k 个主成分跨越的超平面上,并返回指示数据点与前 k 个主成分的低秩子空间之间距离的误差。

from adtk.transformer import PcaReconstructionError

21.聚合器(Aggregator )

Aggregator 是一个组合不同检测结果(异常列表)的组件。它是一个集成组件。它们都包含在模块中adtk.aggregator。

Or聚合器 OrAggregator 将时间点标识为异常,只要它包含在输入异常列表之一中

from adtk.aggregator import OrAggregator

22.and聚合器

from adtk.aggregator import AndAggregator

23.Pipe Pipeline

依次连接变压器和检测器。Detector — ADTK 0.6.2 documentation

24.pipenet Pipenet

pipenet Pipenet是Pipeline对模型组件的非顺序组合的推广。检测器模块中的一些检测器在内部由Pipenet.

例如,单边电平移位检测器(LevelShiftAD参数side为“正”或“负”)实现如下Pipenet。一个DoubleRollingAggregate参数diff为“l1”的变压器连接一个InterQuartileRangeAD检测器,检测两侧的电平变化,另一个DoubleRollingAggregate参数diff为“diff”的变压器连接一个ThresholdAD参数upper_thresh为0的检测器,检测正增加的电平变化。然后AndAggregator通过选择正的电平位移来获得正的电平位移。

from adtk.pipe import Pipenet
from adtk.aggregator import AndAggregator

steps = {
    "abs_level_change": {
        "model": DoubleRollingAggregate(
            agg="median",
            window=10,
            center=True,
            diff="l1"
        ),
        "input": "original"
    },
    "level_shift": {
        "model": InterQuartileRangeAD(c=3.0),
        "input": "abs_level_change"
    },
    "level_change": {
        "model": DoubleRollingAggregate(
            agg="median",
            window=10,
            center=True,
            diff="diff"
        ),
        "input": "original",
    },
    "positive_level_change": {
        "model": ThresholdAD(high=0),
        "input": "level_change"
    },
    "positive_level_shift": {
        "model": AndAggregator(),
        "input": ["level_shift", "positive_level_change"]
    }
}
pipenet = Pipenet(steps)
# 一个对象的流程图Pipenet可以通过方法来可视化plot_flowchart。

pipenet.plot_flowchart();

 # 方法summary,get_params可用于获取管道对象的信息。
print(pipenet.summary())
print(pipenet.get_params())

anomalies = pipenet.fit_detect(df)
plot(df, anomaly=anomalies, anomaly_color='red');

 # 与 Pipeline类似,在调用对象的拟合或预测方法时,用户可以通过return_intermediatePipenet将参数设置为 True 来获取中间序列和异常列表。

results = pipenet.fit_detect(s, return_intermediate=True)
plot(results["level_change"]);

 25.指标

模块metrics包含四种类型的评分函数,用于根据真实异常测量检测结果的质量。

所有的评分函数都支持两种模式:

1.如果输入是二进制标签的形式,每个正时间点都被认为是一个独立的异常事件。这等效于时间无关二元分类的评分函数的定义。
2.如果输入是事件列表的形式,则每个异常时间段都被视为一个事件。评分函数的计算将基于检测到的列表和真实列表中出现的段长度。

recall recall,又名灵敏度、命中率或真阳性率 (TPR),是成功检测到的真异常的百分比。

二进制标签 1.在以下示例中,有 13 个数据点是已知异常。检测结果中,13个中有9个检测成功。因此,召回分数等于 9/13。

s_constant = pd.Series(0, pd.date_range(start='2017-1-1', periods=24, freq="1d"), name="Time Series")

label_true = pd.Series(
    [0, 0, 1, 1, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1, 1, 1, 1, 0, 0, 0, 1, 0, 0],
    pd.date_range(start='2017-1-1', periods=24, freq="1d"),
)
label_pred = pd.Series(
    [0, 1, 1, 1, 1, 1, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1],
    pd.date_range(start='2017-1-1', periods=24, freq="1d"),
)


plot(s_constant, ts_markersize=8,
     anomaly={"True abnormal": label_true, "Predicted abnormal": label_pred},
     anomaly_tag="marker",
     anomaly_markersize=12,
     anomaly_marker={"True abnormal": "o", "Predicted abnormal": "v"});


from adtk.metrics import recall
recall(label_true, label_pred)

事件列表
2.在以下示例中,有 6 个异常事件(包括 3 个瞬时事件)。默认情况下,如果检测结果中包含不少于 50% 的段,则认为事件检测成功。在本例中,根据此设置检测前 4 个事件,未检测到后 2 个事件。因此,召回分数等于 4/6。

list_true = [
    (pd.Timestamp("2017-01-03 00:00:00"), pd.Timestamp("2017-01-03 23:59:59.999999999")),
    pd.Timestamp("2017-01-06 00:00:00"),
    (pd.Timestamp("2017-01-08 00:00:00"), pd.Timestamp("2017-01-09 23:59:59.999999999")),
    pd.Timestamp("2017-01-12 00:00:00"),
    (pd.Timestamp("2017-01-14 00:00:00"), pd.Timestamp("2017-01-17 23:59:59.999999999")),
    pd.Timestamp("2017-01-22 00:00:00"),
]
list_pred = [
    (pd.Timestamp("2017-01-02 00:00:00"), pd.Timestamp("2017-01-06 23:59:59.999999999")),
    (pd.Timestamp("2017-01-09 00:00:00"), pd.Timestamp("2017-01-09 23:59:59.999999999")),
    pd.Timestamp("2017-01-12 00:00:00"),
    pd.Timestamp("2017-01-15 00:00:00"),
    (pd.Timestamp("2017-01-17 00:00:00"), pd.Timestamp("2017-01-18 23:59:59.999999999")),
    pd.Timestamp("2017-01-21 00:00:00"),
    (pd.Timestamp("2017-01-23 00:00:00"), pd.Timestamp("2017-01-23 23:59:59.999999999")),
]
plot(anomaly={"True": list_true, "Predicted": list_pred},);

recall(list_true, list_pred)

26.precision 

评分函数precision类似于recall,不同之处在于它计算预测异常为真实异常的百分比。在某些情况下,它也称为阳性预测值 (PPV)。

f1_score 如果检测器过于宽容,recall分数会很高,而分数会precision很低。如果检测器太严格,recall分数会很低,而分数会recall很高。f1_score 是这两者之间的折衷,其中返回了召回率和精度的调和均值。

IoU得分 Intersect over union (IoU) 得分iou计算了两个列表中被识别为异常的时间段与两个列表中至少一个列表中识别为异常的时间段之间的长度比。

# 示例,真正异常段与检测到的段之间的并集为 13 天,而相交为 3 天。因此 IoU 得分为 3/13。

list_true = [
    (pd.Timestamp("2017-01-03 00:00:00"), pd.Timestamp("2017-01-03 23:59:59.999999999")),
    pd.Timestamp("2017-01-06 00:00:00"),
    (pd.Timestamp("2017-01-08 00:00:00"), pd.Timestamp("2017-01-09 23:59:59.999999999")),
    pd.Timestamp("2017-01-12 00:00:00"),
    (pd.Timestamp("2017-01-14 00:00:00"), pd.Timestamp("2017-01-17 23:59:59.999999999")),
    pd.Timestamp("2017-01-22 00:00:00"),
]
list_pred = [
    (pd.Timestamp("2017-01-02 00:00:00"), pd.Timestamp("2017-01-06 23:59:59.999999999")),
    (pd.Timestamp("2017-01-09 00:00:00"), pd.Timestamp("2017-01-09 23:59:59.999999999")),
    pd.Timestamp("2017-01-12 00:00:00"),
    pd.Timestamp("2017-01-15 00:00:00"),
    (pd.Timestamp("2017-01-17 00:00:00"), pd.Timestamp("2017-01-18 23:59:59.999999999")),
    pd.Timestamp("2017-01-21 00:00:00"),
    (pd.Timestamp("2017-01-23 00:00:00"), pd.Timestamp("2017-01-23 23:59:59.999999999")),
]

from adtk.metrics import iou
iou(list_true, list_pred)
0.2307692307673817

27. 数据处理

验证时间序列 功能validate_series检查一些常见的关键问题,如果对时间序列执行异常检测而不修复它们,可能会导致问题。该功能会自动修复其中一些,而在检测到其他时会引发错误。

将检查并自动修复的问题包括:

时间指数不是单调递增的; 时间索引包含重复的时间戳(通过保留第一个值来修复); (可选)时间索引属性freq缺失; (可选)时间序列包括分类(非二进制)标签列(通过将分类标签转换为二进制指标来修复)。

from adtk.data import validate_series
# 该函数可以自动将分类序列转换为二进制序列。
df = validate_series(df, check_categorical=True)

28.验证事件列表

函数validate_events检查事件列表(时间窗口列表)的有效性。常见问题包括无效的时间窗口、重叠或连续的时间窗口、未排序的事件等。

event_list = [
    (pd.Timestamp('2017-1-2 23:59:59.999999999'), pd.Timestamp('2017-1-1 00:00:00.000000000')),
    (pd.Timestamp('2017-1-2 00:00:00.000000000'), pd.Timestamp('2017-1-3 23:59:59.999999999')),
    (pd.Timestamp('2017-1-8 00:00:00.000000000'), pd.Timestamp('2017-1-9 23:59:59.999999999')),
    pd.Timestamp('2017-1-5 00:00:00.000000000'),
    (pd.Timestamp('2017-1-9 00:00:00.000000000'), pd.Timestamp('2017-1-10 23:59:59.999999999')),
    (pd.Timestamp('2017-1-4 00:00:00.000000000'), pd.Timestamp('2017-1-5 23:59:59.999999999')),
    pd.Timestamp('2017-1-7 00:00:00.000000000')
]
from adtk.data import validate_events
validated_event_list = validate_events(event_list)
validated_event_list

 将二进制系列转换为事件列表 函数to_events将二进制序列转换为事件列表。

s = pd.Series([True, False, False, True, True, True, False, False, True, False],
              index=pd.date_range(start='2017-1-1', periods=10, freq='D'))
s

from adtk.data import to_events
to_events(s)

 对于有规律频率的序列,默认假设序列中的每个时间项代表一个周期,而不是一个瞬时时间点。freq_as_period用户可以通过设置为 False来关闭此选项。

to_events(s, freq_as_period=False)

 当时间点被视为瞬时瞬间时,该函数默认不会合并“连续”点,因为“连续”是连续时间线上的概念。通过设置merge_consecutive为 True,用户可以强制函数返回“连续”时间窗口,其中时间索引中彼此相邻的正时间点被合并到同一事件中。用户应注意此类时间窗口的含义。

to_events(s, freq_as_period=False, merge_consecutive=True)

 将事件列表转换为二进制系列 函数to_labels将事件列表转换为遵循给定时间索引的二进制序列。

与 类似to_events,参数freq_as_period控制时间索引中具有规则频率的元素是表示周期还是时刻。如果是一个周期,只要一个事件与其重叠,该周期就被标记为正数。否则,如果事件覆盖了某个时刻,则将其标记为正。

time_index = pd.date_range(start='2017-1-1', periods=5, freq='D')
time_index

event_list = [(pd.Timestamp('2017-1-2 18:30:00'), pd.Timestamp('2017-1-3 02:00:00')),
              (pd.Timestamp('2017-1-4 20:00:00'), pd.Timestamp('2017-1-5 09:30:00'))]
from adtk.data import to_labels
to_labels(event_list, time_index, freq_as_period=True)

to_labels(event_list, time_index, freq_as_period=False)

 

 ## 活动期间展开
在计算检测结果的质量时,有时轻微的偏移是可以接受的。函数expand_events通过给定因子扩展列表中事件的持续时间,使得评分更宽容。

true_anomaly_list = [
    pd.Timestamp('2017-1-2 18:00:00'),
    pd.Timestamp('2017-1-4 20:00:00')]

detected_anomaly_list = [
    pd.Timestamp('2017-1-2 18:02:00'),
    pd.Timestamp('2017-1-4 19:57:00')]
from adtk.metrics import precision
precision(true_anomaly_list, detected_anomaly_list)
0.0
from adtk.data import expand_events
expanded_true_anomaly_list = expand_events(
    true_anomaly_list, left_expand='5min', right_expand='5min')
expanded_true_anomaly_list
[(Timestamp('2017-01-02 17:55:00'), Timestamp('2017-01-02 18:05:00')),
 (Timestamp('2017-01-04 19:55:00'), Timestamp('2017-01-04 20:05:00'))]
precision(expanded_true_anomaly_list, detected_anomaly_list)

1.0

28. 训练集和测试集

将时间序列拆分为训练段和测试段

在构建时间序列异常检测模型时,将历史序列拆分为训练和测试段是需要的常见操作。

函数split_train_test提供了四种拆分模式。用户可以根据具体情况进行选择。

  • 将时间序列分成 n_splits 个等长的折叠,根据 train_ratio 将每个折叠分成训练和测试。
  • 创建 n_splits 折叠,其中每个折叠从 t_0 开始并在 t_(n/n_splits) 结束,其中 n 从 0 到 n_splits,折叠的第一个 train_ratio 用于训练。
  • 创建 n_splits 折叠,其中每个折叠从 t_0 开始。每个折叠最后都有 len(ts)/(1 + n_splits) 个测试点。每个折叠的长度为 n * len(ts)/(1 + n_splits),其中 n 的范围从 1 到 n_splits。
  • 创建 n_splits 折叠,其中每个折叠从 t_0 开始。每个折叠在时间序列的开头都有 n * len(ts)/(1 + n_splits) 个训练点,其中 n 的范围从 1 到 n_splits,其余点是测试点。
from adtk.visualization import plot
from adtk.data import split_train_test
s = df
splits = split_train_test(s, mode=1, n_splits=3)
df = pd.DataFrame(index=s.index)
for i, (train, test) in enumerate(splits):
    df["train_{}".format(i)] = train
    df["test_{}".format(i)] = test


plot(df,
     curve_group=[("train_{}".format(i), "test_{}".format(i)) for i in range(3)],
     ts_color={**{"train_{}".format(i): "tab:blue" for i in range(3)}, **{"test_{}".format(i): "tab:orange" for i in range(3)}},
     figsize=(16, 8));

 

from adtk.visualization import plot
from adtk.data import split_train_test
splits = split_train_test(s, mode=2, n_splits=3)
df = pd.DataFrame(index=s.index)
for i, (train, test) in enumerate(splits):
    df["train_{}".format(i)] = train
    df["test_{}".format(i)] = test
plot(df,
     curve_group=[("train_{}".format(i), "test_{}".format(i)) for i in range(3)],
     ts_color={**{"train_{}".format(i): "tab:blue" for i in range(3)}, **{"test_{}".format(i): "tab:orange" for i in range(3)}},
     figsize=(16, 8));

 

from adtk.visualization import plot
from adtk.data import split_train_test
splits = split_train_test(s, mode=3, n_splits=3)
df = pd.DataFrame(index=s.index)
for i, (train, test) in enumerate(splits):
    df["train_{}".format(i)] = train
    df["test_{}".format(i)] = test
plot(df,
     curve_group=[("train_{}".format(i), "test_{}".format(i)) for i in range(3)],
     ts_color={**{"train_{}".format(i): "tab:blue" for i in range(3)}, **{"test_{}".format(i): "tab:orange" for i in range(3)}},
     figsize=(16, 8));

 


from adtk.visualization import plot
from adtk.data import split_train_test
splits = split_train_test(s, mode=4, n_splits=3)
df = pd.DataFrame(index=s.index)
for i, (train, test) in enumerate(splits):
    df["train_{}".format(i)] = train
    df["test_{}".format(i)] = test
plot(df,
     curve_group=[("train_{}".format(i), "test_{}".format(i)) for i in range(3)],
     ts_color={**{"train_{}".format(i): "tab:blue" for i in range(3)}, **{"test_{}".format(i): "tab:orange" for i in range(3)}},
     figsize=(16, 8));

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/88911.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

基于java+springboot+mybatis+vue+mysql的4S店车辆管理系统

项目介绍 任何系统都要遵循系统设计的基本流程&#xff0c;本系统也不例外&#xff0c;同样需要经过市场调研&#xff0c;需求分析&#xff0c;概要设计&#xff0c;详细设计&#xff0c;编码&#xff0c;测试这些步骤&#xff0c;基于java语言设计并实现了4S店车辆系统&#…

回溯3-----BFS(一石激起千层浪)

文章目录广度优先搜索力扣429-----N叉树的层序遍历力扣994-----腐烂的橘子力扣127 -------单词接龙力扣725------打开转盘锁广度优先搜索 需要借助 队列 来解决问题 例如二叉树的层序遍历 &#xff1a; 1&#xff0c; 将根节点入队 2&#xff0c; 队列出队的时候&#xff0c; …

第一章 OAuth2.0规范(史上最详细解释)——介绍

目录 一、简介 二、角色 二、协议流程 三、授权许可 1、授权码 2、隐式许可 3、资源所有者密码凭据 4、客户端凭据 四、访问令牌 五、刷新令牌 六、TLS版本 七、HTTP重定向 八、互操作性 九、符号约定 一、简介 在传统的客户端-服务器身份验证模式中&#xff0c;客…

docker搭建redis三种集群模式

文章目录一、主从复制1、新建修改配置文件2、执行命令启动redis3、启动客户端测试二、哨兵模式Sentinel1、修改配置文件2、启动sentinel进程3、测试三、集群模式Cluster1、搭建集群1.1、创建集群挂载文件1.2、修改配置文件1.3、docker启动先六个redis实例1.4、构建集群1.5、查看…

【Canvas系列】基础入门(一)

&#x1f4da; Canvas基础入门 &#x1f525; 收藏关注随时温习 &#x1f4bb; 在线地址方便浏览 在线学习/演示地址 Canvas API 提供了一个通过JavaScript 和 HTML的元素来绘制图形的方式。它可以用于动画、游戏画面、数据可视化、图片编辑以及实时视频处理等方面 —— MDN 一…

shell-条件

条件可以用test或【命令 符号和被检查的条件之间要留有空格 &#xff1a; if [ -f filename *** ] if 和then用于同一行 if [ ]; then 字符串比较&#xff1a; if [ string1 string2 ] 两个字符串相等为真 if [ string1 ! string2 ] 两个字符串不相等为假 …

web自动化测试:Selenium+Python基础方法封装

推荐阅读&#xff1a; [内部资源] 想拿年薪30W的软件测试人员&#xff0c;这份资料必须领取~ Python自动化测试全栈性能测试全栈&#xff0c;挑战年薪40W 正文 01 目的 web自动化测试作为软件自动化测试领域中绕不过去的一个“香饽饽”&#xff0c;通常都会作为广大测试从…

Fiddler(4):在fiddler会话栏中添加IP列,设置抓HTTPS的请求证书安装

Fiddler(4)&#xff1a;在fiddler会话栏中添加IP列 在fiddler会话栏中添加IP列 1、点击菜单栏rules——customize rules…或者在右侧响应栏中点击FiddlerScript栏&#xff1b;如下图&#xff1a; 2、ctrlf搜索“static function main” 3、在main函数里加入下面一行代码&…

Kafka极客 - 09 Kafka Java Consumer 多线程开发实例

文章目录1. Kafka Java Consumer 设计原理2. 多线程方案3. 代码实现4. 问题思考目前&#xff0c;计算机的硬件条件已经大大改善&#xff0c;即使是在普通的笔记本电脑上&#xff0c;多核都已经是标配了&#xff0c;更不用说专业的服务器了。如果跑在强劲服务器机器上的应用程序…

对称美学 华为OD真题 100

import java.util.Scanner; import java.util.*; import java.util.stream.Collectors; import java.math.BigInteger;class Main {public static void main(String[] args) {// 处理输入Scanner in new Scanner(System.in);int t in.nextInt();long[][] cases new long[t][…

Python学习笔记-模块

目录 一、模块的概念 二、自定义模块 1.创建模块 2.使用import语句导入模块 3.使用from...import 语句导入模块 4.模块搜索目录 4.1模块默认搜索目录 4.2临时添加目录 4.3增加.pth文件 4.4 在PYTHONPATH环境变量中添加 三、以主程序的形式执行 四、python中的包&am…

计算机毕业设计php_thinkphp_vue的家乡石泉网站-乡村家乡旅游信息网站

运行环境 开发语言&#xff1a;PHP 数据库:MYSQL数据库 应用服务:apache服务器 使用框架:ThinkPHP&#xff1a;vue 开发工具:VScode/Dreamweaver/PhpStorm等均可 项目简介 目前家乡石泉市是一个有不同民族“大杂居,小聚居”的地方,所以对于发展家乡特色业还是比较有优势…

C++初阶 priority_queue(优先级队列)的使用和模拟实现

作者&#xff1a;小萌新 专栏&#xff1a;C初阶 作者简介&#xff1a;大二学生 希望能和大家一起进步&#xff01; 本篇博客简介&#xff1a;介绍优先级队列的使用和模拟实现 优先级队列的使用和模拟实现priority_queue的使用priority_queue的介绍priority_queue的定义priority…

Solid.js前端新秀框架 力压 web3.js 框架

SolidJS 是什么&#xff1f;SolidJS是一个声明式、高效且灵活用于构建用户界面的 JavaScript 库。 Solid 号称拥有 JSX 语法&#xff0c;类似于 React hook 的语法&#xff0c;你可以用现代化的开发方式&#xff0c;获得性能最快的代码。 框架本身只有7 KB大小&#xff0c;无需…

【在SpringBoot项目中删除相册数据--Controller层】

在AlbumController中添加处理请求的方法&#xff1a; 请求路径&#xff1a;/album/delete请求方式&#xff1a;POST请求参数&#xff1a;Long id响应结果&#xff1a;JsonResult >>> state:20000 具体代码为&#xff1a; // http://localhost:9080/album/delete ApiO…

常用Assignment写作句型怎么积累?

Assignment是留学生在国外留学期间常见的写作内容。很多留学生在最初接触Assignment时往往会感到无从下手&#xff0c;更不知道该怎么去表达自己想要表达的内容。其实&#xff0c;Assignment写作并没有想象中那么难&#xff0c;在Assignment写作中有很多句型是经常用到的&#…

Windows win10 win11 多屏幻灯片放映壁纸 多屏设置不同的壁纸 多屏不同幻灯片壁纸

背景&#xff1a;windows 可以右键为不同的显示器设置不同的壁纸&#xff08;需要先关闭虚拟桌面&#xff09;。但是 slideshow 的不支持多个屏幕。 目前看这个问题是没有官方的方案的&#xff0c;理论上有一个收费软件可以解决&#xff0c;或者用*版&#xff0c;但是不想给钱…

React Fiber树的构建和替换过程

文章の目录前言mount 过程update 过程写在最后前言 React Fiber树的创建和替换过程运用了双缓存技术&#xff0c;即先在内存中创建 fiber 树&#xff0c;待 fiber 树创建完成以后&#xff0c;直接将旧的 fiber 树替换成新的 fiber 树&#xff0c;这样做的好处是省去了直接在页…

datax之channel学习

一般来说datax只需要我们设置reader和writer&#xff0c;但是是什么连接了reader和writer呢&#xff1f; 就是channel&#xff01; 这个有什么用&#xff1f; 慢慢学习。 core.json [devusercdp-node12 /data/DATA_DIR/share/dataingestion/conf]$ cat core.json { &quo…

应急物资仓库可视化管理系统-智慧应急物资装备管理系统

1. 项目概述 应急物资仓库可视化系统(智慧物资管理系统 DW-S300)是一套成熟系统&#xff0c;依托互 3D 技术、云计算、大数据、RFID 技术、数据库技术、AI、视频分析技术对 RFID 智能仓库进行统管理、分析的信息化、智能化、规范化的系统。 应急物资&#xff0c;是每当灾害发…