语音深度鉴伪识别项目实战:基于深度学习的语音深度鉴伪识别算法模型(二)音频数据预处理及去噪算法+Python源码应用

news2025/1/17 21:45:59

前言

深度学习技术在当今技术市场上面尚有余力和开发空间的,主流落地领域主要有:视觉,听觉,AIGC这三大板块。

目前视觉板块的框架和主流技术在我上一篇基于Yolov7-LPRNet的动态车牌目标识别算法模型已有较为详细的解说。与AIGC相关联的,其实语音模块在近来市场上面活跃空间很大。

从智能手机的语音助手到智能家居中的语音控制系统,再到银行和电信行业的语音身份验证,语音技术的应用日益广泛。那么对应现在ACG技术是可以利用原音频去进行训练学习,从而得到相对应的声音特征,从而进行模仿,甚至可以利用人工智能生成的语音可以以假乱真,给社会带来了严重的安全隐患。

当前,语音深度鉴伪识别技术已经取得了一定的进展。研究人员利用机器学习和深度学习方法,通过分析语音信号的特征,开发出了一系列鉴伪算法。

然而,随着生成大模型和其他语音合成技术的不断进步,伪造语音的逼真度也在不断提高,使得语音鉴伪任务变得愈加复杂和具有挑战性。本项目系列文章将从最基础的语音数据存储和详细分析开始,由于本系列专栏是有详细解说过深度学习和机器学习内容的,音频数据处理和现主流技术语音分类模型和编码模型将会是本项目系列文章的主体内容,具体本项目系列要讲述的内容可参考下图:
在这里插入图片描述语音模型的内容不是那么好掌握的,包含大量的数学理论知识以及大量的计算公式原理需要推理。且如果不进行实际操作很难够理解我们写的代码究极在神经网络计算框架中代表什么作用。不过我会尽可能将知识简化,转换为我们比较熟悉的内容。

我将尽力让大家了解并熟悉神经网络框架,保证能够理解通畅以及推演顺利的条件之下,尽量不使用过多的数学公式和专业理论知识。以一篇文章快速了解并实现该算法,以效率最高的方式熟练这些知识。希望有需求的小伙伴不要错过笔者精心打造的专栏。

上篇文章详细解答了所有音频常见存储载体和其特征,以及音频的数据保存形态有哪些?具体数据可视化展示为何种形式?这类问题,对音频数据认知打下了坚实的基础。那么第二章我们就应该对音频数据预处理有大致的了解,从噪音的种类再到各个去噪算法依次了解,那么我们的语音深度鉴伪识别才算入门。

一、音频存储载体

由于音频存储是根据音频数据编码来的,上篇文章已经几乎把所有的音频编码算法都讲解了,固不再重复将每个音频存储载体具体信息详细,只作概览:
在这里插入图片描述

综合比较

格式压缩类型音质文件大小主要应用优点缺点
WAV无压缩音频编辑高质量文件大
FLAC无损压缩音频存储高质量,文件较小文件仍较大
ALAC无损压缩苹果设备高质量,兼容苹果跨平台支持少
MP3有损压缩音乐存储、传输文件小,支持广泛音质低
AAC有损压缩中高流媒体、移动设备高效压缩,音质好普及度略低
OGG Vorbis有损压缩中高游戏音频、流媒体高质量,开源支持较少
DSD无压缩极高极大高保真音频超高保真度文件极大,支持有限
AIFF无压缩苹果设备高质量文件大
Opus有损压缩流媒体、实时通信低延迟,高质量存储应用少

二、音频数据预处理

既然我们现在已经通过python去尝试了构建一个wav音频文件,自然我们也可以通过编码方式对原有音频进行数据处理,使其音频质量,如后续有建模的必要这会是关键步骤,一切模型都离不开数据质量。和图片去噪的方式也是大相径庭,那么现在我们来实践操作。首先,确保安装了pydub库和ffmpeg

pip install pydub
sudo apt-get install ffmpeg

如果需要更细粒度的控制,需要使用numpyscipy生成纯音乐。

pip install numpy scipy soundfile

生成音乐片段

import numpy as np
import soundfile as sf

def generate_sine_wave(frequency, duration, sample_rate=44100):
    """生成指定频率和持续时间的正弦波"""
    t = np.linspace(0, duration, int(sample_rate * duration), endpoint=False)
    return 0.5 * np.sin(2 * np.pi * frequency * t)

# 定义音符(频率)和节拍(秒)
notes = {
    'C4': 261.63,
    'D4': 293.66,
    'E4': 329.63,
    'F4': 349.23,
    'G4': 392.00,
    'A4': 440.00,
    'B4': 493.88,
    'C5': 523.25
}

# 定义乐曲:每个音符和相应的持续时间(秒)
melody = [
    ('C4', 0.5), ('D4', 0.5), ('E4', 0.5), ('F4', 0.5),
    ('G4', 0.5), ('A4', 0.5), ('B4', 0.5), ('C5', 0.5)
]

# 生成乐曲
sample_rate = 44100
song = np.array([])

for note, duration in melody:
    tone = generate_sine_wave(notes[note], duration, sample_rate)
    song = np.concatenate([song, tone])

# 保存生成的纯音乐
sf.write('pure_music.wav', song, sample_rate)

print("纯音乐生成完毕并保存为pure_music.wav")

我们可以通过使用matplotliblibrosa.display库绘制音频波形图和梅尔频谱图,来帮助我们更好观测音频数据特征:

import matplotlib.pyplot as plt
import librosa.display

def plot_waveform_and_spectrogram(file_path):
    audio_data, sample_rate = librosa.load(file_path, sr=None)

    # 绘制波形图
    plt.figure(figsize=(10, 4))
    librosa.display.waveshow(audio_data, sr=sample_rate)
    plt.title('Waveform')
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')
    plt.show()

    # 计算梅尔频谱图
    mel_spectrogram = librosa.feature.melspectrogram(y=audio_data, sr=sample_rate, n_mels=128)
    log_mel_spectrogram = librosa.power_to_db(mel_spectrogram, ref=np.max)

    # 绘制梅尔频谱图
    plt.figure(figsize=(10, 4))
    librosa.display.specshow(log_mel_spectrogram, sr=sample_rate, x_axis='time', y_axis='mel')
    plt.title('Mel-Spectrogram')
    plt.colorbar(format='%+2.0f dB')
    plt.show()

# 示例:绘制WAV文件的波形图和频谱图
file_path = 'pure_music.wav'
plot_waveform_and_spectrogram(file_path)

在这里插入图片描述

接下来我们通过引入不同的噪音种类,认识噪音种类并尝试辨别哪些噪音种类,最后进行音频去噪。

2.1噪音种类

每种噪音的特征和来源不同,可能会对音频信号的质量产生不同的影响。
在这里插入图片描述

2.1.1. 白噪音

我们来尝试制作白噪音,从制作过程中就能看到特征种类:

import numpy as np
import soundfile as sf

def generate_white_noise(duration, sample_rate):
    """生成指定持续时间的白噪音"""
    noise = np.random.normal(0, 1, int(sample_rate * duration))
    return noise

# 生成5秒白噪音
sample_rate = 44100
duration = 5.0
white_noise = generate_white_noise(duration, sample_rate)

# 保存白噪音
sf.write('white_noise.wav', white_noise, sample_rate)

该白噪音一听就能够辨别出来,十分明显。听起来像“嘶嘶”声,类似电视没有信号时的声音。

2.1.2.粉红噪音

听起来比白噪音柔和,常用于声音测试和治疗。类似自然环境中的各种声音,如风声、流水声等。

import numpy as np
import soundfile as sf

def generate_pink_noise(duration, sample_rate):
    """生成指定持续时间的粉红噪音"""
    white = np.random.randn(int(sample_rate * duration))
    fft = np.fft.rfft(white)
    fft = fft / np.sqrt(np.arange(1, len(fft) + 1))
    pink = np.fft.irfft(fft)
    return pink

# 生成5秒粉红噪音
sample_rate = 44100
duration = 5.0
pink_noise = generate_pink_noise(duration, sample_rate)

# 保存粉红噪音
sf.write('pink_noise.wav', pink_noise, sample_rate)

2.1.3.棕色噪音(Brown Noise)

听起来更低沉和柔和,比粉红噪音更温和。自然环境中的低频声音,如雷声、海浪声等。

import numpy as np
import soundfile as sf

def generate_brown_noise(duration, sample_rate):
    """生成指定持续时间的棕色噪音"""
    white = np.random.randn(int(sample_rate * duration))
    brown = np.cumsum(white) / np.sqrt(sample_rate)
    return brown

# 生成5秒棕色噪音
sample_rate = 44100
duration = 5.0
brown_noise = generate_brown_noise(duration, sample_rate)

# 保存棕色噪音
sf.write('brown_noise.wav', brown_noise, sample_rate)

还有更多噪音这里暂且不作更多生成展示,不同类型的噪音在日常生活和各种技术应用中都可能出现,后续处理这些噪声方面会介绍的更加详细。最主要的我们需要花更多的时间去学习如何运用去噪算法,如何选着合适的去噪算法,达到想要的去噪效果。

2.2去噪算法

不同类型的噪音需要采用不同的去噪算法才能达到效果,下面我们来看看都有哪些去噪算法,都可以适用哪些噪音:
在这里插入图片描述

2.2.1.频谱减法(Spectral Subtraction)

频谱减法(Spectral Subtraction)是一种经典的音频去噪技术,用于从噪声污染的信号中减去估计的噪声频谱,以恢复原始的干净信号。该算法最初由 S. Boll 于1979年提出,是一种简单且有效的去噪方法,广泛应用于语音处理、音频增强等领域。

频谱减法利用了噪声信号在频谱上的统计特性,假设噪声是平稳的或缓慢变化的,因此其频谱特性在时间上保持相对稳定。通过估计噪声的频谱并将其从受噪声污染的音频信号中减去,可以在一定程度上恢复原始信号。

用途

  • 语音增强:提高语音信号的可懂度和清晰度,常用于电话通信、语音识别和助听器等领域。
  • 音频修复:去除录音中的背景噪音,如风声、交通噪音等,改善音频质量。
  • 预处理步骤:在许多音频处理任务中,频谱减法可以作为预处理步骤,以提高后续处理的效果。

频谱减法的核心思想是估计噪声频谱并将其从受污染信号的频谱中减去:

  1. 预处理

    • 短时傅里叶变换(STFT):将时域信号转换为频域信号,分解为若干帧,每帧进行傅里叶变换,得到每帧的频谱。
  2. 估计噪声频谱

    • 静音段估计:在信号的静音段或环境噪声段提取噪声频谱的平均值。假设噪声在这些段中是平稳的。
    • 平滑估计:使用平滑方法估计噪声频谱,通常采用时间平均或指数加权平均。
  3. 频谱减法

    • 频谱减法计算:对每一帧信号,计算其幅值谱并减去估计的噪声幅值谱:
      ∣ S ( f ) ∣ = m a x ( ∣ Y ( f ) ∣ − ∣ N ( f ) ∣ , 0 ) |S(f)|=max(|Y(f)|-|N(f)|,0) S(f)=max(Y(f)N(f),0)
      其中,|Y(f)|是受噪声污染的信号的幅值谱,∣N(f)∣ 是估计的噪声幅值谱, ∣𝑆(𝑓)∣是去噪后的信号的幅值谱。
  4. 相位恢复:使用原始信号的相位谱 θ Y ( f ) θ_{Y}(f) θY(f)​和去噪后的幅值谱 ∣𝑆(𝑓)∣ 重构频域信号:

    • S ( f ) = ∣ S ( f ) ∣ e j θ Y ( f ) S(f)=|S(f)|e^{jθ_{Y}(f)} S(f)=S(f)ejθY(f)
  5. 逆变换

    • 逆短时傅里叶变换(ISTFT):将去噪后的频域信号通过逆短时傅里叶变换转换回时域信号,得到去噪后的时域信号。

那么首先我们对我们生成的纯音乐添加白噪音:

import soundfile as sf
import numpy as np

# 读取纯音乐文件
pure_music, sample_rate = sf.read('pure_music.wav')

def generate_white_noise(duration, sample_rate):
    """生成指定持续时间的白噪音"""
    noise = np.random.normal(0, 1, int(sample_rate * duration))
    return noise

# 获取纯音乐的持续时间
duration = len(pure_music) / sample_rate

# 生成与纯音乐长度相同的噪音
white_noise = generate_white_noise(duration, sample_rate)

# 将白噪音添加到纯音乐
white_noise_music = pure_music + 0.1 * white_noise  # 0.1表示噪音的强度,可以调整

# 保存合成后的音频
sf.write('pure_music_with_white_noise.wav', white_noise_music, sample_rate)

合成之后的音频听起来噪声是很明显的,此时我们可以通过特征可视化看到区别:

为加噪音之前:
在这里插入图片描述加入噪音之后:

在这里插入图片描述在这里插入图片描述

现在我们再用去噪算法进行去噪处理:

def spectral_subtraction(noisy_signal, noise_signal, sample_rate):
    # 计算短时傅里叶变换(STFT)
    noisy_stft = librosa.stft(noisy_signal)
    noise_stft = librosa.stft(noise_signal)

    # 计算噪声的平均频谱
    noise_spectrum = np.mean(np.abs(noise_stft), axis=1, keepdims=True)

    # 对每一帧信号进行频谱减法
    magnitude = np.abs(noisy_stft)
    phase = np.angle(noisy_stft)
    clean_spectrum = np.maximum(magnitude - noise_spectrum, 0)

    # 重构频域信号
    clean_stft = clean_spectrum * np.exp(1j * phase)

    # 逆STFT得到时域信号
    clean_signal = librosa.istft(clean_stft)
    return clean_signal

处理之后对比如下所示,大家可以听视频感觉,噪音还是有所降低的,但是不多:
在这里插入图片描述### 2.2.2自适应滤波(Adaptive Filtering)

自适应滤波是一种动态调整滤波器参数以最小化输出误差的信号处理技术。它广泛应用于各种需要实时调整和优化的系统中。自适应滤波器根据输入信号的统计特性不断更新其参数,因而能够在非平稳环境中有效工作。一般适用于背景噪声(Background Noise)、电磁干扰噪声(Electromagnetic Interference Noise)、语音噪声(Speech Noise)、回声(Echo)、噪声尖峰(Impulse Noise)这五种噪音。

具体算法逻辑

自适应滤波器通过最小均方(LMS)算法调整滤波器系数以最小化误差。常见的自适应滤波算法包括LMS和RLS(递归最小二乘)。

LMS算法

LMS算法是一种简单且有效的自适应滤波算法,其主要步骤如下:

  1. 初始化

    • 设定滤波器系数初始值为零或随机值。
    • 设定步长因子 μ 以控制更新速度。
  2. 迭代更新

    • 对于每一个输入信号样本:
      • 计算滤波器输出y(n): 𝑦(𝑛)=𝑤(𝑛)𝑇𝑥(𝑛),其中 w ( n ) w(n) w(n) 是滤波器系数向量,𝑥(𝑛)$ 是输入信号向量。
      • 计算误差e(n):e(n)=d(n)-y(n),其中𝑑(𝑛)​ 是期望信号。
      • 更新滤波器系数:w(n+1)=w(n)+2μe(n)x(n)$
  3. 停止条件

    • 通常设定迭代次数或达到误差最小值时停止。
def lms_filter(noisy_signal, reference_signal, mu, num_taps):
    n = len(noisy_signal)
    w = np.zeros(num_taps)
    y = np.zeros(n)
    e = np.zeros(n)
    
    for i in range(num_taps, n):
        x = noisy_signal[i-num_taps:i]
        y[i] = np.dot(w, x)
        e[i] = reference_signal[i] - y[i]
        w = w + 2 * mu * e[i] * x
    
    return e  # 返回误差信号作为去噪后的信号

在自适应滤波算法中去噪效果受到步长因子 (𝜇μ) 和滤波器长度 (num_taps)影响尤其重要,如果这些参数设置不当,可能会导致滤波效果不佳,甚至使噪声加重。可以通过:

  1. 调整步长因子:步长因子 (𝜇μ) 决定了滤波器系数的更新速度,过大或过小的步长因子都可能影响滤波效果。
  2. 增加滤波器长度:较长的滤波器可以捕捉更多的信号特征,但也增加了计算复杂度。
  3. 使用参考信号:在实际应用中,通常需要一个参考信号作为期望信号 (𝑑(𝑛)d(n))。如果没有理想信号,可以尝试使用噪声信号的估计值。
  4. 预处理和后处理:在滤波前后进行适当的预处理和后处理,例如平滑、归一化等。

这几种处理方法,我更推荐前面三种方法,简单高效。其中在自适应滤波应用中,参考信号的选择取决于具体的应用场景和目标。

# 读取音频文件
noisy_signal, sample_rate = librosa.load('pure_music_with_white_noise.wav', sr=None)
noise_signal, _ = librosa.load('pure_music_with_white_noise.wav', sr=None)
reference_signal, _ = librosa.load('pure_music.wav', sr=None)  # 使用参考信号
# 自适应滤波参数
mu = 0.00001   # 步长因子
num_taps = 512  # 滤波器长度

在这里插入图片描述

期望信号是仿真中不考虑噪声影响的系统输出,在实际中我们是无法获得的,只能在仿真中得到。期望信号与具体的应用场合有关。比如在胎儿的心音检测中。输入信号x(n)=sm(n)+sb(n),其中sm为孕妇的心音信号,sb为胎儿的心音信号。此时自适应滤波器要输出的是胎儿的心音信号sb(n)。因此此时可以将x(n)看做是期望输出信号,sm为输入信号,这样,通过自适应滤波器之后就得到实际需要的sb(n)了。x(n)可以通过放置在胎儿位置的传感器得到,sm可以通过放置在远离胎儿的位置的传感器得到。

实际上,基于维纳滤波的问题都涉及到期望信号的理解。很多人往往会问,要是知道了期望输出信号,还需要滤波做什么呢?实际上不完全是这么回事的。如果从去相关的角度,就非常好理解期望信号的问题了。

期望信号是仿真中不考虑噪声影响的系统输出,在实际中我们是无法获得的,只能在仿真中得到。期望信号与具体的应用场合有关。比如在胎儿的心音检测中。输入信号x(n)=sm(n)+sb(n),其中sm为孕妇的心音信号,sb为胎儿的心音信号。此时自适应滤波器要输出的是胎儿的心音信号sb(n)。因此此时可以将x(n)看做是期望输出信号,sm为输入信号,这样,通过自适应滤波器之后就得到实际需要的sb(n)了。x(n)可以通过放置在胎儿位置的传感器得到,sm可以通过放置在远离胎儿的位置的传感器得到。

实际上,基于维纳滤波的问题都涉及到期望信号的理解。很多人往往会问,要是知道了期望输出信号,还需要滤波做什么呢?实际上不完全是这么回事的。如果从去相关的角度,就非常好理解期望信号的问题了。

提取纯噪声

从录音中提取纯噪声部分通常涉及识别和分离音频中的噪声段有:

手动方法

  1. 试听音频:手动试听音频文件,找到没有目标信号的噪声段。
  2. 音频剪辑工具:使用音频剪辑工具(如Audacity),手动剪切和提取噪声段。

自动方法

  1. 静音检测:通过检测音频中的静音段或低能量段,自动识别可能的噪声段。
  2. 语音活动检测(VAD):使用语音活动检测算法,识别和提取无语音活动的段落作为噪声参考信号。

我们也可以通过计算音频信号的短时能量,设定能量阈值从而提取低能量段的音频信号,也就是大概率为噪音信号,再将所有噪声段合并成一个信号。

# 计算音频信号的短时能量和零交叉率
frame_length = 2048
hop_length = 512

# 短时能量
energy = np.array([
    np.sum(np.abs(noisy_signal[i:i+frame_length]**2))
    for i in range(0, len(noisy_signal), hop_length)
])

# 零交叉率
zcr = np.array([
    librosa.feature.zero_crossing_rate(noisy_signal[i:i+frame_length])[0, 0]
    for i in range(0, len(noisy_signal), hop_length)
])

# 标准化能量
energy = energy / np.max(energy)

# 设定能量阈值和ZCR阈值
energy_threshold = 0.02
zcr_threshold = 0.1

# 找到低能量段和高ZCR段的索引
low_energy_indices = np.where(energy < energy_threshold)[0]
high_zcr_indices = np.where(zcr > zcr_threshold)[0]

# 提取低能量段和高ZCR段的音频信号
noise_segments = []
for idx in np.intersect1d(low_energy_indices, high_zcr_indices):
    start = idx * hop_length
    end = start + frame_length
    noise_segments.append(noisy_signal[start:end])

# 检查是否找到任何低能量段和高ZCR段
if len(noise_segments) > 0:
    # 将所有噪声段合并成一个信号
    pure_noise = np.concatenate(noise_segments)
else:
    # 如果没有找到低能量段和高ZCR段,可以使用白噪声作为默认参考信号
    print("没有找到低能量段和高ZCR段,使用白噪声作为参考信号")
    duration = len(noisy_signal) / sample_rate
    pure_noise = np.random.normal(0, 1, int(sample_rate * duration))

# 保存提取的噪声段
sf.write('extracted_noise.wav', pure_noise, sample_rate)

然后再次去噪即可,不过自适应滤波并不适合去噪白噪音,固大家可以自行尝试其他噪音去噪效果。
本篇文章先写到此,内热太多也不好一下再继续写接下来三种算法。本系列将从最基础的音频数据认知开始一直讲解到最终完成整个语音深度鉴别模型的落地使用,对此项目感兴趣的,对此领域感兴趣的不要错过,多谢大家的支持!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1720096.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【火炬打宝策略】

打宝策略刷遗物&#xff1a; 时可4 只刷奇诊加稀有度&#xff0c;没有奇诊可以直接不打。

当新媒体运营开始说真话,这些道理你真的懂么?沈阳新媒体运营培训

运营新人&#xff0c;尤其是刚毕业、啥都不会的大学生&#xff0c;一定要认清的现实就是&#xff1a;虽然新媒体运营这个岗位门槛比较低&#xff0c;薪资也比较香&#xff0c;但绝不是养老型的工作。 平时大家还是很忙的&#xff0c;所以一定要摒弃学生思维&#xff0c;千万别…

vivo鄢楠:基于OceanBase 的降本增效实践

在3 月 20 日的2024 OceanBase 数据库城市行中&#xff0c;vivo的 体系与流程 IT 部 DBA 组总监鄢楠就“vivo 基于 OceanBase 的降本增效实践”进行了主题演讲。本文为该演讲的精彩回顾。 vivo 在1995年于中国东莞成立&#xff0c;作为一家全球领先的移动互联网智能终端公司&am…

【HarmonyOS - ArkTS - 状态管理】

概述 本文主要是从页面和应用级两个方面介绍了ArkTS中的状态管理的一些概念以及如何使用。可能本文比较粗略&#xff0c;细节化请前往官网(【状态管理】)学习&#xff0c;若有理解错误的地方&#xff0c;欢迎评论指正。 装饰器总览 由于下面会频繁提及到装饰器&#xff0c;所…

将三个字符串通过strcat连接起来并打印输出

将三个字符串通过strcat连接起来并打印输出 #include <stdio.h> #include <string.h> int main () { char a[10]"I", b[10]" am",c[10]" happy"; strcat(a,b); strcat(a,c); printf("%s",a); printf("\n"); re…

win10键盘按乱了,如何恢复?

今天键盘被宝宝给按乱了&#xff0c;好不容易给重新调整回来&#xff0c;记录备忘&#xff1a; 1、win10的asdf和方向键互换了&#xff1a; 使用Fnw键来回切换&#xff0c;OK&#xff01; 2、键盘的win键失效&#xff0c;例如&#xff1a;按winD无法显示桌面。此时&#xf…

Django企业招聘后台管理系统开发实战四

前言 首先我们看一下产品的需求背景&#xff0c;这个产品为了解决招聘面试的过程中&#xff0c;线下面试管理效率低&#xff0c;面试过程和结果不方便跟踪的痛点 招聘管理的系统几乎是每一家中小公司都需要的产品 我们以校园招聘的面试为例子来做 MVP 产品迭代 首先我们来看一下…

【计算机毕设】基于Spring Boot的课程作业管理系统 - 源码免费(私信领取)

免费领取源码 &#xff5c; 项目完整可运行 &#xff5c; v&#xff1a;chengn7890 诚招源码校园代理&#xff01; 1. 研究目的 课程作业管理系统旨在为教师和学生提供一个便捷的平台&#xff0c;用于发布、提交和评定课程作业。本系统旨在提高作业管理的效率&#xff0c;促进教…

【免费Web系列】JavaWeb实战项目案例四

这是Web第一天的课程大家可以传送过去学习 http://t.csdnimg.cn/K547r 多表操作&员工列表查询 1. 多表关系 关于单表的操作(单表的设计、单表的增删改查)我们就已经学习完了。接下来我们就要来学习多表的操作&#xff0c;首先来学习多表的设计。 项目开发中&#xff0…

如何使用 Connector API 将数据提取到 Elasticsearch Serverless 中

作者&#xff1a;来自 Elastic Jedr Blaszyk Elasticsearch 支持一系列摄取方法。 其中之一是 Elastic Connectors&#xff0c;它将 SQL 数据库或 SharePoint Online 等外部数据源与 Elasticsearch 索引同步。 连接器对于在现有数据之上构建强大的搜索体验特别有用。 例如&…

618 购物指南:简单点 618 捡便宜,用这个利器就行

直接干货&#xff0c;看效果&#xff0c;安装脚本直接显示商家额外优惠券&#xff1a; 1、安装好脚本后&#xff0c;打开京东、淘宝(天猫) 商品详情页面&#xff0c;脚本会自动获取优惠券进行展示。 2、如果当前商品 处于 30 天最低价&#xff0c;脚本将自动进行标记 提醒&…

基于Python的校园预约打印网站的实现

基于Python的校园预约打印网站的实现 开发语言:Python 数据库&#xff1a;MySQL所用到的知识&#xff1a;Django框架工具&#xff1a;pycharm、Navicat、Maven 系统功能实现 注册 新用户首先要进行注册信息填写&#xff0c;填写完成以后进行登录即可使用此网站 打印社 分别有…

对称二叉树(oj题)

一、题目链接https://leetcode-cn.com/problems/symmetric-tree/ 二、题目思路 给你一个二叉树的根节点 root &#xff0c; 检查它是否轴对称的思路: 1.将该树的左子树和右子树&#xff0c;当做两棵树&#xff0c;调用 判断两棵树是否对称相等的函数 2.判断两颗树是否对称相…

代码随想录算法训练营第36期DAY44

DAY44 闫氏DP 2 01背包问题 用滚动数组来优化空间&#xff0c;从后向前&#xff08;大到小&#xff09;遍历j #include<iostream>using namespace std;const int N1010;int n,m;int v[N],w[N];int f[N][N];//所有只考虑前i个物品&#xff0c;**且总体积不超过j**的选法…

MxA Protein Human ELISA--BioVendor

MxA(1)MX166276-kDaGTPase 蛋白在抗多种病毒的细胞内发挥抗病毒活性重要作用&#xff0c;包括流感、副流感、麻疹、柯萨奇、乙型肝炎病毒和后藤病毒。病毒在其生命周期的早期&#xff0c;即进入宿主细胞后不久和基因组扩增前&#xff0c;被蛋白抑制。小鼠蛋白人蛋白的小鼠类似…

华为 CANN

华为 CANN 1 介绍1.1 概述1.2 CANN 是华为昇腾计算产业的重要一环1.3 昇腾系列处理器1.4 昇腾 AI 产业1.5 从 AI 算法到产品化落地流程1.6 多样性计算架构1.7 人工智能各层级图示1.8 人工智能技术发展历史 2 CANN vs CUDA支持平台优化方向编程接口生态系统与应用性能与功能 3 C…

算法(十二)分治算法

文章目录 算法概念算法例子字符串中小写转大写求X^n问题 算法概念 分治算法&#xff08;divide and conquer&#xff09;算法的核心思想其实就是"分而治之"&#xff0c;将原问题划分成n个规模较小&#xff0c;并且结构与原问题相似的子问题&#xff0c;递归地解决这…

ADB安装教程

1 adb简介 Android 调试桥 (adb) 是一种功能多样的命令行工具&#xff0c;可让您与设备进行通信。 adb命令可用于执行各种设备操作&#xff0c;例如安装和调试应用。 adb 提供对 Unix shell&#xff08;可用来在设备上运行各种命令&#xff09;的访问权限。它是一种客户端-服务…

国外创意二维码营销案例:巴西宠物食品品牌户外活动“救救宠物爪子吧”

2024年5月份&#xff0c;巴西宠物食品品牌Purina Brasil 与广告公司Publicis Brasil合作&#xff0c;推出了一次特别的户外营销活动——Salve as Patinhas(Save the Paws)&#xff08;救救宠物爪子吧&#xff09;&#xff0c;非常有意思&#xff01; 随着全球气候变暖&#xf…

大坝安全监测自动化技术的规范化设计准则

大坝安全监测自动化技术的规范化设计准则 一、施工阶段自动化系统设计要点 在施工阶段&#xff0c;大坝安全监测自动化系统的设计应当涵盖以下几个核心内容&#xff1a; 监测仪器的布局规划及详细的施工图纸设计。 配套土建项目以及防雷设施的施工设计规划。 明确施工过程中的技…