社交网络分析4(上):社交网络链路预测分析、Logistic回归模型、LLSLP方法(LightGBM 堆叠链路预测)、正则化方法、多重共线性

news2024/11/25 12:40:38

社交网络分析4

  • 写在最前面
  • 社交网络链路预测分析概述
    • 链路预测分析简介
    • 链路预测分析的重要性
    • 社交网络链路预测分析方法
      • 基于网络结构的方法
      • 基于节点属性的方法
      • 基于随机游走的方法
      • 基于深度学习的方法
  • 基于相似性和基于似然性的链路预测方法
    • 基于相似性的方法
      • 基于邻居的方法
      • 基于路径的方法
      • 基于随机游走的方法
    • 基于似然估计的方法
    • 两类方法的优缺点
  • LLSLP方法(逻辑斯蒂回归 LightGBM 堆叠链路预测)
    • 方法概述
    • 逻辑斯蒂回归模型
    • 防止过拟合
    • 强学习器的创建
  • 逻辑斯蒂回归(Logistic Regression)
    • Logistic回归模型概述
      • 定义和用途
      • 模型特点
      • Logistic回归模型的基本形式
    • Logistic回归模型的优缺点
      • 优点
      • 缺点
    • Logistic回归模型的应用场景
    • 模型评估指标
      • 准确率
      • 精确率
      • 召回率
      • F1分数
    • Logistic回归模型的训练和优化
      • 训练过程
      • 超参数调整和优化策略
      • 过拟合和欠拟合的处理
        • 欠拟合处理
        • 过拟合处理
        • 过拟合与欠拟合的判断
    • 正则化方法的应用
      • 定义
      • L1和L2正则化
    • 多重共线性问题
      • 定义及其表现
      • 检验方法
      • 处理多重共线性的经验式做法
    • 岭回归和Lasso回归
      • 岭回归(Ridge Regression)
      • Lasso回归
      • 核心差异
    • Logistic回归模型与其他模型的比较和选择
      • 与决策树的比较
      • 与支持向量机的比较
      • 在不同场景下的模型选择
    • 正则化的作用
      • 实验设计
      • 实验结果
      • 正则化的作用

写在最前面

《社交网络分析》课程由鲁宏伟老师授课,其教学方式不仅严谨负责,还充满幽默与个人见解。这个方向对我而言也尤其有吸引力,怀着极大的兴趣选修了这门课程。

四、社交网络链路预测方法
主要结合三个PPT:社交网络链路预测分析、LightGBM框架、Logistic回归模型概述
本章简要介绍社交网络隐私攻击和保护的基本概念和方法


在这里插入图片描述

在这个由连接驱动的数字时代,社交网络不仅仅是连接人与人的桥梁,它们还蕴含着深刻的社会、经济和技术洞见。从Facebook到LinkedIn,社交网络的每一个点击、每一条信息流,都构成了一个复杂且动态的网络结构。但是,这些看似简单的连接背后隐藏着什么秘密?如何预测未来可能形成的社交联系,从而揭示隐藏在数据背后的深层次模式和趋势?这就是社交网络链路预测分析的魅力所在。

在这篇博客中,我们将深入探讨社交网络链路预测分析的核心,解析它的基本概念、重要性以及各种现代方法。我们将介绍从基于网络结构的传统方法到利用深度学习和人工智能的先进技术,如何在社交网络的海洋中捕捉那些看不见的线索。

我们不仅仅停留在理论层面,还将深入探讨实际应用,包括:

  • 链路预测的目标和具体应用场景。
  • 各类链路预测方法的分类和原理。
  • 逻辑斯蒂回归在链路预测中的独特作用。
  • 创新的逻辑斯蒂回归 LightGBM 堆叠链路预测(LLSLP)方法及其步骤。
  • LightGBM在处理大数据和高维特征时的策略。
  • 正则化在LLSLP方法中的关键作用。
  • 层叠泛化在LLSLP方法中的重要性及其应用。

社交网络链路预测不仅面临数据稀疏性、模型泛化能力、计算复杂性等挑战,还需要不断适应快速变化的网络环境和实时数据更新的要求。本博客将为您提供一个全面的视角,探索社交网络链路预测分析的现状、挑战和未来发展趋势。

准备好深入这个领域了吗?让我们开始这段探索之旅!

社交网络链路预测分析概述

链路预测分析简介

链路预测分析是一种方法,用于预测社交网络中用户间可能存在的联系。它主要分为以下几种方法:

  1. 基于网络结构的方法:依据社交网络的结构特征。
  2. 基于内容的方法:根据用户生成的内容进行预测。
  3. 基于用户行为的方法:依据用户的活动和互动模式。

此分析的目标是预测未来可能形成的联系,从而提升社交网络的推荐质量和预测准确性。它在社交网络、推荐系统、数据挖掘等领域有着广泛的应用。

链路预测分析的重要性

链路预测分析在多个领域都有显著应用,包括但不限于:

  • 社交网络:预测用户间的社交关系,提升推荐系统的准确性。
  • 生物信息学:预测蛋白质间的相互作用,助力药物研发。
  • 交通网络:预测交通流量,优化交通规划。
  • 通信网络:预测网络拓扑结构,增强网络性能和可靠性。

社交网络链路预测分析方法

基于网络结构的方法

  • 邻接矩阵方法:利用邻接矩阵信息进行预测。
  • 图论方法:应用图论概念和算法。
  • 社区结构方法:根据社交网络的社区结构进行预测。
  • 网络演化方法:基于社交网络演化规律。

基于节点属性的方法

  • 节点度:考虑节点与其他节点的连接数量。
  • 节点中心性:评估节点在网络中的重要性。
  • 节点聚类系数:衡量节点所在社群的紧密程度。
  • 节点属性:如年龄、性别、兴趣等特征。

基于随机游走的方法

  • 随机游走模型:构建节点间的联系和传播模型。
  • 随机游走算法:通过模拟过程预测联系和传播概率。

基于深度学习的方法

  • 卷积神经网络(CNN):提取节点特征。
  • 自编码器(Autoencoder):学习低维表示。
  • 循环神经网络(RNN):处理时序信息,如用户行为序列。
  • 生成对抗网络(GAN):生成新的社交网络链接。
  • 图神经网络(GNN):处理图结构信息。
  • 强化学习(RL):优化模型参数。

基于相似性和基于似然性的链路预测方法

基于相似性的方法

基于相似性的链路预测方法主要分为三类:基于邻居、基于路径和基于随机游走。

基于邻居的方法

  • 这种方法假设两个节点若有更多共同邻居,则更可能存在链接。
  • Newman提出了使用共同邻居(Common Neighbor, CN)指数来衡量节点间的相似性,并引入了多个变体,如Salton指数、资源分配(Resource Allocation, RA)指数、Adamic-Adar(AA)指数等。
  • 实验结果显示,RA指数表现最优,而PA指数整体表现较差。

基于路径的方法

  • 使用节点间路径来计算相似性。
  • 例如,Local Path(LP)指数关注长度为2和3的路径,而Katz指数则考虑所有路径,常在实际网络中表现良好。

基于随机游走的方法

  • 这类方法通过随机游走模拟网络中节点间的交互。
  • 例如,平均通勤时间(Average Commute Time, ACT)指数、SimRank、重新开始随机游走(Random Walk with Restart, RWR)和局部随机游走(Local Random Walk, LRW)。
  • ACT指数基于平均步骤数,SimRank衡量随机游走者相遇的时间,而LRW专注于短路径,计算复杂度较低。

基于似然估计的方法

  • 这类方法假设社交网络中的节点和边符合某种概率分布或模型,并利用历史数据估计这些参数,从而预测未来的链路。
  • 如Clauset等人推断网络层次结构的方法,Nur Nasuha Daud等人的节点分组方法,以及Pan等人基于结构哈密顿量的方法。
  • 这些方法尽管计算复杂度较高,但提供有价值的见解。

两类方法的优缺点

  • 基于相似性的方法:计算复杂度低,但结果易受网络结构影响,稳定性和鲁棒性有限。
  • 基于似然估计的方法:具有强大的数学基础和高预测准确性,但计算量大,不适合大规模网络。

LLSLP方法(逻辑斯蒂回归 LightGBM 堆叠链路预测)

逻辑斯蒂回归 LightGBM 堆叠链路预测(Logistic-regresion LightGBM Stacking Link Prediction method,LLSLP)

方法概述

逻辑斯蒂回归 LightGBM 堆叠链路预测方法(LLSLP)是一种高效的链路预测方法。它把社交网络中的链路预测问题视为一个二分类问题,并采用以下步骤:

  1. 特征学习:使用15个相似性指标作为模型要学习的特征。
  2. 超参数确定:精确调整基模型的超参数以优化性能。
  3. 特征重学习:对基模型学到的新特征进行重新学习,以精细化预测结果。
  4. 算法验证:通过在10个不同网络上的实验,并比较7个关键指标,验证算法的可行性和有效性。

逻辑斯蒂回归模型

逻辑斯蒂回归模型是一种用于解决分类问题的模型,它通过以下方式提升性能和准确度:

  • 梯度的单边采样算法(GOSS):减少样本维度,从而提高处理速度和效率。
  • 互斥特征捆绑算法(EFB):减少特征维度,增强模型的解释能力。

防止过拟合

为了防止模型过拟合,LLSLP方法在误差函数中加入正则项。这有助于平衡模型的复杂度与预测准确度。

强学习器的创建

LLSLP方法通过结合弱学习器的偏置或方差,创建出一个性能更优的强学习器(或称为“集成模型”)。这种方法旨在从多个简单模型中汲取优势,构建出一个整体性能更强的复合模型。

逻辑斯蒂回归(Logistic Regression)

Logistic回归模型概述

定义和用途

逻辑斯蒂回归是一种用于二分类问题的统计方法,它预测某个事件发生的概率。适用于需要概率输出的场景,如医学诊断、市场营销响应预测等。

模型特点

  • 二分类模型:预测结果为二元输出,通常为0或1。
  • 概率输出:与传统的线性回归不同,逻辑斯蒂回归输出的是发生概率。
  • Sigmoid激活函数:采用sigmoid函数将线性回归模型的输出转换为概率。

Logistic回归模型的基本形式

  • Logit变换:使用logit函数转换概率以便进行线性建模。
  • 模型公式 logit ( p ) = log ⁡ ( p 1 − p ) = β 0 + β 1 X 1 + β 2 X 2 + . . . + β n X n \text{logit}(p) = \log\left(\frac{p}{1-p}\right) = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_nX_n logit(p)=log(1pp)=β0+β1X1+β2X2+...+βnXn
  • 损失函数:采用对数损失函数(Log Loss),表示为: L ( θ ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] L(\theta) = -\frac{1}{m}\sum_{i=1}^{m}[y^{(i)}\log(h_\theta(x^{(i)})) + (1 - y^{(i)})\log(1 - h_\theta(x^{(i)}))] L(θ)=m1i=1m[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]

Logistic回归模型的优缺点

优点

  • 简单高效:原理简单,模型清晰,易于操作。
  • 在线学习:支持在线学习,参数可轻松更新。
  • 概率输出:输出介于0到1之间,具有概率意义。
  • 可解释性:模型参数具有明确的统计学意义。

缺点

  • 处理缺失数据:对缺失数据敏感,需要预处理。
  • 非线性边界:对复杂或非线性关系的建模能力有限。

Logistic回归模型的应用场景

  • 二分类问题:如疾病诊断、垃圾邮件分类等。
  • 多分类问题:通过技术手段如一对多(OvR)扩展到多类别分类问题。

模型评估指标

准确率

准确率是反映分类器或模型对整体样本判断正确的能力,即能将阳性(正)样本(positive)判定为positive和阴性(负)样本(negative)判定为negative的正确分类能力。

精确率

精确率反映分类器或模型正确预测正样本精度的能力,即预测的正样本中有多少是真实的正样本。

召回率

召回率反映分类器或模型正确预测正样本全度的能力,即正样本被预测为正样本占总的正样本的比例。

F1分数

F1分数是精确率和召回率的加权调和平均。值越大,性能越好。F1值可以平衡precision少预测为正样本和recall基本都预测为正样本的单维度指标缺陷。

Logistic回归模型的训练和优化

训练过程

  1. 初始化参数:设定初始参数值。
  2. 计算损失函数:使用损失函数评估模型的性能。
  3. 反向传播:计算损失函数的梯度。
  4. 更新参数:根据梯度调整模型参数。

超参数调整和优化策略

  • 优化学习率、正则化参数等超参数。
  • 使用交叉验证来选择最佳超参数。

过拟合和欠拟合的处理

欠拟合处理
  • 增加特征数量。
  • 增加模型复杂度。
  • 减少正则化影响。
过拟合处理
  • 增加数据量。
  • 减少模型复杂度。
  • 应用正则化技术。
过拟合与欠拟合的判断
  • 通过比较训练集和测试集上的误差来判断。

正则化方法的应用

定义

正则化是对模型的复杂度进行惩罚,以防止过拟合。

L1和L2正则化

  • L1正则化(Lasso回归):使用绝对值,可以将系数压缩至0,实现特征选择。
  • L2正则化(Ridge回归):使用平方值,可以增加系数的大小,避免过拟合。

多重共线性问题

定义及其表现

多重共线性是指在一个回归模型中,两个或多个解释变量高度相关。当出现多重共线性时,计算自变量的偏回归系数会遇到困难,因为涉及的矩阵可能不可逆。其主要表现包括:

  • 模型整体方差分析结果与单个自变量的回归系数检验结果不一致。
  • 通常有统计学意义的自变量检验结果却显示为无意义。
  • 自变量的系数或符号与实际情况不符。

检验方法

  • 容忍度(Tolerance):值介于0至1之间。容忍度值较小表明存在共线性。
  • 方差膨胀系数(Variance Inflation Factor, VIF):最常用的检验方法。VIF值大于1表明存在多重共线性。VIF值越接近1,共线性问题越轻,反之越重。

处理多重共线性的经验式做法

  1. 删除共线性变量:删除不重要的共线性变量。但需注意,这可能导致模型改变,引发决策错误。
  2. 增加样本容量:有时多重共线性与样本量过少相关,增加样本量可能有助于解决。但这可能受到实际限制,如实验已结束等。
  3. 变量转换:构造一个新变量,作为多重共线性变量的函数,并用这个新变量替代原有变量。需确保新变量具有实际意义,以保持模型的可解释性。

岭回归和Lasso回归

岭回归(Ridge Regression)

岭回归,也称为Tikhonov regularization,是一种专用于处理共线性数据的回归方法。它是最小二乘估计法的改良版,通过引入一个惩罚项来减少模型的复杂度。这种方法虽然牺牲了一些信息和精度,但却能获得更可靠的回归系数,尤其在处理病态数据时比最小二乘法更为有效。

  • 惩罚项的影响:岭回归惩罚项中的λ对模型的精确性有显著影响。
  • 岭迹分析:通常使用岭迹分析来选择合适的λ值,选择原则包括回归系数的稳定性、符号的合理性、避免经济意义不合理的绝对值,以及残差平方和的适度增加。

Lasso回归

Lasso回归(Least Absolute Selection and Shrinkage Operator)是一种以降维为目的的压缩估计方法。通过引入一个一阶惩罚函数,Lasso能够将某些系数完全压缩至0,实现变量选择的目的。虽然和岭回归在公式上有相似之处,但Lasso在λ较小时能使一些系数变为0,这是岭回归难以做到的。

  • 与岭回归的比较:Lasso使用一阶绝对值惩罚项,而岭回归使用二阶平方和惩罚项。
  • 几何解释:通过几何角度可以明显看出Lasso和岭回归的不同。
  • 缺点:Lasso无法得出显式解,需要使用近似计算方法(如坐标下降法和最小角回归法),估计结果可能存在误差。

核心差异

两种回归方法的核心区别在于它们使用的范数不同:Lasso回归采用L1范数,而岭回归采用L2范数。这导致了它们在处理过拟合问题以及系数缩减上的不同表现。

Logistic回归模型与其他模型的比较和选择

与决策树的比较

  • 分类方式:Logistic回归是连续概率模型,而决策树是离散分类模型。
  • 模型解释性:Logistic回归易于解释,决策树则更易于构建。
  • 变量选择:Logistic回归采用正则化方法进行变量选择,决策树采用剪枝方法。
  • 计算复杂度:Logistic回归模型的计算复杂度相对较低,决策树的计算复杂度较高。

与支持向量机的比较

  • 模型类型:Logistic回归是线性模型,支持向量机(SVM)是二分类模型。
  • 约束不同:Logistic回归通常使用L1正则化,SVM使用L2正则化。
  • 损失函数:Logistic回归使用对数损失函数,SVM使用Hinge损失函数。
  • 适用范围:Logistic回归适用于数据量大、特征多、类别不平衡的情况,SVM适用于数据量小、特征少、类别平衡的情况。

在不同场景下的模型选择

  • 线性回归模型:适用于连续型变量,无类别标签的情况。
  • Logistic回归模型:适用于二分类问题,提供概率输出。
  • 决策树模型:适用于分类和回归问题,提供结构化决策规则。
  • 随机森林模型:适用于分类和回归问题,提供多个决策树的综合结果。
  • 支持向量机模型:适用于二分类问题,关注于找到最大间隔的分类边界。

正则化的作用

正则化是一种重要的技术,用于防止机器学习模型的过拟合。以下通过一个简单实验来说明正则化的效果。

实验设计

实验采用一个两层的神经网络模型,其中激活函数为Sigmoid。目标是拟合直线 y = x y = x y=x。我们对这条直线进行等间距采样,并加入随机噪声,得到10个数据样本。

实验结果

实验中,我们比较了两种情况:没有正则化 λ = 0 \lambda = 0 λ=0和有正则化 λ = 0.5 \lambda = 0.5 λ=0.5

  • 无正则化 λ = 0 \lambda = 0 λ=0:模型尝试降低误差,但由于训练数据较少,可能导致模型完美拟合带噪声的数据,即发生过拟合。
  • 有正则化 λ = 0.5 \lambda = 0.5 λ=0.5:通过引入正则化项,模型在拟合过程中不仅考虑误差最小化,也考虑了模型的复杂度。这种方式使得模型更加健壮,能够抵抗噪声,从而提高了对未知样本的预测性能。

正则化的作用

正则化通过向损失函数中添加一个正则项(通常是模型权重的L1或L2范数),使模型在训练过程中不仅尽可能降低误差,同时也保持模型的简洁性。这样的策略有效地抑制了过拟合现象,增强了模型的泛化能力。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1319683.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【工具使用-有道云笔记】如何在有道云笔记中插入目录

一,简介 本文主要介绍如何在有道云笔记中插入目录,方便后续笔记的查看,供参考。 二,具体步骤 分为两个步骤:1,设置标题格式;2,插入标题。非常简单~ 2.1 设置标题格式 鼠标停在标…

【深度学习目标检测】八、基于yolov5的抽烟识别(python,深度学习)

YOLOv5是目标检测领域一种非常优秀的模型,其具有以下几个优势: 1. 高精度:YOLOv5相比于其前身YOLOv4,在目标检测精度上有了显著的提升。YOLOv5使用了一系列的改进,如更深的网络结构、更多的特征层和更高分辨率的输入图…

硬件基础-电阻

电阻 1.品牌 厚声、风华,三星、罗姆、松下、KOA 2.分类 插件 碳膜电阻:精度-5 J 是在高阻,高压和高温应用中 属负温度系数电阻 金属膜:-1 F 贴片 电阻标识:(含义:阻值大小和精度&a…

使用DETR 训练VOC数据集和自己的数据集

一、数据准备 DETR用的是COCO格式的数据集。 如果要用DETR训练自己的数据集,直接利用Labelimg标注成COCO格式。如果是VOC数据集的话,要做一个格式转换,yolo格式的数据集,转换成coco格式 COCO数据集的格式类似这样,a…

【改进YOLOv8】磁瓦缺陷分类系统:改进LSKNet骨干网络的YOLOv8

1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 研究背景与意义 近年来,随着智能制造产业的不断发展,基于人工智能与机器视觉的自动化产品缺陷检测技术在各行各业中得到了广泛应用。磁瓦作为永磁电机的主…

verilog基础语法-计数器

概述: 计数器是FPGA开发中最常用的电路,列如通讯中记录时钟个数,跑马灯中时间记录,存储器中地址的控制等等。本节给出向上计数器,上下计数器以及双向计数器案例。 内容 1. 向上计数器 2.向下计数器 3.向上向下计数…

迷你型洗衣机好用吗?高性价比的四款内衣洗衣机推荐

不得不说内衣洗衣机的发明解放了我们的双手,而我们从小到大就有这个意识,贴身衣物不可以和普通的衣服一起丢进去洗衣机一起,而内衣裤上不仅有肉眼看见的污渍还有手上根本无法消灭的细菌,但是有一款专门可以将衣物上的细菌杀除的内…

机器学习——自领域适应作业

任务 游戏里面的话有很多跟现实不一样的情况。 想办法让中间的特征更加的接近,让feat A适应feat B,产生相对正常的输出。 在有标签数据和没有数据的上面进行训练,并能预测绘画图像。 数据集 训练5000张总数,每类有500张测试100…

人工智能数据挖掘:发掘信息的新境界

导言 人工智能数据挖掘作为信息时代的利器,通过智能算法和大数据技术的结合,为企业、学术研究和社会决策提供了前所未有的洞察力。本文将深入探讨人工智能在数据挖掘领域的应用、技术挑战以及对未来的影响。 1. 人工智能数据挖掘的基本原理 数…

Python学习笔记(一)Anaconda开发环境介绍与搭建

本文介绍了Python学习中常用的开发环境Anaconda,以及如何搭建和使用Anaconda。Anaconda是一个集成了许多模块和包管理工具的软件集合,可以管理Python解释器、模块和虚拟环境。文章还比较了conda和pip这两个包管理工具的区别,并介绍了Anaconda…

Unity实现GoF23种设计模式

文章目录 Unity实现GoF23种设计模式概要一、创建型模式(Creational Patterns):二、结构型模式(Structural Patterns):三、行为型模式(Behavioral Patterns):Unity实现GoF23种设计模式概要 GoF所提出的23种设计模式主要基于以下面向对象设计原则: 对接口编程而不是对实…

Lambda表达式的简单理解

1. 初识lambda表达式 Lambda表达式是Java SE 8中一个重要的新特性。lambda表达式允许你通过表达式来代替功能接口。 lambda表达式就和方法一样,它提供了一个正常的参数列表和一个使用这些参数的主体(body,可以是一个表达式或一个代码块)。 Lambda 表达式(Lambda exp…

✺ch4——管理3D图形数据

目录 缓冲区和顶点属性统一变量顶点属性插值应用变换矩阵一个3D立方体示例渲染一个对象的多个副本——实例化在同一场景中渲染多个不同模型矩阵栈应对“Z冲突”伪影图元的其他选项性能优先的编程方法 使用 OpenGL 渲染 3D 图形通常需要将若干数据集发送给 OpenGL 着色器管线。举…

DS哈希查找—线性探测再散列

Description 定义哈希函数为H(key) key%11,输入表长(大于、等于11)。输入关键字集合,用线性探测再散列构建哈希表,并查找给定关键字。 –程序要求– 若使用C只能include一个头文件iostream;若使用C语言…

giee 添加公匙 流程记录

一、安装 百度网盘CSDN4文件夹下,或者官网下载:https://git-scm.com/downloads 二、生成密钥 1.右击打开git bash 2.$ ssh-keygen -t rsa -C “个人邮箱地址”,按3个回车,密码为空。 3.在C:\Users{windows用户名}.ssh目录下得到…

玩转字词句魔法:打造超强样本集的数据增强策略,句式变换揭秘同义句生成与回译在数据增强中的创新应用

NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法等 专栏详细介绍:NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取…

【PHP】一个邮箱点击验证的完整示例

目录 1.效果展示 2.发送验证码 3.进行验证 以绑定邮箱为例,注册验证的话修改判断逻辑 1.效果展示 2.发送验证码 /*** 发点击验证* 参数 email*/public function sendClick(){$param $this->request->post();// 邮箱email的validate规则验证,略…

酒精壁炉,现代取暖的便携选择

酒精壁炉作为现代室内取暖的一种选择,具有独特的特点和工作原理。酒精壁炉采用酒精作为燃料,为家庭提供舒适的温暖,同时具备一定的安全性和便携性。 酒精壁炉通常由金属或陶瓷制成,内部设有专门的燃烧器,用于燃烧酒精燃…

SpringBoot使用@DS配置 多数据源 【mybatisplus druid datasource mysql】

项目最近需要使用多数据源,不同的mapper分别读取不同的链接,本项目使用了mybatisplus druid 来配置多数据源,基于mysql数据库。 目录 1.引入依赖 ​2.配置文件 application.yaml 3.Mapper中使用DS切换数据源 4.使用DS的注意事项 1.引入依…

用uniapp写一个点击左侧可以滑动的menu

完成后的图片(点击左侧右边或滑动,滑动右边左侧的选中也会变化): 数据js (classifyData): export default[{"name": "女装","foods": [{"name": &q…