Dynamic Extraction of Subdialogues for Dialogue Emotion Recognition

news2025/1/12 4:10:34

对话情感识别的子对话动态提取

  • 摘要
  • 1. 介绍
  • 2 相关工作
    • 2.1 对话上下文建模
    • 2.2 常识知识
  • 3 方法
    • 3.1 问题定义
    • 3.2 模型概述
    • 3.3 特征提取模块
    • 3.4 依赖性建模
    • 3.5 交互式子对话提取模块
    • 3.6 重要性增强的多头自注意力模块
    • 3.7 子对话框主题提取模块
    • 3.8. 分类模块
  • 四、实验
    • 4.1 数据集
    • 4.1 实验细节
    • 4.2 基线
    • 4.3. 结果与分析

摘要

对话中的情绪识别(ERC)的目的是识别对话中每一个话语中所表达的情绪。然而,以往的一些方法并没有充分考虑到对话中每个说话者的话语和目标话语的相对位置信息对情绪分析的影响,也忽略了不同子主题下目标话语所表达的情绪的差异。我们引入了一种动态提取子对话(DESD)方法的情绪识别来解决这些问题。该方法利用每个说话者的话语和目标话语的相对位置信息来提取子对话。通过考虑每个说话者对情感表达的贡献,我们可以更准确地捕捉到对话中的情绪动态。此外,我们还提取了子对话的主题信息,以捕捉不同的子主题对目标话语情绪的影响。通过在四个不同数据集上的实验,验证了网络的有效性。我们的代码可在以下网站中获得:https://anonymous.4open.science/r/DESD-1FDF。

1. 介绍

对话情绪识别的目的是理解对话参与者的情绪状态,包括积极、消极和中性,以及情绪类别,如快乐、愤怒和悲伤。它被广泛应用于社交媒体分析、心理健康监测等领域,有助于提高用户体验和智能决策。

在对话中,情感通常是基于语境的,理解一个话语的情感需要同时考虑前面和后面的语境。因此,对话情绪识别需要对对话上下文进行建模,以确保变化和情绪进化被正确地捕获。许多以前的方法利用递归神经网络(RNNs)(DialogRNN[1],DialogXL[2],DialogueCRN[3],ERCMC[4])和图神经网络(GNNs)(DAG-ERC[5],MM-DFN[6],KGCN-ERC[7],CMCF-SRNet[8])模型对话的上下文信息和语义特征的话语捕捉情绪的传播和变化。这些方法在建模环境中取得了良好的效果。尽管之前的方法为语义分析提供了基础,但是他们没有充分考虑说话人话语与目标话语之间的相对位置信息及其对情绪分析的潜在影响。此外,这些研究忽略了同一目标话语在不同的子主题下可能表达出不同的情绪的事实。考虑到对话可能涉及几个不同的子主题,如图1所示。并且,相同的话语在不同的主题语境下可能有不同的情感颜色,如图2所示。为了解决这一问题,我们提出了一种动态的子主题选择方法,并优化了多重注意力机制,以增强对相关话语的关注。此外,我们采用变分自编码器技术来提取每个子对话的主题信息,用于准确地捕捉目标话语的情绪倾向。

在这里插入图片描述

在这里插入图片描述
在本文中,为了更准确地识别对话中参与者的情绪,我们提出了一种动态子对话提取(DESD)的情绪识别方法。具体来说,我们首先使用双向长短期记忆(LSTM)对上下文和说话者的依赖关系进行建模,然后根据话语的接近程度和说话者的相对位置动态选择子对话。然后,我们利用重要性增强的多头自注意力来评估对话中话语的重要性,捕捉最重要的话语进行情感识别,并将更多的注意力集中在这些话语上。此外,我们利用一个变分自编码器来提取子对话的主题,以帮助情绪识别。我们对4个常用的ERC数据集进行了广泛的实验,实验结果表明,我们提出的DESD在四个数据集上取得了很好的效果。

本文的主要贡献如下:

  • 结合说话者的相对位置信息,我们提出了一种动态提取子对话(DESD) 用于情绪识别,以提高对话情绪识别的准确性。
  • 我们设计了一个交互式子对话提取模块来提取每个子对话,以及一个重要性增强的多头自注意力模块(IEMHSA)和一个子对话主题提取模块(TEM),以提高对话情绪识别的准确性。我们的方法在四个数据集上都取得了良好的性能: DailyDialog、MELD、IEMOCAP和EmoryNLP。

2 相关工作

2.1 对话上下文建模

深度学习技术在对话情绪识别领域得到了广泛的应用,特别是递归神经网络(RNN)和图卷积网络(GCN)技术。这些技术利用神经网络模型,通过深入分析文本数据,来准确地识别对话中的情绪态度。在会话情绪识别中,RNN是一种常用的模型,通过对文本序列的时间信息进行建模,可以帮助理解会话中情绪的语境和演化。其中,bc-LSTM [9]是一个基于LSTM的模型,设计用于捕获同一视频中来自其周围环境的话语的上下文信息。DialogueRNN[1]使用了三个门控循环单元来对说话者、前一个话语的上下文和前一个话语的情绪进行建模。 Icon[10]将自我和对话者的情感影响分层建模为一个能够生成上下文总结的全局记忆。CMN [11]通过引入一种基于注意力的跳跃机制,将门控循环单元集成到由每个说话者的历史话语建模的记忆中。双向快速门控循环单元(BiFAGRU)[12]引入了一个注意AGRU来更新门控循环单元(GRU)的内部状态,并进一步改进AGRU为BiAGRU,以平衡最近和遥远的记忆上下文信息。MuCDN [13]使用两种独立的方法,显式和隐式,来有效地处理多方对话中的上下文和说话者建模。DialogueEIN[14]利用语义交互网络捕获对话级语义上下文表征,利用情绪交互网络对情绪交互进行建模。

除了RNNs外,GNNs也被广泛应用于会话情绪识别中。GNNs可以通过卷积操作捕获文本中的局部特征,如情感单词和短语,来帮助情感分类。DialogueGCN[15]通过图网络解决了RNN方法中上下文传播的问题,主要是通过对话者和对话者之间的自依赖性来实现交互依赖性。SumAgagGIN[16]引入异构概括图来推断与主题相关的情绪短语,增强话语表征,并构建聚合图来捕捉相邻话语的短期情绪影响。DAG-ERC [5]引入了有向无环GNNs,用于在单个层中反复收集每个话语的先行信息,从而实现了对远程上下文的编码。S+PAGE [17]通过双流会话transformer(TSCT)和PAG提取上下文特征,然后使用条件随机场(CRF)层对情绪标签的全局转移进行建模。MMDFN [6]利用梯度分离融合(GDF)模块,通过学习内在的序列模式和控制信息流,自然地融合多模态上下文信息。GraphCFC [18]将对话建模为多模态定向异构图,并通过PairCC策略逐步融合这些特征。引入GAT-MLP来求解GNN过平滑问题。这些模型的引入和改进导致了对话情绪识别表现的显著提高。

随着预训练语言模型的流行,会话情绪识别的研究不断发展,越来越多的方法开始使用这些模型来提高表现。其中一些方法包括对话框eCRN[3]、CoMPM [19]、M2FNet [20]和抓取[21]。这些方法利用了预训练的语言模型的力量,显著提高了对话情绪识别的准确性。

2.2 常识知识

为了帮助对话情绪识别,一些方法利用外部常识知识来提供额外的上下文信息。这些知识可以来自各种领域,包括情感词汇、情感知识图和领域专业知识。通过引入这些额外的知识,该模型能够更好地理解和解释对话中的情感内容。例如,KET [22]利用情感图注意力机制来平衡知识实体的相关性和情绪性。COSMIC[23]是基于一个广泛的常识性知识库,它被用于捕捉个性、事件、精神状态、意图和情绪之间的复杂的相互作用。SKAIG [24]通过结合过去、现在和未来的信息来源来增强上下文建模,这使得边在建模话语之间的心理交互中发挥关键作用。TODKAT [25]利用注意力和门控机制来整合通过不同方法检索到的常识知识。

3 方法

3.1 问题定义

给定一个包含N个连续话语的对话上下文{u1,u2,u3,…un}和M个说话者{s1,s2,s3,…,sm},每个话语在表达一种情感时都与一个特定的说话者相关联。ERC的主要目标是识别说话者si所说的话语ui表达的情感。

3.2 模型概述

我们提出的体系结构,如图3所示,包括以下关键模块。(1)特征提取模块使用RoBERTa从每个话语中提取关键特征。(2)依赖建模建模上下文和每个说话者之间的依赖关系。(3)交互式子对话提取模块根据话语的接近程度和说话者的相对位置,动态选择子对话。(4)重要性增强的多头自注意力增强了子对话对整个对话中目标话语的重要性。(5)子对话主题提取模块使用一个变分自编码器提取每个子对话框的主题。(6)分类模块将每个模块的输出拼接在一起,以预测每个话语的情绪。

在这里插入图片描述

3.3 特征提取模块

我们利用预训练的语言模型RoBERTa [26]的语言理解能力来捕获话语的语义信息。具体来说,我们用一个特殊的标记[CLS]拼接每个话语,并将其输入RoBERTa模型。然后,我们提取最后一层嵌入的[CLS]作为话语的特征表示。
在这里插入图片描述

3.4 依赖性建模

上下文依赖建模(CDM):为了更全面、更有效地理解对话中的语义信息,我们在模型中引入了一个双向的LSTM [27]。通过使用双向LSTM,我们可以同时考虑上下文信息来更准确地建模和分析对话。
在这里插入图片描述

我们利用双向LSTM不仅关注当前的话语,还可以回溯到之前对话的历史,以更好地理解话语中的情感、态度和语义。

说话者依赖建模(SDM):为了捕捉每个说话者独特的情感表达模式和独特的风格,我们提取每个说话者的话语,并将它们输入一个双向LSTM中进行分析。

在这里插入图片描述
在这个过程中,我们不仅收集说话者的话语,而且对潜在的情感和语言风格进行更深入的挖掘。通过使用双向LSTM,我们可以有效地捕捉说话人单词中的上下文信息,而不局限于一个话语或一个单词的表面意义。这有助于我们更全面地理解情感表达,以及他们可能使用的特定语言习惯和修辞手法

在这里插入图片描述

3.5 交互式子对话提取模块

为了充分考虑每个说话者的话语与目标话语之间的相对位置信息对情绪分析的影响。我们提出了一种交互式的子对话提取方法,如图4所示。该方法的目的是通过在更精细的层次上考虑子对话和情感背后的交互作用,来提高对话理解的准确性

在这里插入图片描述

窗口尺寸选择:通常,每个话语只与少数相邻的历史话语相关联。此外,为了确保每个说话者尽可能地在子对话中被表示,我们采用了一个窗口大小(表示为w’)度量,其中w’是通过考虑在一段文字中出现的不同说话者M的数量总和以及目标话语的数量来计算的。
在这里插入图片描述
话语选择:说话者的说的话在对话中往往以不规则的顺序出现,我们制定了一套规则来选择子对话。作为子对话的一部分,我们选择了在窗口内不同说话者相对于目标话语位置为1的历史话语。这有助于更准确地捕捉对话中的情感动态,因为考虑了每个说话者对情感表达的贡献。 子对话选择过程遵循以下规则:
在这里插入图片描述
在这里插入图片描述
接下来,我们将那些相对位置不等于1的话语设置为0。为了更符合对话的特点,我们还将目标话语后的所有话语都设为0。特别是,xo和xo之间的相对位置被设置为1。然后,我们使用修改后的相对位置信息来生成子对话的掩模。最终,我们得到了完整对话的MASK矩阵,如图5(a)所示。我们使用这个MASK矩阵来确定每个话语的子对话范围
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

3.6 重要性增强的多头自注意力模块

考虑到最接近目标话语的话语通常具有更高的信息密度,我们的目标是更准确地赋予这些话语更大的权重。为此,我们引入了一种重要性增强的多头自注意力机制,该机制利用交互式子对话框提取模块中的MASK矩阵,有意地强调重要话语的影响。

具体来说,我们首先修改了MASK矩阵中的1值,对其添加子对话的重要性得分。得分是根据子对话中话语数量与整个对话中话语数量的比率计算得出的随后,将MASK矩阵中的所有0值修改为1值。注意力加权矩阵M‘如图5(b)所示,这个新的矩阵M’用于校正原始的注意力分数。
在这里插入图片描述

接下来,我们使用多头自注意力机制[28]来计算每个话语的注意力分数,然后乘以M‘,然后归一化,得到重要性增强的注意力分数。最后,我们乘以这些注意力分数与权重矩阵V来生成话语的向量表示,并将所有注意力头的结果连接起来:
在这里插入图片描述

3.7 子对话框主题提取模块

为了解决同一目标话语在不同的子主题下可能表达不同情绪的事实。我们使用变分自动编码器(VAE)[29]来获取关于每个子对话W的主题信息。变分自动编码器有助于将子对话映射到一个潜在的空间,其中每个维度对应于一个主题或情感因素。这样,我们就可以捕捉每个子对话的主题特征,让我们对对话中涉及的不同主题有更深入的理解。
在这里插入图片描述

编码过程:对于话语wi,我们使用神经网络来推导与wi相关的分布p(Z | wi)。在这种情况下,我们假设这个与话语wi相关的分布是一个多元独立的正态分布。我们从这个分布中抽样,得到一个隐变量zi,然后用它来拟合话语wi。我们利用两个神经网络f1和f2来计算µi,δi的wi:
在这里插入图片描述
为了提高生成能力,使网络尽快收敛,我们期望δi收敛到1,µi收敛到0,即N(µi,δi)≈N(0,1)。

在这里插入图片描述
解码过程:从隐变量分布q(Z)中采样zi。为了使编码过程与解码过程一致,让q(Z)与p(Z | wi)相同。其中,假设q(Z) = N(0,1)。因此,q(Z) = p(Z | wi) = N(0,1)。之后,使用神经网络wˆi = g(zi):将zi映射到wˆi,神经网络g(Z),也可以表示为q(W | Z)。

在这里插入图片描述

损失VAE的性能可以通过变分下界(ELBO)损失来评估,该损失由重构损失和KL损失组成。重构损失用于计算生成数据wˆi与原始数据wi之间的相似度程度(尽可能高性能)。相比之下,KL损失作为额外的损失,用于衡量一般正态分布与标准正态分布之间的差异(规范隐空间的组织)。
在这里插入图片描述
变分自编码器通过将文本映射到一个低维的连续空间,将文本的语义信息编码为隐变量的值。由于相似的主题通常对应于潜在空间中相似的数据点,所以我们使用隐变量zi作为主题向量h c
在这里插入图片描述

3.8. 分类模块

我们将从这三个模块中得到的结果拼接起来,然后将它们通过一个情绪分类器进行话语情绪预测。

在这里插入图片描述
随后,在模型训练阶段,我们使用交叉熵损失函数,其定义如下:
在这里插入图片描述
其中,B为对话段落数,Bj为第j次对话中的话语数。yj、k和yˆj、k分别表示第j次会话中第k个话语的实际情绪标签和对应的预测标签分布。L‘表示总损失。

四、实验

4.1 数据集

我们在实验中使用了四个常用的数据集,并组织了这些数据集的统计数据。
在这里插入图片描述

IEMOCAP[30]是由南加州大学的SAIL实验室收集的一个多模态视听数据集,其中包括由专业演员扮演的两人对话,共计12个小时。该数据集涵盖了10个演员(5名男性和5名女性),并被分为5个阶段,每个阶段包括1名男演员和1名女演员。这些对话被标记为6种不同的情绪状态。DailyDialog [31]是一个高质量的多回合对话数据集,只包含低噪声的文本,涵盖了各种日常生活主题上的对话,并且在对话中没有固定的说话者。这些对话被标记为七种不同的情绪状态。MELD [32]起源于电视剧《老朋友》。它以多人对话的形式呈现,这是情感线的“老朋友”部分的多模态扩展,包含文本和视频信息。这些对话被贴上了七种情绪状态和三种情感状态的标签。EmoryNLP [33]是从电视剧《老朋友》中收集的多人对话数据集。这些对话被标记为7个不同的内容。

4.1 实验细节

在本节中,我们将详细介绍我们所提出的方法的实际实现步骤。首先,我们使用RoBERTa模型来提取与上下文无关的话语级特征,将其维度设置为1024,并将它们作为预处理输入。此外,我们在模型中引入非线性激活函数之前引入了dropout,并将dropout大小设置为0.2。我们将多头自我注意信息的初始值设为4来学习不同的上下文信息。在训练过程中,我们使用Adam [34]优化器对模型的参数进行调整,学习率设置为1e-4。这些选择和设置有助于提高模型的性能和可靠性。

4.2 基线

我们在四个常用的ERC数据集上测试了该模型,并将DESD与以下基线进行了比较:

基于RNN的方法:对话框RNN[1]使用三个GRUs来建模话语的不同方面。DialogXL [2]使用增强的内存来存储更长的历史上下文,同时利用自我注意机制来处理多方结构,以更好地感知对话的内容。[3]设计了一个多轮推理模块,通过该模块可以提取和整合情感线索更有效。ERCMC [4]使用相对位置嵌入和GRU来捕捉话语和对话状态的确切表示。EmoLR [35]通过自适应地生成细粒度的标签分布来更全面地捕获语义信息,从而定量地描述情绪强度。HU-对话[36]通过在权重共享三元结构中实现不确定性建模,有效地建模了情绪识别任务(ERC)中的上下文级和模态级的不确定性。

基于gnn的方法: DAG-ERC [5]提供了一种更直观的方法来建模一个遥远的对话上下文和附近的上下文之间的信息流。MM-DFN [6]通过捕获不同语义空间中的上下文信息的动态来实现冗余减少和多模态互补增强。KGCNERC [7]为每个话语寻找最合适的局部窗口,并建立合理的话语连接,以增强对话的一致性和逻辑。CMCF-SRNetd [8]同时考虑局部上下文和说话者情绪,并通过语义细化模块提取有效的语义特征和上下文信息。快乐的[37]引入了一个基于图的对比学习框架,该框架利用视图间和视图内的对比损失来增强与不同情绪状态相关的表征的可区分性。MMPCGN [38]通过异构图卷积神经网络聚合相邻节点的信息,获得丰富的语义信息。

一种基于外部常识知识的方法:宇宙[23]首先整合不同的常识元素,然后学习基于这些元素的对话中不同对话者之间的相互作用。TODKAT [25]将主题增强的语言模型与从基于对话上下文信息的知识库中获得的常识性话语结合起来。AutoML-Emo [39]引入了一种针对相关知识和模型的选择的AutoML策略,利用了情绪一致性的影响。

4.3. 结果与分析

我们将DESD与每日对话框、MELD、国际电子地图和EmoryNLP数据集上的基线论文中的结果进行了比较;结果见表二。对于MELD、IEMOCAP和EmoryNLP数据集,我们使用加权的平均-f1作为度量。相比之下,对于每日对话框数据集,考虑到其中立类别的高比例,我们使用MicroF1,它忽略了中立类别,作为度量。实验结果表明,我们的DESD模型在四个数据集上都表现良好,且其指标明显优于以往的方法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1654491.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

JAVA基础之jsp标准标签

jsp动作标签实现实例化一个实体类 <jsp:useBean id"标识符" class"java类名" scope"作用范围"> 传统的java方式实例化一个实体类 Users user new Users(); <%%> id: 对象名 * class:类 创建对象时,完全限定名(包名…

vue3使用el-autocomplete请求远程数据

服务器端 RestController RequestMapping("/teacher") public class TeacherController {Resourceprivate TeacherService teacherService;GetMapping({"/v1/getTop10TeacherByName/","/v1/getTop10TeacherByName/{name}"})public ResultBean&l…

巡检机器人有哪些功能和作用?

在科技如此发达的时代&#xff0c;巡检机器人犹如一位不知疲倦的守护者&#xff0c;悄然走进了我们的生活。它们具备着令人惊叹的功能和作用&#xff0c;成为了保障安全、提高效率的重要力量。那么&#xff0c;巡检机器人功能和作用&#xff1f;下面我们来说说旗晟机器人的几款…

爬虫:爬取豆瓣电影

文章目录 前言一、pandas是什么&#xff1f;二、使用步骤 1.引入库2.读入数据总结 前言 上篇我们将到如何利用xpath的规则&#xff0c;那么这一次&#xff0c;我们将通过案例来告诉读者如何使用Xpath来定位到我们需要的数据&#xff0c;就算你不懂H5代码是怎么个嵌套或者十分复…

Leetcode—387. 字符串中的第一个唯一字符【简单】

2024每日刷题&#xff08;127&#xff09; Leetcode—387. 字符串中的第一个唯一字符 实现代码 class Solution { public:int firstUniqChar(string s) {int count[26] {0};for(char c: s) {count[c - a];}for(int i 0; i < s.length(); i) {if(count[s[i] - a] 1) {re…

LSTM神经网络 vs Transformer在量化中的应用

LSTM,全称Long Short-Term Memory,是一种特殊的递归神经网络。它通过巧妙的"门"结构,可以有效地捕捉时间序列数据中的长期依赖关系。这一特点,使得LSTM在处理股价这种具有时间序列特性的数据时,展现出了非凡的潜力。 这种特殊的递归神经网络 与一般的前馈神经网络不…

BACnet转MQTT网关智联楼宇json格式自定义

智能建筑的BACnet协议作为楼宇自动化领域的通用语言&#xff0c;正逐步迈向更广阔的物联网世界。随着云计算和大数据技术的飞速发展&#xff0c;如何将BACnet设备无缝融入云端生态系统&#xff0c;成为众多楼宇管理者关注的焦点。本文将以一个实际案例&#xff0c;揭示BACnet网…

Baidu Comate智能编码助手:提升软件生产力的高效工具使用教程

目录 一、前言 二、Comate助手概览 三、核心功能详解 智能推荐与自动补全 生成单元测试 代码注释生成 四、使用场景与优势 五、总结与展望 一、前言 随着信息技术的飞速发展&#xff0c;编程已经成为许多行业不可或缺的一部分。然而&#xff0c;编程过程中的繁琐和重复…

路由策略与路由控制

1.路由控制工具 匹配工具1&#xff1a;访问控制列表 &#xff08;1&#xff09;通配符 当进行IP地址匹配的时候&#xff0c;后面会跟着32位掩码位&#xff0c;这32位称为通配符。 通配符&#xff0c;也是点分十进制格式&#xff0c;换算成二进制后&#xff0c;“0”表示“匹配…

谷歌月球模型

收费产品&#xff0c;白嫖党勿扰 收费金额500元 1 概述 前些时间&#xff0c;有个客户&#xff0c;想fight TAIWAN&#xff0c;于是乎&#xff0c;我把谷歌地球整个台湾的模型都下载下来了&#xff0c;大约300GB。今天&#xff0c;又有个客户&#xff0c;提出一个过分要求&…

Linux网络编程:TCP编程实现

目录 1、前言 2、函数介绍 2.1 socket函数 与 通信域 2.2 bind函数 与 通信结构体 2.2.1 domain通信地址族 与 通信结构体 2.2.2 IPv4地址族结构体 2.2.3 通用地址族结构体 2.2.4 示例&#xff1a;为套接字fd绑定通信结构体addr 2.3 listen函数 与 accept函数 …

KMP + Compose 跨平台 Android IOS 实战入门

KMP&#xff08;Kotlin Multiplatform&#xff09;是一种面向移动端开发的跨平台框架&#xff0c;使用 Kotlin 语言编写&#xff0c;可实现在 Android 和 iOS 平台上共享代码和逻辑。通过 KMP 框架&#xff0c;我们可以编写一次代码&#xff0c;然后在不同的平台上进行部署和运…

HFSS学习-day2-T形波导的优化设计

入门实例–T形波导的内场分析和优化设计 HFSS--此实例优化设计 优化设计要求1. 定义输出变量Power31、Power21、和Power11&#xff0c;表示Port3、Port2、Port1的输出功率2.参数扫描分析添加扫描变量和输出变量进行一个小设置添加输出变量进行扫描分析 3. 优化设计&#xff0c…

Java 中的 HTTP 客户端库OkHttp、Apache HttpClient和HttpUrlConnection

大家好&#xff0c;我是G探险者。 项目开发里面经常会有这么一种场景&#xff1a;与服务器进行 HTTP 通信。一般存在于服务间远程调用的场景 Java 生态系统提供了多种 HTTP 客户端库&#xff0c;每种都有其自己的特点、优势和适用场景。 本文将介绍几种主要的 Java HTTP 客户…

网上离婚,快速离婚,网上立案,视频开庭,没有30天冷静期

☁️网上离婚&#xff0c;可以申请线上立案&#xff0c;视频开庭&#xff0c;这样对于无法回到本地开庭或者出于某种原因双方不想见面的朋友来说是非常便利的。 ☁️线上起诉离婚需提供的材料:&#xff08;根据自身情况选择提供&#xff09; 1&#xff1a;民事起诉状 2&…

神经网络案例实战

&#x1f50e;我们通过一个案例详细使用PyTorch实战 &#xff0c;案例背景&#xff1a;你创办了一家手机公司&#xff0c;不知道如何估算手机产品的价格。为了解决这个问题&#xff0c;收集了多家公司的手机销售数据&#xff1a;这些数据维度可以包括RAM、存储容量、屏幕尺寸、…

项目管理-项目资源管理2/2

项目管理&#xff1a;每天进步一点点~ 活到老&#xff0c;学到老 ヾ(◍∇◍)&#xff89;&#xff9e; 何时学习都不晚&#xff0c;加油 资源管理&#xff1a;6个过程“硅谷火箭管控” ①规划资源管理&#xff1a; 写计划 ②估算活动资源&#xff1a;估算团队资源&…

2024最新手赚手机软件APP下载排行网站源码及应用商店源码

前言 这是一款简洁蓝色的手机软件下载应用排行、平台和最新发布网站&#xff0c;采用响应式织梦模板。主要包括主页、APP列表页、APP详情介绍页、新闻资讯列表、新闻详情页、关于我们等模块页面。 想入行手赚行业的朋友&#xff0c;这套源码非常适合你&#xff0c;简单的部署上…

JAVA栈相关习题3

1.将递归转化为循环 比如&#xff1a;逆序打印链表 // 递归方式void printList(Node head){if(null ! head){printList(head.next);System.out.print(head.val " ");}} // 循环方式void printList(Node head){if(nullhead){return;}Stack<Node> snew Stack<…

PotPlayer v1.7.22218 全格式影音播放器,无广绿色版!

软件介绍 PotPlayer是一款多功能且免费的媒体播放软件&#xff0c;兼容多种音频和视频格式。提供了丰富的功能性以及个性化设置&#xff0c;以迎合不同用户的需求。友好的用户界面&#xff0c;允许用户自定义皮肤和快捷键&#xff0c;提升了操作的便利性。 此外&#xff0c;Po…