深入浅出对话系统——自然语言理解模块

news2024/11/19 1:42:19

自然语言理解

首先回顾一下自然语言理解的概念。
自然语言理解(Natural Language Understanding)包含三个子模块:
在这里插入图片描述
其中领域识别和意图识别都是分类问题,而语义槽填充属于序列标注问题。所以,在自然语言理解中,我们要解决两个分类任务和一个序列标注任务。既然其中两个问题都属于分类任务,那么我们可以用什么模型/方法来解决它们呢?

常见的文本分类模型有:

  • Average Word Embedding
  • Text CNN
  • Text RNN
  • Transformer

Average Word Embedding

在这里插入图片描述
其实就是把文本中的所有单词向量进行平均,这样就得到了文本的表示向量。然后依据该向量进行分类。

Text-CNN

在这里插入图片描述

Text-CNN计算文本向量表示的方法是。

  1. 首先也是拿到文本中每个单词的词向量。以上图为例,假设这里的文本是一句话I like this movie very much !,这里有7个单词,假设词嵌入维度为5,那么该句子的形状就是一个 7 × 5 7 \times 5 7×5的矩阵;
  2. 然后沿着该矩阵行的方向做一维卷积,然后这里采用6个卷积核,对于每个卷积核都会得到一个表示向量,然后进行池化操作,比如最大池化。这样我们对于每个卷积核的结果都得到了一个标量;
  3. 接着将所有的这些标量拼接起来,就可以得到和卷积核数量一样长的卷积向量,我们可以将该向量看成是整句话的表示向量;
  4. 最后依据该向量进行分类;

其中每个卷积核可以有不同的大小,卷积核的长度类似n-gram中的n大小。

Text RNN

RNN就是按照顺序读取文本中的词向量,最后输出的隐藏状态就是整个文本的表示向量。

Transformer

在这里插入图片描述
这里是一个Transformer块,Transformer在前面的文章有过详细的介绍,比如点此。我们知道,它最后也能得到一个向量表示。

下面我们来看一下序列标注。

Sequence Labeling

在这里插入图片描述
序列标注任务的本质是对序列中的每个单词进行分类,首先也需要得到每个单词的词向量,然后进行实体分类。

BIO Notation

在这里插入图片描述
我们进行序列标注时,标注的实体(比如地名)可能不止包含一个单词,甚至它们可能出现在一起,那么该如何区分呢。
这时需要采用像BIO这种标注方式,比如为地名开始分配B-LOC这样的标注,为属于同一地名后的所有词分配I-LOC这样的标注。

意图和槽位的联合识别

为什么意图和槽位填充需要联合识别?
因为意图识别和槽值检测是紧密联系的。而传统独立的建模意图识别和槽值填充,既会引出错误级联,也无法利用共有的知识。
比如:

在这里插入图片描述
这句话意图是WatchMoive,那么这句话包含的Slot(槽值)应该是电影。而如果不知道意图,可能Watch后面变成了书的名字或其他的。

那么如何做呢?

在这里插入图片描述

来自论文 A Joint Model of Intent Determination and Slot Filling for Spoken Language Understanding

比如这篇论文的做法是基于GRU的方法联合建模意图识别和槽值填充任务,具体的做法是,
① 把输入中的每个词表示成一个词向量;
② 输入到双向GRU中得到每个词的向量表示;
③ 基于每个词的向量表示通过某种方式(比如Max Pooling)得到这句话的一个整体表示;
④ 基于这个句子的向量表示加上分类头做意图识别;
⑤ 同时对每个词的向量表示加上分类头做槽值检测(序列标注,这里还加上了CRF);
⑥ 把所有的loss加起来同时训练;

这样隐式地学习两者的关系。

后面还出现了很多变种,我们再看比较有代表性的两个做法。第一个是:
在这里插入图片描述

来自论文 Attention-Based Recurrent Neural Network Models for Joint Intent Detection

该论文把槽值检测任务变成了序列到序列任务(加上了Attention),我们知道槽值检测是一个序列标注任务,它需要给出输入的每个词对应的序列标签,本质上是接收一个序列,输出另一个序列。

因此这里的输入是一个token序列,输出是一个slot标签所对应的序列。我们知道seq2seq中有编码器和解码器,编码器会把输入序列编码成一个隐向量所组成的序列,然后把隐向量序列输入到解码器中,解码器会输出最后的标签序列。

那么这里通过共享的序列编码Encoder来联合隐式地学习意图识别和槽值检测,即首先通过编码器得到输入语句的整体表示,然后在整体的语句表示上做意图识别任务,然后把编码器得到的每个token的表示拿来做序列标注任务。也同时优化这两个loss来试图让模型学会它们之间的交互。

但是这些做法的缺陷也很明显,它们仅仅是共享了共同的句子或token的表征,并没有显示地进行交互。
下面这篇论文,也就是我们要介绍的第二个做法尝试解决这个问题。

在这里插入图片描述

来自论文 Changliang Li, et al. A self-attentive model with gate mechanism for spoken language understanding

做法为:

  1. 利用LSTM提取这句话的向量表示;
  2. 基于句子的向量表示做意图识别;
  3. 得到意图分类后,把意图映射为意图的表示向量;
  4. 基于这个意图表示向量计算一个门控机制,加在计算槽位的每个词的隐变量上;
  5. 使用经过门控机制的隐变量去做槽值检测任务;

这里在经过LSTM之前使用了一个 Self-Attention,即用每个词自己做为query,用序列中的所有词做key和value,去计算注意权重。在LSTM之后也有一个Self-Attention。这两个Selft-Attention可以认为是促进了词与词之间的交互。

但在工业界并没有实现意图和槽值的联合检测,在做槽值检测时依然有很多的规则,比如基于词表的简单匹配。但联合识别是一个未来的方向。

考虑上下文的NLU

考虑上下文的自然语言理解即在多轮对话场景中,考虑历史对话信息。

在这里插入图片描述
比如上面的多轮对话例子中,用户输入的第一句是“发送邮件给鲍勃”,第二句就是要发送的内容。

那么如何实现呢?

首先我们关注的核心要点有:

  • 哪些历史对话轮次可以帮助当前轮次对话的理解
  • 这些历史对话对当前对话传递了哪些有用的信息

举个订票系统的例子。
在这里插入图片描述
比如对于用户最后输入的“火车票价格呢?”,其中用户假设机器人已经知道了起点和终点信息。为了更好理解这句话的意图,我们需要把用户输入的第一句话“查一下上海到背景的机票价格”考虑进来,做为一个上下文信息。

下面介绍几种实现。

第一种是基于memory netowork(记忆网络)的方式,因为我们想要理解上下文信息需要记住上下文信息,所以使用记忆网络是一个不难想到的选择。
在这里插入图片描述

来自论文 End-to-end memory networks with knowledge carryover for multi-turn spoken language understanding

现在随着预训练的发展,大家发现不需要显示地使用记忆模块,只要把前面所有的对话历史拼成一句话,喂给比如BERT来得到这句很长的话的向量表示就可以足够去做上下文相关的自然语言理解了。但这种方式随着对话轮数的变多会增加模型计算的负担,因为需要拼接的字符串会越来越长。

我们回到主题,来看下如何使用记忆网络来建模更好的上下文信息。所谓更好的上下文信息,即在对当前的一句话做意图检测时能得到更好的表示,也就是说考虑了上下文的表示。

如何提取出这个更好的表示,或表示的增强呢。它的做法是从上下文中提取出一个表示向量,和当前语句的表示向量进行融合,做为增加表示向量。如何从当前上下文中提取出这样的表示呢?

假设现在已经有了当前语句的表示,想理解当前语句中的意图和槽值。

首先我们已经有了对话历史中每句话的向量表示,把对话历史中每句话的句向量表示喂给RNN,得到RNN的输出,该输出就认为是一个记忆向量,它考虑了历史对话信息。

然后把当前句子输入给一个语句编码器,它会得到这句话的隐状态表示向量,接着把当前语句的(上图橘黄色)表示向量当成是一个query,把memory里面的(上图有6个)表示向量当成key和value,它们做一个Attention,得到对话历史所有(上图有6个)表示向量的加权平均。

接下来,融合当前语句表示向量和这个加权平均得到增强的表示(上图红色),融合的方式有很多种,这里用到的是简单的相加。
这个增强之后的句向量表示可以帮忙我们更好的去做意图识别和序列标注任务,比如做意图分类可以直接拿这个增强的句向量来做;而做序列标注时可以把这个增强的句向量表示拼到当前输入每个token得到的词向量上,然后再取做序列标注。

后续研究者们提供了更多的一些改进工作,试图用一些更加新颖、复杂的方式得到更好的上下文表示。基本的思想都是使用Attention的方式来得到上下文的表示。比如:

在这里插入图片描述

来自论文 Dynamic time-aware attention to speaker roles and contexts for spoken language understanding

这篇论文中使用了分角色的Attention,这里的角色有用户(User)和机器人(Agent)。在用户所说的句子上做Atttention和在机器人所说的句子上做Attention应该是不一样的,应该要区别对待,从而得到更好的表示向量。

它把对话历史中所有的句子分成了两部分,左边部分是用户所说的句子,右边部分是机器人所说的句子。然后维护两个Attention(记忆),第一个Attention关注用户所说的句子,第二个Attentioni关注机器人所说的句子,分别进行注意力计算,然后融合这两个注意力结果,得到当前上下文的增强表示。

这篇论文还提出了一点是考虑了时间信息,它认为对于当前句子来说,对当前句子理解比较重要的应该是时间上比较近的哪些句子,而比较久远的句子影响应该减弱。这里使用了一个特殊的加权平均方式,即离得近的句子权重更大,离得远的句子权重更小。这里通过 1 d ( u i ) \frac{1}{d(u_i)} d(ui)1来实现, d ( u i ) d(u_i) d(ui)就是离当前句子 u i u_i ui的距离,显然这是与距离成反比的。

但在实现时论文作者设计了很多复杂的规则,这些规则是否具有普适性呢,也就是说是否能应用到我们自己的数据上来说是存疑的。

不过我们还是可以从中吸取一些思想,主要是尽量把人工的先验知识反映到模型中,从而得到更好的效果。

在这里插入图片描述

来自论文 Memory Consolidation for Contextual Spoken Language Understanding with Dialogue Logistic Inference

为了更好地建模上下文信息,还有人提出了上面这样的模型。它基于历史对话语句通过一个记忆编码器得到一个编码,然后根据当前语句的语句编码器得到另一个编码,用后者对前者进行记忆检索(各种各样的Attention)得到当前对话历史的表示(橙色)。基于这个表示去做意图分类和序列标注。
但不止如此,作者加入了一个额外的任务,叫做对话逻辑推理(Dialogue Logistic Inference,DLI),具体做法是试图利用得到的橙色增强向量进行(先随机打乱然后)对话历史的还原,这里主要是还原对话历史中的语句顺序。

NLU中的少样本学习

深度学习需要大量的标注数据,但获取大量标注数据非常昂贵,此时出现了一个研究方向——少样本学习(Few-shot learning),目的是尽量使用少的样本来实现某个任务。

这里介绍一下少样本学习领域中的术语。

对于分类任务来说,有K-way N-shot分类任务。

  • 支持集(Support Set):K类别,N实例
    • 模型只要学习K个类别,每个类别有N个实例。称为K-way N-shot分类任务。
    • 传统意义上的训练集这里称为支持集。
  • 查询集(Query Set)
    • 传统意义上的测试集这里称为查询集。

实现方法上可以分为两类:基于KNN的方法;基于优化的方法。

基于KNN的少样本学习方法本质上是学习一个相似度度量函数,它可以接收两个样本作为输入,然后计算它们之间的相似度作为二分类。

目的就是学习这样一个相似度度量函数,或者说是匹配函数、距离函数。如果把这个函数学得很好,就能解决少样本学习的任务。在这个方向上有三个主要的模型,分为孪生网络、匹配网络和原型网络。

孪生网络

在这里插入图片描述
它的思想是通过有监督的方法学习两个样本的相似性,在新任务上用复用特征提取器实现少样本分类。

做法是基于这K个类别构建很多个正样本和负样本,即属于同一个类别之间的实例为正样本,属于不同类别间的实例为负样本。然后基于这些正负样本学习一个距离网络,度量两个样本之间的距离。

孪生网络的架构是用同一个网络为不同的样本计算一个向量表示,然后计算不同样本所对应向量表示的距离。

匹配网络

在这里插入图片描述
匹配网络对孪生网络进行了一些改进,为支持集合查询集构建不同的编码器,最终分类器的输出是支持集合查询集自检预测值的加权求和。

原型网络

在这里插入图片描述
原型网络试图构建样本的嵌入空间,然后试图优化这个空间,使得在这个嵌入空间里同类别的样本之间距离应该足够的近,不同类别样本之间的距离足够的远。
这样就可以利用这个嵌入空间做少样本学习,来了一个新样本只要 投影到这个空间中,然后找距离最近的类别(中心)。

元学习

上面是基于KNN的方法,下面来介绍下基于优化的方法。

在这里插入图片描述
在训练的过程中,试图学习的模型权重是一个更好的初值,从该初值出发可以用最少的分类样本快速适应一个新任务。

NLU中的OOD检测

我们之前看到的方法都有一个默认假设,假设训练数据集和测试数据集是同分布的。即在测试时遇到的类别都在训练时见过。但这个假设实际上过强了,尤其是在NLU中,我们不知道用户会输入怎样的命令。

在这里插入图片描述
比如上面这个人对你的NLU模型说“把相册吃掉”,这个意图显然是有问题的,无法实现的,应该归类为空意图或异常意图。

但是难点在于我们无法预先知道会有哪些有问题的命令,同时哪怕是用户输入的这些异常语句,它们和正常语句可能就相差一两个词语。比如上面变成“把相册删掉”就是一个正常意图。

OOD(Out-Of-Domain)检测就是如何检测出这些异常的输入。那么怎么做呢?

在这里插入图片描述
常用的做法是计算一个OOD分数,并设定一个阈值,如果超过该阈值才接收,否则当成异常输入。

大家的工作主要在于如何更准确地计算这个OOD分数。

在这里插入图片描述

来自论文 Breaking the Closed World Assumption in Text Classification. NAACL 20 16

比较容易想到的就是基于KNN的方式,也就是基于距离的方式。
即学习一个特征空间,计算新来样本的表示,然后计算该表示里已知类别(簇)的最小值,如果该最小值过大,那么就认为是一个异常输入。

在这里插入图片描述

来自论文 A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks

还有一个做法是直接使用Softmax的预测作为OOD检测的标准,即使用预测概率最大值最为OOD检测的标准,如果这个概率最大值很小,那么就认为是异常输入。

☆这也是目前常用的检测方法,因为它的效果很不错。

NLU系统的可扩展性

随着对话系统的扩展,所支持的意图和领域越来越多。
这个问题的难点在于不同领域之间的意图可能会有冲突。

比如用户输入“购物公园附近的餐厅”,百度地图和大众点评都能完成这个意图,百度地图做的是导航,假设用户想到那里去;而大众点评给出的是其他人的评价,假设用户想知道这里的餐厅怎么样。具体要归在哪个意图可能还需要结合用户的偏好。

在这里插入图片描述

来自论文 Efficient Large-Scale Domain Classification with Personalized Attention

这里有一篇可参考的思路,它会每个领域都维护一个二分类器,同时为用户的偏好维护一个特殊的表示向量。根据用户的偏好来激活每个不同的领域,这种做法可以很好地维护一个可扩展的NLU系统。后续会有一篇专门的文章来分析这篇论文。

参考

  1. 贪心学院课程
  2. A Joint Model of Intent Determination and Slot Filling for Spoken Language Understanding
  3. Attention-Based Recurrent Neural Network Models for Joint Intent Detection
  4. A self-attentive model with gate mechanism for spoken language understanding
  5. Changliang Li, et al. A self-attentive model with gate mechanism for spoken language understanding
  6. End-to-end memory networks with knowledge carryover for multi-turn spoken language understanding
  7. Dynamic time-aware attention to speaker roles and contexts for spoken language understanding
  8. Memory Consolidation for Contextual Spoken Language Understanding with Dialogue Logistic Inference

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/633750.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

阿里云(Linux)安装Docker教程

首先安装docker,需要找到帮助文档,那肯定是我们的官网: Install Docker Engine on CentOS | Docker Documentation 找到对应的位置,这里是安装在CentOS中,版本需要Ce…

2021~2022 学年第二学期《信息安全》考试试题(A 卷)

北京信息科技大学 2021~2022 学年第二学期《信息安全》考试试题(A 卷) 课程所在学院:计算机学院 适用专业班级:计科1901-06,重修 考试形式:(闭卷) 一、选择题(本题满分10分,共含10道小题,每小题…

Jenkins结合gitee自动化部署SpringBoot项目

安装 安装教程 插件选择 Gitee Plugin 配置 源码管理 填写源码地址 注意:请确保genkins所在的服务器有权限git拉取远程仓库代码,如果不可以请参考ssh配置centos 配置ssh拉取远程git代码 源码管理 构建触发器 1.勾选Gitee webhook 触发构建 2.生成we…

Python3实现基于ARIMA模型来预测茅台股票价格趋势

🤵‍♂️ 个人主页:艾派森的个人主页 ✍🏻作者简介:Python学习者 🐋 希望大家多多支持,我们一起进步!😄 如果文章对你有帮助的话, 欢迎评论 💬点赞&#x1f4…

实验篇(7.2) 10. 扩充物理实验环境 ❀ 远程访问

【简介】本着先简后难原则,我们前面所做的实验,均为客户端远程访问防火墙,现在我们需要实现防火墙和防火墙之间的访问。在现有的实验环境中,加再入一台防火墙。让我们看看需要怎样操作。 网络拓扑 企业之间最常见的远程互相访问&a…

SSM框架编程技术期末复习内容

考试题型:简答题编程题 SSM框架编程技术期末复习 一、代码干货Mybatis实现查询用户表记录数Mybatis根据用户名对用户表进行模糊查询Mybatis使用resultMap实现用户信息查询(用户表和角色表查询)Mybatis根据用户角色id获取用户列表Mybatis获取指定用户的相关信息及其…

【Mircosft Edge】插件推荐

插件推荐 1.推荐插件1.1 油猴 tempermonkey1.2 免费音乐播放器 Listen 1 2.添加插件2.1 打开“Micrsoft Edge 外接程序”2.2 获取新的扩展2.3 搜索插件2.3.1 在Micrsoft Edge 外接程序搜索框中输入tampermonkey,然后点击获取按钮进行安装2.3.2 在Micrsoft Edge 外接…

Misc(2)

第N种方法解决 拿到题目后是一个exe文件,运行不了 为啥非要整个exe,看着都害怕 改后缀后打开发现是base64编码的图片 利用工具解码转png格式 Base64解码 Base64编码 UTF8 GB2312 UTF16 GBK 二进制 十六进制 解密 - The X 在线工具 (the-x.cn) 下载下来的…

MySQL:主从HASH SCAN算法可能导致从库数据错误

本文主要以hash scan全表为基础进行分析,而不涉及到hash scan索引,实际上都会遇到这个问题。本文主要描述的是update event,delete event也是一样的,测试包含8022,8026,8028均包含这个问题。 约定&#xff…

myBatis-plus之CRUD

文章目录 查询普通查询根据 ID 查询根据ID批量查询根据MAP查询 条件构造器查询构造器声明:QueryWrapper方法常用方法,以及简单使用方式实体作为条件构造器构造方法的参数lambda条件构造器 更新普通更新根据 ID 修改 条件构造器更新 删除普通删除根据 ID …

【Flutter 布局】001-Flex 布局

【Flutter 布局】001-Flex 布局 文章目录 【Flutter 布局】001-Flex 布局一、Flex1、概述简介构造函数 2、基本使用代码示例运行结果 3、方向取值范围代码示例 4、水平方向:主轴对齐方式取值范围代码示例运行结果 5、垂直方向:主轴对齐方式代码示例运行结…

【活动】如何对待工作中的失误

序言 作为一名软件开发程序员,我们每天都面临着无数的挑战和压力。 在这个充满竞争和变化的行业中,难免会犯错。 然而,如何正确地对待和处理这些失误,是必须要学会的重要技能。这不仅仅影响到我们的工作表现,更关乎我…

java SSM 游戏账号租售平台myeclipse开发mysql数据库springMVC模式java编程计算机网页设计

一、源码特点 java SSM 游戏账号租售平台是一套完善的web设计系统(系统采用SSM框架进行设计开发,springspringMVCmybatis),对理解JSP java编程开发语言有帮助,系统具有完整的源代 码和数据库,系统主要采…

算法刷题-链表-环形链表

找到有没有环已经很不容易了,还要让我找到环的入口? 142.环形链表II 力扣题目链接 题意: 给定一个链表,返回链表开始入环的第一个节点。 如果链表无环,则返回 null。 为了表示给定链表中的环,使用整数 pos 来表示链…

算法刷题-哈希表-有效的字母异位词

有效的字母异位词 242.有效的字母异位词思路其他语言版本相关题目 数组就是简单的哈希表,但是数组的大小可不是无限开辟的 242.有效的字母异位词 力扣题目链接 给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的字母异位词。 示例 1: 输入: s…

对数据进行模糊匹配搜索(动态规划、最长公共子串、最长公共子序列)

在搜索时常常在输入一半或者输入错误时,搜索引擎就给出智能提示。 已知的搜索推荐主要包括以下几个方面: 包含:“清华” 和 “清华大学”相似:“聊天软件” 和 “通讯软件”相关:“明星” 和 “刘亦菲”纠错&#xff…

Uni-app学习从0到1开发一个app——(4)生命周期

文章目录 0 引入1、应用生命周期2、页面生命周期3、组件生命周期4、引用 0 引入 uin-app生命周期是以小程序的生命周期为基础实现的,分为应用生命周期、页面生命周期、和组件生命周期,其中组件生命周期就是Vue的生命周期。 官方文档可见:ht…

java之反射机制和注解(更新中......)

Reflect在文档中的位置: 文档链接:https://docs.oracle.com/javase/8/docs/api/index.html 用于获取类或对象的反射信息。 常用的反射机制重要的类: java.lang.Class:整个字节码,代表一个类型。包含了以下三块内容&a…

算法刷题-了解哈希表

哈希表 首先什么是 哈希表,哈希表(英文名字为Hash table,国内也有一些算法书籍翻译为散列表,大家看到这两个名称知道都是指hash table就可以了)。 哈希表是根据关键码的值而直接进行访问的数据结构。 这么这官方的解释…

Spring Boot 基本配置

大家好!我是今越。简单记录一下在 Spring Boot 中的一些基本配置。 Banner 配置 配置文件 application.properties # 设置路径和名称,默认路径名称 resources/banner.txt spring.banner.locationclasspath:banner1.txt # 启动项目时,关闭 b…