文献学习-联合抽取-Joint entity and relation extraction based on a hybrid neural network

news2024/10/2 3:27:43

 

目录

1、Introduction

2、Related works

2.1 Named entity recognition

2.2 Relation classification

2.3 Joint entity and relation extraction

2.4 LSTM and CNN models On NLP

3、Our method

3.1 Bidirectional LSTM encoding layer

3.2 Named entity recogniton (NER) module (解码NER)

3.3 Relation classification (RC) module

3.4 Training and implementation

4 Experiment

4.1 Experimental setting

4.2 Result

5、Analysis and discussion

5.1 Analysis of named entity recognition module

5.2 Analysis of relation classification module

5.3 The effect of two entities' distance

5.4 Error analysis

6、Conclusion

摘要:

实体和关系提取是一项结合了检测实体提及和从非结构化文本中识别实体语义关系的任务。文中提出了一种混合神经网络模型来提取实体提及及其关系,而无需任何手工制作的特征。该混合神经网络包含用于实体提取的新型双向编码器-解码器LSTM模块(BiLSTM-ED)和用于关系分类的CNN模块。BiLSTM-ED中获得的实体的上下文信息进一步传递到CNN模块改进关系分类。我们在公共数据集ACE05(自动内容提取程序)上进行实验来验证我们方法的有效性。我们提取的方法在实体和关系提取任务上取得了最先进的结果。

1、Introduction

实体和关系提取是检测实体提及并从文本中识别它们的语义关系。它是知识抽取中的一个重要问题,对于知识库的自动构建起着至关重要的作用。

传统系统将此任务视为两个独立任务的管道,即命名实体识别(NER)[1]和关系分类(RC)[2]。这种分离的框架使得任务很容易处理,并且每个组件都可以更加灵活。但它很少关注两个子任务的相关性联合学习框架是关联 NER 和 RC 的有效方法,也可以避免级联错误 [3]。然而,大多数现有的联合方法都是基于特征的结构化系统[3-7]。他们需要复杂的特征工程,并且严重依赖有监督的 NLP 工具包,这也可能导致错误传播。为了减少特征提取中的手工工作,最近,Miwa 和​​ Bansal [8] 提出了一种基于神经网络的端到端实体和关系提取方法。然而,在检测实体时,他们使用神经网络结构来预测实体标签,忽略了标签之间的长关系。(建议学习一下文献8)

基于上述分析,我们提出了一种混合神经网络模型来解决这些问题,其中包含命名实体识别(NER)模块和关系分类(RC)模块。 NER 和 RC 共享相同的双向 LSTM 编码层,该层用于通过考虑单词两侧的上下文来对每个输入单词进行编码。虽然双向 LSTM 可以捕获单词之间的长距离交互,但每个输出实体标签都是独立预测的。因此,我们还采用 LSTM 结构来显式地建模标签交互。与NN解码方式相比,它可以捕获标签之间的长距离关系[8]。对于关系分类,两个实体之间的子句已被证明可以有效地反映实体关系[9,10]。此外,双向LSTM编码层可以获得实体的上下文信息,这也有利于识别实体之间的关系。因此,我们采用在关系提取方面取得巨大成功的CNN模型,根据实体的编码信息和子句信息来提取关系。

与经典的管道方法相比,我们的模型不仅考虑了NER模块和RC模块的相关性,而且与现有的联合学习方法相比,还考虑了实体标签之间的长距离关系,并且无需复杂的特征工程。我们在公共数据集 ACE05(自动内容提取程序,Information Technology Laboratory | NIST)上进行了实验。我们的方法在实体和关系提取任务上取得了最先进的结果。此外,我们还单独分析了两个模块的性能。在实体检测任务上,我们的NER模块与不同类型的LSTM结构相比实现了2%的改进,这验证了NER模块的有效性。在关系分类任务上,它表明在编码过程中获得的实体上下文信息可以提高关系分类的准确性。

在本文的其余结构如下。在第二节中,我们回顾了本文中使用的命名实体识别、关系分类和神经网络的相关工作。第 3 节详细介绍了我们的混合神经网络。在第 4 节中,我们描述了实验设置的详细信息并展示了实验结果。最后,我们分析第 5 节中的模型并在第 6 节中得出结论。

2、Related works

章节综述:

实体和关系提取是构建知识库的重要步骤,这对于许多 NLP 任务 [11] 和社交媒体分析任务 [12,13] 有益。解决实体及其关系的提取问题主要有两种框架:管道方法联合学习模型。管道方法将此任务视为两个独立任务的管道,即命名实体识别(NER)[14-17]和关系分类(RC)[2,9,10,18,19]。联合模型同时提取实体和关系。因此,在本文中,我们关注的问题与命名实体识别、关系分类以及联合实体和关系提取有关。我们使用的方法与长短期记忆网络(LSTM)和卷积神经网络(CNN)有关。

2.1 Named entity recognition

此段描述NER的相关工作,点出其属于经典NLP任务,并且传统是都是线性的统计模型,如HMM,CRF等。线性统计模型在一定程度上依赖NLP工具和外部知识资源提取的手工特征。紧接着又描述了神经网络在NER任务中的应用情况。

文献21,CNN+CRF;

文献15,通过学习字符级和单词级特征提取一种混合模型;

文献16,17,22 提出了一个BiLSTM和一个CRF的联合标签解码。

文献8 提出一种用于编码的BiLSTM和一个用于联合解码标签的单一增量神经网络结构。

上述RNN模型均采用BiLSTM作为编码模型,但解码方式不同。

2.2 Relation classification

关系分类是NLP界广泛研究的任务。已经提出了各种方法来完成该任务。现有的关系分类方法可分为基于手工特征的方法【2,23】,基于神经网络的方法【19,24-27】和其他有价值的方法【25,28】。

基于手工制作特征的方法侧重于使用不同的自然语言处理NLP工具和知识资源来获得有效的手工制作特征。Kambhatla [23] 采用最大熵模型来结合从文本中得出的各种词汇、句法和语义特征。这是关系分类的早期工作。他们使用的功能并不全面Rink [2]设计了16种特征,使用许多有监督的NLP工具包和资源(包括POS、WordNet、依存解析等)提取。与其他基于手工特征的方法相比,它可以在SemEval2010 Task 8中获得最佳结果。然而,它严重依赖其他 NLP 工具,并且还需要大量的工作来设计和提取特征。

近年来,深度神经模型在关系分类任务中取得了重大进展。这些模型可以从给定的句子中学习有效的关系特征,而无需复杂的特征工程。此任务中应用的最常见的基于神经网络的模型是卷积神经网络(CNN)[18,19,27,29,30]顺序(序列)神经网络,例如递归神经网络(RNN)[31]、递归神经网络(RecNN) [24,32]和长短期记忆网络(LSTM)[26,33]。还存在其他有价值的方法,例如基于核的方法[28,34]组合模型[25]。 Nguyen 等人 [28] 探索使用基于句法和语义结构的创新内核来完成任务,Sun 和 Han [34] 提出了一种新的树内核,称为特征丰富树内核(FTK),用于关系提取。组合模型 FCM [25] 学习带注释的句子的子结构的表示。与现有的组合模型相比,FCM 可以轻松处理任意类型的输入和全局信息进行组合。

2.3 Joint entity and relation extraction

虽然流水线方法(pipeline method)可以更灵活地设计系统,但它忽略了子任务的相关性,也可能导致错误传播[3]。大多数现有的联合方法都是基于特征的结构化系统[3,4,35-37],需要复杂的特征工程。 [35,36]提出了一种联合模型,利用子任务的最优结果并寻求全局最优解。 Singh 等人[37]提出了一个单一的联合图形模型表示子任务之间的各种依赖关系Li和Ji [3]提出了第一个使用单一联合模型增量预测实体和关系的模型,这是一种具有高效波束搜索的结构化感知器。 Miwa和Sasaki[4]引入了一个表(表结构)来表示句子中的实体和关系结构,并提出了一种基于历史的集束搜索结构化学习模型。最近,Miwa 和​​ Bansal [8] 使用基于 LSTM 的模型来提取实体和关系,这可以减少手动工作。

2.4 LSTM and CNN models On NLP

本文使用的方法基于神经网络模型:卷积神经网络CNN和长短期记忆LSTM。CNN最初是为计算视觉而发明的【38】,它总是被用来提取图像的特征【39,40】

近年来,CNN已成功应用于不同的NLP任务,并且在提取句子语义和关键词信息方法也显示出了有效性【27,41-43】。长短期记忆LSTM模型是一种特殊的循环神经网络RNN。LSTM用利用装置门的记忆存储块取代了RNN的隐藏向量。它可以通过训练适当的门权重来保持长期记忆【44,45】。LSTM在许多NLP任务上也表现出了强大的能力,例如机器翻译【46】,句子表示【47】和关系提取【26】。

在本文中,我们提出了一种基于联合学习实体及其关系的混合神经网络。与手工制作的基于特征的方法相比,它可以从给定的句子中学习相关特征,而无需复杂的特征工程工作。与其他基于神经网络的方法[8]相比,我们的方法考虑了实体标签之间的长距离关系

3、Our method

混合神经网络的框架如图1所示。混合神经网络的第一层是双向LSTM编码层,由命名实体识别NER模块和关系分类RC模块共享。编码层之后有两个通道一个链接到NER模块(LSTM解码层),另一个输入CNN层以提取关系。在以下部分中,将详细描述.

3.1 Bidirectional LSTM encoding layer

本节通用知识描述

3.2 Named entity recogniton (NER) module (解码NER)

每个单词都会被分配一个实体标签。标签常用的编码方案为:BILOS(Begin, Inside, Last, Outside, Single)[22,48]。每个标签包含一个词在实体中的位置信息。

 针对该部分的核心描述:解码LSTM(LSTM Decode)的每个单元除了输入门之外都与编码LSTM记忆块相同,可以重写为:

3.3 Relation classification (RC) module

在识别实体的语义关系时,我们将实体的编码信息和实体之间的字句合并,然后将它们输入到CNN模块中【49】。

 关系分类模块的核心就是CNN(卷积运算),利用CNN和Softmax来获取最后的关系。唯一比较明显的地方就是输入层(Input),将BiLSTM的结果和句子向量进行进行拼接,如上图中两个Sum和之间Wt...

 其中,R是关系标签,he是实体的编码信息,w是词嵌入。特别地,一个实体可能包含两个或多个单词,文中将这些单词的编码信息相加来表示整个实体信息。如下图3:

 下面主要是描述CNN卷积操作的公式和softmax的应用。

3.4 Training and implementation

文中训练模型以最大化数据的对数似然,使用的优化方法是Hinton在【52】中提出的RMSprop。NER模块的目标函数定义:

 其中|D|是数据集的大小,L_j是句子x_j的长度,y(j)_t 是句子x_j 中单词t的标签,p(j)_t 是公式10中定义的归一化实体标签概率。

RC模块的目标函数是:

 我们首先训练NER模块来识别实体并获取实体的编码信息,然后进一步训练RC模块根据编码信息和实体组合对关系进行分类。

特别地,发现两个实体之间存在关系,两个实体的距离总是小于约20个词,如图4所示。因此,在确定两个实体之间的关系时,文中也充分考虑利用这个性质,如果两个实体的距离大于Lmax,就认为它们之间不存在关系。根据图4的统计结果,ACE05数据集中的Lmax约为20.

4 Experiment

4.1 Experimental setting

数据集:ACE05

文中使用公共数据集ACE05进行实体和关系提取,其中包含6中粗粒度关系类型和一个附加的“other”关系来表示非实体或非关系类。The 6 coarse-grained relation types are “ART (artifact)”, “GA (Gen-affiliation)”, “O-A (Org-affiliation)”, “P-W (PART-WHOLE)”, 
“P-S (person-social)” and “PHYS (physical)”.

具有相反方向的相同关系类型被认为是两个类。例如,“PART-WHOLE (e1,e2)”和“PART-WHOLE(e2,e1)”是不同的关系。 “PART-WHOLE(e1,e2)”表示e1是e2的一部分,“PART-WHOLE(e2,e1)”表示e1包含e2。因此,总共有 13 个关系类。实验中的数据预处理和设置与[文献3]相同。

Baselines. 文中使用的基线是ACE05数据集的最新方法,其中包括经典管道模型【文献3】、称为joint w/Global 【文献3】的基于联合特征的模型,以及端到端NN的模型SPTree【文献8】。

pipeline(CRF+ME)【3】训练了用于实体提及提取的线性链条件随机场【53】和用于关系提取的最大熵模型【54】。这是该任务的经典管道方法。

Joint w/Global【3】联合使用单个模型逐步提取实体提及和关系。他们开发了许多新的、有效的全局特征作为软约束,以捕获实体提及和关系之间的相互依赖关系。

SPTree[8] 提出了一种新颖的端到端关系提取模型,该模型通过使用双向顺序和双向树结构LSTM-RNN来表示单词序列和依存树结构。

Metric,为了将我们的模型与基线比价,我们在联合实体和关系提取的任务中使用精度P,召回率R和F-Measure F1。当一个关系实例的关系类型和两个对应实体的头部偏移量都正确时,该关系实例被认为是正确的。

Hyper parameters。在本文中提出了一种混合神经网络来提取实体及其关系。模型中使用的超参数总结如下表:

4.2 Result

测试集上的预测结果如表2所示。文中的方法实现了52.1%的F1,这是与现有方法相比的最好结果。它说明了我们提出的混合神经网络在联合提取实体及其关系的任务上的有效性。

此外,联合全局[3]方法优于流水线方法,并且基于神经网络的方法(SPTree[8]和我们的模型)可以比这些基于特征的方法[3]获得更高的F1结果。这表明神经网络模型结合联合学习方式是提取实体及其关系的可行方法。

 特别地,这些方法的精度结果相似,差异主要集中在召回率结果上。文中的方法可以平衡精度和召回率,从而获得更好的F1值。

5、Analysis and discussion

5.1 Analysis of named entity recognition module

NER模块包含双向LSTM编码层和LSTM解码层。文中使用BiLSTM-ED来表示NER模块的结构。为了进一步说明BiLSTM-ED在实体提取任务上的有效性,文中将BiLSTM-ED与其不同变体和其他有效的序列标记模型进行比较。对比方法如下:

Forward-LSTM

Backward-LSTM

BiLSTM-NN

BiLSTM-NN-2

CRF

文中使用标准 F1 来评估这些方法的性能,并在实体的类型和头部区域正确时将其视为正确的实体。表3显示了上述方法在名称实体识别任务上的结果。与Forward-LSTM和Backward-LSTM相比,双向LSTM编码方式可以有显着的改进。与 ui-LSTM 编码相比,Bi-LSTM 编码考虑了整个句子信息,因此在标注任务中可以获得更高的准确率。 BiLSTM-NN-2优于BiLST-NN,这说明需要考虑标签之间的关系。此外,BiLSTM-ED 比 BiLSTM-NN-2 更好,这意味着考虑标签之间的长距离关系比仅考虑相邻标签信息更好。我们还将 BiLSTM-ED 与著名的 CRF 序列模型进行了比较。结果也显示了 BiLSTM-ED 的有效性。

5.2 Analysis of relation classification module

在关系分类模块中,使用两种信息:实体之间的句子和从双向LSTM层获得实体的编码信息。为了说明文中考虑的这些信息的有效性,文中将其方法与其不同的变体进行比较。首先使用NER模块来检测句子中的实体,然后使用步骤1的正确实体识别结果来测试RC模块。我们报告了这些信息对关系分类任务的影响,如表 4 所示。 Full-CNN 使用整个句子来识别实体之间的关系。 Sub-CNN 仅使用两个实体之间的子句。 Sub-CNN-H 使用从双向编码层获得的实体的子句和编码信息。当比较 Full-CNN 和 SubCNN 时,结果表明 sub-sentence 可以实现 +20% 的改进。这个结果与[9]的分析相匹配,即大多数关系可以通过给定两个实体之间的子句而不是完整的句子来反映。当将实体的编码信息添加到Sub-CNN中时,Sub-CNN-H可以进一步提升关系分类的准确性。它验证了实体的上下文信息也有利于识别实体之间的关系。

5.3 The effect of two entities' distance

从图4(如下图,第二次出现)中我们知道,当横轴为两个实体之间的距离时,数据分布表现出长尾特性。因此,我们设置一个阈值Lmax来过滤数据。如果两个实体的距离大于Lmax,我们认为这两个实体没有关系。为了分析阈值Lmax的影响,我们使用Sub-CNN根据不同的Lmax值来预测实体关系。效果如图5所示。Lmax越小,过滤的数据越多。所以如果Lmax太小,可能会过滤掉正确的数据,导致F1结果下降。如果Lmax太大,则无法过滤掉噪声数据,这也可能会影响最终结果。图5表明,当Lmax在10到25之间时,它可以表现良好。该范围也与图4的统计结果相符。

5.4 Error analysis

为了分析方法的错误,文中将模型在关系分类任务上的预测结果进行可视化,如图6所示。对角线区域表示正确的预测结果,其他区域反映错误样本的分布。突出显示的对角线区域意味着我们的方法可以在除关系P-S之外的每个关系类上表现良好。由于测试数据集中包含少量关系标签为P-S的样本,因此P-S的预测分布不能完全反映真实情况。此外P-S表示人与社会的关系。实体Person和实体Social在数据集中始终是代词,因此很难根据这些代词识别P-S关系

 此外,图6中可知,预测关系的分布在Other的第一行上相对分散,这意味着大多数特定关系类型可以被预测为OTHER。即我们无法识别某些关系,直接导致召回率较低。从OTHER的第一列可以看出,如果两个实体之间没有关系,则模型可以有效区分。

除了OTHER之外,另一个问题是方向相反的相同的关系类型很容易混淆,例如:P-W(e2e1)和P-W(e1e2)、ART(e1e1)和ART(e2e1)、OA(e1e1)和O-A(e2e1)。原因是相同的关系类型总是具有相似的描述,即使它们不在同一方向

6、Conclusion

实体和关系抽取是知识抽取中的一个重要问题,在知识库的自动构建中起着至关重要的作用。在本文中,我们提出了一种混合神经网络模型来提取实体及其语义关系,而无需任何手工制作的特征。与其他基于神经网络的方法相比,我们的方法考虑了实体标签之间的长距离关系。为了说明我们方法的有效性,我们在公共数据集 ACE05(自动内容提取程序)上进行了实验。在公共数据集ACE05上的实验结果验证了我们方法的有效性。未来我们将探索如何基于神经网络更好地链接这两个模块,使其能够更好地发挥作用。此外,我们还需要解决忽略某些关系的问题,并努力提升召回值。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/686684.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

OpenStack(1)--创建实例

目录 一、上传镜像 1.1 新建目录 1.2 上传至glance 1.3 查看镜像 二、新建实例 2.1 获取秘钥 2.2 新建实例 2.3 新建实例admin-vm 2.4 获取实例VNC的url 2.5 nova常用命令 一、上传镜像 1.1 新建目录 上传名为cirros-0.3.4-x86_64-disk.img的Linux测试镜像&#xf…

Clock Rules(C Rules)

scan clocks的规则检查确保它们被正确的定义和操作。可以选择任意时钟规则检查的handling为error、warning、not或ignore。 Clock Terminology 时钟规则信息包含两个重复发生的概念,为了更好地使用这些信息,应该理解以下概念。 Clock Signals 如果一个信号能够改变一个se…

unity发布apk获取读写权限

实测版本:unity2019 操作:1.修改Manifest文件 2.在代码中直接调用API代码设置(可能不用这一步) Mac系统:Unity.app同级目录: PlaybackEngines/AndroidPlayer/Apk/ Win系统:Unity安装目录下…

5-响应式

01-媒体查询 基本写法 max-width:最大宽度(小于等于)min-width:最小宽度(大于等于) 书写顺序 min-width(从小到大)max-width(从大到小) 案例-左侧隐藏 需…

measure 一维测量 Metrology 二维测量

1维测量就是测长度,一个物体的长度。 2维测量就是在2维空间上测量,圆和矩形。 gen_measure_rectangle2 (TmpCtrl_Row, TmpCtrl_Column, TmpCtrl_Phi, TmpCtrl_Len1, TmpCtrl_Len2, 2464, 2056, nearest_neighbor, MsrHandle_Measure_01_0) * Measure 01:…

ChatGPT 实战:快速了解一个新领域

前段时间在社区里看到有人在分享:如何用 ChatGPT 麦肯锡方法论洞察一个行业,感觉这个方法在陌生行业的研究上很有帮助,同时我也一直好奇,投资经理在一两周的时间里如何快速了解一个新领域并做出投资决策的。先解决你的第一个疑问…

网络安全学习心得

我的学习心得,我认为能不能自学成功的要素有两点。 第一点就是自身的问题,虽然想要转行学习安全的人很多,但是非常强烈的想要转行学好的人是小部分。而大部分人只是抱着试试的心态来学习安全,这是完全不可能的。 所以能不能学成并…

Redis6之持久化操作

目录 RDB 触发 工作流程 持久化备份 优点 缺点 AOF 触发 频率配置 持久化流程 数据修复 优点 缺点 混合持久化 触发 优点 缺点 如何选择 redis是一个内存数据库,一旦断电或服务器进程退出,内存数据库中的数据将全部丢失,所以…

【计算机视觉】中科院发布Fast SAM,精度相当SAM,速度提升了50倍!

文章目录 一、导读二、介绍三、方法3.1 实例分割3.2 提示引导选择3.2.1 点提示3.2.2 框提示3.2.3 文本提示 四、实验结果五、不足之处六、结论 一、导读 SAM已经成为许多高级任务(如图像分割、图像描述和图像编辑)的基础步骤。然而,其巨大的…

【云原生丶Docker】Docker容器常用命令大全

在 Docker 核心概念理解 一文中,我们知道 Docker容器 其实就是一个轻量级的沙盒,应用运行在不同的容器中从而实现隔离效果。容器的创建和运行是以镜像为基础的,容器可以被创建、销毁、启动和停止等。本文将介绍下容器的这些常用操作命令。 1、…

2、电商数仓(业务数据采集平台)电商业务流程、电商常识、电商系统表结构、业务数据模拟、业务数据采集模块

1、电商业务简介 1.1 电商业务流程 电商的业务流程可以以一个普通用户的浏览足迹为例进行说明,用户点开电商首页开始浏览,可能会通过分类查询也可能通过全文搜索寻找自己中意的商品,这些商品无疑都是存储在后台的管理系统中的。 当用户寻找…

imx6ull——多点电容触摸

电容触摸寄存器 触点最多5个 触摸屏实现由 IIC驱动、中断驱动、 input子系统组成 触摸屏类型Type A和 Type B Type A:适用于触摸点不能被区分或者追踪,此类型的设备上报原始数据 (此类型在实际使 用中非常少! Type B:适用于有…

SikuliX 实战

一. SikuliX是什么 SikuliX的前身是 Sikuli。Sikuli是由MIT(麻省理工学院)研究团队发布的一种基于OpenCV图像识别技术的自动化工具软件。 Sikuli 是2009 年由在麻省理工学院用户界面设计小组作为一个开源研究项目,负责人分别是Tsung-Hsiang …

42 # 前端 blob 类型

前端的二进制 文件类型 Blob&#xff1a;二进制文件类型input 的 typefile&#xff1a;file 类型&#xff0c;继承于 Blob 前端实现下载功能 实现下载字符串到文件里&#xff0c;需要将字符串包装成二进制类型 <!DOCTYPE html> <html lang"en"><h…

文字对话如何配音?安利你三款制作对话配音的软件

对话配音怎么配&#xff1f;安利三个好用的对话配音软件给你 一分钟告诉你对话配音怎么配 对话配音怎么配&#xff1f;超简单的对话配音制作教程来啦 对话配音软件有哪些&#xff1f;给你安利这三款对话配音软件 对话配音如何操作&#xff1f;分享你三个对话配音小技巧 在电…

想学PMP,有考过的同学给个建议嘛?

PMP中国和国外的考试形式略有不同&#xff0c;这里只介绍一下PMP中国考试的相关信息。 1.PMP考试相关信息 考试形式&#xff1a;笔试 考试时间&#xff1a;230分钟&#xff08;3小时50分钟&#xff09;&#xff0c;一般考试时间在上午9:00~12:50&#xff0c;也会因为特殊情况…

C++primer(第五版)第二章(变量和基本类型)

2.1基本内置类型 2.1.1算术类型 C的基本内置类型包括算数类型和空类型,空类型就是void,算术类型我从原书中截下来放在下面: 从上表我们可以得知C规定int至少和short一样大,long至少和int一样大,longlong至少和long一样大. 其中char(字符)类型支持国际化,所以char会确保可以放…

学Java还是学Android?如何选择?

学Java和学Android都有其各自的好处和应用场景。下面是一些关于学习Java和学习Android的信息&#xff0c;以帮助你做出选择&#xff1a;刚好我这里有嵌入式、plc、单片机的资料需要的在评论区扣6或私我 学习Java&#xff1a; Java是一种通用的编程语言&#xff0c;广泛应用于服…

Simulink自动把所有的double数据转换成single数据

目录 前言 子系统double自动转single操作步骤 总结 前言 在基于模型的开发建模中&#xff0c;模块大多默认的数据类型是double&#xff0c;很多MCU支持的是单精度的浮点&#xff0c;生成代码的部分需要把double转成single数据类型&#xff0c;当然在建模的时候可以配置每一…

GCP学习笔记(三)——存储和安全

文章目录 一、Cloud Storage二、Cloud Bigtable三、Cloud SQL四、Cloud Spanner五、Firestore六、Cloud Datastore七、安全1. Data Loss Prevention2. Stackdriver3. IAM 八、网络概述 在GCP中&#xff0c;我们需要序列化数据使数据能够进行存储和转换。Avro时一种数据序列化方…