07.C2W2.Part-of-Speech (POS) Tagging and Hidden Markov Models

news2024/9/21 2:47:55

往期文章请点这里

目录

  • Overview
  • Part of Speech Tagging
  • Markov Chains
  • Markov Chains and POS Tags
    • POS tags as States
    • Transition probabilities
    • The transition matrix
    • Initial probabilities
  • Hidden Markov Models
    • Emission probabilities
    • Summary
  • Calculating Probabilities
    • Transition probabilities
    • The corpus
    • Populating the Transition Matrix
    • Smoothing
  • Populating the Emission Matrix
  • The Viterbi Algorithm
    • Viterbi algorithm - a graph algorithm
    • Viterbi algorithm Steps
  • Viterbi: Initialization
  • Viterbi: Forward Pass
  • Viterbi: Backward Pass
    • Implementation notes

往期文章请点这里

Overview

●What is part of speech tagging?
●Markov chains
●Hidden Markov models
●Viterbi algorithm
●Example

Part of Speech Tagging

词性标注(Part of Speech Tagging),简称POS Tagging,是自然语言处理(NLP)中的一个任务,它涉及到识别文本中每个单词的词性类别。词性,或称词类,是指一个词在句子中的语法功能,如名词、动词、形容词、副词等。
词性标注对于理解句子结构和语义非常重要,它可以帮助计算机更好地解析语言,从而支持诸如机器翻译、信息检索、文本摘要、情感分析等高级语言处理任务。例如,在句子 “The cat sat on the mat” 中,词性标注可能会标记 “The” 为定冠词(DT),“cat” 为名词(Noun),“sat” 为动词(Verb),“on” 为介词(Preposition),“the” 为定冠词(DT),“mat” 为名词(Noun)。通过这种方式,词性标注为进一步的语言分析提供了基础。
例子:
在这里插入图片描述
关于词性标签缩写可参照:

Lexical TermTagExample Words
NounNNsomething, nothing
VerbVBlearn, study
DeterminerDTthe, a
Wh-adverbWRBwhy, where
AdjectiveJJbig, happy
AdverbRBquickly, very
PronounPRPhe, she, it
PrepositionINon, at, of
ConjunctionCCand, but, or
PossessivePOS's, his, her
ArticleARTthe, a, an
NumeralCDone, two, three
ExclamationUHoh, wow
AuxiliaryVBZis, are, has
ModalMDcan, could, will
ComparativeJJRbigger, faster
SuperlativeJJSbiggest, fastest
GerundVBGrunning, studying
InfinitiveVBNto run, to study
ParticipleVBDran, studied
InterjectionINTJhello, goodbye

请注意,词性标签的命名可能因不同的词性标注系统而有所不同,但上述表格提供了一些常见的词性标签和示例。
词性标签的应用
在这里插入图片描述
命名实体识别(Named Entity Recognition, NER):命名实体识别是识别文本中的特定实体,如人名、地点、组织、日期等。词性标注在此过程中非常有用,因为它可以帮助确定实体的边界。例如,如果一个名词(NN)后面跟着一个特定的词性,如地名(例如“New York”),词性标注可以帮助确定这个名词是一个地点实体。

语音识别(Speech Recognition):语音识别系统将口语转化为文本。词性标注在此过程中有助于提高识别的准确性。由于口语中的语法结构可能不如书面语规范,词性标注可以帮助系统理解句子结构,从而更准确地将口语转化为正确的文本形式。

指代消解(Coreference Resolution):指代消解是确定文本中不同代词或名词短语指向相同实体的过程。词性标注有助于识别和匹配可能的指代关系。例如,如果一个代词(如“he”)出现在句子中,词性标注可以帮助确定这个代词的性别和数量,进而帮助系统找到它所指的名词短语。上面的图中,“埃菲尔铁塔位于巴黎,它高324米”,这里可以用指代消解推断“它”是指什么。

Markov Chains

在这里插入图片描述
上例中,learn是动词,在英语语法中,动词后面会接什么词性的单词呢?大概率是名词。
这个现象也称为:Part of Speech Dependencies

在这里插入图片描述
这里使用可视化的方式来表示单词序列的词性变换,这个也是马尔科夫链
在这里插入图片描述
马尔科夫链可以表示为一个有向图,图中的节点表示模型的状态(state),这里 Q = { q 1 , q 2 , q 3 } Q=\{q_1,q_2,q_3\} Q={q1,q2,q3}

Markov Chains and POS Tags

POS tags as States

将句子看做是带有相关词性标注的词序列,就可以用马尔科夫链来表示这个序列:
在这里插入图片描述

Transition probabilities

将边加上状态转移(过渡)概率,可得到下图:
在这里插入图片描述
马尔科夫链有一个非常重要的假设或者说性质,就是:下一个事件的概率仅仅取决于当前事件。例如在下图中,下一个词的状态只有当前词learn来决定,而与前面的词无关,只需要看绿色圈圈即可。
在这里插入图片描述

The transition matrix

可用矩阵来保存状态转移概率:
在这里插入图片描述
矩阵每一行的和为1,即: ∑ j = 1 N a i j = 1 \sum_{j=1}^N a_{ij}=1 j=1Naij=1

Initial probabilities

对于句子的第一个词,没有前一个状态来决定其状态:
在这里插入图片描述
我们可以引入一个初始概率 π \pi π来表示初始单词词性生成概率:
在这里插入图片描述
将表格写成矩阵的形式为:
A = [ 0.4 0.1 0.5 0.2 0.2 0.6 0.4 0.3 0.3 0.2 0.3 0.5 ] A = \begin{bmatrix} 0.4 & 0.1 &0.5\\ 0.2 & 0.2 &0.6\\ 0.4 & 0.3 &0.3\\ 0.2 & 0.3 &0.5 \end{bmatrix} A= 0.40.20.40.20.10.20.30.30.50.60.30.5

Hidden Markov Models

Hidden表示状态是隐藏的,可将词性标签的状态看做是隐藏状态,因为它们从文本数据中不直接可观察到。机器能观察到的只有句子中的单词。我们用虚线节点表示隐藏状态,则其过渡概率可以用N+1乘N维的矩阵A表示,N是隐藏状态的数量。
在这里插入图片描述

Emission probabilities

发射概率指的是在给定一个特定的状态时,观察到某个具体输出(或观察值)的概率。简单来说,它描述了在某个隐藏状态下,某个可见事件(如单词、声音等)发生的可能性。例如这里在隐藏状态VB的状态下,生成一些词(观测值)的概率如下图所示:
在这里插入图片描述
右边是发射概率的表格形式,发射矩阵表示词性标签代表的每个最终隐藏状态到语料库中的M个单词的转换概率。
同样的,每一行的概率和为1,即: ∑ j = 1 V b i j = 1 \sum_{j=1}^V b_{ij}=1 j=1Vbij=1
注意,图示中三个词在不同隐藏状态下的生成概率都大于0,是因为词在不同上下文中可能会有不同的词性。
He lay on his back.
I’ll be back.
第一句back是名词,第二句是副词。

Summary

States:
Q = { q 1 , ⋯   , q N } Q = \{q_1, \cdots, q_N\} Q={q1,,qN}
Transition matrix:
A = [ a 1 , 1 ⋯ a 1 , N 0 ⋱ ⋮ a N + 1 , 1 ⋯ a N + 1 , N ] A=\begin{bmatrix} a_{1,1} & \cdots & a_{1,N} \\ 0 & \ddots & \vdots \\ a_{N+1,1} & \cdots & a_{N+1,N} \\ \end{bmatrix} A= a1,10aN+1,1a1,NaN+1,N
Emission matrix:
B = [ b 1 , 1 ⋯ b 1 V ⋮ ⋱ ⋮ b N 1 ⋯ a N V ] B=\begin{bmatrix} b_{1,1} & \cdots & b_{1V} \\ \vdots & \ddots & \vdots \\ b_{N1} & \cdots & a_{NV} \\ \end{bmatrix} B= b1,1bN1b1VaNV

Calculating Probabilities

Transition probabilities

根据实例计算转移概率,假设语料库如下:
在这里插入图片描述
我们用颜色来表示不同的词性标签,从词库中可以统计得到,例如蓝色到紫色出现了两次,语料库中以蓝色开头的标签数量是3:
在这里插入图片描述
transition probability:
在这里插入图片描述
要计算马尔科夫模型的所有转移概率,必须统计语料库中所有标签对出现次数。
1.Count occurrences of tag pairs
C ( t i − 1 , t i ) C(t_{i-1},t_i) C(ti1,ti)
2.Calculate probabilities using the counts
P ( t i ∣ t i − 1 ) = C ( t i − 1 , t i ) ∑ j = 1 N C ( t i − 1 , t j ) P(t_i | t_{i-1}) = \frac{C(t_{i-1}, t_i)}{\sum_{j=1}^{N} C(t_{i-1}, t_j)} P(titi1)=j=1NC(ti1,tj)C(ti1,ti)

The corpus

假设有以下语料库:
In a Station of the Metro
The apparition of these faces in the crowd :
Petals on a wet , black bough .
语料库中每一行是一个单独的句子。先在句首添加起始标记,以便计算初始概率:
在这里插入图片描述

然后将所有字母转成小写字母,这里没有去掉标点,因为是一个toy model
在这里插入图片描述

Populating the Transition Matrix

先准备好空表:
在这里插入图片描述
先用与相关标记的计数来填充矩阵的第一列(矩阵的行代表当前状态,列代表下一个状态,值代表从当前状态转移到下一个状态的转移概率),先用不同颜色来标记状态:
在这里插入图片描述
对于第一列,需要计算下面标记组合出现的次数

在这里插入图片描述
得到以下结果:
在这里插入图片描述
按这个方式可以填充其他部分,这里有一个trick,注意到语料库中没有动词VB,所以,矩阵中VB所在的行列均为0:
在这里插入图片描述
最后结果如下(这里O-O,在语料中出现了八次,注意最后一句加上标点,有4次):
在这里插入图片描述
接下来计算转移概率:
在这里插入图片描述
但是VB这行会出现分母为0的情况。

Smoothing

为解决这个问题,需要加上一个很小的值 ϵ \epsilon ϵ,最后公式变成:
P ( t i ∣ t i − 1 ) = C ( t i − 1 , t i ) + ϵ ∑ j = 1 N C ( t i − 1 , t j ) + N × ϵ P(t_i | t_{i-1}) = \frac{C(t_{i-1}, t_i)+\epsilon}{\sum_{j=1}^{N} C(t_{i-1}, t_j)+N\times \epsilon} P(titi1)=j=1NC(ti1,tj)+N×ϵC(ti1,ti)+ϵ
分母加上一项,以保证概率总和为1
在这里插入图片描述
这里如果用 ϵ = 0.001 \epsilon=0.001 ϵ=0.001,这转移矩阵就得到:
在这里插入图片描述
平滑之后没有为0的概率,VB的转移概率是相等的。
实际操作中,第一行不需要加 ϵ \epsilon ϵ,加上会使得标点符号也会有概率出现在句首,这个是不科学的。

Populating the Emission Matrix

上面的转移矩阵只考虑了词性的转化,这里需要将具体的词也考虑进来,例如:
在这里插入图片描述
我们希望计算一个词性标签与特定词语的共现次数,例如:
在这里插入图片描述

在这里插入图片描述
进一步用复杂一点例子:
在这里插入图片描述
以第一列为例,这里不是计算标签对的数量,而是计算一个词与特定标签相关联的次数:
在这里插入图片描述
例如 C ( N N , i n ) = 0 C(NN,in)=0 C(NN,in)=0表示在语料库中in与Noun标签并无关联,同理in与动词也无关系,在其他标签类别中出现了两次:
在这里插入图片描述
最后的概率由以下公式计算:
P ( w i ∣ t i ) = C ( t i , w i ) + ϵ ∑ j = 1 N C ( t i , w j ) + N ⋅ ϵ = C ( t i , w i ) + ϵ C ( t i ) + N ⋅ ϵ P(w_i | t_i) = \frac{C(t_i, w_i) + \epsilon}{\sum_{j=1}^{N} C(t_i, w_j) + N \cdot \epsilon}\\ =\cfrac{C(t_i, w_i) + \epsilon}{C(t_i)+ N \cdot \epsilon} P(witi)=j=1NC(ti,wj)+NϵC(ti,wi)+ϵ=C(ti)+NϵC(ti,wi)+ϵ
其中,大与字母N代表标签数,大写字母V代表我们的词汇表大小。

The Viterbi Algorithm

Viterbi algorithm - a graph algorithm

维特比算法是一个图算法,下面以句子:I love to learn为例,来演示其原理。在这里插入图片描述

这里绿色显示的转移概率是0.3,橙色显示的发射概率为0.5
在这里插入图片描述
那么第一个单词为I的概率实际是联合概率:0.5×0.3=0.15
在这里插入图片描述
接下来观察到love有两种可能,分别是O→NN和O→VB在这里插入图片描述
由于VB对应生成love的发射概率要大,因此选择O→VB:
在这里插入图片描述
这I后面接love的概率为:0.5×0.5=0.25
在这里插入图片描述
由于love后面的to只会在O状态下出现:
在这里插入图片描述
love后面接to的概率为:0.2×0.4=0.08
最后是learn,只会在VB状态出现:
在这里插入图片描述
其出现概率是0.5×0.2=0.1
在这里插入图片描述
最后可得到所有单词序列对应的隐藏状态概率为:
0.15 ∗ 0.25 ∗ 0.08 ∗ 0.1 = 0.0003 0.15*0.25*0.08*0.1=0.0003 0.150.250.080.1=0.0003

Viterbi algorithm Steps

一共三步:
1.Initialization step
2.Forward pass
3.Backward pass

这里要用到两个辅助矩阵:
在这里插入图片描述
矩阵C保存中间的最优概率,矩阵D保存访问过的状态的索引。
下面详细讲解三个步骤。

Viterbi: Initialization

初始化步骤是填充辅助矩阵C和D第一列的:
在这里插入图片描述
填充结果为:
在这里插入图片描述
填充公式为:
c i , 1 = π i ∗ b i , c i n d e x ( w 1 ) = a 1 , i ∗ b i , c i n d e x ( w 1 ) c_{i,1}=\pi_i*b_{i,cindex(w_1)}\\ =a_{1,i}*b_{i,cindex(w_1)} ci,1=πibi,cindex(w1)=a1,ibi,cindex(w1)
C矩阵中的第一列表示从图中的起始状态 π \pi π到第一个标签 t i t_i ti和单词 w 1 w_1 w1的转换概率,示例图中有三个隐藏状态。
从公式中可以看到,第一列单词 w 1 w_1 w1出现的概率是初始化概率乘以状态发射概率,初始化概率从矩阵A中可以得到,发射概率从矩阵B中可以得到。
对于矩阵D:
在这里插入图片描述
第一列直接设置为0即可:
d i , 1 = 0 d_{i,1}=0 di,1=0
因为没有遍历任何之前的词性标签。

Viterbi: Forward Pass

前向传递是填充矩阵C和D的第二步。
在这里插入图片描述
对于矩阵C,使用的公式为:
c i , j = max ⁡ k c k , j − 1 ∗ a k , i ∗ b i , c i n d e x ( w j ) c_{i,j}=\underset{k}{\max}c_{k,j-1}*a_{k,i}*b_{i,cindex(w_j)} ci,j=kmaxck,j1ak,ibi,cindex(wj)
例如要计算 c 1 , 2 c_{1,2} c1,2
在这里插入图片描述

c 1 , 2 = max ⁡ k c k , 1 ∗ a k , 1 ∗ b i , c i n d e x ( w 2 ) c_{1,2}=\underset{k}{\max}c_{k,1}*a_{k,1}*b_{i,cindex(w_2)} c1,2=kmaxck,1ak,1bi,cindex(w2)
b i , c i n d e x ( w 2 ) b_{i,cindex(w_2)} bi,cindex(w2)是状态 t 1 t_1 t1 w 2 w_2 w2的发射概率
a k , 1 a_{k,1} ak,1是状态 t k t_k tk到当前状态 t 1 t_1 t1的转移概率
t k 1 t_{k1} tk1表示已经遍历的前一个路径的概率
这里选择k使得整个公式最大化
在这里插入图片描述
对于矩阵D:
在这里插入图片描述
使用以下公式:
d i , j = arg max ⁡ k c k , 1 ∗ a k , 1 ∗ b i , c i n d e x ( w 2 ) d_{i,j}=\underset{k}{\argmax}c_{k,1}*a_{k,1}*b_{i,cindex(w_2)} di,j=kargmaxck,1ak,1bi,cindex(w2)

Viterbi: Backward Pass

到这一步,C和D已经填充完毕
现在需要从D中提取路径,它代表了最可能生成我们给定的词序列的隐藏状态的序列(从第一个到第K个)
首先,在矩阵C的最后一列中计算具有最高概率的条目 c i , K c_{i,K} ci,K的系引。这个索引处的概率是最可能的隐藏状态序列生成给定词序列的概率。
s = arg max ⁡ i c i , K s=\underset{i}{\argmax}c_{i,K} s=iargmaxci,K
在这里插入图片描述
例如:这里最高概率的条目是第一个,概率为0.01,也就是对应的 c 1 , 5 c_{1,5} c1,5
这个索引表示你观察到单词 w 5 w_5 w5时遍历的最后一个隐藏状态。也就是生成 w 5 w_5 w5最有可能状态是 t 1 t_1 t1词性标签,将 t 1 t_1 t1加到序列的最后:
在这里插入图片描述
然后根据D中的值查找矩阵D中的下一个索引:

在这里插入图片描述

Implementation notes

1.In Python index starts with 0!
2.Use log probabilities,防止概率值太小相乘导致下溢
c i , j = max ⁡ k c k , j − 1 ∗ a k , i ∗ b i , c i n d e x ( w j ) c_{i,j}=\underset{k}{\max}c_{k,j-1}*a_{k,i}*b_{i,cindex(w_j)} ci,j=kmaxck,j1ak,ibi,cindex(wj)
取log后:
log ⁡ c i , j = max ⁡ k log ⁡ ( c k , j − 1 ) + log ⁡ ( a k , i ) + log ⁡ ( b i , c i n d e x ( w j ) ) \log c_{i,j}=\underset{k}{\max}\log( c_{k,j-1})+\log( a_{k,i})+\log (b_{i,cindex(w_j)}) logci,j=kmaxlog(ck,j1)+log(ak,i)+log(bi,cindex(wj))

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1907408.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【实习问题记录】Nodeclub本地部署

问题描述 在按照官方网站给出的教程一步一步操作以后发现出现以下报错: 问题分析 显示连接不上mongodb,分析报错可能是因为版本不匹配导致的,查看安装的mongodb版本发现是7.0.4,与目标版本不匹配,同时查看mongodb官…

C#写的winform项目无法打包发布?谈谈思路

🏆本文收录于「Bug调优」专栏,主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&收藏&&…

一款简单、免费的web文件共享服务器

#共享文件# #远程访问# #手机访问# 文件共享已成为我们日常生活和工作中不可或缺的一部分。它如同一条无形的纽带,将人们紧密地联系在一起,促进了信息的快速传播和交流。 文件共享的魅力在于其打破了地域和时间的限制。无论我们身处世界的哪个角落&…

Leetcode2542-最大子序列的分数

1.问题转换 首先明确题意,要选取的值和num1,num2两个数组都有关,但是num1中选取的是k个数,num2中选取的是1个数,显然num2中的数所占的权重较大(对结果影响较大),所以我们就可以对nu…

猫咪浮毛满天飞怎么办?希喂、352、米家养猫空气净化器对比测试

作为一名资深铲屎官,表现掉毛季又来了,猫咪的毛发满天飞,怎么办?我家里的猫咪一到换毛季就掉满地的毛发,尤其喜欢在家里奔跑打闹,结果整个房间都是毛。家里的猫掉毛特别严重,感觉随便咳两下就能…

前端web在线PPT编辑器-PPTLIST

哈喽,大家好,今天给大家介绍一款的在线的PPT编辑器开源框架-PPTLIST;他是一个基于 Vue3.x TypeScript 的在线演示文稿(幻灯片)应用,还原了大部分 Office PowerPoint 常用功能,支持 文字、图片、…

[FBCTF2019]RCEService

[FBCTF2019]RCEService 绕过正则 随便输一下Json格式的东西 发现了get方式的cmd参数 然后{"cmd":"ls /"}没回显应该是被过滤了 {"cmd":"ls"}正则函数preg_match只能匹配第一行 Linux中cat命令实际是在bin中 ?cmd{%0a"cmd&quo…

微信小程序开发-003-首页(轮播图,状态栏,导航栏)

哈喽小伙伴们大家好,我是程序媛小李,今天,我们继续来开发微信小程序. 在这里,先贴上首页的效果图: 整个页面大概可以分为顶部的状态栏区域,轮播图区域,公司信息区域,商品导航区域,商品推荐区域,以及最下面的导航栏区域. 一,底部导航栏 在这里,我们遵循从外到内的原则,我们先来…

【力扣: 15题: 三数之和】

15题: 三数之和 给你一个整数数组 nums ,判断是否存在三元组 [nums[i], nums[j], nums[k]] 满足 i ! j、i ! k 且 j ! k ,同时还满足 nums[i] nums[j] nums[k] 0 。请 你返回所有和为 0 且不重复的三元组。 注意: 答案中不可以包含重复的三元组。 …

回归损失和分类损失

回归损失和分类损失是机器学习模型训练过程中常用的两类损失函数,分别适用于回归任务和分类任务。 回归损失函数 回归任务的目标是预测一个连续值,因此回归损失函数衡量预测值与真实值之间的差异。常见的回归损失函数有: 均方误差&#xff…

参考人物和背景生成惊艳图片,comfyui风格工作流!

前言 轻松使用ComfyUI生成惊艳图片:快速指南 在这篇文章中,我们将分享如何使用ComfyUI工作流轻松生成高质量的图像。这一过程不仅适合专业的设计师,同样也适用于刚开始接触图像生成技术的用户。通过本文,你将了解如何利用ComfyU…

CSS--表格自适应宽度并设置最小宽度

原文网址&#xff1a;CSS--表格自适应宽度并设置最小宽度_IT利刃出鞘的博客、-CSDN博客 简介 本文介绍怎样让HTML的表格自适应宽度。 Java技术星球&#xff1a;way2j.com 问题描述 默认样式下&#xff0c;表格会出现某一列很窄的情况&#xff1a; 代码&#xff1a; <h…

Function Call ReACT,Agent应用落地的加速器_qwen的function calling和react有什么不同

探索智能体Agent的未来之路&#xff1a;Function Call与ReACT框架的较量&#xff0c;谁能引领未来&#xff1f; 引言 各大平台出现智能体应用创建&#xff0c;智能体逐渐落地&#xff0c;背后的使用哪种框架&#xff1f; 随着各大平台&#xff0c;例如百度千帆APPbuilder、阿…

Python入门 2024/7/8

目录 数据容器 dict(字典&#xff0c;映射) 语法 定义字典字面量 定义字典变量 定义空字典 从字典中基于key获取value 字典的嵌套 字典的常用操作 新增元素 更新元素 删除元素 清空字典 获取全部的key 遍历字典 统计字典内的元素数量 练习 数据容器的通用操作…

浏览器控制台打印日志的方法汇总

目录 console.table用法 打印数组 打印对象 打印数组对象 打印数组对象里的指定字段 console.count用法 不传参打印 传参打印 console.warn用法 打印文本 打印对象 console.error用法 打印文本 打印对象 console.assert用法 打印文本 打印对象 consol…

ACL 2024|D2LLM:将Causal LLM改造成向量搜索模型的黑科技

语义搜索任务的主要挑战是创建既准确又高效的模型来精准定位与用户查询相关的句子。基于BERT风格的双编码器因为可以使用预先计算的嵌入表示时效率很高&#xff0c;但它们往往会错过句子对的微妙关系。相反&#xff0c;基于 GPT 风格的大语言模型&#xff08;LLM&#xff09;采…

【Python基础篇】条件判断和循环判断

文章目录 1. 条件判断1.1 单分支1.2 双分支1.3 多分支 2. 循环判断2.1 while2.2 for2.3 break2.4 continue 1. 条件判断 1.1 单分支 前面学习了打印&#xff0c;但是有时候我们在打印时会面临选择&#xff0c;例如&#xff1a;一个网吧&#xff0c;未满18&#xff0c;禁止进入…

将QT移植到IMX6ULL开发板

文章目录 前言一、编译系统1.设置交叉编译工具链2.编译系统3.烧写 二、Linux中下载QT1.安装 Qtcreator2.创建第一个程序3.配置 QtCreator 开发环境&#xff08;1&#xff09;打开选项界面&#xff08;2&#xff09;选择编译器&#xff08;3&#xff09;设置编译器&#xff08;4…

【Go】函数的使用

目录 函数返回多个值 init函数和import init函数 main函数 函数的参数 值传递 引用传递&#xff08;指针&#xff09; 函数返回多个值 用法如下&#xff1a; package mainimport ("fmt""strconv" )// 返回多个返回值&#xff0c;无参数名 func Mu…

数组算法(二):交替子数组计数

1. 官方描述 给你一个二进制数组nums 。如果一个子数组中 不存在 两个 相邻 元素的值 相同 的情况&#xff0c;我们称这样的子数组为 交替子数组 。 返回数组 nums 中交替子数组的数量。 示例 1&#xff1a; 输入&#xff1a; nums [0,1,1,1] 输出&#xff1a; 5 解释&#…