音频品鉴与歌唱评价——音频内容理解实践

news2024/11/20 2:42:42

歌唱评价是K歌系统中核心技术之一。近年来,歌唱评价领域也发生着多元化和深度化的变革。本次LiveVideoStackCon 2022 北京站邀请到腾讯音乐天琴实验室高级研究员——江益靓,为大家介绍全民K歌的多维度评价技术和深度歌唱评价技术的实践,以及优质内容挖掘中使用的音频品鉴系统。

文/江益靓

编辑/LiveVideoStack

各位同行朋友们,大家好,很高兴和大家一起分享交流,本次分享的主题是音频品鉴与歌唱评价——音频内容理解的一些技术实践。我是来自天琴实验室的益靓。

b96cef37f70db5f3d03ae0fead282f93.png

接下来将从四个方面展开介绍:歌唱评价概览、算法的探索以及落地的实践,最后会为大家介绍智能品鉴系统。

-01-

歌唱评价概览

歌唱评价是评价用户演唱是否动听,是否符合审美的一项任务。但在实际应用中还会分析更多维度,例如音色种类、音域范围、好听在哪里,哪个方面还有提升空间等等。

47751fa971e2df50d50dd2df9344041e.png

以QQ音乐的音频直播流片段为例。一位QQ音乐音频主播,直播了一小时。获取到直播流后,我们通过歌声检测技术捕捉了音频主播直播中的歌声片段,并使用音频指纹匹配歌曲,判断主播的演唱曲目。接下来,歌唱评价技术会结合主播演唱的音准、节奏、气息、技巧及情感进行分析,并通过声线的分析建模主播的画像,同时实时向主播提供歌唱反馈。还可以使用算法预测可能会喜欢这类声音的用户。这里会运用到很多歌唱评价的相关技术,例如歌声检测、歌唱评分、音色识别、唱法识别,歌手评价等。

0e1ee8c19b413a4d3b348df4c0669b5f.png

歌唱评价最基础的能力是歌唱评分,TME的全民K歌、Wesing和酷狗唱唱使用了多维打分功能, 公司外的软件如Pokekara、StarMaker都有歌唱评分功能。Apple Music在去年12月推出了Apple Music Sing,提供了用户跟唱功能,暂时还不支持打分。歌唱评分在线下也有很多落地项目,例如去年的央视节目《唱出我新声》使用了多维打分SDK,综合专业评委评价以及机器AI评价为选手打分。此外,全民K歌的《校园新歌声》、《主播新声代》等线下赛事也引入了AI打分。

直播歌唱场景中,主播可以在音乐平台点伴奏,跟着旋律线唱歌,并和粉丝互动。主播可以以打分为依据,进行PK连麦。全民K歌中还有实时的歌唱竞技游戏——“K歌王者”。

7db356ae9db46039956c042acc53dcbe.png

歌唱评价还可应用在优质作品筛选方面,如全民K歌的大赛、高质歌房筛选、运营活动中低质作品的过滤和高质作品的分发。此外,在QQ音乐中,也可以通过品鉴技术检测曲库中的低质作品,或者对入库作品的质量进行把关。总结来说,歌唱评价是一个鉴优去劣,或者说是品鉴的过程。

d6d5e49c326aa63ecec3f997004d434b.png

上图展示了我们参考文献和实际经验,搭建的歌唱评价体系。分为两个方面,一个是用户维度,一个是歌曲维度。用户维度和用户本身的特性相关,如音域、音色及发声,是相对稳定的评价维度,通过日常练习可以得到改善。歌曲维度则更偏向于歌曲本身,和用户本次演唱的表现有关,例如如基础的音准、节奏;中阶的气息、咬字以及高阶的技巧、情感。我们也逐一进行了技术实践。

7fe5f2b4fb266031b7dc5ec22645f8d7.png

歌唱评价分可分为有参考评价和无参考评价。有参考评价是指通过对比用户演唱特征与模板的匹配度来评分。例如对比用户演唱的基频和歌曲伴奏或者曲谱模板MID进行匹配,或者用户的时域,频域特征同分离原唱的时域、频域特征进行匹配。有参考评价更注重用户演唱和模版的一致性以及完成度的评价。无参考评价是指不依赖模版对用户演唱做出的评价,比较流行的做法是用数据驱动,拟合专家评分训练模型,使用神经网络学习“好声音”。

95881aeead77bca44ddeaab5d36499f7.png

在学术研究领域,与其相关的关键词包含歌唱评分、视唱评价、歌手识别及音色表征等,都是音频/音乐内容理解相关子领域。纵观歌唱评价技术发展,最初的研究常常使用基频、响度及颤音等特征,随着时间的发展,无参考评价、深度学习技术使用的越来越多。

0d707c85eae383dc80973a186cebe891.png

最终我们结合平台的实际情况,选择了有参考评价和无参考评价相结合的方案,目标是提供维度最全面,最公允的实时歌唱评价算法。

-02-

歌唱评价探索

第二部分我们介绍下歌唱评价的一系列探索。

2f20e04409d2af4b62c94f6e8381ab19.png

图中是全民K歌的打分面板,分为两部分:上方的“SSS”是评分等级,是全民K歌打分1.0的算法,主要是用户演唱旋律线与模版的匹配度评级,受到广大用户的喜爱。下方的五边形是2.0算法的五维打分图,每个顶点是各个维度的评分,包括音准、节奏、技巧,气息和情感,都是实时计算完成的。各个维度都是主要基于有参考评分的思路实现的。

76b9956217ae9ccaedb2694dff2bf62d.png

在音准评价,我们提取用户演唱的旋律线——基频,并和曲谱模板MIDI进行匹配与评分。在设计算法时需要考虑许多细节,例如音和音之间的过渡的滑音及字尾的颤音。虽然这些细节可能与模板不匹配,但它们是演唱风格的体现之一,也是用户演唱能力的表现。右侧的节奏评价较常见的做法是旋律线与MIDI的动态规划匹配,我们也实现了用歌声ASR技术判断歌手唱的每个唱字时间点是否与歌词匹配。

0e3f43793305f58cf27aed8f8ef6c5d0.png

情感评价的相关的研究大多是关于情感分类和情感表征。那么如何给情感打分呢?歌唱的动态是一个很重要的特征。然而,动态越大并不意味着分数越高。例如,在K歌场景中,如果一首歌的旋律比较平稳,那么演唱者的情感也应该是平稳的才能得到高分;而在一首旋律起伏比较大的歌曲中,用户需要用较大的动态来演唱才能拿到高分。因此经过实验,我们选择有参考的评价方案,将音源分离后的原唱作为参考,并以动态信息和时频域特征信息为标杆,对比用户是否达到原唱的幅度及特征。当用户出现超离模板的表现力时,此时会引入无参考的情感得分,并对两项进行加权求和,最终得到情感分数。

ce138ebdc0bfb54808cd8274a268664c.png

技巧评价的范围比较广,我们主要实现了音高和发声技巧的评价,接下来将重点介绍音高方面的技巧。我们会捕捉用户在演唱过程中的旋律特性,如旋律中的颤音及滑音特征。如何评价用户的技巧水平?颤音是否越多越好?类似的,我们会参考原唱进行评分。提前对分离的原唱进行技巧特征的提取,再根据歌词按字绑定,在唱歌教学场景,系统会提示用户原唱的某些字需要颤音或滑音,然后按照时间戳进行保存,随着伴奏下发。当用户在歌曲特定时间点演唱出了技巧,他会得到相应的分数。

ddcec615ea28e9184759ab54461d3b9b.png

上文主要介绍了通过有参考评价,使用到的方法主要包括特征提取、统计学习以及机器学习。除此之外,我们还尝试了度量学习方案,通过控制训练过程,帮助更好地捕捉“好声音”。

11b2aa603585075402bd787785f28e0d.png

度量学习的主要思想是学习“好声音”的共性,以及和“不好声音”的差异性。图中左上角深蓝色部分是好的歌声片段,下方白色是差的歌唱片段。我们会选择一个锚点作为参考歌唱片段,一并汇入模型,让同一类别的特征向量之间的距离尽可能接近,并让不同类别之间的距离尽可能远离,以此来训练模型。

3005bc49871a29f79d0f92c5a5371d96.png

左图中是基于度量学习思想设计的模型结构,通过对比实验可以发现提出的度量学习方案在测试集的五首歌曲上的评价中不是所有的歌曲表现都好,但是泛化性相对最强。在音域跨度较大的戏曲或节奏非常快的歌曲上,无参考评价的方案比传统用基频和模板进行匹配的方法表现更好。

edcac1bb31865f5745da8b44d2eb8593.png

图中是学习得到的音频音色向量在二维空间中的分布,深色的点代表好听的歌声,浅色的点代表较差的歌声。可以看到深色的点呈聚集状,而浅色的点则较为分散,这和我们训练度量学习的Loss相关的。图案的分布不禁让我们想到托尔斯泰的一句话,“All happy families are happy alike; each unhappy familiy is unhappy in its own way”。在声音是否好听方面也类似:好听的声音是有共性的,但不好的声音各有各的缺点。

上文提到很多方法是以有参考为主的评价,但在实践过程中我们也遇到了一些问题——高阶用户之间的区分度不够。例如两个歌唱基础维度都比较不错的演唱,从模版匹配角度来说分数很接近,但声乐老师能明显判断哪位歌手是经过训练过,对气息的把控能力更强。

5a3e675f83909b00880fff3a2469c269.png

于是我们进一步优化模型,升级了打分技术。希望通过无参考评价的方法可以脱离模版的约束,捕捉高唱功的表现,并对其进行打分。

a76bc22a23487bbba36f91ae0354f63a.png

介绍实验之前先给大家介绍一下数据集。歌唱评价是比较小众的领域,其数据集也是业内非常稀缺的资源,公开数据集少之又少。我们找到了一个公开数据集——Damp子集,包含四首歌的100个干声样本。标注来源于新加坡国立大学的一项工作,他们将歌声放到众包平台上进行标注,让众包的标注人员两两比较测听选出好听的歌曲,计算出每首歌的Best-worst Scaling。最后选出一首集外的歌曲,和专家的评分做相关系数的计算,观察是否一致(越接近1越一致),结果得到相关系数是0.86。

右侧是我们自己搭建的内部数据集,每首歌包含了两个不同演唱者的作品,每个作品的音准分都在70分以上,希望在构建的是“高阶”演唱用户的数据集。每个标注人员都有一定的音乐学习背景,在标注时提供了为标注人员不同粗区间的标准,每首歌的精细化评分由标注人员来把握。

e21f24a35824220dc77abb3306816e43.png

图中是NUS在Damp数据集上的最优实现,我们将其作为Baseline。方案包括两个分支:上分的发声共鸣相关分支和下方的音准相关分支。后者采用无参考的Pitch Histogram方法,支撑思想是好的歌手在达到某一个标准音时会非常果断,反复地击中歌曲的弦内音,图示的歌曲的五个峰值分别对应歌曲的弦内音,峰值越尖锐,歌手的演唱水平越高,跑掉的概率越低。它在Damp数据集的相关系数达到了0.48。我们对此方案进行实践后发现它的泛化性较弱。对于滑音较多或节奏较快的歌曲,并不能满足我们的业务需求。

发声共鸣相关的分支支撑思想是,即使不了解歌手唱的歌曲,但演唱一开始,就能凭借经验判断其唱功如何。Baseline使用神经网络在Damp较小的子集中进行训练,相关系数达到0.72。上下两个分支进行融合后,相关系数达到0.76。

e42abf952359576d394df02a8756d01e.png

对音准节奏相关分支的改造,我们借助了TME非常丰富强大的曲库资源,优化为有参考的评价方案,在此分支的相关系数从Baseline的0.48提升到了0.65。对发声共鸣分支的改造思路是:高阶演唱中,我们关注的是是否有真假音转换,在不同发声之间的切换或声音的控制。此时,高阶用户的评价更和音色控制相关。因此我们借鉴了歌声音色的相关模型训练思路。

68c59be9160a66226f7732b920c1e6ea.png

首先建立Pre-train的模型,以歌手识别任务作为Task1,即预训练任务。理想状态是同一个人唱的歌曲的音色Embedding在空间中尽量聚集,不同人唱的尽量分散。同时我们还进行了Task2和Task3的联合训练,前者主要是音色分类任务,隐空间中的音色向量能够表征不同的音色,如少女音、磁性男等。后者主要是通过音色向量反映发声的控制力,例如难听的大白嗓或控制较好的气声。经过训练最终得到了绿框中的Singing Encoder,表征了和嗓音音色与发声属性。

e9b869aa42dd25ecb41a41ad8ee9229d.png

在Damp数据集测评的指标来看,音准节奏相关的有参考方案最终的相关系数是0.65,上面的无参考和发声共鸣相关的分支相关系数达到0.71,经过融合后,总相关系数是0.86。无参考歌唱评价的模型规模较大,我们使用全民K歌内部数据集进行训练,在Damp的测试集上进行了测试。

右侧是Damp数据集和以往的学术界工作的对比,有参考歌唱评价达到了0.65的相关系数,结合有参考和深度无参考的网络,相关系数达到0.86,优于于Baseline在Damp数据集上的0.76相关系数。

58870ddd96da0735ca7198a56059a69e.png

上文提到,数据集是比较稀缺的资源,多数学术界的研究都囿于数据集,于是我们发布了歌唱评价数据集,它是国内首个真实K歌场景录制的歌唱评价开源数据集,部分样本包含外放原唱的回采或背景噪声。在收集过程中,我们花费大量时间精力用于用户隐私的保护,每条样本都是经用户同意《知情同意声明》和《个人信息使用声明》,并去除用户个人信息进行脱敏,最终获得了这样宝贵的资源。

c5e8b383dc49e5bd736243c419f6332d.png

目前我们收集了10首歌,每首歌有100个干声,并附带其MIDI和歌词句级别的时间戳,希望为学术界或工业界提供帮助。右下角是我们提供的粗略标注,包括性别、听感年龄、音质、噪声级别及最终歌唱评分。后续我们计划和高校合作进行精细化的歌唱标签标注,也就是审美相关的精细标注。

-03-

歌唱实践评价

ada7180c634a8c7ba362cf655cbb7c8e.png

上文提到了多任务学习、预训练模型的表现非常好。但模型有40多兆,对移动端场景来说比较大。于是我们进行了模型蒸馏,将模型降至1M以内,在Damp数据集上的相关系数下降了0.05,对于产品侧来说是可以接受的。

f9b58ef8181e8ef91056ab055dc9ecc1.png

上图介绍了在K歌场景的流程框图,包括对声音进行采集、加载与下载模板,并进行初始化,采集每一句的音频相关特征PCM数据,进行单句得分计算以及整曲计算,最后得出歌唱评价分数。

c723e9e20259c7b3a7a5919c2f55eba9.png

歌唱评价依赖的曲库模版包括歌词和MIDI。其中歌词由天琴歌词库提供,我们针对歌声训练的声学模型具有高准确率和生成率,专门设计了中文谐音字典,增加音素级别标记。本数据集的字边界准确率达到93.2%,容忍度是0.3ms。

右侧是天琴智能MIDI,我们升级了主旋律提取技术,利用曲库内非常庞大的人工精标的MIDI进行训练,结合多任务学习和歌词时间戳信息,得到高精度的天琴智能MIDI。

36e6fb27f0840201b7c61e2a645e806a.png

c6d6ed7688627c4de8cc7cc60ad8c995.png

歌唱评价的落地实践中还有许多配套支持的工作,例如模型的管理、存储和加载,工程性能的考虑、设备延迟的补偿、声伴分离技术及歌曲难度打分技术等等。

89cbbb23c56f8bc359321945b8a081e5.png

3fdb6946ea9e7969cb0cbf541bf249ca.png

接下来为大家介绍一系列实践的具体应用。我们将最新升级的歌唱评价技术应用在了全民好声音榜单,在用户每次的演唱结束的同时会显示当前用户的地区排名及全球排名。榜单上的优质作品吸引和激励用户更多地演唱发布作品,进行打榜挑战。此应用上线后,用户的录唱行为有明显提升,3日留存和7日留存都有明显的上涨。

2c453087e5003d0a2bead6bfa294dc49.png

fad9d69a7242f952c1573cedc95f47ed.png

多维度打分功能已经作为了打分SDK对内外提供支持,上图是打分组件在酷狗唱唱、Wesing以及全民K歌的录唱落地应用。

4d9208d067750fda6bf08085a251a2a7.png

此外,多维打分组件也支持了全民K歌中的“K歌王者”游戏以及右侧QQ音乐直播中,主播之间的歌唱PK。

2f873ef7207301b0d98273a261ff0129.png

全民K歌8.0版本之后进行了游戏化升级,画面内容以横屏呈现,增加了K歌游戏的沉浸感。数据分析表明,用户粘度及使用时长都非常可观。

11a02933d84717d3aeef8557c2df6031.png

此外,还有一些歌唱的游戏化玩法,比如参考相关文献,将歌声的特征和消耗卡路里映射,实现游戏化的录唱评分。

-04-

智能音频品鉴系统

最后,再介绍下我们的智能音频品鉴系统。我们希望结合音频内容理解能力,对歌唱作品和音乐作品进行全方位的理解。

acab449432e1619fb46706334a1b3015.png

上文有提到,我们将用户的歌唱表现分为用户维度和歌曲维度。对于用户维度,主要是用户先天演唱条件,我们在各个维度上都进行了实现。例如音域维度包括音域上界和下界,舒适音域和极限音域,在音色维度进行可进行歌唱人鉴定或相似音色匹配,在发声维度进行发声共鸣相关的分析。

adb5e826a0fb91fb566240165f1d4fc8.png

以上功能都已在全民K歌的录唱报告中落地,我们会基于用户这个月内发布的作品进行音频特征的汇总并在月度录唱报告上呈现,比如用户的嗓音标签、音色相似的明星、音域范围和喜爱歌手的对比图等,用户还可以通过反复的练习拓展歌唱评价的五维打分能力图。

6aaf3bae27c524c7e513fa2b87f05af5.png

音色相似度计算中运用到的技术是分类任务和验证任务,在1v706的歌手分类任务中,准确率达到85.4%,EER是9.69%。

6b410294ea7202e229aac4999b1d3b16.png

音色识别方面,结合平台的实际情况,对用户演唱的音色进行分类,卡阈值准确率高达96.05%。右侧是各种音色在二维空间的分布,左上角是男性的音色、右下是女性的音色以及在两种音色之间分布着中性的音色。

31765f435d05427ac6ca6667877cb62b.png

此外,我们还可以对特色唱腔,如戏腔、民族唱法及rap进行识别,通过技术快速发现普通大众中的“民间好声音”。

c0d708b4aa15b8c0f769abc4727fce93.png

音色落地场景很多,例如全民K歌推荐;QQ音乐主播标签;在全民K歌年度报告中,我们还结合的天琴实验室的图片生成技术,根据用户的声线生成音色画像;此外我们还可以根据合唱双方的音色匹配度进行音色默契度的评分。

ad3ed0f374a9653097b88259a07287ed.png

另一个音色标签使用场景是腾讯音乐的启明星平台,目前已有30w+的音乐人入驻,我们会对其中的唱将进行音色打标,用户可以在启明星平台进行交易,如上传demo,选择适配音色后演唱歌曲。我们根据上传的作品为每一位入驻音乐人打上音色标签,例如听感年龄、音色颗粒度及唱功分数,以便客户挑选心仪的演唱歌手。

72e63a28cabe6d5bcd4ee19106c3b736.png

场景识别任务服务于全民K歌中短视频内容识别,通过音频场景识别、声音事件检测、朗诵识别、乐器演奏识别等作品内容进行理解,从而更有效地聚类分发。

9d4676b442cfbbde01208b1a8b17944a.png

在直播方面,我们提供了直播高光时刻的识别功能,简单来说就是定位并裁剪出歌唱主播的演唱精彩部分。具体流程如下:对采集到的主播音频流进行粗筛,包括基础人声检测和时长限制,再进行精筛包括人声识别(一小时的直播中可能只有几分钟的有效歌唱片段)、音频指纹匹配(判断唱的哪首歌曲)、真假唱识别(判断是真唱还是播放的原唱),再进行唱功赏析。理解方面会校准歌词时间戳,为主播直播片段的音频品质进行评分,过滤掉大混响,或者背景噪声太大等影响用户听感的演唱作品。此外还输出主播音色标签、高光分值及裁剪出的高光片段,评测结果表明,高质率达到95%+。

ea8909cfeebc93840713edb23557e8ba.png

图片展示了直播高光时刻在移动端的显式入口,例如QQ音乐的播放界面、搜索界面。全民K歌的伴奏详情页以及推荐页。

8f9413fd5988d3d3866752b2db8d0939.png

QQ音乐也根据品鉴得分建立了主播翻唱的热榜,异步展示了主播的高光片段作品,榜单按照综合得分排序。我们通过实验,计算了直播次日留存与高光分数的关系,可以看到高光分数在30分之后,次日留存率会随之显著提高。此外我们也结合视频分析的技术,为音视频直播的多模态智能理解做出贡献。

6d950084bfd44be02270792ff3fcc106.png

最后再罗列下我们品鉴的能力。希望用我们日益打磨的音频内容理解能力的技术,能促进整个音频音乐领域的理解智能化,贡献到更多的产品与研究中。欢迎大家和我们多多交流与合作。以上是本次的分享,谢谢!


cd9b812284ea91187863979c108a62a4.png

扫描图中二维码或点击“阅读原文 

直通LiveVideoStackCon 2023上海站九折优惠

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/542861.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Linux系统编程学习 NO.3 ——基础指令的学习

* 通配符 通匹配任意字符(包括空字符),用于匹配任意长度的字符串。包括空字符。加入你要匹配任何以.txt后缀的文件,只需要在*通配符后加上.txt后缀即可。 样例演示 ls *.后缀名 ls xxx* 找到匹配的字符串man指令(重要) Linux的…

理论力学专题:张量分析

张量方法的引入 自然法则与坐标无关,坐标系的引入方便分析,但也掩盖了物理本质指标符号哑标和自由标 Einstein求和约定:凡在某一项内,重复一次且仅重复一次的指标,表示对该指标在它的取值范围内求和,并称这…

【C++ 入坑指南】(10)函数

文章目录 简介定义实例函数的分文件编写 简介 函数是一组一起执行一个任务的语句。每个 C 程序都至少有一个函数,即主函数 main() ,所有简单的程序都可以定义其他额外的函数。 您可以把代码划分到不同的函数中。如何划分代码到不同的函数中是由您来决定…

分享3个深度学习练手的小案例

🤵‍♂️ 个人主页:艾派森的个人主页 ✍🏻作者简介:Python学习者 🐋 希望大家多多支持,我们一起进步!😄 如果文章对你有帮助的话, 欢迎评论 💬点赞&#x1f4…

0ctf_2017_babyheap-fastbin_dup_into_stack

参考: [1]https://uaf.io/exploitation/2017/03/19/0ctf-Quals-2017-BabyHeap2017.html [2]https://blog.csdn.net/qq_43935969/article/details/115877748 [3]https://bbs.kanxue.com/thread-223461.htm 题目下载参考[1] 说明下如何调试堆,在payload中…

chatgpt赋能Python-python3_7如何下载

Python3.7如何下载?详细步骤分享! Python是一门当今最热门、最常用、最易学的编程语言之一,且拥有庞大的社区和强大的库支持。在这篇文章中,我们将会详细介绍如何下载Python3.7版本,让大家能够轻松上手Python编程。 …

代码随想录训练营Day44| 完全背包 518. 零钱兑换 II 377. 组合总和 Ⅳ

目录 学习目标 学习内容 完全背包 518. 零钱兑换 II 377. 组合总和 Ⅳ 学习目标 完全背包 518. 零钱兑换 II 377. 组合总和 Ⅳ 学习内容 完全背包 problems/背包问题理论基础完全背包.md programmercarl/leetcode-master(代码随想录出品) - Git…

chatgpt赋能Python-python3_5怎么打开

Python 3.5怎么打开?教你几种方法 Python是目前非常流行的一种编程语言,几乎在所有行业都得到了广泛的应用。Python非常容易上手,且有强大的数据处理和科学计算能力。现在我们来说一下,如何在您的计算机上打开Python 3.5。 方法…

万劫不复之地-云原生可观测性的几大误区

传统监控厂商正把可观测性引入万劫不复之地 可观测性是当前讨论非常多的话题,这个理念由来已久,却在最近开始流行。 在20世纪60年代,该理念首次由Rudolf E. Kalman在其论文中提出,论文题目是《on a general theory of control s…

自然语言处理基础

以下所有内容来自《自然语言处理 基于预训练模型的方法》 1. 文本的表示 利用计算机对自然语言进行处理,首先要解决语言在计算机内部的存储和计算问题。使用字符串表示计算文本的语义信息的时候,往往使用基于规则的方法。如:判断一个句子编…

一文深度解读机器学习模型的评估方法

我们训练学习好的模型,通过客观地评估模型性能,才能更好实际运用决策。模型评估主要有:预测误差情况、拟合程度、模型稳定性等方面。还有一些场景对于模型预测速度(吞吐量)、计算资源耗用量、可解释性等也会有要求&…

chatgpt赋能Python-python3_8怎么降版本

Python 3.8如何降级版本 在本文中,我们将介绍如何将Python 3.8降级到旧的Python版本。这在一些情况下是有必要的,例如某些软件或库并不支持Python 3.8。Python版本降级不仅有用,还可以帮助您控制您的系统上的软件版本,以确保您的…

网络通信—路由交换协议之TCP协议

目录 一、tcp协议 二、通信消息类型 三、准备阶段(三次握手) 准备阶段要干什么? 有什么特点? 准备阶段的核心? (1)准备阶段的数据传输单位 (2)三次握手的过程 1…

Linux之基础开发工具

文章目录 前言一、yum(软件包管理器)1.什么是软件包?2.下载软件包1. 安装软件之前需要将软件的安装包下载下来2. 软件包并不在我们的本地电脑,那么软件包在哪里呢?3. 那么问题来了,我们的电脑如何得知要去哪…

npm 配置双因素身份验证

目录 1、关于双因素身份验证 2、NPM上的双因素身份验证 2.1 授权和写入 2.2 仅限授权 3、先决条件 4、从网站配置2FA 4.1 启用2FA 4.2 为写入禁用2FA 4.3 禁用2FA 5、从命令行配置2FA 5.1 从命令行启用2FA 5.2 从命令行发送一次性密码 5.3 从命令行删除2FA 6、配…

chatgpt赋能Python-python3_8怎么安装库

Python 3.8怎么安装库 - 一个简单易懂的指南 如果你正在学习Python编程,或者想要在你的项目中使用Python 3.8,那么你可能需要安装一些Python库。Python库是一些预定义的Python模块,它们可以帮助你更快速地完成你的项目。在这篇文章中&#x…

chatgpt赋能Python-python3_9_6怎么用

Python 3.9.6简介 Python 3.9.6是2021年6月28日发布的Python编程语言的最新版本,它提供了一些有用的新功能和改进,包括优化的解释器性能和可变构造体。它是一种功能强大的编程语言,既易于学习又易于使用,非常适用于开发Web应用程…

059:cesium设置条纹条带Stripe材质

第059个 点击查看专栏目录 本示例的目的是介绍如何在vue+cesium中设置条纹条带材质,请参考源代码,了解StripeMaterialProperty的应用。 直接复制下面的 vue+cesium源代码,操作2分钟即可运行实现效果. 文章目录 示例效果配置方式示例源代码(共91行)相关API参考:专栏目标…

机器学习——感知机

本章节主要介绍感知机的基础知识,虽然在目前的机器学习范围内,感知机已经不怎么使用,但是通过对感知机的学习可以更好的了解以后的线性模型等相关知识。 同时读者可以点击链接:机器学习-目录_欲游山河十万里的博客-CSDN博客 学习完…

Flutter 笔记 | Flutter 核心原理(一)架构和生命周期

Flutter 架构 简单来讲,Flutter 从上到下可以分为三层:框架层、引擎层和嵌入层,下面我们分别介绍: 1. 框架层 Flutter Framework,即框架层。这是一个纯 Dart实现的 SDK,它实现了一套基础库,自…