详细介绍NLP关键词提取算法

news2024/11/16 8:59:46

在这里插入图片描述

PageRank 算法

基于词图模型的关键词提取算法主要有 PageRank 和 TextRank。
PageRank 是 TextRank 算法的思想基础,TextRank 是 PageRank 在文本上的应用。

来源:
Google 创始人拉里·佩奇和谢尔盖·布林于 1997 年构建早期的搜索系统原型时提出的链接分析算法,通过计算网页链接的数量和质量来粗略估计网页的重要性。

应用:
该算法创立之初即应用在谷歌的搜索引擎中,是谷歌搜索的核心算法,对网页进行排名,从而解决互联网网页的价值排序问题。

核心思想 :
链接数量 :如果一个网页被很多其他网页链接到,说明这个网页比较重要,也就是 PageRank 值会相对较高。
链接质量 :如果一个 PageRank 值很高的网页链接到一个其他的网页,那么被链接到的网页的 PageRank 值会相应地因此而提高。

基本原理:
可以将整个万维网看作一张有向图,网页构成了图中的节点。任务是从图中挖掘每个节点的权重作为其重要性的度量。一个节点如果由很多个其他节点指向它,那么这个节点应该就很重要。同样,如果有多个高权重的节点指向某一节点,且这个节点指向外部的链接数很少,那么这个被链接的点显然非常重要。

在这里插入图片描述
S(vi) 是网页 i 的重要性(PR 值),初始为1。
d 是阻尼系数,一般设置为 0.85。
In(vi) 表示节点 vi 的前驱节点集合。
Out(vj) 表示节点 vj 的后继节点集合;
|Out(vj)| 是集合中元素的个数。

算法流程:
①给每个网页一个 PageRank 值(简称 PR 值)。
②通过(投票)算法不断迭代,直至达到平稳分布为止。

案例分析:
如图所示,有 A、B、C 三个页面,假设三者的初始 PR 值都是 1,d=0.85,计算每个网页的权重。
在这里插入图片描述
计算权重:
PR(A) = 0.15 + 0.85 * ( PR(B) / 2 )
= 0.15+0.85 * 0.5
= 0.575
PR(B) = 0.15 + 0.85 * ( PR(A) / 2+ PR( C) )
= 0.15+0.85 * 1.5
= 1.425
PR( C) = 0.15 + 0.85 * ( PR(B) / 2+ PR(A) /2)
= 0.15+0.85 * 1
= 1
所以网页 B 是图中最重要的节点。

TextRank 算法

TextRank 算法是一种基于图的、用于处理文本的排序算法。

来源:
由 PageRank 算法改进而来,区别:PageRank 算法根据网页之间的链接关系来构建网络,而 TextRank 算法是根据词之间的共现关系来构建网络。即:TextRank 算法以词作为节点,以共现关系建立起节点之间的链接,每个词的外链来源于该词前后固定大小窗口的所有词。

应用:
TextRank 算法最早用于文档的自动摘要,基于句子维度的分析,利用 TextRank 对每个句子进行打分,挑选出分数最高的 n 个句子作为文档的关键句,以达到自动摘要的效果。 后来,该算法利用一篇文档内部的词语之间的共性信息(语义)来抽取关键词,能够从一个给定的文本中抽取出关键词、关键词组,并用抽取式的自动摘要方法抽取出关键句。

核心思想:
TextRank 算法将文档看做词语的网络,该网络中的链接表示词语之间的语义关系。
①如果一个单词在很多单词边上都会出现,说明这个单词比较重要。
②一个 TextRank 值很高的单词边上的单词,TextRank 值会相应的因此而提高。

算法原理:
PageRank 算法构造的网络是有向无权图,而 TextRank 算法构造的网络是无向有权图。 除了考虑链接句的重要性之外,还考虑两个句子之间的相似性。计算每个句子给它链接句的贡献时,不是通过平均分配的方式,而是通过计算权重占总权重的比例来分配。这里的权重即指句子之间的相似度,可通过编辑距离、余弦相似度等来进行计算。

TextRank 算法构建一张关系图来表达文本、词语以及其他实体。词语、词语集合、整个句子等都可以作为图中的顶点,在这些顶点之间建立联系(如词序关系、语义关系、内容相似度等),就能够构建一张合适的关系图。在这里插入图片描述
基于 PageRank 计算权重的公式,TextRank 算法改写为如下公式来计算权重 :

在这里插入图片描述
参数说明:
d :阻尼系数,取值范围为 0 ~ 1;代表从图中某一特定点指向其他任意点的概率, 一般取值为 0.85。
In(vi) :指向节点 vi 的所有单词集合。
在这里插入图片描述:分子表示词 vj 链接到 vi 的权重;分母表示节点 vj 指向的所有链接的权重和。

当 TextRank 应用到关键词提取时,与应用在自动摘要中时有两点不同 :
(1)单词之间 的关联是没有权重的 ;将得分平均贡献给每个链接的词。
(2)每个单词并不是与文本中所有词都有链接。(专家学者提出窗口的概念,在窗口中的词相互间都有链接关系。得到链接关系就 可以套用 TextRank 的公式,对每个词的得分进行计算,最后选择得分最高的 n 个词作为 文档的关键词。)

算法流程:
使用 TextRank 算法提取关键词和关键词组的具体步骤如下 :
①将原文本分割成句子。
②对每个句子进行分词,并做词性标记,然后去除停用词,只保留指定词性的词(如名词、动词、形容词等)。
③构建词图,节点集合由以上步骤生成的词组成,然后用共现关系构造任意两个节点之间的边:两个节点之间存在边仅当它们对应的词在长度为 K 的窗口中共现,K 表示窗口大小,即最多共现 K 个单词,一般 K 取 2。
④迭代计算各节点的权重,直至收敛,得到各节点重要性的分值。
⑤对各节点的权重进行倒序排序,得到最重要的 N 个单词,作为 top-N 关键词进行输出。
⑥在原文本中标记 top-N 关键词,若它们之间形成了相邻词组,则作为关键词组提取出来。

算法特点:
优点:
● 无监督方式,无需构造数据集训练。
● 算法原理简单,部署简单。
● 继承了 PageRank 的思想,效果相对较好,可以更充分的利用文本元素之间的关系, 综合考虑文本整体的信息来确定哪些词或句子可以更好的表达文本。
缺点:
● 结果受分词、文本清洗影响较大,即对于某些停用词的保留与否,直接影响最终结果。
● 虽然不只利用了词频,但是仍然受高频词的影响,因此,需要结合词性和词频进行筛选,以达到更好效果,但词性标注显然又是一个问题。
注意:其他算法的关键词提取都要基于一个现成的语料库,而 TextRank 算法不需要。

案例分析:
对于 TextRank 的算法,目前已经有很多优秀的开源实现,在此分别利用结巴分词和 TextRank4zh 两种方法去实现 TextRank 算法。

1.采用结巴分词工具的方式实现 TextRank 算法
(1)使用结巴分词工具之前,要先安装 jieba 分词工具。可在终端中使用如下命令进行安装:pip install jieba
(2)导入结巴分词工具包,用 jieba.analyse.extract_tags 函数来提取关键词。
用法 :keywords = jieba.analyse.extract_tags(content, topK=5, withWeight=True, allowPOS=())

参数 :
● content, :待提取关键词的原文本。
● topK :返回关键词的数量,重要性从高到低排序。
● withWeight :是否同时返回每个关键词的权重。
● allowPOS:词性过滤,为空表示不过滤,若提供则仅返回符合词性要求的关键词。

import jieba.analyse 
str = " 基于词图模型的关键词提取算法 TextRank" 
result = jieba.analyse.extract_tags(str,withWeight=True) 
print(result)

在这里插入图片描述
2.采用 TextRank4zh 的方式实现 TextRank 算法
(1)先安装 textrank4zh 模块。可使用以下命令: pip install textrank4zh
(2)导入 textrank4zh 模块,使用其中的 TextRank4Keyword 可以提取关键词。
另外, 如果想提取关键句也可以使用其中的 TextRank4Sentence。 在关键词提取时,用到两个函数 :analyze 和 get_keywords。
① analyze 函数:对文本进行分析。
② get_keywords 函数:获取最重要的关键词,关键词的数量是 num 个,且每个的长度要大于等于 word_min_len。

from textrank4zh import TextRank4Keyword    # 导入相关模块
if __name__ == '__main__':         # 定义要提取的文本 
    text = (" 燕山大学是河北省人民政府、教育部、工业和信息化部、国家国防科技工业局四方共建的全国重点大学,河北省重点支持的国家一流大学和世界一流学科建设高校, 北京高科大学联盟成员。") 
    tr4w = TextRank4Keyword()     # 关键词提取 
    tr4w.analyze(text=text, lower=True, window=5)   
    print(' 关键词 :') 
    for item in tr4w.get_keywords(10, word_min_len=1): 
        print(item['word'], item['weight'])

在这里插入图片描述

TF-IDF 算法

基于统计特征的关键词提取算法:
基本思想:
利用文档中词语的统计信息来抽取适当的关键词,通常将文本经过预处理得到候选词语的集合,然后采用特征值量化的方式从候选集合中得到关键词。

关键: 采用什么样的特征值量化指标。在这里插入图片描述
评估词的重要性的常见指标:
在这里插入图片描述


TF-IDF算法:
TF-IDF 是一种统计方法,是一种用于信息检索与文本挖掘的常用加权技术,用以评估一个字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
字词的重要性与它在文本中出现的次数成正比关系,与它在语料库中出现的频率成反比关系。
应用:在搜索引擎、关键词提取、文本相似性、文本摘要等领域都有所应用。

基本原理:
1.计算词频TF:
如果某个词在当前文本中出现的频率(TF)高,并且在其他文本 中出现的频率(TF)低,则认为这个词具有很好的类别区分能力,适合用来分类。
计算公式:
在这里插入图片描述

2.计算逆文档频率 IDF:
计算 IDF 时需要一个语料库,用来模拟语言的使用环境。如果一个词越频繁出现,则分母越大,逆文档频率 IDF 就越小、越接近 0。分母之所以要加 1,是为了避免分母为 0,即所有文档都不包含该词。
计算公式:在这里插入图片描述

3.计算TF-IDF:
先计算得到 TF 和 IDF,然后可以让二者相乘来计算 TF-IDF。TF-IDF 与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。
计算公式:在这里插入图片描述

算法流程:
(1)对原文本进行分词,做词性标注和去除停用词等数据预处理操作,得到候选关键词。
(2)计算某词语在原文本中的词频 TF。
(3)计算该词语在整个语料库的逆文档频率 IDF。
(4)计算该词语的 TF-IDF 值(TF*IDF),并重复(2)~(4)步骤,得到所有候选关键词的 TF-IDF 值。
(5)对候选关键词的 TF-IDF 值进行倒序排列,得到排名前 Top-N 个词汇作为文本关键词。

算法举例:
假定某本书共有 50w 个词,其中“词向量”共出现 9800 次,“文本”出现 14000 次,“自然语言”出现了 17000 次;假设我们的语料库中共有 10000 个文档,包含“词向量”的文档数为 347 个,包含“文本”的文档数为 621 个,包含“自然语言”的文档数为 440 个。计算这三个词的 TF-IDF。

(1)计算词频。
TF(" 词向量 “)=9800/500000=0.020
TF(” 文本 “)=14000/500000=0.028
TF(” 自然语言 “)=17000/500000=0.034
(2)计算逆文档频率。
IDF(” 词向量 “)=log(10000/(347+1))=1.458
IDF(” 文本 “)=log(10000/(621+1))=1.206
IDF(” 自然语言 “)=log(10000/(440+1))=1.356
(3)计算TF-IDF。
TF-IDF(” 词向量 “)=TF(” 词向量 “)IDF(" 词向量 ")=0.0201.458=0.0292
TF-IDF(” 文本 “)=TF(” 文本 “)IDF(" 文本 ")=0.0281.206=0.0338
TF-IDF(” 自然语言 “)=TF(” 自然语言 ")IDF(" 自然语言 ")=0.0341.356=0.0461

“自然语言”这个词的 TF-IDF 值最大,“文本”次之,“词向量”最小。如果只取一个关键词,则取“自然语言”一词。

算法特点:
优点 :简单快速,提取结果较符合实际情况。
缺点 :
①单纯以词频来衡量一个词的重要性,不够全面。
②未考虑词的位置的影响,出现位置靠前或靠后的词被视为同等重要。
③严重依赖语料库,需要选取高质量且与待处理文本相符的语料库进行训练。

TF-IDF关键词提取案例:
用 TF-IDF 算法实现关键词提取。
Python 第三方工具包 Scikit-learn 提供了 TF-IDF 算法的相关函数。本案例主要用到了sklearn.feature_extraction.text 类的 TfidfTransformer 和 CountVectorizer 函数。
● TfidfTransformer 函数 :用来计算词语的 TF-IDF 权值。其参数 smooth_idf,默认值是 True。若设置为 False,则计算 IDF。
● CountVectorizer 函数 :用来构建语料库中的词频矩阵。

实现步骤:
(1)安装 pandas 和 sklearn。

pip install pandas 
pip install sklearn

(2)导入相关模块。

import sys,codecs 
import pandas as pd 
import numpy as np 
import jieba.posseg            # 词性标注 
import jieba.analyse           # 提取关键词 
from sklearn import feature_extraction        # 文本特征提取 
from sklearn.feature_extraction.text import TfidfTransformer     # 文本特征提取—TF-IDF权值计算 
from sklearn.feature_extraction.text import CountVectorizer      # 文本特征提取—特征数值计算

(3)读取样本源文件。定义标记函数,读取语料文件,读取完成后会调用标记函数生成标记文件 flag1。

def create__file(file_path): 
    f=open(file_path,'w') 
    f.close 
# 读取数据集(语料) 
dataFile = './data/sample_data - Copy.csv' 
data = pd.read_csv(dataFile) 
create__file('./data/flag1')

(4)数据预处理。对读取到的数据进行预处理,包括分词、去停用词和词性筛选。处理完成后生成标记文件 flag2 ,表示预处理部分完成。

注意 :dataPrepos 函数中的词性标注有如下含义 :
● 词性编码为 ‘n’ :表示词性是名词。
● 词性编码为 ‘nz’ :表示词性是其他专有名词。
● 词性编码为 ‘v’ :表示词性是动词。
● 词性编码为 ‘vd’ :表示词性是副动词(直接做状语的动词)。
● 词性编码为 ‘vn’ :表示词性是名动词(具有名词功能的动词)。
● 词性编码为 ‘l’ :表示词性是习用语。
● 词性编码为 ‘a’ :表示词性是形容词。
● 词性编码为 ‘d’ :表示词性是副词。

# 停用词表 
stopWord = './data/stopWord.txt' 
stopkey = [w.strip() for w in codecs.open(stopWord, 'rb').readlines()] 
# 数据预处理操作:分词,去停用词,词性筛选 
def dataPrepos(text,stopkey): 
    l = [] 
    pos = ['n','nz','v', 'vd', 'vn', 'l', 'a', 'd']             # 定义选取的词性 
    seg = jieba.posseg.cut(text)                        # 分词 
    for i in seg: 
        if i.word not in stopkey and i.flag in pos: # 去停用词 + 词性筛选
            l.append(i.word) 
    return l 
create__file('./data/flag2')

(5)构建 TF-IDF 模型,计算 TF-IDF 矩阵。
● 构建词频矩阵,
● 计算语料中每个词语的 TF-IDF 权值,
● 获取词袋模型中的关键词,
● 获取 TF-IDF 矩阵,
● 完成后生成标记文件 flag3。

def get_tfidf(data): 
# 1. 构建词频矩阵 
vectorizer = CountVectorizer() 
X = vectorizer.fit_transform(data)         # 词频矩阵,a[i][j]: 表示 j 词在第 i 个文本中的词频 
# 2. 统计每个词的 TF-IDF 权值 
transformer = TfidfTransformer() 
tfidf = transformer.fit_transform(X) 
# 3. 获取词袋模型中的关键词 
word = vectorizer.get_feature_names() 
# 4. 获取 TF-IDF 矩阵,a[i][j] 表示 j 词在 i 篇文本中的 TF-IDF 权重 
weight = tfidf.toarray() 
create__file('./data/flag3')

(6)排序输出关键词,将结果写入文件。计算好每个词的 TF-IDF 权值之后,对权值进行排序,并以“词语,TF-IDF”的格式依次输出。全部输出完毕后生成标记文件 flag4 表示环节完成,然后将结果写入文件 keys_TFIDF.csv 中。

def getKeywords_tfidf(data, stopkey, topk): 
    idList, titleList, abstractList = data['id'], data['title'], data['abstract'] 
    corpus = []       # 将所有文档输出到一个 list 中,一行就是一个文档 
    for index in range(len(idList)): 
        text = '%s。%s' % (titleList[index], abstractList[index])     # 拼接标题和摘要 
        text = dataPrepos(text, stopkey)     # 文本预处理 
        text = " ".join(text)                           # 连接成字符串,空格分隔 
        corpus.append(text)

	# 1. 构建词频矩阵 
	vectorizer = CountVectorizer() 
	X = vectorizer.fit_transform(corpus) # 词频矩阵 ,a[i][j]: 表示 j 词在第 i 个文本中的词频 
	# 2. 统计每个词的 TF-IDF 权值 
	transformer = TfidfTransformer() 
	tfidf = transformer.fit_transform(X) 
	# 3. 获取词袋模型中的关键词 
	word = vectorizer.get_feature_names() 
	# 4. 获取 TF-IDF 矩阵,a[i][j] 表示 j 词在 i 篇文本中的 TF-IDF 权重 
	weight = tfidf.toarray() 
	create__file('./data/flag3')
	# 5. 打印词语权重 
	ids, titles, keys = [], [], [] 
	for i in range(len(weight)): 
	    print(u"------- 这里输出第 ", i + 1, u" 篇文本的词语 tf-idf------") 
	    ids.append(idList[i]) 
	    titles.append(titleList[i]) 
	    df_word, df_weight = [], [] # 当前文章的所有词汇列表、词汇对应权重列表
	    for j in range(len(word)): 
	        print(word[j], weight[i][j]) 
	        df_word.append(word[j]) 
	        df_weight.append(weight[i][j])
	    df_word = pd.DataFrame(df_word, columns=['word']) 
	    df_weight = pd.DataFrame(df_weight, columns=['weight'])
	
		keyword = np.array(word_weight['word']) # 选择词汇列并转成数组格式 
        word_split = [keyword[x] for x in range(0, topk)] # 抽取前 topK 个词作为关键词 
        word_split = " ".join(word_split) 
        keys.append(word_split) 
    result = pd.DataFrame({"id": ids, "title": titles, "key": keys}, columns=['id', 'title', 'key']) 
    create__file('./data/flag4') 
    return result 
result = getKeywords_tfidf(data, stopkey, 10) 
result.to_csv("./data/keys_TFIDF.csv", index=False)

程序运行后,控制台会分别输出语料文件中每一条文本的所有词语的 TF-IDF 权值。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/63935.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

uniCloud云开发及一键生成代码

uniapp云开发(云数据库) 准备工作 一、新建项目选择云开发 关联云函数 在cloudfouctions右键点击创建云函数 在base下的index.js中写入 use strict; exports.main async (event, context) > {//event为客户端上传的参数console.log(event : , ev…

PyG (PyTorch Geometric) 异质图神经网络HGNN

诸神缄默不语-个人CSDN博文目录 PyTorch Geometric (PyG) 包文档与官方代码示例学习笔记(持续更新ing…) 本文介绍使用PyG实现异质图神经网络(HGNN)的相关操作。 本文主要参考PyG文档异质图部分:Heterogeneous Graph…

Matplotlib可视化50图:气泡图(2)

导读 本文[1]将学习如何使用 Python 的 Matplotlib 库通过示例绘制气泡图。 简介 气泡图是散点图的改进版本。在散点图中,有两个维度 x 和 y。在气泡图中,存在三个维度 x、y 和 z。其中第三维 z 表示权重。这样,气泡图比二维散点图在视觉上提…

C语言 编译和链接

C语言 编译和链接引言翻译环境运行环境声明一、预定义符号二、#define 符号1. #define 定义标识符2. #define 定义宏宏带来的陷阱宏的两个特殊的使用场景① 使用 #,把一个宏参数变成对应的字符串② 使用 ##,将两个宏参数合并成一个符号宏参数的使用3. #d…

某度旋转验证码

案例地址:aHR0cHM6Ly96aXl1YW4uYmFpZHUuY29tL2xpbmtzdWJtaXQvdXJs 运行结果截图: 抓包分析, 整个流程如下 第一个包,提交参数是ak和时间戳(ak是定值) 返回的参数中,as和tk后面都会用到 点击提交,会弹出验证码,第二个包,请求参数的tk是第一个包返回的, ak同第一…

总算给女盆友讲明白了,如何使用stream流的filter()操作

一、引言 在上一篇文章中《这么简单,还不会使用java8 stream流的map()方法吗?》分享了使用stream的map()方法,不知道小伙伴还有印象吗,先来回顾下要点,map()方法是把一个流中的元素T转换为另外一个新流中的元素R&…

身边的那些信审人员都去哪了?

最近几天看到朋友圈很多信用卡审核中心的老同事(老同学)在秀到深圳9周年,在2013年的时候,大家都是一起通过校招来到了XX银行信用卡中心的信贷审批部,成为了信用卡人工审核员,那时候入职信贷审批部近百人&am…

这个算法不一般,控制拥塞有一手!

数字时代下,远程办公、线上协同成为刚需,直播带货等业务模式盛行,数据流量爆炸式增长,低时延、高流畅的网络传输诉求给数据中心的处理能力带来了极大挑战。RDMA作为一种新型网络传输技术,可大幅提升网络传输实效&#…

HTML期末学生大作业-节日网页作业html+css+javascript

🎉精彩专栏推荐 💭文末获取联系 ✍️ 作者简介: 一个热爱把逻辑思维转变为代码的技术博主 💂 作者主页: 【主页——🚀获取更多优质源码】 🎓 web前端期末大作业: 【📚毕设项目精品实战案例 (10…

详细总结快慢指针的在链表中的常见题型

常见快慢指针题型1.找出链表中间结点2.找到倒数第K个结点3.判断环形链表4.找到环形链表的入口(进阶)5.相交链表1.找出链表中间结点 双指针进阶解法 1.定义两个指针,一个快指针,一个慢指针。 2.快指着一次走两步,慢指针…

基于冲突搜索的多机器人路径规划(Matlab代码实现)

目录 💥1 概述 📚2 运行结果 🎉3 参考文献 👨‍💻4 Matlab代码 💥1 概述 随着自动化物流系统的发展,移动机器人作为运输系统的关键工具,各方面的技术得到了快速的发展。多移动机器人路径规划是机器人导…

什么是单臂路由技术?

使用vlan trunk可以在同一交换机上划分vlan,从而相同vlan的主机可以通信,不同vlan不能通信,如果连接不同vlan的主机想要通信,怎么办? 不同vlan是属于不同广播域的,配置的是不同的IP网段,针对不…

Notepad++官网地址及使用十六进制查看文件的详细教程

目录 一、概述 二、Notepad官网地址 三、Notepad查看十六进制教程  3.1 在线安装HexEditor插件  3.2 手动安装HexEditor插件 一、概述 Notepad是一个开源的源代码编辑器和记事本替代品,支持多种编程语言和自然语言。在MS Windows环境下运行,它的使用受…

在线数据图表制作-FineReport文本控件

1. 概述 1.1 版本 报表服务器版本 App 版本 功能变更 11.0 -- -- 11.0.2 11.0.54 App支持文本控件 NFC 读卡输入 1.2 应用场景 1.2.1 填报控件 填报报表中可以通过该控件输入文本信息,录入填报的数据,如下图所示: 1.2.2 参数控件 …

51单片机APP GSM短信老人跌倒定位温度异常报警检测GPS地图

实践制作DIY- GC0088-跌倒定位温度异常报警 一、功能说明: 基于STM32单片机设计-跌倒定位温度异常报警 功能介绍: STC15W4K48S4(或者STM32F103CxT6)系列最小系统板OLED显示器SIM800 GSM短信模块1个DS18B20温度测量模块蜂鸣器AD…

我的世界杯 - 诸神黄昏之战

话说长这么大还是头一回主动的去看世界杯比赛... 小时候只是我爷爷他们喜欢看 【CCTV-5】 各种球的比赛,而我我对此毫无兴趣可言,每天只要有时间就沉醉在属于我的 【少儿频道】,喜羊羊、葫芦娃、红猫蓝兔、小娜扎... 而这次可能是因为朋友圈的…

Spring【Bean的作用域与生命周期】

Spring【Bean的作用域与生命周期】🍎一.Bean作用域问题🍒1.1 被修改的 Bean 案例🍒1.2 原因分析🍎二.作⽤域定义🍒2.1Bean 的 6 种作⽤域🍉 2.1.1singleton(单例作⽤域)🍉 2.1.2prototype(原型作…

微服务守护神-Sentinel-概念

引言 书接上篇 微服务应对雪崩的容错方案 ,大概知道微服务容错方案可以从隔离、超时、限流、熔断、降级这几方面入手。好了,理论了解了,那代码落地方案?这是后本篇的主角要登陆场:Sentinel,微服务的守护神…

Xylan-MAL|木聚糖-马来酰亚胺|木聚糖-聚乙二醇-马来酰亚胺|马来酰亚胺-PEG-木聚糖

Xylan-MAL|木聚糖-马来酰亚胺|木聚糖-聚乙二醇-马来酰亚胺|马来酰亚胺-PEG-木聚糖 中文名称:木聚糖-马来酰亚胺 英文名称:Xylan-MAL 别称:马来酰亚胺修饰木聚糖,马来酰亚胺-木聚糖 存储条件:-20C,避光&…

编程初学者应该先学C++、Java还是Python?

语言推荐: 第一大类语言包括Java、C、Python和C. 这类语言都是非常通用的语言,它们并不局限于特定的编程平台或用途。(无疑问,你应该熟悉这四种语言。) 第二大类语言包括Java、C#、PHP和Swift。 Java 和PHP是主要的Web开发语言。C# 是微软的编程语言&…