自然语言处理(NLP)—— 主题建模

news2024/10/5 17:16:53

1. 主题建模的概念

        主题建模(Topic Modeling)是一种用于发现文档集合(语料库)中的主题(或称为主题、议题、概念)的统计模型。在自然语言处理和文本挖掘领域,主题建模是理解和提取大量文本数据隐藏主题的一种常用方法。

1.1 主题建模的关键特点

        主题:在主题建模中,主题通常被定义为一共现的词汇这些词汇在语料库中的文档集合里代表了某种特定的概念或话题。
        词汇的概率:每个主题都由一组单词及其相关概率构成,这些概率表示了单词在该主题中的重要性或出现频率。
        单词的多主题属性:同一个单词可以出现在多个主题中,并且在不同主题中具有不同的概率。这反映了词汇在不同语境下的多义性。
        主题的解释性:生成的主题可能语义上是有意义的,即它们代表了容易理解和识别的概念;也可能是抽象的,不容易直接解释。

1.2 主题建模的算法

        隐含狄利克雷分布(Latent Dirichlet Allocation, LDA):LDA是最广泛使用的主题建模算法之一。它假设文档是由多个主题的混合生成的,每个主题又是由多个单词的混合生成的。
        非负矩阵分解(Non-negative Matrix Factorization, NMF):NMF通过分解词频矩阵来发现文档-主题和主题-词汇之间的关系。

1.3 主题建模的应用

        主题建模可以应用于许多场景,包括但不限于:

        文档分类:通过别文档的主要主题来对其进行分类
        推荐系统:通过发现用户兴趣的主题来提升内容推荐的相关性。
        信息检索:增强搜索算法,让其能根据主题而非单个关键词来检索文档。
        趋势分析:在时间序列数据中识别和跟踪主题的流行度变化。

        通过主题建模,研究人员和数据分析师能够从大量的文本数据中抽象出有用的信息,以便进一步的分析和决策制定。

2. 潜在语义分析(Latent Semantic Analysis,LSA)

        潜在语义分析(Latent Semantic Analysis,LSA)是一种用于文本处理的技术,可以揭示文档集合中隐藏的语义结构。LSA通过数学模型捕获词语与文档之间的关系,并能够减少数据的噪声和维度,从而发现词义上的模式和趋势

2.1 LSA的关键步骤

2.1.1 构建术语/文档矩阵M

        每一行代表一个文档,每一列代表一个术语(单词)

2.1.2 使用TF-IDF代替术语计数

\text{tfidf}(w_0, d_0) = \text{occur}_{d_0}(w_0) \times \log \frac{\#d}{\#\{d | w_0 \in d\}}

这里,

  •         \text{tfidf}(w_0, d_0)是单词w_0在文档d_0中的词频-逆文档频率值。
  •         \text{occur}_{d_0}(w_0)是单词w_0在文档d_0中出现的次数。
  •         \#d是文档总数,\#\{d | w_0 \in d\}是包含单词w_0的文档数。

2.1.3 执行奇异值分解(SVD)

        奇异值分解是将矩阵M分解为三个矩阵的乘积:M = U \Sigma V^T

  •         \Sigma是一个包含非负递减实数的对角矩阵
  •         UV是半正交矩阵(即满足U^TU = IUU^T = I的矩阵)。

        LSA(潜在语义分析)是一种用于文本处理的技术,通过矩阵分解来识别文档集合中的潜在主题。在LSA中,主要涉及三个矩阵:U、S和V^T

        U矩阵:它具有与文档数量相同的行数,其列由M的列聚合而来,这些列代表主题,因此U是一个文档-主题矩阵。
        V^T矩阵:它的列数与M中的术语数量相同,其行由M的行聚合而来,这些行代表与U中相同的主题,因此V是一个术语-主题矩阵
        决定主题数量N:在LSA中,我们需要决定主题的数量N,这是一个重要的参数,因为它影响模型的性能和主题的解释性。

2.1.4 获得最优的主题数量N

        要获得最优的主题数量N,没有一个统一的标准答案,但可以通过以下方法来估计:

        试错法:选择不同的N值,分别构建模型,然后评估每个模型的性能和主题的解释性。通常,可以使用诸如困惑度(Perplexity)之类的指标来评估模型的性能,低困惑度通常意味着模型性能好。

        主题一致性:评估模型生成的主题的一致性或稳定性。主题一致性高的模型倾向于产生具有明确含义的、相互区分度高的主题。

        人工评估:通过专业知识对生成的主题进行评估,选择能够最好地反映文档集合内容的主题数量。

2.1.5 降维

        取U的前N列,\Sigma的前N行和列,以及V^T的前N行来减少问题的维度。
        这样做是为了保留数据中最重要的语义特征,同时去除那些对于主题不太重要或者是噪声的维度。

2.2 LSA的应用

        发现文档和术语之间的隐含关系:LSA可以帮助识别文档中的主题或概念,并将术语与这些主题或概念关联起来。

        改进信息检索:通过更好地理解文档内容的语义,LSA可以提高搜索引擎的准确性。

        文本聚类和分类:LSA的降维特性可以用于文本聚类和分类任务,提高模型性能。

        LSA虽然是一个较为古老的方法,但它仍然是文本挖掘和自然语言处理中一个非常有价值的工具。通过揭示文本数据中的隐含语义结构,LSA能够支持各种文本分析任务。

2.3 主题示例

        主题示例展示了通过LSA技术从文档集合中提取的不同主题。每个主题都是由一系列术语组成,这些术语代表了主题的核心内容。例如,主题0可能与面试有关,而主题1可能与警察、事故和法庭相关。通过分析这些主题,我们可以对文档集合中的内容有更深入的了解,每个主题提供了文档集中某个特定方面的视角。

Topic 0:
interview extended michael john david smith james andrew mark scott
Topic 1:
police death probe crash woman fire call court missing drug
Topic 2:
say plan council call govt back fire australia water court
Topic 3:
say australia police minister need report must world could labor
Topic 4:
court face fire woman murder charged charge accused death crash
Topic 5:
call say medium australia inquiry change prompt spark opposition health
Topic 6:
fire house home govt crew australia sydney school blaze threat
Topic 7:
australia back world south australian take first test lead win
Topic 8:
council australia fire rate rise seek woman considers coast land
Topic 9:
back council claim fight fire hit say take push market

        选择最优主题数量的过程涉及到综合考量模型的解释性、性能指标以及实际应用需求。在实际操作中,可能需要多次尝试和评估,以找到最适合特定文档集合的主题数量。此外,通过观察和解释每个主题中最重要的术语,研究者可以更好地理解文档集合的潜在结构和含义。

        每个主题下列出的术语反映了与该主题相关联的关键概念和实体,通过这些术语,可以快速把握每个主题的核心内容。例如,主题1聚焦于与法律、紧急情况和安全相关的事件,而主题7则可能关注于体育竞赛和国际竞赛成绩。

        潜在语义分析不仅能帮助我们发现文本数据中的隐含主题,还可以用于文档分类、信息检索、文本相似性分析等多种应用场景,从而提高信息检索的准确性和文本分析的深度。

3. LDA 

        Latent Dirichlet Allocation (LDA) 是一种广泛应用于文本挖掘和主题建模的统计模型,它能够从大量的文档集合中发现隐含的主题结构。LDA 基于 Dirichlet 分布作为其核心数学原理之一,以此来模拟文档中主题的分布以及主题中词汇的分布


3.1 Dirichlet 分布简介

        Dirichlet 分布是一个连续多变量概率分布,它是对多项分布中参数的先验分布。简单来说,如果你有一个多项分布(即一个分布,其中的事件有多个可能的类别,比如掷骰子的六个面),Dirichlet 分布可以用来表示这些类别分布的不确定性。

        Dirichlet 分布的参数是一组正实数\alpha = (\alpha_1, \ldots, \alpha_n),这些参数本身被称为"浓度参数"。分布的结果是一组满足以下条件的值(x_1, \ldots, x_n)

        每个x_i 都在 0 和 1 之间,即0 \leq x_i \leq 1

        所有x_i的总和为 1,即\sum_{i=1}^{n}x_i = 1

        这些性质使得 Dirichlet 分布非常适合表示一个文档中不同主题的比例,者一个主题中不同词汇的比例,因为这两种情况都涉及到了一系列比例的表示,且这些比例的总和为 1。

3.2 LDA 中的应用

        在 LDA 模型中,Dirichlet 分布被用作两个层次的先验分布

        文档-主题分布:每个文档都被假设为由多个主题组成,其比例遵循 Dirichlet 分布。参数\alpha反映了主题分布的先验知识,比如我们假设文档中各个主题的分布是均匀的,还是有某些特定主题更可能出现。

        主题-词汇分布:同样地,每个主题被假设为由多个词汇组成,其比例也遵循 Dirichlet 分布。参数\beta(通常与 \alpha不同)反映了词汇分布的先验知识。

        通过这种方式,LDA 能够自动从文档集合中学习到隐含的主题,并且能够表达出每个文档中这些主题的比例以及每个主题中不同词汇的比例,这对于文本分析和理解具有重要价值。

3.3 LDA潜在狄利克雷分配的图形模型

        

3.3.1 图形参数的解释        

        这张图是一个Latent Dirichlet Allocation(LDA,潜在狄利克雷分配)的图形模型,用来展示如何从文档中抽取主题和它们的分布。在这个模型中:

        α(Alpha):这是一个参数,影响文档中主题分布的形状。一个较大的α值可能意味着每个文档包含的主题更均匀分布,而较小的α值意味着文档更可能倾向于一小部分主题。α是大小为K的向量,其中K是主题的数量,我们对M个文档进行这样的处理。

        θ(Theta):表示一个特定文档中不同主题的分布,它是从Dirichlet(α)分布中抽样得到的。

        Z:这是主题分配变量,表示给定文档中的每个词被分配到的主题。

         W:这是观察到的单词变量,代表文档中的实际单词。

        β(Beta):这是一个参数,影响主题中词汇分布的形状。和α参数类似,一个较大的β值表示每个主题中词汇分布更均匀,而较小的β值表示某些词汇在主题中的权重更重。β是大小为V的向量,V是词汇表的大小,我们对K个主题进行这样的处理。

        ϕ(Phi):表示一个特定主题中不同词汇的分布,它是从Dirichlet(β)分布中抽样得到的。

        在这个模型中,每个文档都通过其θ向量有一个主题分布,θ向量是从α参数的Dirichlet分布中采样得到的。同样,每个主题都通过其ϕ向量有一个词汇分布,ϕ向量是从β参数的Dirichlet分布中采样得到的。这种结构允许每个文档表现出多个主题,每个主题也包含多个词汇。通过这种方式,LDA可以发现隐藏在大量文本数据背后的主题结构,这对于文本挖掘和信息检索非常有用。

3.3.2 在LDA模型中的处理步骤

        LDA(潜在狄利克雷分配)是一种主题模型,它允许我们对文档集合中的文档和词汇进行主题分配。对于给定的文档,在LDA模型中的处理步骤如下:

        a.为每个词汇选择主题:对于文档中的每个词汇(文档中共有N个词汇),我们从多项分布Polynomial(θ)中抽取一个样本主题。这里的θ是这个文档的主题分布,它表示不同主题在该文档中的比例。

        b.确定词汇属于主题的概率:对于每个词汇,我们也有一个概率φ(phi),它表示该词汇属于给定主题的概率。φ是由该主题的词汇分布决定的,这个分布说明了每个词汇属于该主题的可能性。

        c.计算主题与文档的关联概率:我们可以计算文档中每个词汇属于不同主题的概率。这是通过θ和φ的乘积得到的,因为θ给出了文档属于各个主题的概率,而φ给出了每个主题中各个词汇的概率。

        d. 利用这些概率在算法中:通过结合文档的主题概率θ和词汇的主题概率φ,我们可以估计文档中每个词汇属于各个主题的概率。这些概率可以用来推断文档的主题结构,以及主题本身的词汇构成。

        e. 迭代优化:LDA通常使用迭代算法(如吉布斯抽样或变分贝叶斯方法)来优化θ和φ,使得模型能够最好地解释观测到的词汇分布。这些迭代算法通过调整θ和φ的估计来最大化数据的似然性或某些后验概率。

        在多次迭代之后,我们得到了稳定的主题分布θ和词汇分布φ,这样就能对每个文档的主题构成以及每个主题中词汇的重要性有了较好的估计。这允许我们对文档进行分类、理解其内容、以及探究不同主题之间的关系。

3.3.3 LDA算法

        LDA(潜在狄利克雷分配)算法是一个用于发现文本集合中潜在主题的过程。以下是其步骤的中文解释:

        a. 随机分配主题:在所有文档中,我们随机给每个词汇分配一个主题。

        b. 准备表格:建立两个表格,一个记录每个文档中各个主题的出现次数,另一个记录每个词分配给主题的情况。

        c. 循环所有词汇:对所有文档中的每个词汇开始循环。假设我们现在处理的是文档d_i中的词汇w_j,这个词汇当前分配到主题t_k。现在,我们把这个词汇从它当前的主题中去除,并在第1步建立的两个表格中各减去一个单位。

        d. 计算概率并更新分配:然后,我们计算这个词汇属于每个主题的概率,并重新为它分配一个最有可能的主题。具体计算如下:

        P(t_k | d_i)是文档d_i中分配给主题t_k的词汇比例,计算公式为\frac{n_{i,k} + \alpha}{N_i - 1 + K\alpha},其中n_{i,k}是文档d_i中分配到主题t_k的词的数量,N_i是文档d_i的总词数,\alpha是平滑超参数。
   
         P(w_j | t_k)是主题t_k生成词汇w_j的概率,计算公式为\frac{m_{j,k} + \beta}{\sum_{j \in V} m_{j,k} + V\beta},其中m_{j,k} 是词汇w_j分配给主题t_k的次数,V是词汇表的大小,beta是另一个平滑超参数。

        e. 主题重新分配:我们选择使 P(t_k | d_i)P(w_j | t_k)最大的t_k作为词汇w_j的新主题,并更新表格。

        f. 重复步骤2到4:对所有文档中的每个词汇重复以上步骤。

        g. 多次迭代:重复步骤1到5指定的迭代次数,直到算法稳定,通常这个过程会逐步提高整个模型的准确性。

        通过这个迭代过程,LDA算法能够发现文档集合中的主题,并估算文档中词汇分布以及词汇与主题之间的关联。这个模型非常有用,可以帮助我们理解和组织大量的文本数据。

4. 总结LSA(潜在语义分析)与LDA(潜在狄利克雷分配)

        LSA(潜在语义分析)与LDA(潜在狄利克雷分配)都是用于从文本数据中抽取主题的技术,但它们在数学原理和应用效果上有所不同。

        LSA的主题是通过奇异值分解(SVD)从术语-文档矩阵中提取的。这种方法基于线性代数,能够减少数据的维度,挖掘词和文档之间的关系。

        LDA的主题是通过迭代计算每个文档的主题分布和每个主题的词分布来得到的。这个过程基于统计推断,特别是贝叶斯推断,能够更好地处理文本数据的多义性和噪声。

        以下是两种方法各自提取的主题内容:

        LSA的主题示例:

        主题0:与个人采访有关的关键词。
        主题1:涉及警察、死亡、事故调查等安全问题。
        主题2:关于政府规划、议会活动及政府决策。
        主题3:包括有关澳大利亚、警察、政府官员的话题。
        主题4:与法庭、火灾、谋杀案和其他重大事件有关。
        ...(依此类推,总结每个主题的核心内容)

        LDA(100次迭代后)的主题示例:

        主题0:涉及事故报告、市场、失踪案件等。
        主题1:与政府政策、水资源管理、农业相关的话题。
        主题2:包括警察、女性、学校、国家事务等内容。
        主题3:围绕医院、健康、政府选举、胜利等议题。
        主题4:变化、农村事务、谈话、价格上涨等话题。
         ...(依此类推,总结每个主题的核心内容)

        在实际应用中,LDA通常被认为比LSA更先进,因为它考虑到了词的多义性和文本数据中的不确定性。LDA的主题通常也更加一致和清晰。然而,这两种技术都能提供有价值的见解,选择哪种方法取决于具体的应用场景和需求。

5. 主题一致性的评估方法

        评估主题的一致性是主题模型质量评估的关键环节。它用于衡量一个主题中的词是否经常共同出现,这样的主题通常对人类来说更加连贯、更易理解。Newman等人(2010年)和Mimno等人(2011年)提出的UCI一致性和UMass一致性就是这样的评估指标。

5.1 UCI一致性

        UCI一致性使用了PMI(逐点互信息)作为计算的基础。

        PMI是一种统计量,用于衡量两个词\(w_i\)和\(w_j\)共同出现的频率是否高于随机共同出现的频率。

        通过在维基百科等大型语料库上使用滑动窗口来计算共现概率,PMI的计算公式为:

PMI(w_i, w_j) = \log \left( \frac{P(w_i, w_j) + \epsilon}{P(w_i)P(w_j)} \right)

        其中,P(w_i, w_j)是两个词共现的概率,P(w_i)P(w_j)分别是两个词独立出现的概率,\epsilon是一个小的正数,用于避免对数运算中的除零错误。

        UCI一致性是通过对一个主题中所有可能的词对(w_i, w_j)计算PMI并求和得到的。

5.2 UMass一致性

        UMass一致性与UCI类似,但它是一个不对称的量度,只考虑特定顺序的词对。
        UMass一致性的计算方法为:

C_{UMass} = \frac{2}{N(N - 1)} \sum_{i=2}^{N} \sum_{j=1}^{i-1} \log \left( \frac{P(w_i, w_j) + \epsilon}{P(w_j)} \right)

        其中,P(w_i, w_j)是两个词共现的概率,P(w_j)是第一个词出现的概率。

5.3 一致性结果CUCI

        负的PMI值意味着词的组合趋势比随机组合更低。
        根据您提供的数据,LSA的一致性分数是−1.439,LDA经过1次迭代后是−2.140,10次迭代后是−1.957,100次迭代后是−1.921。
        这些数值表示LDA模型随着迭代次数的增加一致性有所提高,也就是说模型的质量在逐渐变好,词更倾向于与其他相关词共同出现。

        在使用这些指标时,较高(较不负)的一致性分数通常表明模型的主题更加连贯,与人类的判断更为一致。在实际应用中,选择最佳的主题模型往往需要综合这些指标与其他因素,如主题的解释性和应用的特定需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1798722.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

vue-$set修改深层对象的值

背景: 点击编辑按钮,打开修改预算的抽屉,保存后更新此行数据的预算,以前是调接口刷新表格,这次的数据是由前端处理更新,由于数据层级比较深,使用$set来修改两层嵌套对象 使用方法: …

upload-labs-第五关

目录 第五关 1、构造.user.ini文件 2、构造一个一句话木马文件,后缀名为jpg 3、上传.user.ini文件后上传flag.jpg 4、上传成功后访问上传路径 第五关 原理: 这一关采用黑名单的方式进行过滤,不允许上传php、php3、.htaccess等这几类文件…

3D按F3为什么显示不出模型?---模大狮模型网

对于3D建模软件的用户来说,按下F3键通常是用来显示或隐藏模型的功能之一。然而,有时当按下F3键时,却无法正确显示模型,这可能会让用户感到困惑。模大狮将探讨这种情况发生的可能原因以及解决方法,帮助设计师们更好地理…

快速搭建高效运营体系,Xinstall App下载自动绑定助您一臂之力

在互联网的浪潮中,App的推广与运营面临着诸多挑战。如何在多变的互联网环境下迅速搭建起能时刻满足用户需求的运营体系,成为了众多企业关注的焦点。今天,我们就来聊聊如何通过Xinstall的App下载自动绑定功能,轻松解决App推广与运营…

[word] word文档字体间距怎么调整? #其他#经验分享

word文档字体间距怎么调整? 调整word文档字体间距的方法: 打开一个预先写好文字的文档。选中所有文字,点击字体右下角的“更多选项”。 在弹出的“字体”对话框中进入“字符间距”选项卡,在“间距”选项中即可设置字体间距。 设…

智慧视觉怎么识别视频?智慧机器视觉是通过什么步骤识别视频的?

智慧视觉功能怎么识别视频?智慧视觉是搭载在智能设备比如手机、AI盒子、机器视觉系统上的一个应用程序或特性,采用计算机视觉和人工智能的技术来识别图像或视频中的内容。如果想了解视频识别,就要明白智慧视觉功能会涉及的以下几个关键步骤和…

知识图谱的应用---智慧司法

文章目录 智慧司法典型应用 智慧司法 智慧司法是综合运用人工智能、大数据、互联网、物联网、云计算等信息技术手段,遵循司法公开、公平、公正的原则,与司法领域业务知识经验深度融合,使司法机关在审判、检查、侦查、监管职能各方面得到全面的…

OpenShift 4 - OpenShift Service Mesh 3 预览

《OpenShift / RHEL / DevSecOps 汇总目录》 了解 OpenShift Service Mesh 3 的变化 OpenShift Service Mesh 是一套在 OpenShift 上安装部署、跟踪监控 Istio 运行环境的实现。红帽在 2023 年底推出了技术预览版的 OpenShift Service Mesh 3,它和目前的 OpenShif…

经典神经网络(10)PixelCNN模型、Gated PixelCNN模型及其在MNIST数据集上的应用

经典神经网络(10)PixelCNN模型、Gated PixelCNN模型及其在MNIST数据集上的应用 1 PixelCNN PixelCNN是DeepMind团队在论文Pixel Recurrent Neural Networks (16.01)提出的一种生成模型,实际上这篇论文共提出了两种架构:PixelRNN和PixelCNN,两…

鸿蒙开发的南向开发和北向开发

鸿蒙开发主要分为设备开发和应用开发两个方向,也叫南向开发和北向开发: 鸿蒙设备开发(南向开发),要侧重于硬件层面的开发,涉及硬件接口控制、设备驱动开发、鸿蒙系统内核开发等,目的是使硬件设备能够兼容并…

Linux环境---在线安装MYSQL数据库

Linux环境—在线安装MYSQL数据库 一、使用步骤 1.安装环境 Mysql 驱动 8.0 需要 jdk1.8 才行。 JDK版本:1.8 参考文档 MYSQL版本:8.0.2 下载链接: https://pan.baidu.com/s/1MwXIilSL6EY3OuS7WtpySA?pwdg263 操作系统:CentOS 1.1 建立存…

Python数据分析II

目录 1.HS-排序返回前n行 2.HS-相关性 3.缺失值处理 4.时间 5.时间索引 6.分组聚合 7.离散分箱 8.Concat关联(索引关联) 9.Merge关联(字段关联) 10.join合并(左字段,右索引) 11.行列转置及透视表 12.数据可视化-面向过程 13.数据可视化-面向对象 14.快速生成柱状…

github有趣项目:Verilog在线仿真( DigitalJS+edaplayground)

DigitalJS https://github.com/tilk/digitaljs这个项目是一个用Javascript实现的数字电路模拟器。 它旨在模拟由硬件设计工具合成的电路 像 Yosys(这里是 Github 存储库),它有一个配套项目 yosys2digitaljs,它可以转换 Yosys 将文…

STCunio数字电源带PID数字闭环(带详细的代码说明文档)

STCunio,即 system on chip unusual i/o,采用类似 arduino 构架设计,即使没有单片机知 识的设计师和艺术家们能够很快地通过它学习电子和传感器的基础知识,并应用到他们的设 计当中。设计中所要表现的想法和创意才是最主要的,至于…

创新指南 | 5个行之有效的初创企业增长策略

本文探讨了五种初创企业实现快速增长的有效策略:利用网络效应通过激励和资本化用户增长;通过持续提供高质量内容建立信任和权威的内容营销;利用简单有效的推荐计划扩展用户群;采用敏捷开发方法快速适应市场变化和客户反馈&#xf…

基于springboot实现社区养老服务系统项目【项目源码+论文说明】计算机毕业设计

基于springboot实现社区养老服务系统演示 摘要 现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集中处理数据信息的管理方式。本社区养老服务系统就是在这样的大环境下诞生,其可以帮助…

签名安全规范:解决【请求对象json序列化时,时间字段被强制转换成时间戳的问题】

文章目录 引言I 签名安全规范1.1 签名生成的通用步骤1.2 签名运算(加密规则)1.3 对所有传入参数按照字段名的 ASCII 码从小到大排序(字典序)1.4 允许的请求头字段1.5 签名校验工具II 注解校验签名2.1 获取请求数据,并校验签名数据2.2 解决时间格式被强制转换成时间戳的问题…

2024年数据防泄密软件精选,五款热门防泄密软件集锦

在信息爆炸的今天,企业数据的安全性已成为不可忽视的关键问题。 随着数字化转型的加速,数据泄露的风险也随之增加,这对企业的核心竞争力构成了严重威胁。 为了构建坚不可摧的数据防线,选择高效可靠的数据防泄密软件显得尤为重要…

爬取基金收盘价并用pyecharts进行展现

爬取基金收盘价并用pyecharts进行展现 一、用到的第三方包 因为使用到了一些第三方的包,包还是比较大的如果直接从社区下载比较费劲,所以建议配置国内镜像源,这里以清华的镜像源为例。 pip config set global.index-url https://pypi.tuna…

FastAdmin自定义滚动条

效果 实现过程 HTML代码 <style>.custom-scrollbar {position: fixed;/*bottom: 0px;*/height: 20px;width: 97.5%;overflow-y: scroll;overflow-x: scroll;z-index: 100;}#scrollDivTable{height: 20px;}/*原滚动条不显示*//*.fixed-table-body::-webkit-scrollbar {*/…