FEW-SHOT TEXT CLASSIFICATION WITH DISTRIBUTIONAL SIGNATURES

news2025/1/16 5:17:58

摘要

在这篇文章中,我们利用元学习进行文本分类,元学习在计算机视觉中有相当好的效果,在这里,低层次的模式可以跨学习任务迁移的,,然而,直接将这个方法应用到文本中是具有挑战性的,词汇和特征对一项任务具有很高的信息量,对另一项任务可能无关紧要**。本文的模型不仅从单词中学习,还利用了它们的分布签名**。
这些签名编码了相关单词的并发模式。我们的模型训练在一个元学习框架内,将这些签名映射为注意力分数。然后用这些分数对单词的词汇表进行加权。我们发现,我们的模型大幅度的优于词汇知识上学习到的原型网络。在六个基准数据集上的零样本文本分类和关系分类。

  • (19.96% on average in 1-shot classification

介绍

在计算机视觉中,元学习出现作为一种有前途的方法,为学习一个低资源resource regime。
特别是这个目标是有能力将一个算法扩展到新类别,这些类别仅有一些训练示例可以利用。

  • 这些模型可以学习产生低资源场景,从可利用的数据集中重建训练集,

  • r e c r e a t i n g s u c h t r a i n i n g e p i s o d e s f r o m t h e d a t a a v a i l a b l e . recreating such training episodes from the data available. recreatingsuchtrainingepisodesfromthedataavailable.

  • 即使在最极端的低资源场景在字符识别任务上。($ a single training example per class-this approach yield 99.6%的accuracy$)

基于这种强烈的经验性绩效,我们很有兴趣的将元学习框架应用在NLP中。

  • 挑战
    • 跨不同类别的潜在表示学习的可转移程度,在计算机视觉中,低层次的模式 (such as edges) 和相同维度的表示能够被分享在不同的任务中,然而,对于语言数据来说,许多情况是不同的,在这里,更多的任务操作在词汇层面上。单词对一个任务具有高信息量,但对另一个任务并不相关的。考虑到这个例子,
    • the corpus of HuffPost headlines, categorized into 41 classes
    • 图一显示,词汇对一个了类别高度显著,在其他类别上,并不会扮演者显著的效果。
      另人不惊讶的是,元学习直接被应用在文本输入上,其绩效能够下降,在一个单一的最近邻的分类器上,
    • 传统的元学习的不足是在重要特征上进行放大,可以进一步说明在图2中。
    • 考虑到目标类别: the target class fifty (lifestyle for middle-aged) 标准的原型网络引入无信息含义的单词 d a t e date date
    • 可以淡化这个高预测词汇 g r a n d m a grandma grandma

图一:

在这里插入图片描述

图二

在这里插入图片描述

  • 构建这些ideas,我们想要在跨类别的文本迁移中,利用分布式标签。另外,词频。在各自明确的类别中,评估词重要性。
  • 后来的关系并不能可靠的评估目标类别, 由于缺乏标签数据。
  • 然而, 我们也能够得到一些指标的噪音评估 ,通过利用目标类别相当少提供的训练示例,
  • utilizing the few provided training examples for the target class
  • 在原学习框架内,进一步提炼近似性。我们注意到分布式标签的表示能力是微弱的,比那些词典对应物品(lexical counterparts)
    元学习知识构建的分布式标签,更有能力产生其。

我们的模型包含两个成分:

  • 第一个是注意力权重: an attention generator。

    • 将分布式标签迁移到注意力得分,将词的重要性映射为类别。
  • a ridge regressor

    • 在看到仅有一些训练示例中,迅速的学习预测。注意力权重在所有迭代数据集上共享,
      我们在五个标准文本分类数据集上评估我们的模型和一个关系分类数据集,实验结果显示我们的模型提供了所有的显著的性能,在得到所有 a l l b a s e l i n e s all baselines allbaselines

相关工作

元学习

已经显示了,元学习相当高效在计算机视觉中。在这里,低层次特征可以被迁移到不同类别中,已经存在的方法包括:

  • a metric space over input features
  • developing a prior over the optimization procedure
  • exploiting the relations between classes

在这里插入图片描述
N classes for y t r a i n y^{train} ytrain

  • the support set and the query set from the N classes。

然而, 我们的实验显示,图像数据和语言数据之间,迁移知识已经存在显著的差异。

  • lexicon-aware meta-learners 未能产生标准的多类别分类数据集。
    在我们的工作中,我们发现文本中的突出特征可能并没有迁移,像这些分布式的行为,我们聚焦于连接词重要性和分布式标签。结果,我们的模型从新颖类别中识别重要的特征是可靠的。

迁移学习

我们的任务也与迁移学习密切相关的,我们假设从源类别中输入一个大规模的标签示例

  • acces to a large numberr of labeled examples from source classes。
  • 从源类别到目标类别当前方法的迁移知识,
    • fine-tuning a pre-trained encoder
    • multi-task learning with a shared encoder
    • Recently, Bao et al. (2018)也成功的迁移到特定任务的注意力通过人类基本原理。
      与这些方法相反的时,迁移的任务可以被预设计,我们基于下游任务的绩效学习迁移,特别地,我们利用分布式统计量将注意力迁移到任务中,我们标准啦将机制迁移到图像识别中,这些方法并不直接应用到 N L P NLP NLP中。

BACKGROUND

在这篇文章中,我们第一次概括零样本分类的标准的元学习框架,和描述了这个术语,相反,我们引入了扩展机制到这个框架中,从下图中说明我们的框架:
在这里插入图片描述

问题描述

假设,我们已经给出的标签示例a set of classes y t r a i n y^{train} ytrain
我们的目标是可以开发一个从训练集中获得知识的模型,以便于我们可以在新类别但不相关的数据集上做预测。我们仅可以有少量的标注,这些新类别属于 a set of classes y t e s t y^{test} ytest与不相交的 y t r a i n y^{train} ytrain

元训练

在元学习中,在整个元训练过程中,我们模仿以上的训练场景,以便于我们的模型从一些标注中迅速的学习。为了创造一个单个训练集,我们的处理方式为:

  • we first sample N N N classes for y t r a i n y^{train} ytrain
  • each of these N N N classes we sample K K K examples as our training data and L L L examples as our testing data
  • We update our model based on loss over these testing data
  • We repeat this procedure to increase the number of training episodes,
  • each of which is constructed over its own set of N N N classes
  • the training data of one episode is commonly denoted as the support set .
  • the corresponding testing data is known as the query set.
  • 我们提到在查询集上做预测任务:
    • the task of making predictions over the query set as N N N-way K K K -shot classification。
      在这里插入图片描述
      N = 3 N = 3 N=3 K = 1 K = 1 K=1 L = 2 L = 2 L=2

矩形意味着输入示例,与文本相对应的标签,

  • An episode contains a support set a query set and a source pool.

Meta-testing

  • 在我们完成元训练之后,我们应用这些相同的基于episode-based mechanism 去测试我们的模型是否能够迅速的适应新类别。
  • To create a testing episode
    • first Sample N new classes from y t e s t y^{test} ytest
    • we sample the support set and the query set from the N N N classes。
    • We evaluate the average performance on the query set across all testing episodes.

Our extension

all examples from y t r a i n y^{train} ytrain are accessible thronghout meta-training .

  • the standard meta-learning framework (Vinyals et al., 2016) only learns from small subsets of these data per training episode
  • 相反,我们的模型在所有训练示例中利用分布式标签,其更加健壮。
  • 为了适应这种调整,我们将一轮迭代中加入资源池$source pooling。
  • 整个元学习训练过程中,资源池包括训练类别的所有示例,
  • 整个测试过程中,资源池包含所有示例。(包含所有训练示例*

创新点

  • 将这些签名映射为注意力分数,然后用这些分数对单词的词汇表进行加权。

关键词

  • a single training example per class
  • the character recognition task 字符识别任务中
  • word-substitution 词替换
  • one-shot text classification
  • one-shot relation classification
  • high-quality attention 高质量的注意力
  • a metric space over input features
  • developing a prior over the optimization procedure
  • exploiting the relations between classes
  • lexical representations 文本表示
  • the source pool
  • the target classification task 目标类别任务
  • distributional statistics

可以借鉴模型产生的东西

  • utilize distributional signatures

  • we assess word importance with respect to a specific class。

  • a noisy estimate of this indicator by utilizing the few
    provided training examples for the target class,

  • then further refine this approximation within the meta-learning framework

挑战

  • Given this strong empirical performance, we are interested in employing meta-learning frameworks
    in NLP. The challenge, however, is the degree of transferability of the underlying representation
    learned across different classes. In computer vision, low-level patterns (such as edges) and their
    corresponding representations can be shared across tasks. However, the situation is different for
    language data where most tasks operate at the lexical level. Words that are highly informative
    for one task may not be relevant for other tasks. Consider, for example, the corpus of HuffPost
    headlines, categorized into 41 classes. Figure 1 shows that words highly salient for one class do not
    play a significant role in classifying others. Not surprisingly, when meta-learning is applied directly
    on lexical inputs, its performance drops below a simple nearest neighbor classifier. The inability of
    a traditional meta-learner to zoom-in on important features is further illustrated in Figure 2: when
    considering the target class fifty (lifestyle for middle-aged), the standard prototypical network (Snell
    et al., 2017) attends to uninformative words like “date,” while downplaying highly predictive words
    such as “grandma.”

  • is the degree of transferability of the underlying representation learned across different classes.

  • In computer vision, low-level patterns (such as edges) and their corresponding representations can be shared across tasks. However, the situation is different for language data where most tasks operate at the lexical level.

  • Words that are highly informative for one task may not be relevant for other tasks.

方法

我们的目标是提升零样本分类的绩效,通过从输入的分布式标签中学习高质量的注意力:

  • Given a particular episode
  • 我们从相关的资源池和支持集中提取相关的统计数据。
  • 这些统计数据仅是约近似于分类的词重要性。
  • 我们利用一个注意力权重向量,将其迁移到高质量的注意力去操作单词。这些产生的注意力为下游的预测提供指导,岭回归迅速的学习一些标签示例。
  • 在整个训练轮次中,注意力权重被优化,
  • the ridge regressor is trained from scratch for each episode

Attention generator (注意力权重)

  • 模块产生特定类别的注意力: 通过结合资源池和支持集的分布式统计。产生的注意力提供了the ridge regresso,在词重要性的归纳式偏差中,我们基于岭回归的反馈训练模块。

Ridge regressor

  • 为每一轮迭代,模块使用从分布式标签提取的注意力组建词汇表示,
  • 模块的目标在支持集上训练,在查询集上做预测。
  • 其预测的损失是端到端可微的,各自的注意力权重进行有效的训练。
    在我们理论分析中,我们显示,注意力权重的产出是词替代扰动的变体。

ATTENTION GENERATOR

注意力权重的目标从每个输入示例中的分布式标签中评估词重要性。

  • word importance from the distributional signatures of each input example

这些分布式标签的许多选择,在其之中,我们聚焦于一元分词函数

  • on functions of unigram statistics
    这能够证明鲁棒性对词替代扰动。
  • 我们利用大规模的资源池去形成生成词重要性的model>
    • the model of general word importance
  • 利用这个小样本的支持集去评估特定类别词的重要性。
    • leverage the small support set to estimate class-specific word importance 。
    • 使用产生的注意力去 重新构建下游分类任务的输入表示

文章中证据确凿的,频繁出现的单词并不是信息丰富的
因此,我们想要去减少单词的频率和增加罕见单词。

  • we would like to downweigh frequent words and upweight rare words

测量一般的词重要性

s ( x i ) = ε ε + P ( x i ) s(x_i) = \frac{\varepsilon}{\varepsilon + P(x_i)} s(xi)=ε+P(xi)ε

这里 ε = 1 0 − 3 \varepsilon = 10^{-3} ε=103

  • x i x_i xi is the i t h i^{th} ith word of input example x
  • P ( x i ) P(x_i) P(xi): is the unigram likelihood of x i x_i xi over the source pool.
    另一方面,支持集上的词是有区别的,查询集上的词也是一样有区别的。
    因此,我们定义以下的统计方法去反映特定类别词的重要性:

t ( x i ) = H ( P ( y ∣ x i ) ) − 1 t(x_i) =H( P(y|x_i))^{-1} t(xi)=H(P(yxi))1

条件概率估计 P ( y ∣ x i ) P(y|x_i) P(yxi),在支集上使用正则化线性分类器进行估计:

  • is estimated over the support set using a regularized linear classifier
    H ( ∙ ) H(\bullet) H(): the entropy operator

  • t ( ∙ ) t(\bullet) t(): 测量了给定单词类别标签 y y y的不确定性。

  • 因此,展现倾斜分布的单词将会是更高权重的。

直接应用这个统计数据,可能并不会达到好的效果为两个理由:

  • 两个统计指标包含补充信息,不清晰如何结合它们.
  • 这些统计指标对类别的词重要性是近似嘈杂的。
  • 为了缩小这些差距,我们拼接这些标签,使用一个双向LSTM,去拟合the information across the input
    h = b i L S T M ( [ s ( x ) ; t ( x ) ] ) h = biLSTM([s(x);t(x)]) h=biLSTM([s(x);t(x)])

最后,我们使用点积注意力,去预测这个得分 α i \alpha_i αi of word x i x_i xi:
α i : = e x p ( v T h i ) ∑ j e x p ( v T h j ) \alpha_i:=\frac{exp(v^Th_i)}{\sum_jexp(v^Th_j)} αi:=jexp(vThj)exp(vThi)

where h i h_i hi is the output of BiLSTM at position $ $ and v v v是可学习向量。

RIDGE REGRESSOR

  • the attention generator的组成:
  • 岭回归在寻找一些例子后迅速的完成预测。
  • 一次迭代中的 for each example
  • 我们构建一个词汇表示,(聚焦于重要单词的词汇表示)作为注意力得分指标,
  • 下一轮,给出这些词汇表示,
  • 在the support set from scratch 上面,我们训练岭回归。
  • 最后,我们在查询集上做预测,使用这个损失去更新优化注意力权重。

Constructing representations

  • 给出这些不同的词,去展示类别的多元化层次的重要性。
  • 我们构建相关词语的词汇表示.特别地,我们构建示例 x x x的表示为:
    ϕ ( x ) = ∑ i α i ∗ f e d b ( x i ) \phi(x) = \sum_i{\alpha_i} * f_{edb}(x_i) ϕ(x)=iαifedb(xi)

在这里, f e b d ( ∗ ) f_{ebd}(*) febd() 是预训练嵌入函数:
将一个单词映射为 R E R^E RE

Training from the support set

(在支持集上做训练)

  • Given an N-way K-shot classification task。
  • Φ s ∈ R N K × E \Phi_s \in R^{NK \times E} ΦsRNK×E 是这个支持集的表示.
  • 支持集表示得到由 ϕ ( ∗ ) \phi(*) ϕ()
  • Y s ∈ R N K × N Y_s \in R^{NK \times N} YsRNK×N be the one-hot labels。

我们训练岭回归去拟合又标签的支持集:

  • ridge regression admits a closed-form solution** that enables end-to-end differentiation through the model.
  • with proper regularization 岭回归减少了小批支持集的过拟合。
  • 特别地:我们最小化:
  • we minimize regularized squared loss
    在这里插入图片描述
  • 在这里 I I I is the identity matrix。

Inference on the query set

  • Let Φ Q \Phi_{Q} ΦQ denote the representation of the query set.
  • 虽然,我们在方程1中最优化岭回归目标,
  • the learned transformation has been shown to work well in few-shot classification after a calibration step

在这里插入图片描述
α ∈ R + \alpha \in R^{+} αR+ and b ∈ R b \in R bR

通过元训练得到的元参数 m e t a − p a r a m e t e r s meta-parameters metaparameters.

在这里插入图片描述

THEORETICAL ANALYSIS

  • 分布式标签的工作,带来认证的鲁棒性,来应对输入的扰动。
  • l e t ( P , S , Q ) let(P,S,Q) let(P,S,Q) 是一个单独的循环.
  • P P P is a source pool
  • S S S is a support set
  • Q Q Q
  • is the query set

为输入文本
x ∈ S ∪ Q x \in S \cup Q xSQ

注意力权重产生由支持集和资源池产生的单词级别的重要性.

α = A t t G e n ( x ∣ S , P ) \alpha = AttGen(x | S,P) α=AttGen(xS,P)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

EXPERIMENTAL SETUP

Datasets

我们评估我们的方式在四个训练数据集上,和一个关系型分类数据集上。

20 Newsgroups

RCV1

Reuters-21578

Amazon product data

HuffPost headlines

FewRel

BASELINES

Representations

  • AVG represents each example as the mean of its embeddings
  • IDF represents each example as the weighted average of its word embeddings with weights given by inverse document frequency over all training examples。
    • CNN applies ID convolution over the input words and obtatins the representation by max-over-time pooling.

Learning algorithms

  • In addition to the ridge regressor. (RR)

  • two standard supervised learning algorithms

  • two meta-learning algorithms

  • NN is a 1-nearest-neighbor classifier under Euclidean distance.

  • FT pre-trains a classifier over all training examples, then finetunes the network using the support set

  • MAML meta-learns a prior over model parameters,

  • MAML meta-learns a prior over model parameters,

  • Prototypical network (PROTO) meta-learns a metric space for few-shot classification

在这里插入图片描述
在这里插入图片描述

IMPLEMENTATION DETAILS

  • pre-trained fastText embeddings for our model and all baselines For sentence-level datasets

  • we also experiment with pre-trained BERT embeddings using HuggingFaces codebase

  • For relation classification (FewRel), we augment the input of our attention generator with positional embeddings

  • 在注意力generator: we use a biLSTM with 50 hidden units and apply dropout of 0.1 on the output

  • In the ridge regressor, we optimize meta-parameters λ λ λ and a in the log space to maintain the positivity constraint

  • 所有参数都是用 A d a m Adam Adam优化,带一个学习率0.001

  • 在元训练过程中,我们we sample 100 training episodes per epoch.

  • We apply early stopping when the validation loss fails to improve for 20 epochs

  • We evaluate test performance based on 1000 testing episodes and report the average accuracy over 5 different random seeds

结果

  • evaluated our model in both 5-way 1-shot and 5-way 5-shot settings

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 我们的模型有能力去产生过去类别的词汇。

Ablation study

  • We perform ablation studies on the attention generato
  • We observe that both statistics s ( ⋅ ) s(·) s() and t ( ⋅ ) t(·) t()contribute to the performance though the former has a larger impact
  • We also note that instead of computing word importance independently for each word**,fusing information** across the input with an biLSTM improves performance slightly.

Contextualized representations (上下文表示)

  • For sentence-level datasets

  • BERT给出的上下文表示做实验。

  • While BERT significantly improves classification performance on FewRel

  • We postulate that this discrepancy arises because relation
    classification
    is highly contextual

  • news classification is mostly keyword-based

Analysis

我们可视化我们注意力权重表示 ϕ ( x ) \phi(x) ϕ(x)
使用

  • general word importance s ( x ) s(x) s(x)
  • class-specific word importance t ( x ) t(x) t(x)
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    Figure 9 visualizes the model’s input and output on the same query example in two testing episodes.
    The example belongs to the class jobs in the Reuters dataset. First, we observe that our model
    generates meaningful attention from noisy distributional signatures
    . Furthermore, the generated
    attention is task-specific: in the depicted example, if the episode contains other economics-related
    classes
    , the word “statistical” is downweighed by our model. Conversely, “statistical” is upweighted when we compare jobs to other distant classes.

结论

我们提出了一个新颖的元学习方法,连接单词重要性和分布式标签去提升零样本文本分类。

  • word importance and distributional signatures

学习一个注意力权重

  • 将分布式统计迁移到high-qualilty attention
    这些产生的注意力为快速适应新类别任务提供了指导,在文本和关系型分类上实验结果验证了我们的结果可以从新类别中识别重要的单词,我们方法的有效性证实了元学习的前途仍然是分布式标签

总结

  • 明天,将该篇论文的架构啥都整理以下,然后慢慢的将其搞定。

  • 梳理一波创新,将其全部搞定都行啦的回事与打算,后期用作串代码整理都行啦的理由与打算。

总结经验

会将改论文中的扩展引用到其他资源中。

  • 几个简单的数学公式堆砌都能设计模型。

名词

  • bijection 双射
  • the conditional probability 条件概率
  • a discriminative feature 判别特征

论文结构

模型结构—数据集—baselines。

  • 同一个方法在不同数据集上的表现。

``

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/145275.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【自学C++】C++输入cin

C输入cin C输入cin教程 在 C 语言 中我们需要捕获用户的键盘输入,可以使用 scanf 函数。scanf 函数在输入时,我们必须要指定输入的数据类型对应的格式化符,挺不方便。 在 C 中,我们要捕捉用户的输入,直接使用 std 命…

【目标检测】C-GhostNet

1、论文 论文题名:《GhostNet: More Features from Cheap Operations》 arxiv:https://arxiv.org/abs/1911.11907 github:https://github.com/huawei-noah/ghostnet 作者翻译:https://zhuanlan.zhihu.com/p/109325275 2、摘要 本篇论文是华…

2023/1/6 Vue学习笔记-2

1 收集表单数据 收集表单数据&#xff1a; 若&#xff1a;<input type"text">&#xff0c;则v-model收集的是value的值&#xff0c;用户输入的就是value值。 若&#xff1a;<input type"radio">&#xff0c;则v-modle收集的是value的值&…

String、StringBuffer和StringBuilder

String 类是不可变类&#xff0c;即一旦一个 String 对象被创建以后&#xff0c;包含在这个对象中的字符序列是不可改变的&#xff0c;直至这个对象被销毁。 Java 提供了两个可变字符串类 StringBuffer 和 StringBuilder&#xff0c;中文翻译为“字符串缓冲区”。 StringBuil…

Python和MySQL对比(3):用Pandas 实现MySQL的子查询、like_regexp、case when_if语法效果

文章目录一、前言二、语法对比数据表子查询like/regexpcase when/ifin三、小结一、前言 环境&#xff1a; windows11 64位 Python3.9 MySQL8 pandas1.4.2 本文主要介绍 MySQL 中的子查询、like/regexp、case when/if 如何使用pandas实现&#xff0c;同时二者又有什么区别。 注…

FPGA中二进制数的运算

一、B比特的二进制数可以表示的范围 无符号整数&#xff1a;0~2B-1 有符号整数&#xff1a;-2B-1~2B-1-1 二、有符号数&#xff08;补码&#xff09;与十进制数之间的转换 D&#xff1a;十进制数 B&#xff1a;二进制数aB-1aB-2a1a0的位数 aB-1:符号位 三、符号位拓展 在使…

Android 12 蓝牙适配 Java版

Android 12.0蓝牙适配前言正文一、Android版本中蓝牙简介二、新建项目① 配置build.gradle② 配置AndroidManifest.xml三、打开蓝牙① 打开蓝牙意图② 请求BLUETOOTH_CONNECT权限意图四、蓝牙扫描① 扫描者② 扫描回调③ 扫描方法④ 执行扫描⑤ 应用不推导物理位置五、页面显示…

基于Java+Springboot+vue体育用品销售商城平台设计和实现

基于JavaSpringbootvue体育用品销售商城平台设计和实现 博主介绍&#xff1a;5年java开发经验&#xff0c;专注Java开发、定制、远程、文档编写指导等,csdn特邀作者、专注于Java技术领域 作者主页 超级帅帅吴 Java毕设项目精品实战案例《500套》 欢迎点赞 收藏 ⭐留言 文末获取…

Docker部署JAVA项目

一、 Docker安装 1、yum 包更新到最新 yum update 2、安装需要的软件包&#xff0c; yum-util 提供yum-config-manager功能&#xff0c;另外两个是devicemapper驱动依赖的 yum install yum-utils device-mapper-persistent-data lvm2 -y 3、 设置yum源 yum-config-manage…

等级保护----1、网络安全等级保护一级安全测评要求

文章目录一、安全测评通用要求1、安全物理环境1.1 物理访问控制1.2 防盗窃和防破坏1.3 防雷击1.4 防火1.5 防水和防潮1.6 温湿度控制1.7 电力供应2、安全通信网络2.1 通信传输2.2 可信验证3、安全区域边界3.1 边界防护3.2 访问控制3.3 可信验证4、安全计算环境4.1 身份鉴别4.2 …

使用关键字like进行模糊查询

【模糊查询】&#xff1a;使用关键字like [支持%或者下划线匹配&#xff0c;%匹配任意多个字符&#xff0c;一个下划线只匹配任意一个字符。] 实例&#xff1a; 查询名字中带有字母o的员工&#xff1a; select * from emp where ename like %o%; 找出名字以T结…

2000-2021.3月土地交易高频数据库(含爬取代码和数据)

2000-2021.3月土地交易高频数据库&#xff08;含爬取代码和数据&#xff09; 1、时间跨度&#xff1a;2000-2021年3月1日 2、指标&#xff1a;年份、电子监管号、所在省份、所在城市、所在区县、经度、纬度、项目名称、项目位置、面积、土地来源、土地用途、供地方式、土地使…

Python CV 实现风格化图片转换

前几天遇到一个风格化图片转换的需求&#xff0c;效果像这样&#xff1a; 像这样&#xff0c;需要用纯色圆形填充图像&#xff0c;形成风格化的图片样式。 实现原理 整体原理还是比较简单的&#xff0c;有点类似与马赛克的处理方式。 假设图片宽 w 像素&#xff0c;高 h 像素…

FLStudio21中文版下载及水果软件2023功能介绍

如今&#xff0c;越来越多的音乐人选择使用音乐制作软件来进行音乐的创作&#xff0c;一台电脑、一款软件以及一个外接MIDI就是一个小型的音乐工作站&#xff0c;而如今非常流行的FL Studio&#xff08;在国内被称为“水果”&#xff09;成了音乐界无论萌新还是大佬们的首选&am…

二阶微分算子与反锐化屏蔽

二阶微分算子 任意二阶微分必须满足&#xff1a;灰度不变的区域微分值为0&#xff1b;灰度台阶或斜坡的起点处微分值非0&#xff1b;沿着斜坡的微分值为0。由于处理离散值&#xff0c;因此微分用差分近似&#xff1a; 二维图像f(x,y),沿着两个空间坐标轴求解二阶微分&#xff1…

逆向-还原代码之little-or-big (Arm 64)

// 源代码 #include <stdio.h> /* * 2016/9/29 yu liang. */ int test_one(void) { int i1; char *p(char *)&i; if(*p1) printf("Little_endian\n"); // Little_endian else printf("B…

一文弄清楚Vue中的computed与watch的区别

1.实现业务当我们点击按钮&#xff0c;就会切换h1标签的语句内容&#xff0c;再次点击按钮&#xff0c;h1标签的语句内容就会恢复&#xff0c;每次点击按钮&#xff0c;浏览器都会输出一个语句来表达监视到了h1的内容改变2.Vue中的computed计算属性2.1利用Vue中的computed计算属…

Windows server——部署DHCP服务

作者简介&#xff1a;一名云计算网络运维人员、每天分享网络与运维的技术与干货。 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a;网络豆的主页​​​​​​ 目录 前言 本章重点 一.DHCP概述 1.DHCP服务的好处 二.DHCP的工作原理 1.DHCP的分配方…

【云原生 | 50】Docker三剑客之Docker Compose第一节

&#x1f341;博主简介&#xff1a; &#x1f3c5;云计算领域优质创作者 &#x1f3c5;2022年CSDN新星计划python赛道第一名 &#x1f3c5;2022年CSDN原力计划优质作者 &#x1f3c5;阿里云ACE认证高级工程师 &#x1f3c5;阿里云开发者社区专…

pinia和vuex的区别

pinia和vuex的区别 什么是“状态管理模式”&#xff1f; const Counter {// 状态data () {return {count: 0}},// 视图template: <div>{{ count }}</div>,// 操作methods: {increment () { this.count}} }createApp(Counter).mount(#app)这个状态自管理应用包含…