ccc-sklearn-14-朴素贝叶斯(2)

news2024/10/6 18:22:39

文章目录

      • sklearn中的其他贝叶斯算法
            • 一、MultinomialNB多项式贝叶斯
            • sklearn中的MultinomialNB
            • 二、BernoulliNB伯努利朴素贝叶斯
            • 三、ComplementNB补集朴素贝叶斯
        • 案例:贝叶斯做文本分类

sklearn中的其他贝叶斯算法

一、MultinomialNB多项式贝叶斯

基于原始的贝叶斯理论,但假设概率分布是服从一个简单多项式分布。可以具体解释为:实验包括n次重复试验,每项试验都有不同的可能结果。在任何给定的试验中,特定结果发生的概率是不变的。特点如下:

  1. 多项式擅长的是分类型变量。处理连续型变量应当使用高斯朴素贝叶斯
  2. 多项式实验中涉及的特性通常是离散的正整数,因此sklearn中的多项式朴素贝叶斯不接受负值输入
  3. 通常被用于文本分类,可以使用TF-IDF向量技术,也可以使用单词计数向量手段与贝叶斯配合

在这里插入图片描述
其中有:

  • θ c i = 特征 X i 在 Y = c 这个分类下所有样本的取值总和 所欲特征在 Y = c 这个分类下所有样本的取值总和 \theta_{ci}=\frac{特征X_i在Y=c这个分类下所有样本的取值总和}{所欲特征在Y=c这个分类下所有样本的取值总和} θci=所欲特征在Y=c这个分类下所有样本的取值总和特征XiY=c这个分类下所有样本的取值总和
  • 记作 P ( X i ∣ Y = c ) P(X_{i}|Y=c) P(XiY=c),表示当Y=c这个条件固定的时候,一组样本在 这个特征上的取值被取到的概率。注意,在高斯朴素贝叶斯中求解的概率 是对于一个样本来说,而现在求解的是对于一个特征来说的概率
  • α \alpha α为平滑系数,令其>0来防止训练数据中出现过的一些词汇没有出现在测试集中导致的0概率,以避免让参数为0的情况。设置为1叫做拉普拉斯平滑,如果小于1,则叫做利德斯通平滑
sklearn中的MultinomialNB

在这里插入图片描述

参数含义
alpha浮点数, 可不填 (默认为1.0)
拉普拉斯或利德斯通平滑的参数 ,如果设置为0则表示完全没有平滑选项。平滑相当于人为给概率加上噪音,因此 设置得越大,多项式朴素贝叶斯的精确性会越低(影响不是非常大),布里尔分数也会升高
fit_prior布尔值, 可不填 (默认为True)
是否学习先验概率,如果设置为false,则不使用先验概率,而使用统一先验概率(uniformprior),即认为每个标签类出现的概率是 1 n _ c l a s s e s \frac{1}{n_{\_}classes} n_classes1
class_prior形似数组的结构,结构为(n_classes, ),可不填(默认为None)类的先验概率 。如果没有给出具体的先验概率则自动根据数据来进行计算

一个多项式朴素贝叶斯的例子

第一步:导入模块和数据建立并归一化

from sklearn.preprocessing import MinMaxScaler
from sklearn.naive_bayes import MultinomialNB
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_blobs
from sklearn.metrics import brier_score_loss
import numpy as np

class_1 = 500
class_2 = 500
centers = [[0.0,0.0],[2.0,2.0]]
clusters_std = [0.5,0.5]
X, y =make_blobs(n_samples=[class_1,class_2],
                centers=centers,
                cluster_std=clusters_std,
                random_state=0,shuffle=False)
Xtrain, Xtest, Ytrain, Ytest = train_test_split(X,y,test_size=0.3,random_state=420)

mms = MinMaxScaler().fit(Xtrain)
Xtrain_ = mms.transform(Xtrain)
Xtest_ = mms.transform(Xtest)                                        

第二步:建立分类器并查看效果

mnb = MultinomialNB().fit(Xtrain_,Ytrain)
mnb.class_log_prior_
#查看正正的概率值
np.exp(mnb.class_log_prior_)

mnb.score(Xtest_,Ytest)

brier_score_loss(Ytest,mnb.predict_proba(Xtest_)[:,1],pos_label=1)

在这里插入图片描述

第三步:Xtrain做哑变量再分类

from sklearn.preprocessing import KBinsDiscretizer
kbs = KBinsDiscretizer(n_bins=10, encode='onehot').fit(Xtrain)
Xtrain_ = kbs.transform(Xtrain)
Xtest_ = kbs.transform(Xtest)
mnb = MultinomialNB().fit(Xtrain_,Ytrain)
mnb.score(Xtest_,Ytest)

brier_score_loss(Ytest,mnb.predict_proba(Xtest_)[:,1],pos_label=1)

在这里插入图片描述
做过哑变量方式的分箱处理,多项式贝叶斯效果变好了许多

二、BernoulliNB伯努利朴素贝叶斯

伯努利朴素贝叶斯是专门处理二项分布的朴素贝叶斯。它假设数据服从多元伯努利分布,即每个特征都是二分类的,如果数据本身不是二分类,那可以使用类中专门用于二值化的参数binarize来改变数据。在处理文本分类数据时,伯努利贝叶斯通常在意“存在与否”而不是“出现次数”。通常文本较短时使用伯努利贝叶斯效果更好。

sklearn中的伯努利朴素贝叶斯
在这里插入图片描述

参数含义
alpha浮点数, 可不填 (默认为1.0)
拉普拉斯或利德斯通平滑的参数 ,如果设置为0则表示完全没有平滑选项。平滑相当于人为给概率加上噪音,因此 设置得越大,多项式朴素贝叶斯的精确性会越低(影响不是非常大),布里尔分数也会升高
binarize浮点数或None,可不填,默认为0
将特征二值化的阈值,如果设定为None,则会假定说特征已经被二值化完毕
fit_prior布尔值, 可不填 (默认为True)
是否学习先验概率,如果设置为false,则不使用先验概率,而使用统一先验概率(uniformprior),即认为每个标签类出现的概率是 1 n _ c l a s s e s \frac{1}{n_{\_}classes} n_classes1
class_prior形似数组的结构,结构为(n_classes, ),可不填(默认为None)类的先验概率 。如果没有给出具体的先验概率则自动根据数据来进行计算

sklearn中简单的使用

from sklearn.naive_bayes import BernoulliNB
mms = MinMaxScaler().fit(Xtrain)
Xtrain_ = mms.transform(Xtrain)
Xtest_ = mms.transform(Xtest)
#不设置二值化
bnl_ = BernoulliNB().fit(Xtrain_,Ytrain)
bnl_.score(Xtest_,Ytest)
brier_score_loss(Ytest,bnl_.predict_proba(Xtest_)[:,1],pos_label=1)
#设置二值化阈值
bnl = BernoulliNB(binarize=0.5).fit(Xtrain_,Ytrain)
bnl.score(Xtest_,Ytest)
brier_score_loss(Ytest,bnl_.predict_proba(Xtest_)[:,1],pos_label=1)

在这里插入图片描述
贝叶斯中样本不均衡问题
第一步:导入模块与数据

from sklearn.naive_bayes import MultinomialNB,GaussianNB,BernoulliNB
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_blobs
from sklearn.preprocessing import KBinsDiscretizer
from sklearn.metrics import brier_score_loss as BS ,recall_score,roc_auc_score as AUC

class_1 = 50000
class_2 = 500
centers = [[0.0,0.0],[5.0,5.0]]
clusters_std = [3,1]
X,y = make_blobs(n_samples=[class_1,class_2],
                centers=centers,
                cluster_std=clusters_std,
                random_state=0,shuffle=False)
X.shape

第二步:查看不同贝叶斯在不平衡数据集的表现

name = ["MultinomialNB","Gaussian","BernoulliNB"]
models = [MultinomialNB(),GaussianNB(),BernoulliNB()]

for name,clf in zip(name,models):
    Xtrain,Xtest,Ytrain,Ytest = train_test_split(X,y,
                                                test_size=0.3,
                                                random_state=420)
    if name != "Gaussian":
        kbs = KBinsDiscretizer(n_bins=10,encode='onehot').fit(Xtrain)
        Xtrain = kbs.transform(Xtrain)
        Xtest = kbs.transform(Xtest)
        
    clf.fit(Xtrain,Ytrain)
    y_pred = clf.predict(Xtest)
    proba = clf.predict_proba(Xtest)[:,1]
    score = clf.score(Xtest,Ytest)
    print(name)
    print("\tBrier:{:.3f}".format(BS(Ytest,proba,pos_label=1)))
    print("\tAccuracy:{:.3f}".format(score))
    print("\tRecall:{:.3f}".format(recall_score(Ytest,y_pred)))
    print("\tAUC:{:.3f}".format(AUC(Ytest,proba)))

在这里插入图片描述
从结果看,多项式朴素贝叶斯受影响最严重,伯努利最能忍受样本不均衡问题。如果现实中,目标是捕捉少数类,可以利用补集朴素贝叶斯,它修正了包括无法处理样本不平衡在内的传统朴素贝叶斯的众多特点

三、ComplementNB补集朴素贝叶斯

CNB使用每个标签类别的补集的概念计算每个特征的权重
θ ^ i , y ≠ c = α i + ∑ y j ≠ c x i j α i n + ∑ i , y ≠ c ∑ i = 1 n x i j \hat{\theta}_{i,y\neq c}=\frac{\alpha_i+\sum_{y_j {\neq {c} }}{x_{ij}}}{\alpha_in+\sum_{i,y\neq c}\sum_{i=1}^{n}x_{ij}} θ^i,y=c=αin+i,y=ci=1nxijαi+yj=cxij

  • j j j表示每个样本。 x i j x_{ij} xij表示在样本上对于特征i下的取值,在文本分类中通常是计数的值或者是TF-IDF值。 α \alpha α是像标准多项式朴素贝叶斯中一样的平滑系数。
  • ∑ i , y ≠ c ∑ i = 1 n x i j \sum_{i,y\neq c}\sum_{i=1}^{n}x_{ij} i,y=ci=1nxij表示所有特征下,所有标签类别不等于c值的样本的特征取值之和。其实就是多项式分布的逆向思路
    在这里插入图片描述
    对于这个概率,对它取对数后得到权重。还可以除以它的L2范式,以解决多项式分布中特征取值比较多的样本(如比较长的文档)支配参数估计的情况。很多时候特征矩阵是稀疏矩阵,但也不排除在有一些随机事件中,可以一次在两个特征中取值的情况。

补充朴素贝叶斯一个样本的预测规则为:
p ( Y ≠ c ∣ X ) = a r g min ⁡ c ∑ i x i w c i p(Y\neq c|X)=arg\min_{c}\sum_{i}x_iw_{ci} p(Y=cX)=argcminixiwci
即求解出最小补集最小的标签,也就是Y=c此时最大

sklean中的补集朴素贝叶斯
在这里插入图片描述

参数含义
alpha浮点数, 可不填 (默认为1.0)
拉普拉斯或利德斯通平滑的参数 ,如果设置为0则表示完全没有平滑选项。平滑相当于人为给概率加上噪音,因此 设置得越大,多项式朴素贝叶斯的精确性会越低(影响不是非常大),布里尔分数也会升高
norm布尔值,可不填,默认False
在计算权重的时候是否适用L2范式来规范权重的大小。默认不进行规范,即不跟从补集朴素贝叶斯算法的全部内容,如果希望进行规范,请设置为True
fit_prior布尔值, 可不填 (默认为True)
是否学习先验概率,如果设置为false,则不使用先验概率,而使用统一先验概率(uniformprior),即认为每个标签类出现的概率是 1 n _ c l a s s e s \frac{1}{n_{\_}classes} n_classes1
class_prior形似数组的结构,结构为(n_classes, ),可不填(默认为None)类的先验概率 。如果没有给出具体的先验概率则自动根据数据来进行计算

补集朴素贝叶斯的在不平衡样本上的表现

from sklearn.naive_bayes import ComplementNB
from time import time 
import datetime
import pytz
name = ["MultinomialNB","Gaussian","BernoulliNB","Complement"]
models = [MultinomialNB(),GaussianNB(),BernoulliNB(),ComplementNB()]

for name,clf in zip(name,models):
    times=time()
    Xtrain, Xtest,Ytrain,Ytest = train_test_split(X,y,
                                                 test_size=0.3,
                                                 random_state=420)
    if name != "Gaussian":
        kbs = KBinsDiscretizer(n_bins=10,encode='onehot').fit(Xtrain)
        Xtrain = kbs.transform(Xtrain)
        Xtest = kbs.transform(Xtest)
    
    clf.fit(Xtrain,Ytrain)
    y_pred = clf.predict(Xtest)
    proba = clf.predict_proba(Xtest)[:,1]
    score = clf.score(Xtest,Ytest)
    print(name)
    print("\tBrier:{:.3f}".format(BS(Ytest,proba,pos_label=1)))
    print("\tAccuracy:{:.3f}".format(score))
    print("\tRecall:{:.3f}".format(recall_score(Ytest,y_pred)))
    print("\tAUC:{:.3f}".format(AUC(Ytest,proba)))
    print(datetime.datetime.fromtimestamp(time()-times,pytz.timezone('UTC')).strftime("%M:%S:%f"))

在这里插入图片描述
可以看到补集朴素贝叶斯牺牲了部分整体的精确度和布里尔指数,但是得到了十分高的召回率Recall,捕捉出了很多的少数类,并在此基础上维持了和原本多项式朴素贝叶斯一致的AUC分数。和其他贝叶斯算法相比,运行速度也很快。

案例:贝叶斯做文本分类

单词计数向量
一个样本可以包含一段话或者一篇文章,一个特征代表一个单词,是一个离散的、代表次数的正整数。展示一个案例:

from sklearn.feature_extraction.text import CountVectorizer
import pandas as pd
sample = ["Machine learning is fascinating, it is wonderful"
          ,"Machine learning is a sensational techonology"
          ,"Elsa is a popular character"]
vec = CountVectorizer()
X = vec.fit_transform(sample)
X

CVresult = pd.DataFrame(X.toarray(),columns = vec.get_feature_names())
CVresult

在这里插入图片描述

  • 对于朴素贝叶斯公式来说,如果某个句子特别长的样本会导致它贡献过大。补集贝叶斯中每个特征的权重除以自己的L2范式就是为了避免这种情况发生
  • 对于许多常见的单词,即使它对语义没有过多的影响,但频率的增加会导致算法的误导。所以使用TF-IDF来处理这种现象

TF-IDF
全程term frequency-inverse document frequency,词频逆文档频率,通过单词在文档中出现的频率来衡量其权重,即IDF的大小与一个词的常见程度成反比。sklearn当中,我们使用feature_extraction.text中类TfidfVectorizer来执行这种编码

文本分类案例
第一步:导入数据以及探索数据

from sklearn.datasets import fetch_20newsgroups
data = fetch_20newsgroups()
data.target_names

在这里插入图片描述
下面是fetch_20newsgroups参数列表
在这里插入图片描述

参数含义
subset选择类中包含的数据子集
输入"train"表示选择训练集,“test"表示输入测试集,”all"表示加载所有的数据
categories可输入None或者数据所在的目录
选择一个子集下,不同类型或不同内容的数据所在的目录。如果不输入默认None,则会加载全部的目录
download_if_missing可选,默认是True
如果发现本地数据不全,是否自动进行下载
shuffle布尔值,可不填,表示是否打乱样本顺序
对于假设样本之间互相独立并且服从相同分布的算法或模型(比如随机梯度下降)来说可能很重要

第二步:提取希望得到的数据集

import numpy as np
import pandas as pd
categories = ["sci.space",
              "rec.sport.hockey"
              ,"talk.politics.guns"
              ,"talk.politics.mideast"] #政治 - 中东问题
train = fetch_20newsgroups(subset="train",categories = categories)
test = fetch_20newsgroups(subset="test",categories=categories)
train
#查看提取的文章类别
train.target_names
#查看文章总数
len(train.data)
#提取某一篇文章
train.data[11]
#查看标签
np.unique(train.target)
#查看是否有样本不平衡问题
for i in [0,1,2,3]:
    print(i,(train.target == i ).sum()/len(train.target))

在这里插入图片描述
在这里插入图片描述
第三步:使用TF-IDF将文本编码

from sklearn.feature_extraction.text import TfidfVectorizer as TFIDF
Xtrain = train.data
Xtest = test.data
Ytrain = train.target
Ytest = test.target
tfidf = TFIDF().fit(Xtrain)
Xtrain_ = tfidf.transform(Xtrain)
Xtest_ = tfidf.transform(Xtest)
Ytest_1 = Ytest.copy()
Ytest_1 = pd.get_dummies(Ytest_1)
Xtrain_

tosee = pd.DataFrame(Xtrain_.toarray(),columns=tfidf.get_feature_names())
tosee.head()

在这里插入图片描述

第四步:在贝叶斯上分别建模,查看结果

from sklearn.naive_bayes import MultinomialNB,ComplementNB,BernoulliNB
from sklearn.metrics import brier_score_loss as BS
name = ["Multinomial","Complement","Bournulli"]
models = [MultinomialNB(),ComplementNB(),BernoulliNB()]
for name,clf in zip(name,models):
    clf.fit(Xtrain_,Ytrain)
    y_pred = clf.predict(Xtest_)
    proba = clf.predict_proba(Xtest_)
    score = clf.score(Xtest_,Ytest)
    print(name)
    Bscore = []
    for i in range(len(np.unique(Ytrain))):
        bs = BS(Ytest_1[i],proba[:,i])
        Bscore.append(bs)
        print("\tBrier uder{}:{:.3f}".format(train.target_names[i],bs))
    print("\tAverage Brier:{:.3f}".format(np.mean(Bscore)))
    print("\tAccuracy:{:.3f}".format(score))
    print("\n")

在这里插入图片描述
可以看到补集贝叶斯分数更高,但精确度更高。使用概率校准来进行突破:

from sklearn.calibration import CalibratedClassifierCV

name = ["Multinomial"
        ,"Multinomial + Isotonic"
        ,"Multinomial + Sigmoid"
        ,"Complement"
        ,"Complement + Isotonic"
        ,"Complement + Sigmoid"
        ,"Bernoulli"
        ,"Bernoulli + Isotonic"
        ,"Bernoulli + Sigmoid"]

models = [MultinomialNB()
          ,CalibratedClassifierCV(MultinomialNB(), cv=2, method='isotonic')
          ,CalibratedClassifierCV(MultinomialNB(), cv=2, method='sigmoid')
          ,ComplementNB()
          ,CalibratedClassifierCV(ComplementNB(), cv=2, method='isotonic')
          ,CalibratedClassifierCV(ComplementNB(), cv=2, method='sigmoid')
          ,BernoulliNB()
          ,CalibratedClassifierCV(BernoulliNB(), cv=2, method='isotonic')
          ,CalibratedClassifierCV(BernoulliNB(), cv=2, method='sigmoid')
         ]
for name,clf in zip(name,models):
    clf.fit(Xtrain_,Ytrain)
    y_pred = clf.predict(Xtest_)
    proba = clf.predict_proba(Xtest_)
    score = clf.score(Xtest_,Ytest)
    print(name)
    Bscore = []
    for i in range(len(np.unique(Ytrain))):
        bs = BS(Ytest_1[i],proba[:,i])
        Bscore.append(bs)
        print("\tBrier uder{}:{:.3f}".format(train.target_names[i],bs))
    print("\tAverage Brier:{:.3f}".format(np.mean(Bscore)))
    print("\tAccuracy:{:.3f}".format(score))
    print("\n")

在这里插入图片描述
通过比较,补集贝叶斯使用Sigmoid进行概率校准时的模型综合最优秀。对于机器学习而言,朴素贝叶斯也许不是最常用的方法,但由于它的简单快捷还是占有一席之地。只要能够提供足够的证据,合理利用高维数据进行训练,朴素贝叶斯就可以提供不错的效果。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/149379.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【openGauss实战2】客户端连接工具及配置

📢📢📢📣📣📣 哈喽!大家好,我是【IT邦德】,江湖人称jeames007,10余年DBA工作经验 一位上进心十足的【大数据领域博主】!😜&#x1f61…

shell第七天练习

awk题目: 1、获取根分区剩余大小 2、获取当前机器ip地址 3、统计出apache的access.log中访问量最多的5个IP 4、打印/etc/passwd中UID大于500的用户名和uid 5、/etc/passwd 中匹配包含root或net或ucp的任意行 7、请打印出/etc/passwd 第一个域,并且在第一…

广度优先搜索BFS进阶(一):多源BFS、优先队列BFS、双端队列BFS

一、多源BFS 在上一篇博客:广度优先搜索BFS基础中,我们接触到的BFS均是单起点(单源)的,但是对于某一些问题,其有多个起点,此类问题我们称为多源BFS问题。先思考下面一道例题: 1.腐…

类加载,类初始化,对象创建过程总结

总结&#xff1a;假如一个类还未加载到内存中&#xff0c;那么在创建一个该类的实例时&#xff0c;具体过程是怎样的&#xff1f;父类的类构造器<clinit>() -> 子类的类构造器<clinit>() -> 父类的成员变量和实例代码块 -> 父类的构造函数 -> 子类的成…

Go第 11 章 :面向对象编程(下)

Go第 11 章 &#xff1a;面向对象编程(下) 11.1 VSCode 的使用 11.1.1 VSCode 使用技巧和经验 11.2 面向对象编程思想-抽象 11.2.1 抽象的介绍 我们在前面去定义一个结构体时候&#xff0c;实际上就是把一类事物的共有的属性(字段)和行为(方法)提取 出来&#xff0c;形成一…

手把手教你图文并茂windows10安装VMware创建CentOS-7-x86_64运行linux系统

VMware是什么 VMWare (Virtual Machine ware)可以使你的计算机上同时运行几个系统、例如windows、DOS、LINUX等同时存在&#xff0c;可以将这些系统像程序似的随时切换&#xff0c;并且不会影响主系统&#xff0c;所有系统共享一个IP。 下载 VMware官网 安装 网上搜索一个序…

LeetCode栈和队列经典例题

本期博客给大家带来了几道经典栈和队列题&#xff0c;吃透它简直易如反掌~1.括号匹配问题题目地址&#xff1a;20. 有效的括号 - 力扣&#xff08;Leetcode&#xff09;解题思路&#xff1a;在这里我们创建一个栈&#xff0c;每次将字符入栈之前先对比栈顶元素是否相同&#xf…

蓝桥杯嵌入式之 LED 闪烁

这篇文章将详细为大家介绍如何实现 LED 闪烁。 我们使用的是 HAL 库。 文章目录前言一、STM32CubeMX配置:二、LED 原理图&#xff1a;三、LED闪烁 讲解&#xff1a;1. HAL_GPIO_WritePin 函数&#xff1a;用于操作 *GPIO* 电平。2.HAL_Delay函数&#xff1a;作为毫秒级延迟的函…

【消息队列】Centos7 虚拟机安装 RocketMQ 及启动控制台

文章目录前言目的注意点官网虚拟机1. 环境变量2. 安装并启动rocketmq3. 安装docker4. docker拉取并运行rocketmq-dashboard5. 关闭防火墙6. 宿主机查看控制台7. 关闭虚拟机的进程后记前言 目的 模拟在服务器上运行RocketMQ&#xff0c;并且有控制台的能力。以后本地window可以…

【自学C++】C++变量作用域

C变量作用域 C变量作用域教程 C 中的一个 变量 或 常量 在程序中都有一定的作用范围&#xff0c;我们称之为作用域。C 变量作用域可分为局部作用域和全局作用域。 C局部变量 在 函数 内部声明/定义的变量叫局部变量&#xff0c;局部变量的作用域仅限于函数内部。同时&#…

Linux应用编程---8.共享内存

Linux应用编程—8.共享内存 ​ 共享内存是进程之间通讯的方式。大概原理是先申请一块共享内存&#xff0c;然后通过“映射”&#xff0c;映射到进程中。进程中读写这块被映射过来的内存&#xff0c;共享内存也会随之改变&#xff0c;同理其它进程也能做相同的操作。所以&#…

dubbo源码实践-protocol层例子

1 概述本文提供了基于protocol层的一个客户端、服务端代码例子。从dubbo 2.7的架构图上可以看到protocol层上在Remoting层之上的&#xff0c;个人理解Protocol层不在讨论客户端和服务端的概念了&#xff0c;开始讨论服务提供者和服务消费者的概念了。参考上一篇dubbo源码实践-p…

基于ngxin一个http模板

1.初始化 static char * ngx_http_mytest(ngx_conf_t *cf, ngx_command_t *cmd, void *conf);static ngx_int_t ngx_http_mytest_handler(ngx_http_request_t *r);static ngx_command_t ngx_http_mytest_commands[] {{ngx_string("mytest"),NGX_HTTP_MAIN_CONF | N…

分布式基础篇2——分布式组件(谷粒商城)

一、SpringCloud Alibaba1、简介2、为什么使用3、版本选择4、依赖选择二、SpringCloud Alibaba 组件1、Nacos作为注册中心2、OpenFeign3、Nacos作为配置中心namespaceData IDGroup同时加载多个配置文件三、Spring Cloud1、GateWay简介三大核心部分网关的使用视频来源: 【Java项…

爬虫学习+实战

爬虫 概念&#xff1a; 网络爬虫&#xff1a;就是模拟客户端发送请求&#xff0c;获取响应数据&#xff0c;一种按照一定的规则&#xff0c;自动地抓取万维网上的信息的程序或者脚本 爬虫分类: 通用爬虫&#xff1a;抓取系统中重要的组成部分。抓取的是一整张页面数据聚焦爬…

I2C总线驱动

一. I2C背景知识 SOC芯片平台的外设分为&#xff1a; 一级外设&#xff1a;外设控制器集成在SOC芯片内部二级外设&#xff1a;外设控制器由另一块芯片负责&#xff0c;通过一些通讯总线与SOC芯片相连 Inter-Integrated Circuit&#xff1a; 字面意思是用于“集成电路之间”的…

SELECT COUNT(*) 会造成全表扫描?回去等通知吧

本文已经收录到Github仓库&#xff0c;该仓库包含计算机基础、Java基础、多线程、JVM、数据库、Redis、Spring、Mybatis、SpringMVC、SpringBoot、分布式、微服务、设计模式、架构、校招社招分享等核心知识点&#xff0c;欢迎star~ Github地址&#xff1a;https://github.com/T…

CPU_并行(多线程)不同高性能旋转图片

并行(多线程)不同高性能旋转图片 代码 ImageStuff.h struct ImgProp {int Hpixels;int Vpixels;unsigned char HeaderInfo[54];unsigned long int Hbytes; };struct Pixel {unsigned char R;unsigned char G;unsigned char B; };unsigned char** CreateBlankBMP(); unsigned…

Java中>>,>>=,<<,<<=运算符

今天在刷LeetCode的时候遇到了一个运算符<<&#xff0c;对这个运算符的意思有点模糊&#xff0c;然后便开始面向百度学习&#xff0c;但是发现&#xff0c;很多篇帖子表达的意思太文章化&#xff0c;不够通俗易懂&#xff0c;于是打算写下这篇帖子&#xff0c;让大家能够…

工作笔记——微信支付开发相关知识整理

在最近的工作中&#xff0c;引入了微信小程序支付&#xff0c;在开发过程中积累和整理了一些技术知识&#xff0c;现将其整理如下 目录 一、概念认识 &#xff08;一&#xff09;术语介绍 &#xff08;二&#xff09;名词解释 &#xff08;四&#xff09;对接微信支付接口规…