ccc-sklearn-13-朴素贝叶斯(1)

news2025/1/13 10:02:29

朴素贝叶斯
一种直接衡量标签和特征之间概率关系的有监督学习算法,专注分类的算法,基于概率论和数理统计的贝叶斯理论。在计算的过程中,假设特征之间条件独立,不进行建模,采用后验估计。

sklearn中的朴素贝叶斯

含义
naive_bayes.BernoulliNB伯努利分布下的朴素贝叶斯
naive_bayes.GaussianNB高斯分布下的朴素贝叶斯
naive_bayes.MultinomialNB多项式分布下的朴素贝叶斯
naive_bayes.ComplementNB补集朴素贝叶斯
linear_model.BayesianRidge贝叶斯岭回归,在参数估计过程中使用贝叶斯回归技术来包括正则化参数

高斯朴素贝叶斯
在这里插入图片描述

参数含义
prior可输入任何类数组结构,形状为(n_classes,)表示类的先验概率。
如果指定,则不根据数据调整先验,如果不指定,则自行根据数据计算先验概率 P(Y)
var_smoothing浮点数,可不填(默认值= 1e-9)
在估计方差时,为了追求估计的稳定性,将所有特征的方差中最大的方差以某个比例添加到估计的方差中

假设服从正态分布来估计每个特征下每个类别上的条件概率。公式如下:
在这里插入图片描述对于任意一个Y的取值,贝叶斯都以求解最大化的 P ( x i ∣ Y ) P(x_i|Y) P(xiY)为目标,比较不同标签下样本靠近哪一个值。

简单测试

import numpy as np 
import matplotlib.pyplot as plt
from sklearn.naive_bayes import GaussianNB
from sklearn.datasets import load_digits
from sklearn.model_selection import train_test_split 

digits = load_digits()
X,y = digits.data,digits.target
Xtrain,Xtest,Ytrain,Ytest= train_test_split(X,y,test_size=0.3,random_state=420)

gnb = GaussianNB().fit(Xtrain,Ytrain)
acc_score = gnb.score(Xtest,Ytest)
acc_score

在这里插入图片描述
混淆矩阵查看分类结果

from sklearn.metrics import confusion_matrix as CM
CM(Ytest,Y_pred)

在这里插入图片描述
探索朴素贝叶斯的拟合效果与运算速度
第一步:导入需要模块

import numpy as np
import matplotlib.pyplot as plt
from sklearn.naive_bayes import GaussianNB
from sklearn.svm import SVC
from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.tree import DecisionTreeClassifier as DTC
from sklearn.linear_model import LogisticRegression as LR
from sklearn.datasets import load_digits
from sklearn.model_selection import learning_curve
from sklearn.model_selection import ShuffleSplit
from time import time
import datetime
import pytz

第二步:定义学习曲线函数以及导入数据

def plot_learning_curve(estimator,title,X,y,
                       ax,
                       ylim=None,
                       cv=None,
                       n_jobs=None
                       ):
    train_sizes, train_scores, test_scores = learning_curve(estimator,X,y,
                                                           cv=cv,n_jobs=n_jobs)
    ax.set_title(title)
    if ylim is not None:
        ax.set_ylim(*ylim)
    ax.set_xlabel("Training examples")
    ax.set_ylabel("Score")
    ax.grid()
    ax.plot(train_sizes,np.mean(train_scores,axis=1),'o-'
           ,color="r",label="Training score")
    ax.plot(train_sizes,np.mean(test_scores,axis=1),'o-'
           ,color="g",label="Test score")
    ax.legend(loc="best")
    return ax
    
digits = load_digits()
X,y =digits.data, digits.target
title = ["Naive Bayes","DecisionTree","SVM, RBF kernel","RandomForest","Logistic"]
model = [GaussianNB(),DTC(),SVC(gamma=0.001),RFC(n_estimators=50),LR(C=.1,solver="lbfgs")]
cv = ShuffleSplit(n_splits=50, test_size=0.2, random_state=0)

第三步:循环绘制学习曲线

fig, axes = plt.subplots(1,5,figsize=(30,6))
for ind,title_,estimator in zip(range(len(title)),title,model):
    times = time()
    print(ind)
    plot_learning_curve(estimator,title_,X,y,
                       ax=axes[ind],ylim=[0.7,1.05],n_jobs=4,cv=cv)
    print("{}:{}".format(title_,datetime.datetime.fromtimestamp(time()-times,pytz.timezone('UTC')).strftime("%M:%S:%f")))
plt.show()

[*zip(range(len(title)),title,model)]

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
几个得出的结论:

  • 决策树和贝叶斯运行都很快。决策树运行快速是因为sklearn中分类树在特征选择时没有计算全部特征只是随机选择一部分特征来进行计算,当样本量增大后会变慢
  • 除了贝叶斯,其他算法准确率都达到了100%,即它天生学习能力就比较弱,不仅如此,随着样本量增大,贝叶斯对训练集的拟合程度也越来越差
  • 各个模型都存在过拟合问题。强大的分类器通过快速提高测试集上的表现来减轻过拟合问题,决策树提升相对缓慢。贝叶斯还依赖训练集上的准确率下降
  • 贝叶斯相对没有提升潜力,但计算很快。如果数据十分复杂或者是稀疏矩阵,那么可以优先尝试贝叶斯模型

概率类模型的评估指标
评测给出预测的可信度
布里尔分数Brier Score
概率预测相对与测试样本的均方误差:
B r i e r S c o r e = 1 N ( p i − o i ) 2 Brier Score =\frac{1}{N}(p_i-o_i)^2 BrierScore=N1(pioi)2
其中p为预测出的概率,o为样本真实结果,只能取0或。结果分数范围0到1,越接近0效果越好。可以用于任何使用predict_proba接口调用概率的模型
探索手写数据集上逻辑回归,SVC和高斯朴素贝叶斯的效果:
第一步:库导入以及初步准备

import pandas as pd
from sklearn.metrics import brier_score_loss
from sklearn.svm import SVC
from sklearn.linear_model import LogisticRegression as LR

prob.shape
Ytest_1=Ytest.copy()
Ytest_1=pd.get_dummies(Ytest_1)
brier_score_loss(Ytest_1[1], prob[:,1], pos_label=1)

在这里插入图片描述

第二步:调用逻辑回归和svc模型,同时将svc置信度距离归一化

logi = LR(C=1., solver='lbfgs',max_iter=3000,multi_class="auto").fit(Xtrain,Ytrain)
svc = SVC(kernel = "linear",gamma=1).fit(Xtrain,Ytrain)
svc_prob = (svc.decision_function(Xtest) -
svc.decision_function(Xtest).min())/(svc.decision_function(Xtest).max() -
svc.decision_function(Xtest).min())
name = ["Bayes","Logistic","SVC"]
color = ["red","black","orange"]
df = pd.DataFrame(index=range(10),columns=name)
df

在这里插入图片描述
第三步:将每个标签类别下分数可视化

for i in range(10):
    df.loc[i,name[0]] = brier_score_loss(Ytest_1[i],prob[:,i],pos_label=1) 
    df.loc[i,name[1]] = brier_score_loss(Ytest_1[i],logi.predict_proba(Xtest)[:,i],pos_label=1) 
    df.loc[i,name[2]] = brier_score_loss(Ytest_1[i],svc_prob[:,i],pos_label=1) 
for i in range(df.shape[1]):
    plt.plot(range(10),df.iloc[:,i],c=color[i])
plt.legend()
plt.show()
df

在这里插入图片描述
可以看到SVC效果明显弱于贝叶斯和逻辑回归(因为它通过sigmoid函数来强行压缩概率)

对数似然函数Log Loss
对于一个真实标签在{0,1}中取值,并且这个类别在1的概率估计为 y p r e d y_{pred} ypred,则对应损失函数类似于逻辑回归中损失函数为:
− l o g P ( y t r u e ∣ y p r e d ) = − ( y t r u e ∗ l o g ( y p r e d ) + ( 1 − y t r u e ∗ l o g ( 1 − y p r e d ) ) -logP(y_{true}|y_{pred})=-(y_{true}*log(y_{pred})+(1-y_{true}*log(1-y_{pred})) logP(ytrueypred)=(ytruelog(ypred)+(1ytruelog(1ypred))

sklearn中通过对数似然函数查看

from sklearn.metrics import log_loss
log_loss(Ytest,prob)
log_loss(Ytest,logi.predict_proba(Xtest))
log_loss(Ytest,svc_prob)

在这里插入图片描述
可以看到,此时贝叶斯中效果不如SVC,这与之前使用布里尔分数得到的结论不同。这是因为,SVC和逻辑回归都是以最优化目的求解模型的,而在朴素贝叶斯中没有这个最优化的过程,所以没有优势。

不同情况下对数似然与布里尔的选择

需求优先使用对数似然优先使用布里尔分数
衡量模型要对比多个模型,或者衡量模型的不同变化衡量单一模型的表现
可解释性机器学习和深度学习之间的行家交流,学术论文商业报告,老板开会,业务模型的衡量
最优化指向逻辑回归,SVC朴素贝叶斯
数学问题概率只能无限接近于0或1,无法取到0或1概率可以取到0或1,比如树,随机森林

在使用贝叶斯模型的情况下追求概率预测上贴近真实概率,可以使用可靠性曲线来调节概率的校准程度

可靠性曲线 Reliability Curve
又称为概率校准曲线,可靠性图,是一条以预测概率为横坐标,真实标签为纵坐标的曲线。通常用于二分类,接下来进行绘制:

第一步:导入库和创建数据集

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification as mc
from sklearn.naive_bayes import GaussianNB
from sklearn.svm import SVC
from sklearn.linear_model import LogisticRegression as LR
from sklearn.metrics import brier_score_loss
from sklearn.model_selection import train_test_split

X, y = mc(n_samples=100000,n_features=20
         ,n_classes=2,n_informative=2,
         n_redundant=10,random_state=42)
Xtrain, Xtest, Ytrain, Ytest = train_test_split(X,y,test_size=0.99,random_state=42)
np.unique(Ytrain)

在这里插入图片描述
第二步:建立模型,尝试绘制图像

gnb = GaussianNB()
gnb.fit(Xtrain,Ytrain)
y_pred = gnb.predict(Xtest)
prob_pos = gnb.predict_proba(Xtest)[:,1]
clf_score = gnb.score(Xtest,Ytest)
df = pd.DataFrame({"ytrue":Ytest[:500],"probability":prob_pos[:500]})
df = df.sort_values(by="probability")
df.index=range(df.shape[0])
df

fig = plt.figure()
ax1 = plt.subplot()
ax1.plot([0,1],[0,1],"k:",label="Perfectly calibrated")
ax1.plot(df["probability"],df["ytrue"],"s-",label="%s (%1.3f)"%("Bayes",clf_score))
ax1.set_ylabel("True label")
ax1.set_xlabel("predcited probaility")
ax1.set_ylim([-0.05,1.05])
ax1.legend()
plt.show()

在这里插入图片描述
很明显是有问题的,因为预测概率的值不断在0和1之前来回跳跃,所以导致如此混乱。希望的是一个范围在0到1的概率,由于真实概率无法获得,可以采用分箱的方式来获取类概率进行校准。具体做法如下:
在这里插入图片描述
可以看到,分享可以让曲线变的平滑。sklearn中可以使用calibration_curve来帮助绘制相关图像,其相关参数如下:

参数含义
y_true真实标签
y_prob预测返回的,正类别下的概率值或置信度
normalize布尔值,默认False
是否将y_prob中输入的内容归一化到[0,1]之间,比如说,当y_prob并不是真正的概率的时候可以使用。如果这是为True,则会将y_prob中最小的值归一化为0,最大值归一化为1
n_bins整数值,表示分箱的个数。如果箱数很大,则需要更多的数据
返回含义
trueproba可靠性曲线的纵坐标,结构为(n_bins, ),是每个箱子中少数类(Y=1)的占比
predproba可靠性曲线的横坐标,结构为(n_bins, ),是每个箱子中概率的均值

第三步:使用可靠性曲线的类绘制校准后的线

from sklearn.calibration import calibration_curve

trueproba, predproba = calibration_curve(Ytest,prob_pos,n_bins=10)
fig = plt.figure()
ax1 = plt.subplot()
ax1.plot([0,1],[0,1],"k:",label="Perfectly calibrated")
ax1.plot(trueproba,predproba,"s-",label="%s (%1.3f)"%("Bayes",clf_score))
ax1.set_ylabel("True label")
ax1.set_xlabel("predcited probaility")
ax1.set_ylim([-0.05,1.05])
ax1.legend()
plt.show()

在这里插入图片描述
第四步:不同bin取值下曲线的变化

fig, axes = plt.subplots(1,3,figsize=(18,4))
for ind,i in enumerate([3,10,100]):
    ax = axes[ind]
    ax.plot([0, 1], [0, 1], "k:", label="Perfectly calibrated")
    trueproba, predproba = calibration_curve(Ytest, prob_pos,n_bins=i)
    ax.plot(predproba, trueproba,"s-",label="n_bins = {}".format(i))
    ax1.set_ylabel("True probability for class 1")
    ax1.set_xlabel("Mean predcited probability")
    ax1.set_ylim([-0.05, 1.05])
    ax.legend()
plt.show()

在这里插入图片描述
在这里插入图片描述
箱子数太多导致不够平滑,箱子数太少导致概率校准曲线过于粗糙,一般从10开始调整

第五步:多个模型校准曲线对比

fig, ax1 = plt.subplots(figsize=(8,6))
ax1.plot([0,1],[0,1],"k:",label="Perfectly calibrated")
for clf ,name_ in zip([gnb,logi,svc],name):
    clf.fit(Xtrain,Ytrain)
    y_pred = clf.predict(Xtest)
    if hasattr(clf,"predict_proba"):
        prob_pos = clf.predict_proba(Xtest)[:,1]
    else:
        prob_pos = clf.decision_function(Xtest)
        prob_pos = (prob_pos-prob_pos.min())/(prob_pos.max()-prob_pos.min())
    clf_score = brier_score_loss(Ytest,prob_pos,pos_label=y.max())
    trueproba,predproba = calibration_curve(Ytest,prob_pos,n_bins=10)
    ax1.plot(predproba,trueproba,"s-",label="%s (%1.3f)"%(name_,clf_score))
ax1.set_ylabel("True probability for class 1")
ax1.set_xlabel("Mean predcited probability")
ax1.set_ylim([-0.05, 1.05])
ax1.legend()
ax1.set_title('Calibration plots (reliability curve)')
plt.show()

在这里插入图片描述
逻辑回归依旧很完美。贝叶斯概率校准曲线呈现sigmoid镜像说明数据集中的数据不是相互条件独立(与此次设定相同),所以表现不好。SVC由于置信度本身就不足,大量样本集中在决策边界附近,所以准确度也有限

第六步:多个模型的概率分布直方图

直方图是以样本的预测概率分箱后的结果为横坐标,每个箱中的样本数量为纵坐标的一个图像,与之前可靠性曲线为了平滑的分箱是两码事

fig, ax2 = plt.subplots(figsize=(8,6))

for clf, name_ in zip([gnb,logi,svc],name):
    clf.fit(Xtrain,Ytrain)
    y_pred = clf.predict(Xtest)
    if hasattr(clf, "predict_proba"):
        prob_pos = clf.predict_proba(Xtest)[:,1]
    else: 
        prob_pos = clf.decision_function(Xtest)
        prob_pos = (prob_pos - prob_pos.min()) / (prob_pos.max() - prob_pos.min())
    ax2.hist(prob_pos 
             ,bins=10
             ,label=name_
             ,histtype="step" 
             ,lw=2 
            )
    
ax2.set_ylabel("Distribution of probability")
ax2.set_xlabel("Mean predicted probability")
ax2.set_xlim([-0.05, 1.05])
ax2.set_xticks([0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1])
ax2.legend(loc=9)
plt.show()

在这里插入图片描述
可以看到贝叶斯对于自己太过自信,SVC对于自己太过不自信。

校准可靠性曲线
使用sklearn中的CalibratedClassifierCV来对二分类情况下的数据集进行概率矫正
在这里插入图片描述
其中method选择概率校准的方法,可选“sigmoid”和“isotonic”

  • sigmoid:使用基于Platt的sigmoid模型进行校准
  • isotonic:使用等渗回归进行校准

当样本较少时,防止过拟合一般不建议使用isotionic

使用之前的数据进行校准:
第一步:包装函数

def plot_calib(models,name,Xtrain,Xtest,Ytrain,Ytest,n_bins=10):
    fig,(ax1,ax2) = plt.subplots(1,2,figsize=(20,6))
    ax1.plot([0,1],[0,1],"k:",label="Perfectly calibrated")
    
    for clf,name_ in zip(models,name):
        clf.fit(Xtrain,Ytrain)
        y_pred = clf.predict(Xtest)
        if hasattr(clf,"predict_proba"):
            prob_pos = clf.predict_proba(Xtest)[:,1]
        else:
            prob_pos=clf.decision_function(Xtest)
            prob_pos=(prob_pos - prob_pos.min())/(prob_pos.max()-prob_pos.min())
        clf_score = brier_score_loss(Ytest,prob_pos,pos_label=y.max())
        trueproba,predproba = calibration_curve(Ytest,prob_pos,n_bins=n_bins)
        ax1.plot(predproba,trueproba,"s-",label="%s (%1.3f)"%(name_,clf_score))
        ax2.hist(prob_pos,range=(0,1),bins=n_bins,label=name_,histtype="step",lw=2)
            
    ax2.set_ylabel("Distribution of probability")
    ax2.set_xlabel("Mean predicted probability")
    ax2.set_xlim([-0.05, 1.05])
    ax2.legend(loc=9)
    ax2.set_title("Distribution of probablity")
    ax1.set_ylabel("True probability for class 1")
    ax1.set_xlabel("Mean predcited probability")
    ax1.set_ylim([-0.05, 1.05])
    ax1.legend()
    ax1.set_title('Calibration plots(reliability curve)')
    plt.show()

第二步:实例化绘图

from sklearn.calibration import CalibratedClassifierCV
name = ["GaussianBayes","Logistic","Bayes+isotonic","Bayes+sigmoid"]
gnb = GaussianNB()
models = [gnb   
     ,LR(C=1., solver='lbfgs',max_iter=3000,multi_class="auto")
     ,CalibratedClassifierCV(gnb, cv=2, method='isotonic')
     ,CalibratedClassifierCV(gnb, cv=2, method='sigmoid')]
plot_calib(models,name,Xtrain,Xtest,Ytrain,Ytest)

在这里插入图片描述
在这里插入图片描述
Isotonic等渗校正大大改善了曲线的形状,几乎让贝叶斯的效果与逻辑回归持平,并且布里尔分数也下降到了0.098,比逻辑回归还低一个点。Sigmoid校准的方式也对曲线进行了稍稍的改善,不过效果不明显。从直方图来看,Isotonic校正让高斯朴素贝叶斯的效果接近逻辑回归,而Sigmoid校正后的结果依然和原本的高斯朴素贝叶斯更相近。可见,当数据的特征之间不是相互条件独立的时候,使用Isotonic方式来校准概率曲线,可以得到不错的结果,让模型在预测上更加谦虚

第三步:查看精确性的变化

gnb = GaussianNB().fit(Xtrain,Ytrain)
gnb.score(Xtest,Ytest)

brier_score_loss(Ytest,gnb.predict_proba(Xtest)[:,1],pos_label=1)

gnbisotonic = CalibratedClassifierCV(gnb, cv=2, method='isotonic').fit(Xtrain,Ytrain)
gnbisotonic.score(Xtest,Ytest)

brier_score_loss(Ytest,gnbisotonic.predict_proba(Xtest)[:,1],pos_label = 1)

在这里插入图片描述
可以看到,校准后布里尔分数变小,但整体准确率缺下降了。对与不同模型出现这个现象的原因不同,对SVC和决策树这种模型来说,概率偏向于是一个“置信度”,校准可能使向更加错误的方向调整,因此出现布里尔分数与精确性相反的趋势。而对于朴素贝叶斯这样的模型,校准后准确性的变化取决测试集有多贴近估计的真实样本的面貌,这一系列有偏估计可能导致布里尔分数与准确度的趋势相反。当然,还有更多深层的原因,总之,如果两者相悖时,优先考虑准确率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/145672.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

1-选择题练手

1.采用递归方式对顺序表进行快速排序,下列关于递归次数的叙述中,正确的是 A.每次划分后,先处理较长的分区可以减少递归次数 B.递归次数与初始数据的排列次序无关 C.每次划分后,先处理较短的分区可以减少递归次数 D.递归次数与…

DaVinci:键 - 外部蒙版

调色页面:键Color:Key在调色页面,可以轻松地从媒体池将某个片段拖至节点面板中,以作为外部蒙版。或者,在节点上右击选择“添加蒙版” Add Matte。若无附加,则可以选择本节点片段的明度信息作为外部蒙版。当…

hbase2.x orphan regions on filesystem(region丢失)问题修复

问题描述:orphan regions on filesystem 可以通过主master web页面的HBCK Report查看 也可以通过hbck2工具查看 # 查看指定表 hbase hbck -j $HBASE_HOME/lib/hbase-hbck2-1.3.0-SNAPSHOT.jar addFsRegionsMissingInMeta default:tableName # 查看命名空间下所有…

Yolov5+TensorRT-生成dll-python/c++调用dll

YOlov5-6.0TensorRTdllpython/c调用简介1.项目环境2.TensorRT验证1.在tensorrtx-yolov5-v6.0\yolov5目录下新建build目录2.编写CMake.txt,根据自己目录更改2(OpenCV_DIR)、3(TRT_DIR)、10(Dirent_INCLUDE_DIRS&#xf…

LabVIEW网络服务器何使用,有哪些不同

LabVIEW网络服务器何使用,有哪些不同NI有几款不同的Web服务器,可使用不同的产品并覆盖不同的用例。它们具有非常相似的名称,可以互换使用,但每个都提供不同的功能。应用程序Web服务器描述:NI应用Web服务器加载使用LabV…

企业微信商户号是什么?如何开通?

企业微信作为一款优秀的移动办公工具,与微信全方位打通,既可以与客户沟通交流,也可以在达成交易后直接进行对公收款,但是前提是要开通企业微信商户号。前言企业微信和微信都出自腾讯,而且企业微信全方位连接微信&#…

C#,图像二值化(16)——全局阈值的力矩保持算法(Moment-proserving Thresholding)及其源代码

1、力矩保持法 提出了一种基于矩保持原理的自动阈值选择方法。以这样的方式确定地计算阈值,即在输出画面中保留输入画面的时刻。实验结果表明,该方法可以将给定的图像阈值化为有意义的灰度级。该方法描述了全局阈值,但也适用于局部阈值。 A…

企业微信开发——企业内部自建应用开发(第二篇)---JS_SDK配置

企业微信如果想要使用企业微信的JS_SDK来实现拍照、定位等等功能,就需要预先在使用到的页面进行配置,当然你可以做全局配置。对于JS_SDK的配置设计前端和后端的统一配置。下面我来说明下具体的步骤。特别说明:1、企业微信有的接口需要配置wx.…

shader基础入门(1)

本文基于unity免费公开课“Hi Shader以及网络公开资料等书写”遵循开源协议。 MeshFilter网格过滤器 从海量资源中挑选适合的Mesh将他交给MeshRender MeshRenderer 网格渲染器 负责把MeshFilter丢过来的Mesh,绘制显示到我们的场景中 Material 材质球 Material…

多线程之死锁

目录: 1.什么是死锁? 2.可重入与不可重入 3.发生死锁的三个典型情况 4.发生死锁的四个必要条件 5.如何破除死锁? 1.什么是死锁? 谈到死锁,程序猿们都心存忌惮,因为程序一旦出现死锁,就会导…

深度学习训练营之鸟类识别

深度学习训练营之鸟类识别原文链接环境介绍前置工作设置GPU导入数据并进行查找数据处理可视化数据配置数据集残差网络的介绍构建残差网络模型训练开始编译结果可视化训练样本和测试样本预测原文链接 🍨 本文为🔗365天深度学习训练营 中的学习记录博客&am…

机器学习:如何解决类别不平衡问题

类别不平衡是一个常见问题,其中数据集中示例的分布是倾斜的或有偏差的。 1. 简介 类别不平衡是机器学习中的一个常见问题,尤其是在二元分类领域。当训练数据集的类分布不均时会发生这种情况,从而导致训练模型存在潜在偏差。不平衡分类问题的示…

【Unity云消散】理论基础:实现SDF的8SSEDT算法

距离元旦假期已经过去5天了(从31号算起!),接着开始学习! 游戏中的很多渲染效果都离不开SDF,那么SDF究竟是什么呢?到底是个怎么样的技术?为什么能解决那么多问题? 1 SD…

git介绍及环境搭建

git介绍及环境搭建Git介绍Git安装流程配置用户信息git工作流程与常用命令问题点总结主要工作流程git工作流程与原理总结Git介绍 1.Git是什么? Git版本控制系统是一个分布式的系统,是用来保存工程源代码历史状态(游戏存档)的命令行工具 GIT是一个命令行工具,用于版…

基于Java+Spring+vue+element社区疫情服务平台设计和实现

基于JavaSpringvueelement社区疫情服务平台设计和实现 博主介绍:5年java开发经验,专注Java开发、定制、远程、文档编写指导等,csdn特邀作者、专注于Java技术领域 作者主页 超级帅帅吴 Java毕设项目精品实战案例《500套》 欢迎点赞 收藏 ⭐留言 文末获取源…

Django+channels -> websocket

Django+channels -> websocket 学习视频: https://www.bilibili.com/video/BV1J44y1p7NX/?p=10 workon # 查看虚拟环境 mkvirtualenv web -p python3.10 # 创建虚拟环境 workon web # 进入虚拟环境pip insatll django channelsdjango-admin startproject ws_demo python …

【NI Multisim 14.0原理图环境设置——元器件库管理】

目录 序言 一、元器件库管理 🍉1.“元器件”工具栏 🍊(1)电源/信号源库 🍊(2)基本器件库 🍊(3)二极管库 🍊(4)晶体管…

seL4 背景知识

1 seL4 演变 1.1 微内核 微内核发展到目前为止经历了三代, 这里做一些归纳。参考《现代操作系统: 原理与实现》中操作系统结构一章, 关于微内核架构发展的介绍。 第一代微内核设计将许多内核态功能放到用户态, Mach 微内核是第一代微内核的代表。第二代微内核设计将对 IPC 优…

C++学习记录——일 C++入门(1)

C入门(1) 文章目录C入门(1)一、C关键字二、C第一个程序三、命名空间1、域作用限定符2、了解命名空间3、命名空间的使用四、C输入输出五、缺省参数六、函数重载七、引用1、引用符号2、引用的部分使用场景一、C关键字 关键字有98个&…

filebeat采集nginx日志

背景我们公司项目组用的是elastic的一整套技术栈,es,kibana,filebeat和apm,目前已经可以采集网关各个微服务的日志。架构图现在需要在原来的基础上把nginx这的日志也采集上来,方便做链路跟踪问题与思路原先traceId是在…