01sklearn-机器学习的几种算法(附代码)

news2024/11/15 3:34:57

说明: 本篇文章主要写了机器学习的流程及一些常用的算法如: 贝叶斯,朴素贝叶斯,线性回归,决策树,随机森林,逻辑斯蒂回归,模型调优和特征工程等(都是使用python的sklearn库实现)

一、概述
二、

一、特征工程

在看下面的算法之前,我们要先对机器学习流程进行一下熟悉!

主要有下面几个步骤:

  1. 获取数据
  2. 对数据进行清洗
  3. 对数据集进行切割为训练集和测试集
  4. 根据数据的情况对数据做特征工程
  5. 选择合适算法进行模型训练,然后预测
  6. 使用测试集进行测试数据
  7. 对模型进行调优
  8. 保存模型到文件中

根据数据做特征工程包含如下3个内容:

1. 特征抽取/特征提取
|>字典特征提取, 应用DiceVectorizer实现对类别特征进行数值化、离散化
|>文本特征抽取,应用CounterVertorize/TfIdfVectorize实现对文本特征数值化(注意:这一点我们需要使用中文分词,我平常使用的是jieba分词)
|>图像特征抽取(深度学习)

2. 特征预处理
|_>归一化,应用MaxmixScaler,根据最小最大值进行放缩,默认范围0-1,容易受到异常值的影响,稳定性差,适合小规模
|_>标准化,应用StandardScaler, 数据处理到指定的范围内,默认0~1),异常值影响较小,对空值不敏感,大规模也适合

3. 特征降维
|_>特征选择 :
- 低方差过滤(VarianceThreshold):删除低方差的一些特征
- 特征之间相关性计算(from scipy.stats import pearsonr):计算特征之间的相关性{当0<|r|<1时,表示两变量存在一定程度的相关。且|r|越接近1,两变量间线性关系越密切;|r|越接近于0,表示两变量的线性相关越弱}
|_>PCA(主要成分分析from sklearn.decomposition import PCA): 数据维数压缩,尽可能降低原数据的维数(复杂度),损失少量信息,在此过程中可能会舍弃原有数据、创造新的变量

代码实现,数据的加载使用的是sklearn的数据,有一些数据文件就不上传了,这里只是提供逻辑思路:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction import DictVectorizer
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.preprocessing import MinMaxScaler
from sklearn.preprocessing import StandardScaler
from sklearn.feature_selection import VarianceThreshold
from sklearn.decomposition import PCA
import  jieba
import pandas as pd
from scipy.stats import pearsonr
from sklearn.cluster import KMeans

#使用sklearn加载鸢尾花的数据
def  datasets_iris():
    #1.获取数据的操作和切割数据集
    iris= load_iris()
    print("查看数据集:",iris)
    print("查看数据集的描述:\n",iris["DESCR"])
    print("查看特征的名称:\n",iris.feature_names)
    print("查看目标值的名称:\n",iris.target_names)
    print("查看数据集的特征值:\n",iris.data)
    print("查看数据集的目标值:\n",iris.target)
    print("查看数据集的类型:\n",iris.data.shape)

    # 训练集和测试机的切割
    # 参数值(特征值,目标值,测试集的大小,随机数种子)
    x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,test_size=0.2,random_state=56)
    print("训练集的特征值:",x_train)
    print("训练集的目标值:",y_train)
    print("测试集的特征值:",x_test)
    print("测试集的目标值:",y_test)
    print("训练集和测试集的特征值形状:",x_train.shape,x_test.shape)

def feature_demo():
    
    """
    特征提取: 使用字典转换器
    :return: 
    """
    # 创建字典数据========one-hot编码转换实现
    data1=[{'city': '北京','temperature':100},{'city': '上海','temperature':60},{'city': '深圳','temperature':30}]
    #1.创建特征转化器对象(默认转换成稀疏矩阵)
    # 注意: 当特征类别过多的时候,一般都会使用稀疏矩阵来标记位置  如果想取消稀疏矩阵,将sparse=False即可
    vectorizer1 = DictVectorizer(sparse=False)
    #2.使用fit_transform方法进行转化
    transfer = vectorizer1.fit_transform(data1)
    print("转换过的特征:\n",transfer)
    print("特征的名称:\n",vectorizer1.get_feature_names())
    print("=================================================\n")

    """
    特征提取: 使用文本转换器
    """
    #创建文本数据========文本特征提取  CountVectorizer 使用词频来对文章进行权重标识
    data2= ["life is short,i like like  python", "life is too long,i dislike python"]
    #1.创建转换器对象 (英文特征提取,默认按照空格进行切分)
    vectorizer2 = CountVectorizer()
    #注意:
         # 1.上面的这个转换器,我们可以添加stopwords参数,停用词介绍
         # 2.如果数据是中文的话,我们需要使用分词工具jieba进行中文分词,然后再进行特征提取
    #2.使用fit_transform方法进行转换特征
    transfer_word= vectorizer2.fit_transform(data2)
    print("(英文文章)转换过的特征:",transfer_word)
    print("(英文文章)特征的名称:",vectorizer2.get_feature_names())

    """
    特征提取: 使用tfidf文本转换器
    """
    #使用TF-IDF实现中文特征抽取   TfidfVectorizer 使用 TF:词频 和 IDF 逆文档频率(总文件数/出现这个词语的文件个数)  来进行计算权重
    data3 = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
            "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
            "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]
    #1.创建TIIDF特征提取转换器
    vectorizer3= TfidfVectorizer(stop_words=['一种', '不会', '不要'])
    text_list = []
    """
    使用jieba 分词将中文进行分词,再组合
    """
    for sent in data3:
        text_list.append(cut_word(sent))
    print(text_list)

    transfer_tfidf = vectorizer3.fit_transform(text_list)
    print("tfidf特征提取:",transfer_tfidf)
    print("tfidf特征名称:",vectorizer3.get_feature_names())

def minmax_demo():
    """
    特征预处理: 归一化  缺点:  算法中的最大值最小值容易受到异常点的影响
    :return:
    """
    #1.读取文件
    datingData = pd.read_csv("../datingTestSet2.txt",sep="\t")
    print("原始数据:\n",datingData)
    #2.创建归一化转化器
    minmaxScaler = MinMaxScaler()
    #3.使用fit_transform方法
    tranfer = minmaxScaler.fit_transform(datingData)
    print("归一化后的数据:\n",tranfer)

def stan_demo():
    """
    特征预处理: 标准化处理   算法: 对归一化进行了优化,将最大值和最小值改为了平均值,在拥有少量数据量的情况下,对结果的影响不大
    :return:
    """
    #1.读取数据
    datingData= pd.read_csv("../datingTestSet2.txt",sep="\t")
    #2.创建标准化转换器对象
    stanScaler=StandardScaler()
    #3.使用fit_transform方法转换
    tranfer = stanScaler.fit_transform(datingData)
    print("标准化处理后的特征值:\n",tranfer)

def  variance_demo():
    """
    特征降维: 低方差过滤
    :return:
    """
    #1.读取数据文件
    factor_data = pd.read_csv("../factor_returns.csv")
    pd.set_option("display.max_columns",None)#显示全部列
    # pd.set_option("display.max_rows",None)
    print(factor_data)
    data = factor_data.iloc[:,1:-2]
    #2.创建低方差过滤转化器 (可以设置方差阈值,默认方差阈值为0)
    variance = VarianceThreshold(10)#
    #3.使用fit_transform方法转换
    tranfer = variance.fit_transform(data)
    print("低方差过滤后的特征:\n",tranfer,"\n形状:\n",tranfer.shape)

def pearsonr_demo():
    """
    特征降维: 相关性计算  说明:计算出两个特征之间的相关性
    :return:
    """
    #1.读取数据
    data = pd.read_csv("../factor_returns.csv").iloc[:,1:-2]
    pd.set_option("display.max_columns",None)
    print(data)
    #2.计算相关性 #pearsonr返回的第一个值是相关性  其返回的数据越接近1越正相关,-1反相关 接近0的相关性最低
    print("这两个特征之间的相关性是:\n",pearsonr(data["revenue"], data["total_expense"])[0])



def pca_demo():
    """
    特征降维: 主要成分分析
    :return:
    """
    #1.创建数据列表
    data=[[2,8,3,2],[5,9,8,1],[7,5,8,2],[1,7,2,4],[1,2,1,5],[1,8,4,8],[1,8,2,7],[2,8,17,5],[1,8,22,5],[1,8,23,5]]
    #2.创建主要成分分析转换器对象   n_components如果是整数就是保留的特征数,如果是小数,则是按照百分比进行保留数据
    pca=PCA(n_components=0.98)
    #3.使用fit_transform方法进行转换
    tranfer= pca.fit_transform(data)
    print("PCA转换后的特征:\n",tranfer)

    #4. 使用k-means进行聚类
    forecast = KMeans(n_clusters=3)
    forecast.fit(tranfer)
    pre = forecast.predict(tranfer)
    print(pre)

def cut_word(text):
    """
    对中文进行分词
    "我爱北京天安门"————>"我 爱 北京 天安门"
    :param text:
    :return: text
    """
    # 用结巴对中文字符串进行分词
    text = " ".join(list(jieba.cut(text)))

    return text


if __name__ =="__main__":
    # 1.获取数据的操作和切割数据集sadd
    #datasets_iris()
    # 2.字典的特征抽取
    # feature_demo()
    # 3.归一化处理
    # minmax_demo()
    # 4.标准化处理方式
    # stan_demo()
    # 5.低方差过滤,设置阈值
    # variance_demo()
    # 6.相关性计算
    # pearsonr_demo()
    # 7.主要成分分析
    pca_demo()

二丶算法部分讲解

说明: 机器学习分为监督学习和无监督学习,下面我们所说的不管是分类算法还是回归算法都属于监督学习,不过后面的聚类算法k-means属于无监督学习,是否是监督学习的关键点在于我们的数据是否有目标值

我们先来看一下数据集的划分,将数据集划分为训练集和测试集:

#使用的是sklearn的model_selection模块下的方法
from sklearn.model_selection import train_test_split
#1.读取数据集是鸢尾花数据
iris_data = load_iris()
#  划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(iris_data.data,iris_data.target,random_state=15)

2.1估计器(sklearn机器学习算法的实现)

在sklearn中,估计器(estimator)是一个重要的角色,是一类实现了算法的API

1、用于分类的估计器:
sklearn.neighbors.KNeighborsClassifier k-近邻算法
sklearn.naive_bayes.MultinomialNB 贝叶斯
sklearn.linear_model.LogisticRegression 逻辑回归
sklearn.tree.DecisionTreeClassifier 决策树
sklearn.tree.RandomForestClassifier 随机森林
2、用于回归的估计器:
sklearn.linear_model.LinearRegression 线性回归
sklearn.linear_model.Ridge 岭回归
3、用于无监督学习的估计器
sklearn.cluster.KMeans 聚类

2.2转换器

想一下之前做的特征工程的步骤?

1、实例化 (实例化的是一个转换器类(Transformer))
2、调用fit_transform(对于文档建立分类词频矩阵,不能同时调用)
我们把特征工程的接口称之为转换器,其中转换器调用有这么几种形式
fit_transform
fit
transform

2.3k近邻算法(KNN)

定义: 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。

计算点之间的距离公式为(欧式距离):
在这里插入图片描述
参数说明:
sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm=‘auto’)
n_neighbors:int,可选(默认= 5),k_neighbors查询默认使用的邻居数
algorithm:{‘auto’,‘ball_tree’,‘kd_tree’,‘brute’},可选用于计算最近邻居的算法:‘ball_tree’将会使用 BallTree,‘kd_tree’将使用 KDTree。‘auto’将尝试根据传递给fit方法的值来决定最合适的算法。 (不同实现方式影响效率)

K-近邻的总结:

优点:
简单,易于理解,易于实现,无需训练
缺点:
懒惰算法,对测试样本分类时的计算量大,内存开销大
必须指定K值,K值选择不当则分类精度不能保证
使用场景:小数据场景,几千~几万样本,具体场景具体业务去测试

2.4 朴素贝叶斯(分类)

定义: 什么叫做贝叶斯? 其实就是分类的时候,通过计算概率得到哪一类别的概率大,就选择哪一个类别,朴素贝叶斯其实就是事先假设特征之间相互独立

看公式之前我们需要先了解一下条件概率和联合概率:

联合概率:包含多个条件,且所有条件同时成立的概率
记作:P(A,B)
特性:P(A, B) = P(A)P(B)
条件概率:就是事件A在另外一个事件B已经发生条件下的发生概率
记作:P(A|B)
特性:P(A1,A2|B) = P(A1|B)P(A2|B)
注意:此条件概率的成立,是由于A1,A2相互独立的结果(记忆)

贝叶斯公式:
在这里插入图片描述
为了避免出现概率为0的情况,朴素贝叶斯又增加了一个拉普拉斯平滑系数:
在这里插入图片描述
小总结:朴素贝叶斯其实就是在贝叶斯情况下, 假设各条件之间相互独立,又增加了拉普拉斯系数

参数说明:
sklearn.naive_bayes.MultinomialNB(alpha = 1.0)朴素贝叶斯分类
alpha:拉普拉斯平滑系数

总结:

优点:
朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。
对缺失数据不太敏感,算法也比较简单,常用于文本分类
分类准确度高,速度快
缺点:
由于使用了样本属性独立性的假设,所以如果特征属性有关联时其效果不好

2.5决策树(分类)

定义:
决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-then结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法,

决策顺序是根据说明进行选择的?

信息增益? 计算信息增益公式,得到的值越大,就说明对数据的作用就越大,在决策树中,我们就可以先进行选择

信息增益公式(只需要理解即可):
当然决策树的原理不止信息增益这一种,还有其他方法。但是原理都类似,我们就不去举例计算。
在这里插入图片描述
参数说明:
class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,random_state=None)
决策树分类器
criterion:默认是’gini’系数,也可以选择信息增益的熵’entropy’
max_depth:树的深度大小
random_state:随机数种子
其中会有些超参数:max_depth:树的深度大小
其它超参数我们会结合随机森林讲解

总结:

优点:
简单的理解和解释,树木可视化
缺点:
决策树学习者可以创建不能很好地推广数据的过于复杂的树,这被称为过拟合
改进:
减枝cart算法(决策树API当中已经实现,随机森林参数调优有相关介绍)
随机森林
注:企业重要决策,由于决策树很好的分析能力,在决策过程应用较多, 可以选择特征

2.6随机森林(分类)

定义:
在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。

随机森林原理:

用N来表示训练用例(样本)的个数,M表示特征数目。
1、一次随机选出一个样本,重复N次, (有可能出现重复的样本)
2、随机去选出m个特征, m <<M,建立决策树
采取bootstrap(随机有放回的)抽样

为什么要使用bootstrap抽样?

为什么要随机抽样训练集?  
如果不进行随机抽样,每棵树的训练集都一样,那么最终训练出的树分类结果也是完全一样的
为什么要有放回地抽样?
如果不是有放回的抽样,那么每棵树的训练样本都是不同的,都是没有交集的,这样每棵树都是“有偏的”,都是绝对“片面的”(当然这样说可能不对),也就是说每棵树训练出来都是有很大的差异的;而随机森林最后分类取决于多棵树(弱分类器)的投票表决。
注意: 我认为随机森林里面树,最后就像是召开会议,最终投票决定数据是属于哪一个分类

参数说明:
class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, bootstrap=True, random_state=None, min_samples_split=2)

随机森林分类器
n_estimators:integer,optional(default = 10)森林里的树木数量120,200,300,500,800,1200
criteria:string,可选(default =“gini”)分割特征的测量方法
max_depth:integer或None,可选(默认=无)树的最大深度 5,8,15,25,30
max_features="auto”,每个决策树的最大特征数量
If “auto”, then max_features=sqrt(n_features).
If “sqrt”, then max_features=sqrt(n_features) (same as “auto”).
If “log2”, then max_features=log2(n_features).
If None, then max_features=n_features.

bootstrap:boolean,optional(default = True)是否在构建树时使用放回抽样
min_samples_split:节点划分最少样本数
min_samples_leaf:叶子节点的最小样本数
超参数:n_estimator, max_depth, min_samples_split,min_samples_leaf

总结:

在当前所有算法中,具有极好的准确率
能够有效地运行在大数据集上,处理具有高维特征的输入样本,而且不需要降维
能够评估各个特征在分类问题上的重要性

2.7线性回归(回归)

定义:
线性回归(Linear regression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式

损失函数:
在这里插入图片描述
优化的两种方式: 正规方程和梯度下降
在这里插入图片描述

在这里插入图片描述

参数说明:

sklearn.linear_model.LinearRegression(fit_intercept=True)
通过正规方程优化
fit_intercept:是否计算偏置
LinearRegression.coef_:回归系数
LinearRegression.intercept_:偏置

sklearn.linear_model.SGDRegressor(loss=“squared_loss”, fit_intercept=True, learning_rate =‘invscaling’, eta0=0.01)
SGDRegressor类实现了随机梯度下降学习,它支持不同的loss函数和正则化惩罚项来拟合线性回归模型。
loss:损失类型
loss=”squared_loss”: 普通最小二乘法
fit_intercept:是否计算偏置
learning_rate : string, optional
学习率填充
‘constant’: eta = eta0
‘optimal’: eta = 1.0 / (alpha * (t + t0)) [default]
‘invscaling’: eta = eta0 / pow(t, power_t)
power_t=0.25:存在父类当中
对于一个常数值的学习率来说,可以使用learning_rate=’constant’ ,并使用eta0来指定学习率。
SGDRegressor.coef_:回归系数
SGDRegressor.intercept_:偏置
sklearn提供给我们两种实现的API, 可以根据选择使用

关于优化方法:
5.1 GD

梯度下降(Gradient Descent),原始的梯度下降法需要计算所有样本的值才能够得出梯度,计算量大,所以后面才有会一系列的改进。

5.2 SGD

随机梯度下降(Stochastic gradient descent)是一个优化方法。它在一次迭代时只考虑一个训练样本。
SGD的优点是:
高效
容易实现
SGD的缺点是:
SGD需要许多超参数:比如正则项参数、迭代数。
SGD对于特征标准化是敏感的。

5.3 SAG

随机平均梯度法(Stochasitc Average Gradient),SAG其实每次计算时,利用了两个梯度的值,一个是前一次迭代的梯度值,另一个是新的梯度值。当然这两个梯度值都只是随机选取一个样本来计算。
直观上看,利用的信息量大了收敛速度就应该比单纯用一个样本估计梯度值的SGD要快。但是SAG带来的问题就是需要内存来维护(保存)每一个旧梯度值。以空间换时间

Scikit-learn:SGDRegressor、岭回归、逻辑回归等当中都会有SAG优化

总结:

线性回归的损失函数-均方误差
线性回归的优化方法
正规方程
梯度下降
线性回归的性能衡量方法-均方误差

2.8岭回归

定义:
岭回归,其实也是一种线性回归。只不过在算法建立回归方程时候加上正则化的限制,从而达到解决过拟合的效果

参数说明:

sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True,solver=“auto”, normalize=False)
岭回归也叫具有l2正则化的线性回归
alpha:正则化力度,也叫 λ
λ取值:0~1 1~10
solver:会根据数据自动选择优化方法
sag:如果数据集、特征都比较大,选择该随机梯度下降优化
normalize:数据是否进行标准化
normalize=False:可以在fit之前调用preprocessing.StandardScaler标准化数据
Ridge.coef_:回归权重
Ridge.intercept_:回归偏置
注意:
1.Ridge方法相当于SGDRegressor(penalty='l2', loss="squared_loss"),只不过SGDRegressor实现了一个普通的随机梯度下降学习,推荐使用Ridge(实现了SAG)
2.正则化力度越大,权重系数会越小 正则化力度越小,权重系数会越大

2.9逻辑回归(分类)

定义:
逻辑回归(Logistic Regression)是机器学习中的一种分类模型,逻辑回归是一种分类算法,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛。

逻辑回归解决的问题? 解决的问题是二分类问题

原理1输入:
在这里插入图片描述
原理2激活函数:
在这里插入图片描述
原理3损失函数:
在这里插入图片描述
优化:
同样使用梯度下降优化算法,调节wb的权重值, 去减少损失函数的值。这样去更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。

参数说明:
sklearn.linear_model.LogisticRegression(solver=‘liblinear’, penalty=‘l2’, C = 1.0)
solver:优化求解方式(默认开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数)
sag:根据数据集自动选择,随机平均梯度下降
penalty:正则化的种类
C:正则化力度
注意: 默认将类别数量少的当做正例

总结:

优点:
实现简单,广泛的应用于工业问题上;
分类时计算量非常小,速度很快,存储资源低;
便利的观测样本概率分数;
对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决该问题;
计算代价不高,易于理解和实现。
缺点:
特征空间很大时,逻辑回归的性能不是很好
容易欠拟合,一般准确度不太高
不能很好地处理大量多类特征或变量
只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须线性可分;
对于非线性特征,需要进行转换。
注意: 比如对于癌症患者分类,我们并不想知道他预测的准确率,而是想知道癌症患者是否都被预测出来了

2.10k-means算法(聚类属于无监督学习的一种)

定义:
k-means算法是一个聚类的算法 也就是clustering 算法。是属于无监督学习算法,也是就样本没有label(标签)的算分,然后根据某种规则进行“分割”, 把相同的或者相近的objects 物体放在一起。 在这里K就是我们想要分割的的聚类的个数。

原理:(k-means聚类步骤)

1、随机设置K个特征空间内的点作为初始的聚类中心
2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)
4、如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行第二步过程

参数说明:

sklearn.cluster.KMeans(n_clusters=8,init=‘k-means++’)
k-means聚类
n_clusters:开始的聚类中心数量
init:初始化方法,默认为’k-means ++’
labels_:默认标记的类型,可以和真实值比较(不是值比较)

Kmeans性能评估指标:

轮廓系数:
在这里插入图片描述
详解:
在这里插入图片描述

轮廓系数结论分析:如果b_i>>a_i:趋近于1效果越好, b_i<<a_i:趋近于-1,效果不好。轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优。

轮廓系数参数说明:

sklearn.metrics.silhouette_score(X, labels)
计算所有样本的平均轮廓系数
X:特征值
labels:被聚类标记的目标值

k-means总结:

特点分析:采用迭代式算法,直观易懂并且非常实用
缺点:容易收敛到局部最优解(多次聚类)
注意:聚类一般做在分类之前

2.11附代码

import plotly.io
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import  KNeighborsClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.tree import DecisionTreeClassifier
from sklearn.feature_extraction import DictVectorizer
from sklearn.ensemble import RandomForestClassifier
from sklearn.tree import  export_graphviz
from sklearn.tree import plot_tree
import  pandas as pd
import matplotlib.pyplot as plt
"""
分类算法
"""
def knn_iris():
    """
    使用knn算法实现鸢尾花的分类
    :return:
    """
    #1.读取数据集,并进行划分
    iris_data = load_iris()
    #  划分训练集和测试集
    x_train,x_test,y_train,y_test=train_test_split(iris_data.data,iris_data.target,random_state=15)

    #2.进行特征工程,标准化
    stan = StandardScaler()
    x_train = stan.fit_transform(x_train)
    x_test = stan.fit_transform(x_test)
    #3.使用knn算法进行计算
    knn= KNeighborsClassifier(n_neighbors=3)
    knn.fit(x_train,y_train)

    y_predict =  knn.predict(x_test)#测试集预测的y值结果
    #4.查看计算后的预测准确性
    print("是否相等:\n",y_predict==y_test)
    score = knn.score(x_test,y_test)
    print("准确率为:\n",score)

def knn_iris_grcv():
    """
    使用交叉验证和网格搜索进行 模型的调优选择
    :return:
    """
    #1.读取数据集,并进行划分
    iris_data = load_iris()
    #  划分训练集和测试集
    x_train,x_test,y_train,y_test=train_test_split(iris_data.data,iris_data.target,random_state=15)

    #2.进行特征工程,标准化
    stan = StandardScaler()
    x_train = stan.fit_transform(x_train)
    x_test = stan.fit_transform(x_test)
    #3.使用knn算法进行计算
    # knn= KNeighborsClassifier(n_neighbors=3)
    knn= KNeighborsClassifier()


    # 进行使用交叉验证和网格搜索进行模型调优
    params={"n_neighbors":[1,2,3,5,7,8,15,22]} #这个字典的key要和所对应的算法的参数名相同
    grcv = GridSearchCV(knn,param_grid=params,cv=2)
    grcv.fit(x_train,y_train)

    y_predict =  grcv.predict(x_test)#测试集预测的y值结果
    print(y_predict)
    print("比对预测值和真实数据:\n",y_predict== y_test)
    #4.查看计算后的预测准确性
    print("选择了某个模型测试集当中预测的准确率为:", grcv.score(x_test, y_test))
    # 训练验证集的结果
    print("最佳参数:", grcv.best_params_)
    print("在交叉验证当中验证的最好结果:", grcv.best_score_)
    print("gc选择了的模型K值是:", grcv.best_estimator_)
    print("每次交叉验证的结果为:", grcv.cv_results_)

def news_nb():
    """
    使用朴素贝叶斯对新闻数据进行分类
    :return:
    """
    #1.读取数据
    print(1)
    newsdata = fetch_20newsgroups(subset="all")
    print(2)
    #2.划分训练集和测试集
    x_train,x_test,y_train,y_test= train_test_split(newsdata.data,newsdata.target,random_state=22)
    #3.做特征工程:Tfids
    tv = TfidfVectorizer()
    x_train = tv.fit_transform(x_train)
    # 注意:这里的测试集不能使用fit_transform
    #   我们在训练集上调用fit_transform(),其实找到了均值μ和方差σ^2,即我们已经找到了转换规则,我们把这个规则利用在训练集上,
    #   同样,我们可以直接将其运用到测试集上(甚至交叉验证集),所以在测试集上的处理,我们只需要标准化数据而不需要再次拟合数据
    x_test = tv.transform(x_test)
    #4.使用朴素贝叶斯进行分类
    nb = MultinomialNB()
    nb.fit(x_train,y_train)
    y_predict = nb.predict(x_test)
    #5.进行准确值结果比对
    print("比对真实值与预测值数据:\n",y_predict==y_test)
    print("准确值:\n",nb.score(x_test,y_test))

def tree_iris():
    """
    使用决策树对鸢尾花数据进行分类
    :return:
    """
    #1.加载数据
    iris_data = load_iris()
    #2.切割数据
    x_train,x_test,y_train,y_test=train_test_split(iris_data.data,iris_data.target,random_state=14)
    #3.特征工程: 标准化,这里其实不做也行
    tranfer = StandardScaler()
    x_train = tranfer.fit_transform(x_train)
    x_test = tranfer.fit_transform(x_test)
    #4.使用决策树预估器进行计算
    forecast = DecisionTreeClassifier(criterion="entropy",random_state=11)
    forecast.fit(x_train,y_train)

    y_predict = forecast.predict(x_test)
    #5.计算准确率
    print("决策树的真实值与预测值比对:\n",y_predict==y_test)
    print("决策树的准确率:\n",forecast.score(x_test,y_test))

def tree_titanic():
    """
    1.使用决策树对泰坦尼克号做是否生存预测分析(分类)
    2.使用随机森林进行优化 泰坦尼克号生存预测
    :return:
    """
    #1.获取数据
    path="./titanic.csv"
    titanic_data = pd.read_csv(path)
    pd.set_option("display.max_columns",None)
    print(titanic_data.head())

    x=titanic_data[["pclass","age","sex"]]
    y=titanic_data["survived"]
    print(x)
    print(y)
    #2.对数据进行处理
    #缺失值填补,使用平均值填补    inplace参数为True是指原数据发生改变
    x["age"].fillna(x["age"].mean(),inplace=True)
    # print("将age缺失的字段进行填补:\n",x)

    #特征转换为字典
    x= x.to_dict(orient="records")
    print("将特征转为字典形式:\n",x)

    #4.划分数据集
    x_train,x_test,y_train,y_test = train_test_split(x,y,random_state=11)
    #5.特征工程:字典抽取
    tranfer = DictVectorizer()
    x_train = tranfer.fit_transform(x_train)
    x_test = tranfer.fit_transform(x_test)
    #6.决策树预估器计算流程
    forecast = DecisionTreeClassifier(criterion="entropy",random_state=11)
    forecast.fit(x_train,y_train)
    #7.评估模型准确性

    y_predict = forecast.predict(x_test)
    print("目标值的真实值与预测值比对:\n",y_predict==y_test)
    print("准确率为:\n",forecast.score(x_test,y_test))
    #8.可视化树型结构
    plt.figure(figsize=(50, 50))
    plot_tree(forecast, filled=True, feature_names=tranfer.feature_names_, class_names=y.name)
    plt.show()
    # export_graphviz(forecast, out_file="./tree.dot", feature_names=tranfer.feature_names_)

    #===============================================上面是决策树实现,下面是随机森林实现=====================================================

    """
    使用随机森林来实现预测
    """
    # # 6.使用随机森林预估器计算流程   ,  使用交叉验证来进行评估模型
    # forecast = RandomForestClassifier()
    # #选择配置的超参数
    # params={"n_estimators":[120,200,300,500,800,1200],
    #         "criterion":["gini","entropy"],
    #         "max_depth":[5,8,15,25,30]}
    # gscv = GridSearchCV(forecast,param_grid=params,cv=4)
    # gscv.fit(x_train,y_train)
    # y_predict = gscv.predict(x_test)
    #
    # print("目标值的真实值与预测值比对:\n",y_predict==y_test)
    # print("准确率为:\n",gscv.score(x_test,y_test))
    #
    # print("最佳参数:", gscv.best_params_)
    # print("在交叉验证当中验证的最好结果:", gscv.best_score_)
    # print("gc选择了的模型K值是:", gscv.best_estimator_)


if __name__ == "__main__":
    #1.k近邻算法实现鸢尾花分类
    # knn_iris()
    #2.k近邻使用模型选择优化
    # knn_iris_grcv()
    #3.朴素贝叶斯对新闻数据进行分类
    # news_nb()
    #4.决策树实现对鸢尾花数据进行分类
    # tree_iris()
    #5.决策树实现对泰坦尼克号进行分类   随机森林实现对泰坦尼克号的分类
    tree_titanic()
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge, LogisticRegression
from sklearn.metrics import mean_squared_error, classification_report,roc_auc_score
import pandas as pd
import numpy as np
import joblib


def linear1():
    """
    线性回归: 使用正规方程优化线性回归预测波士顿房价
    :return:
    """
    # 1.获取波士顿数据
    boston = load_boston()
    # 2.划分数据为训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.特征预处理:  无量纲化: 标准化
    standard = StandardScaler()
    x_train = standard.fit_transform(x_train)
    x_test = standard.fit_transform(x_test)
    # 4.使用线性回归转换器进行转换(正规方程)
    forecast = LinearRegression()
    forecast.fit(x_train, y_train)
    # 预测值
    y_predict = forecast.predict(x_test)
    # 5.预测真实值
    print("正规方程预测值为:", y_predict)
    print("正规方程的权重参数为:", forecast.coef_)
    print("正规方程的偏置:", forecast.intercept_)
    print("正规方程的均方误差为:", mean_squared_error(y_test, y_predict))
    return None


def linear2():
    """
    线性回归: 使用梯度下降优化线性回归预测波士顿房价
    :return:
    """
    # 1.获取波士顿数据
    boston = load_boston()
    # 2.划分数据为训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.特征预处理:  无量纲化: 标准化
    standard = StandardScaler()
    x_train = standard.fit_transform(x_train)
    x_test = standard.fit_transform(x_test)
    # 4.使用线性回归转换器进行转换(梯度方程)    max_iter: 是指的迭代次数
    forecast = SGDRegressor(eta0=0.01, max_iter=10000)
    forecast.fit(x_train, y_train)
    # 预测值
    y_predict = forecast.predict(x_test)
    # 5.预测真实值
    print("梯度下降预测值为:", y_predict)
    print("梯度下降的权重参数为:", forecast.coef_)
    print("梯度下降的偏置:", forecast.intercept_)
    print("梯度下降的均方误差为:", mean_squared_error(y_test, y_predict))
    return None


def linear3():
    """
    线性回归: 使用岭回归优化线性回归预测波士顿房价
    :return:
    """
    # 1.获取波士顿数据
    boston = load_boston()
    # 2.划分数据为训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(boston.data, boston.target, random_state=22)
    # 3.特征预处理:  无量纲化: 标准化
    standard = StandardScaler()
    x_train = standard.fit_transform(x_train)
    x_test = standard.fit_transform(x_test)
    # 4.使用线性回归转换器进行转换(岭回归)    max_iter: 是指的迭代次数
    forecast = Ridge(alpha=0.2, max_iter=10000)
    forecast.fit(x_train, y_train)
    # 预测值
    y_predict = forecast.predict(x_test)
    # 5.预测真实值
    print("岭回归预测值为:", y_predict)
    print("岭回归的权重参数为:", forecast.coef_)
    print("岭回归的偏置:", forecast.intercept_)
    print("岭回归的均方误差为:", mean_squared_error(y_test, y_predict))
    return None


def logistic():
    """
    逻辑斯蒂回归实现癌症预测
    :return:
    """
    # 1.得到数据
    column_name = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 'Uniformity of Cell Shape',
                   'Marginal Adhesion', 'Single Epithelial Cell Size', 'Bare Nuclei', 'Bland Chromatin',
                   'Normal Nucleoli', 'Mitoses', 'Class']
    data = pd.read_csv(
        "https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data",
        names=column_name)
    pd.set_option("display.max_columns", 100)
    pd.set_option("display.max_rows", 100)
    # print(data)
    # 2.对数据进行缺失值处理,取出特征值x和目标值y
    data = data.replace(to_replace='?', value=np.nan)  # 将?替换为Nan
    data = data.dropna()  # 将Nan值进行删除

    x = data.iloc[:, 1:-1]
    y = data["Class"]

    x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=22)

    # 3.将数据进行标准化
    standard = StandardScaler()
    x_train = standard.fit_transform(x_train)
    x_test = standard.fit_transform(x_test)
    # 4.创建逻辑斯蒂回归转换器进行转换
    forecast = LogisticRegression()
    forecast.fit(x_train, y_train)
    # 5.进行模型评估
    y_predict = forecast.predict(x_test)
    print("准确率为:", forecast.score(x_test, y_test))
    """计算精确率和召回率"""
    print("精确率和召回率为:",
          classification_report(y_test, y_predict, labels=[2, 4], target_names=['良性', '恶性']))
    y_test = np.where(y_test > 2.5, 1, 0)

    print("AUC指标:", roc_auc_score(y_test, forecast.predict(x_test)))

def model_save_Load():
    """
    模型的保存与加载
    注意:后缀必须为pkl
    """
    # 保存:joblib.dump(模型对象, 'test.pkl')
    # 加载:estimator = joblib.load('test.pkl')

if __name__ == "__main__":
    # 1.正规方程优化线性回归预测波士顿房价
    # linear1()
    # 2.梯度下降优化线性回归预测波士顿房价
    # linear2()
    # 3.岭回归优化线性回归预测波士顿房价
    # linear3()
    # 4.使用逻辑斯蒂对癌症进行预测
    logistic()

三、模型的调优

3.1模型的选择与调优(X折交叉验证,超参数)

3.2分类的评估方法

精确率与召回率
ROC曲线与AUC指标

3.3欠拟合与过拟合

l2正则化

3.4模型的保存与加载

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/196269.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

代码随想录算法训练营第五十九天_第九章_动态规划 | 583. 两个字符串的删除操作、72. 编辑距离、编辑距离总结篇

LeetCode 583. 两个字符串的删除操作 给定两个单词 word1 和 word2&#xff0c;找到使得 word1 和 word2 相同所需的最小步数&#xff0c;每步可以删除任意一个字符串中的一个字符。 视频讲解https://www.bilibili.com/video/BV1we4y157wB/?spm_id_from333.788&vd_sourcef…

瑞斯拜词汇课第一讲

英语词汇 第一段 1、under the weather 身体不舒服 2、billion 十亿 3、suffer from 遭受 4、high blood pressure 高血压 high blood pressure 高血压 hypertension 高血压 hyper 紧张的5、take steps to do sth 采取措施做某事 take measures to 采取措施 take steps to …

NVME_PCIE_SATA_AHCI_M.2_2.5“

SATA和PCIe两个都是总线标准。它们是并列发展的关系&#xff0c;并不是谁取代谁的关系。 SATA&#xff1a;由IDE/PATA标准发展而来&#xff0c;主要用途是把存贮设备&#xff08;硬盘&#xff09;连接到主机&#xff08;主板&#xff09;。 SATA经历了如下版本&#xff1a; SA…

数影周报:小米汽车供应商被罚100万,1688延迟下线“1688买家旺旺”

本周看点&#xff1a;小米汽车供应商被罚100万&#xff1b;特斯拉将在硅谷招聘AI 人才&#xff1b;阳光出行等25款 App涉违规收集使用个人信息等&#xff1b;1688延迟于2月8日下线“1688买家旺旺”&#xff1b;微蚁科技完成数千万元B轮融资......数据安全那些事小米汽车供应商被…

机器学习实战教程(四):从特征分解到协方差矩阵:详细剖析和实现PCA算法

1. 协方差 概念 方差和标准差的原理和实例演示&#xff0c;请参考 方差 方差&#xff08;Variance&#xff09;是度量一组数据的分散程度。方差是各个样本与样本均值的差的平方和的均值&#xff1a; 标准差 标准差是数值分散的测量。 标准差的符号是 σ &#xff08;希腊…

【redis6】第十五章(应用问题解决)

缓存穿透 问题描述 key对应的数据在数据源并不存在&#xff0c;每次针对此key的请求从缓存获取不到&#xff0c;请求都会压到数据源&#xff0c;从而可能压垮数据源。比如用一个不存在的用户id获取用户信息&#xff0c;不论缓存还是数据库都没有&#xff0c;若黑客利用此漏洞…

Yolov5环境部署步骤记录

目录1.Anaconda1.1 虚拟环境1.1.1 虚拟环境手动配置Pytorch库2.Pycharm社区版2.1 Yolov5源码下载2.2 Pycharm设置3. Yolov53.1 安装所需的插件3.2 运行detect.py1.Anaconda 安装&#xff0c;Anaconda3-5.3.1-Windows-X86_64.exe&#xff0c;装好之后&#xff1b; 配置环境变量…

Code:美团代码托管平台的演进与实践

美团代码托管平台经过长期的打磨&#xff0c;完成了分布式架构的改造落地&#xff0c;托管数以万计的仓库&#xff0c;日均Git相关请求达到千万级别。本文主要介绍了美团代码托管平台在迭代演进过程中面临的挑战及解决思路&#xff0c;希望对大家有所帮助或启发。 1. 引言 2. …

六: 数 组(eclipse的使用)

目录复习隐藏eclipse中的工程3.2 一维数组的使用&#xff1a;数组元素的引用p103.2 一维数组的使用&#xff1a;数组元素的默认初始化值p123.2 一维数组的使用p213.2 一维数组的使用p223.3 多维数组的使用p243.3 多维数组的使用p25引用类型的变量&#xff0c;保存的要么是地址值…

国际标准下载的几个网站 请点赞收藏

名称以ITU开头的国际标准下载网站名称以ITU开头的国际标准&#xff0c;是国际电信联盟组织制定的国际标准。国际电信联盟组织简称国际电联。它的官网是http://www.itu.int。 通过在这个网站下输入标准的部门名称就可以搜索下载电信标准。已ITU Q.763为例打开官网输入标准名称点…

C++11 类的新功能

作者&#xff1a;小萌新 专栏&#xff1a;C进阶 作者简介&#xff1a;大二学生 希望能和大家一起进步&#xff01; 本篇博客简介&#xff1a;介绍C11类的新功能和一些关键字 类的新功能类的新功能默认成员函数类成员变量的初始化C11新关键字defaultdeletefinaloverride类的新功…

Java poi之Excel文本图片内容提取

目录结构前言文档准备引入Maven依赖代码块提取结果验证excel03.xls 提取结果excel07.xlsx 提取结果前言 应公司需求&#xff0c;需实现以下功能 Excel文本内容的替换&#xff1b;Excel文本内容的提取&#xff1b;Excel中图片的提取存放 此文章将使用Apache POI实现Excel文件…

我问 ChatGPT:怎样成为优秀的架构师?看它怎么回答的……

要成为一名优秀的架构师,需要以下几个方面的努力: 1. 系统的学习计算机科学和工程相关的知识,如计算机网络,数据结构,算法,操作系统等。 2. 实践和经验积累。参与许多实际的项目,不断积累经验,提高解决问题的能力。 3. 持续学习和追求卓越。保持对新技术和趋势的敏锐观…

Docker容器 01

前言 1.1 从环境配置说起 环境配置是软件开发的一大难题。开发、测试及运维人员需要相同的代码运行环境&#xff0c;如此一来就需要多次搭建环境&#xff0c;想想就觉得麻烦&#xff0c;实际上&#xff0c;在不了解docker等容器技术以前&#xff0c;还真就是这么干的&#xff…

IDEA 中动态web 工程的操作

目录a)IDEA 中如何创建动态web 工程1、创建一个新工程exer&#xff1a;2、在exer下创建module&#xff1a;test3、动态web工程创建成功 如下图b)Web 工程的目录介绍c)如何给动态 web 工程添加额外jar 包1 添加lib目录2 将jar包复制到lib目录中3 将jar包添加到工程4 可以打开项目…

西湖论剑2022部分misc

文章目录签到题喵take_the_zip_easymp3机你太美签到题喵 把文件尾的16进制复制出来&#xff0c;再转换字符串 私信后台即可获得flag take_the_zip_easy 明文攻击 echo -n “dasflow.pcapng” > 1.txt time ./bkcrack -C zipeasy.zip -c dasflow.zip -p 1.txt -o 30 -x 0…

六类网线为啥那么受欢迎,网络工程师必知

目前&#xff0c;国内千兆网络已大规模普及&#xff0c;从前的“销冠”百兆超五类网线已经渐渐淡出了人们的视野&#xff0c;已然被千兆的六类网线取代成为现代布线入门级主力军。万兆超六类网线也同时是城市智能化5G、万物互联时代入门首选&#xff0c;各自顺应时代成为不同领…

APP在Google Play上架被拒的原因

即便了解了Google Play商店的相关政策和应用指南&#xff0c;我们也不能避免应用在上架时或者是应用在更新时被拒的情况发生。那今天我们就展开讲讲Google Play商店被拒的原因及解决方案。 出现不当言论或内容&#xff08;比如&#xff0c;色情内容&#xff0c;带有种族歧视和…

基于Springboot搭建java项目(三十五)—— Ngnix配置的使用

Ngnix配置的使用 一、Nginx配置文件(nginx.conf) 1、配置文件的层级 配置文件目前分为三大部分&#xff0c;全局块、event块和http块&#xff0c;下面是具体的结构 2、配置文件概览 # 全局快 ---------------------------------------------------------------------------…

Bean实例化的基本流程

Bean实例化的基本流程 Bean实例化的基本流程-BeanDefinition Spring容器在进行初始化时&#xff0c;会将xml配置的的信息封装成一个BeanDefinition对象&#xff0c;所有的BeanDefinition存储到一个名为beanDefinitionMap的Map集合中去&#xff0c;Spring框架在对该Map进行遍历…