Kmeans特征降维方法

news2024/11/29 0:45:31

文章目录

  • 一、特征降维方法
  • 二、数据集介绍
  • 三、聚类问题及实现方法
  • 四、代码


一、特征降维方法

  1. 提取主要特征,忽略次要特征【PCA降维】
  2. 合并相似特征【特征合并】

PCA主成分提取其实还是会忽略掉一些信息,有时候感觉聚类后的结果并不理想,所以如下采用特征合并的方式降维。


二、数据集介绍

  • 用到的数据集:
    各国发展水平统计信息↓
    https://download.csdn.net/download/weixin_43721000/88480791
  • 字段解释:
    country : 国名
    child_mort : 每1000个婴儿的5年死亡率
    exports : 人均商品和服务出口,以人均国内生产总值的百分比给出
    health : 人均卫生支出总额,以人均国内生产总值的百分比给出
    imports : 人均商品和服务进口,以人均国内生产总值的百分比给出
    Income : 人均净收入
    Inflation : 国内生产总值年增长率的测算(通货膨胀率)
    life_expec : 如果按照目前的死亡率模式,新生儿的平均寿命是多少年
    total_fer : 如果目前的年龄生育率保持不变,每个妇女生育的孩子数量
    gdpp : 人均国内生产总值,计算方法是国内生产总值除以总人口
  • 任务类型:
    对所有国家发展水平聚类,确定待援助国家,涵盖算法:K-Means、DBSCAN、Hierarchical

三、聚类问题及实现方法

  • 该问题主要是根据各国自身特征确定一份待援助国家列表
  • 具体做法是:
    1. 特征标准化
    2. 合并降维
    3. kmeans聚类
    4. 找出待援助国家

四、代码

import time

import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
pd.options.display.float_format = '{:.2f}'.format
import warnings
warnings.filterwarnings('ignore')

from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score
from sklearn.preprocessing import MinMaxScaler, StandardScaler
from mpl_toolkits.mplot3d import Axes3D
import numpy as np
import plotly.express as px
import plotly
# pip install kaleido   # 绘制世界地图时的依赖包


class ShowClusterDistribution(object):
    @classmethod
    def kmeans(cls, df: pd.DataFrame, data_columns: list, class_column: str, centroids: np.array):
        '''
        绘制聚类分布图
        支持2维和3维数据
        :param df:              特征缩放后的训练数据和标签组成的df
        :param data_columns:    训练数据的列名数组
        :param class_column:    标签列名
        :param centroids:       质心点坐标
        :return:
        '''
        # 质心颜色
        centroid_color = ['black']
        # 各个聚类颜色
        clusters_color = ['red', 'green', 'blue', 'orange', 'yellow']

        clusters = set(df[class_column].tolist())

        dimension = len(data_columns)       # 数据维度

        # 二维训练数据
        if dimension == 2:

            for idx, cluster in enumerate(clusters):
                df_class = df[df['Class'] == cluster]
                x = np.array(df_class[data_columns[0]])
                y = np.array(df_class[data_columns[1]])
                plt.scatter(x, y, s=100, c=clusters_color[idx], label=f'Cluster{idx + 1}')

            plt.xlabel(data_columns[0])
            plt.ylabel(data_columns[1])

            plt.scatter(centroids[:, 0], centroids[:, 1], s=100, c=centroid_color, label='Centroids')
            plt.title('Clusters Distribution')
            plt.legend()
            plt.show()

        # 三维训练数据
        elif dimension == 3:
            fig = plt.figure()
            # ax = Axes3D(fig)
            ax = Axes3D(fig, auto_add_to_figure=False)
            fig.add_axes(ax)
            # 质心标记点
            ax.scatter(centroids[:, 0], centroids[:, 1], centroids[:, 2], marker="X", color=centroid_color)
            # 三类数据绘制
            for idx, cluster in enumerate(clusters):
                df_class = df[df['Class'] == cluster]
                x = np.array(df_class[data_columns[0]])
                y = np.array(df_class[data_columns[1]])
                z = np.array(df_class[data_columns[2]])
                ax.scatter(x, y, z, c=clusters_color[idx])

            plt.title('Clusters Distribution')
            ax.set_xlabel(data_columns[0])
            ax.set_ylabel(data_columns[1])
            ax.set_zlabel(data_columns[2])
            plt.show()


def show_elbow_and_silhouette_score(data_values):
    '''
    1.计算Elbow Method
    2.计算Silhouette Score Method
    3.绘图
    :return:
    '''
    sse = {}
    sil = []
    kmax = 10
    fig = plt.subplots(nrows=1, ncols=2, figsize=(15, 5))

    # Elbow Method :
    plt.subplot(1, 2, 1)
    for k in range(1, 10):
        kmeans = KMeans(n_clusters=k, max_iter=1000).fit(data_values)
        sse[k] = kmeans.inertia_  # Inertia: Sum of distances of samples to their closest cluster center
    sns.lineplot(x=list(sse.keys()), y=list(sse.values()))
    plt.title('Elbow Method')
    plt.xlabel("k : Number of cluster")
    plt.ylabel("Sum of Squared Error")
    plt.grid()

    # Silhouette Score Method
    plt.subplot(1, 2, 2)
    for k in range(2, kmax + 1):
        kmeans = KMeans(n_clusters=k).fit(data_values)
        labels = kmeans.labels_
        sil.append(silhouette_score(data_values, labels, metric='euclidean'))
    sns.lineplot(x=range(2, kmax + 1), y=sil)
    plt.title('Silhouette Score Method')
    plt.xlabel("k : Number of cluster")
    plt.ylabel("Silhouette Score")
    plt.grid()

    plt.show()


if __name__ == '__main__':


    # 读取数据
    data = pd.read_csv('./data/Country-data.csv')
    print(data.head())
    #                country  child_mort  exports  ...  life_expec  total_fer   gdpp
    # 0          Afghanistan       90.20    10.00  ...       56.20       5.82    553
    # 1              Albania       16.60    28.00  ...       76.30       1.65   4090
    # 2              Algeria       27.30    38.40  ...       76.50       2.89   4460
    # 3               Angola      119.00    62.30  ...       60.10       6.16   3530
    # 4  Antigua and Barbuda       10.30    45.50  ...       76.80       2.13  12200

    # 查看每个特征的分布
    km_columns = ['child_mort', 'health', 'life_expec', 'total_fer', 'imports', 'exports', 'income', 'inflation', 'gdpp']
    fig, ax = plt.subplots(nrows=3, ncols=3, figsize=(10, 5))
    for i in range(len(km_columns)):
        plt.subplot(3, 3, i + 1)
        sns.histplot(data[km_columns[i]], color='#FF781F')
        # title = 'Distribution     : ' + numerical_features[i]
        # plt.title(title)
    plt.show()
    # 【图像见文章结尾处 图01】
    # 数据基本为高斯分布


    # 数据降维
    # 将较为细分的领域数据合并
    # health <== child_mort, health, life_expec, total_fer
    # trade <== imports, exports
    # finance <== income, inflation, gdpp
    # 最终由9个维度降至3维
    # 相关数据都满足高斯分布,先标准化,再合并数据
    ss = StandardScaler(with_mean=0, with_std=1)
    df = pd.DataFrame()
    data_columns = ['Health', 'Trade', 'Finance']
    class_column = 'Class'
    health_array = ss.fit_transform(data[['child_mort', 'health', 'life_expec', 'total_fer']])
    health_array[:, 0] = -health_array[:, 0]                                # 婴儿死亡率造成负影响
    health_array[:, 3] = -health_array[:, 3]                                # 妇女生育数量造成负影响
    df[data_columns[0]] = health_array.sum(axis=1)
    trade_arry = ss.fit_transform(data[['imports', 'exports']])
    trade_arry[:, 0] = -trade_arry[:, 0]                                    # 进口造成负影响
    df[data_columns[1]] = trade_arry.sum(axis=1)
    finance_arry = ss.fit_transform(data[['income', 'inflation', 'gdpp']])
    finance_arry[:, 1] = -finance_arry[:, 1]                                # 通货膨胀造成负影响
    df[data_columns[2]] = finance_arry.sum(axis=1)
    df.insert(loc=0, value=list(data['country']), column='Country')
    print(df.head())
    #                Country  Health  Trade  Finance
    # 0          Afghanistan   15.21   2.23     1.01
    # 1              Albania   12.50   3.04     1.17
    # 2              Algeria   12.74   2.71     2.44
    # 3               Angola   14.86   4.06     2.63
    # 4  Antigua and Barbuda   12.53   4.11     1.80

    # 数据归一化
    mms = MinMaxScaler()  # Normalization
    for data_column in data_columns:
        df[data_column] = mms.fit_transform(df[[data_column]])
    print(df.head())
    #                Country  Health  Trade  Finance
    # 0          Afghanistan    0.57   0.15     0.07
    # 1              Albania    0.21   0.21     0.09
    # 2              Algeria    0.24   0.19     0.21
    # 3               Angola    0.52   0.28     0.22
    # 4  Antigua and Barbuda    0.21   0.28     0.15

    # 取出归一化之后的各项特征张量
    data_values = df.drop(columns=['Country']).values  # Feature Combination : Health - Trade - Finance
    print(data_values)
    # [[0.6257404  0.13961443 0.07981958]
    #  [0.12745148 0.19990106 0.08875623]
    #  [0.18248518 0.18662177 0.2128085 ]
    #  [0.66138147 0.28305774 0.23694587]
    #      ...       ...        ...
    #  [0.17006974 0.40338563 0.12143593]
    #  [0.39745068 0.17024776 0.22963179]
    #  [0.52690852 0.18140481 0.13499709]]

    # 聚类并绘制 elbow 和 silhouette_score 方法的图像
    show_elbow_and_silhouette_score(data_values)
    # 【图像见文章结尾处 图02】

    # 聚类为2时较为合适
    # 训练
    model = KMeans(n_clusters=4, max_iter=1000)
    model.fit(data_values)
    cluster = model.cluster_centers_
    centroids = np.array(cluster)
    labels = model.labels_
    df[class_column] = labels

    # 绘制聚类结果
    ShowClusterDistribution.kmeans(df=df, data_columns=data_columns, class_column=class_column, centroids=centroids)
    # 【图像见文章结尾处 图03】

    # 绘制世界地图
    df['Class'].loc[df['Class'] == 0] = 'Class 1'
    df['Class'].loc[df['Class'] == 1] = 'Class 2'
    df['Class'].loc[df['Class'] == 2] = 'Class 3'
    df['Class'].loc[df['Class'] == 3] = 'Class 4'

    fig = px.choropleth(df[['Country', 'Class']],
                        locationmode='country names',
                        locations='Country',
                        title='Needed Help Per Country (World)',
                        color=df['Class'],
                        color_discrete_map={
                                'Class 1': 'Red',
                                'Class 2': 'Green',
                                'Class 3': 'Yellow',
                                'Class 4': 'Blue'
                            }
                        )
    fig.update_geos(fitbounds="locations", visible=True)
    fig.update_layout(legend_title_text='Labels', legend_title_side='top', title_pad_l=260, title_y=0.86)
    fig.show(engine='kaleido')
    plotly.offline.plot(fig)
    # 【图像见文章结尾处 图04】


图01,特征分布图
图02,Elbow Method 显示 K 值为 2、3、4、5 都可以,Silhouette Score Method 显示 K 值为 1、5、7、10 较合适,综合一下可以选择 2、4,但是因为聚类为 2 的话会产生较多的带援助国家,因此最终选择 K=4
图03,聚类结果
图03,聚类结果
图04,地图分布映射,通过地图映射和数据特征基本可以确定待援助优先级为
红色>绿色>蓝色>黄色

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1176842.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

非农数据不及预期,美元回落金价触及2000关口

上周五美国非农数据公布&#xff0c;现货黄金短线拉升近16美元&#xff0c;金价突破2000关口最高至2003.55美元/盎司&#xff0c;但随后金价转头回落&#xff0c;最终报收1992.19美元/盎司&#xff0c;涨幅收窄至0.34%。周线级别金价下跌0.61%&#xff0c;金价终止之前连续三周…

助力青少年学习,亚马逊云科技2024年全球人工智能和机器学习奖学金计划正式启动

云未来将以何种方式发展&#xff1f;方向握在意气风发的少年们手中。近日&#xff0c;亚马逊云科技全球人工智能和机器学习&#xff08;AI和ML&#xff09;奖学金计划在中国区的首次颁奖以及2024年启动仪式在北京中学正式举行&#xff0c;有45名学子凭借杰出的学业成绩、对人工…

【Linux】简单部署Yearning并结合内网穿透实现公网访问

文章目录 前言1. Linux 部署Yearning2. 本地访问Yearning3. Linux 安装cpolar4. 配置Yearning公网访问地址5. 公网远程访问Yearning管理界面6. 固定Yearning公网地址 前言 Yearning 简单&#xff0c;高效的MYSQL 审计平台 一款MYSQL SQL语句/查询审计工具&#xff0c;为DBA与开…

Centos7上Python克隆与对网页完整截图

有用的话谢谢点赞~ 安装Python3.11 cd /root wget https://www.python.org/ftp/python/3.11.0/Python-3.11.0.tgz tar -xzf Python-3.11.0.tgz yum -y install gcc zlib zlib-devel libffi libffi-devel yum install readline-devel yum install openssl-devel openssl11 ope…

TCP/IP协议群

TCP/IP协议群 什么是TCP/IP协议群 从字面意义上讲&#xff0c;有人可能会认为 TCP/IP 是指 TCP 和 IP 两种协议。实际生活当中有时也确实就是指这两种协议。然而在很多情况下&#xff0c;它只是利用 IP 进行通信时所必须用到的协议群的统称。具体来说&#xff0c;IP 或 ICMP、…

AI:62-基于深度学习的人体CT影像肺癌的识别与分类

🚀 本文选自专栏:AI领域专栏 从基础到实践,深入了解算法、案例和最新趋势。无论你是初学者还是经验丰富的数据科学家,通过案例和项目实践,掌握核心概念和实用技能。每篇案例都包含代码实例,详细讲解供大家学习。 📌📌📌在这个漫长的过程,中途遇到了不少问题,但是…

MMdetection3.x个人笔记

1.在自定义数据集用训练出的权重进行可视化推理 input(jpg文件) model_config 这两个可以不用加前面的形参 然后用 \ 隔开 写上 --weight xx.pth python demo/image_demo.py data/coco_duck/train2017/10640.jpg work_dirs/solov2_r50_fpn_1x_coco/solov2_r50_fpn_1x_coco…

【MATLAB源码-第68期】基于matlab的802.11b 11Mbps CCK调制解调误码率仿真。

操作环境&#xff1a; MATLAB 2022a 1、算法描述 当涉及802.11b无线局域网&#xff08;Wi-Fi&#xff09;标准时&#xff0c;CCK&#xff08;Complementary Code Keying&#xff09;调制解调技术起着关键作用。下面解释一下CCK在802.11b中的工作原理和特点&#xff1a; 1. 数…

【QT】设置焦点及光标位置

很高兴在雪易的CSDN遇见你 ,给你糖糖 欢迎大家加入雪易社区-CSDN社区云 前言 本文分享Qt中如何设置焦点和光标位置的解决方案,并给出常见的问题解决方案,希望对各位小伙伴有所帮助! 感谢各位小伙伴的点赞+关注,小易会继续努力分享,一起进步! 你的点赞就是我的动力(…

22款奔驰GLE450升级几何多光束大灯 车辆自检等功能

每个大灯配备的84个LED灯可确保提供最佳的道路照明&#xff0c;从而始终确保照明灯能够在需要时准确开启。利用位于风挡玻璃后方的摄像头提供的信息&#xff0c;4个控制单元能够以每秒100次的速度计算出理想的灯光模式 驾驶员能够全神贯注于交通状况&#xff0c;无需频繁切换近…

PyCharm 无法登陆 Codeium 的解决方法

PyCharm 登陆 Codeium PyCharm 无法登陆 Codeium 的问题描述PyCharm 使用 token 登陆 Codeium PyCharm 无法登陆 Codeium 的问题描述 使用 PyCharm 登录 Codeium 时&#xff0c;单击 Login 无反应&#xff0c;单击侧边栏的 Codeium 图标也一直显示连接失败。 PyCharm 使用 to…

0.为什么要学c++高性能部署

1.为什么学 python用于训练和demo&#xff0c;c用来部署&#xff0c;是最好的匹配模式。在实际的项目中&#xff0c;python做产品&#xff0c;尤其是需要多线程的&#xff0c;因为GIL锁的限制&#xff0c;劣势非常大&#xff0c;作为胶水语言&#xff0c;性能也比不上c。总结&a…

ModbusTcp通信(S7-1200PLC作为服务器端)

S7-200Smart plc作为ModbusTcp服务器端的通信 S7-200SMART PLC ModbusTCP通信(ModbusTcp服务器)_s7-200 modbustcp-CSDN博客文章浏览阅读2.3k次。S7-200SMART PLC 作为ModbusTCP通信(客户端)编程应用和程序详细讲解可以查看下面的博客,链接地址如下:S7-200SMART PLC Modbus…

以订单退款流程为例,聊聊如何优化策略模式

如果有人问你什么是策略模式&#xff1f;你可以尝试这样回答 策略模式是一种行为设计模式&#xff0c;它允许在运行时根据不同的情况选择不同的算法策略。这种模式将算法的定义与使用的代码分离开来&#xff0c;使得代码更加可读、可维护和可扩展。 在策略模式中&#xff0c;通…

如何在公网环境下使用移动端通过群晖管家管理部署自己家里局域网内的黑群晖

白嫖怪狂喜&#xff01;黑群晖也能使用群晖管家啦&#xff01; 文章目录 白嫖怪狂喜&#xff01;黑群晖也能使用群晖管家啦&#xff01;1.使用环境要求&#xff1a;2.下载安装群晖管家app3.随机地址登陆群晖管家app4.固定地址登陆群晖管家app 自己组装nas的白嫖怪们虽然也可以通…

第四章:Coverage-based testing

文章目录 Control-flow testingData-flow testingMutation analysisControl-flow testingCFG 注意事项Definitions for control-flow analysisexecution pathbranch / decisionconditionfeasible pathcoverage-based 标准Statement coverage (or node coverage)Branch coverage…

数据库的备份和恢复

备份 完全备份&#xff1a;整个数据库完整的进行备份 增量备份&#xff1a;在完全备份的基础上&#xff0c;对后续新增的变量进行备份 备份的需求&#xff1a; 1、在生产环境中&#xff0c;数据的安全至关重要。任何数据的丢失都可能产生非常严重的后果 2、数据为什么会丢失…

电力设备行业密钥管理系统的功能及特点 安当加密

电力设备行业密钥管理系统的主要功能包括&#xff1a; 密钥生成&#xff1a;密钥管理系统能够采用多因素身份验证技术&#xff0c;如指纹识别和动态口令等&#xff0c;确保生成的密钥对用户来说易于使用&#xff0c;同时又足够安全。密钥存储&#xff1a;应采用多层安全机制&a…

管道的介绍

管道 它是一个连接读写进程的文件&#xff0c;用户进程间数据交互和进程同步造作。管道是单向的&#xff0c;发送进程视管道为输出文件&#xff0c;将大量数据以字节流的形式送入管道&#xff1b;接收进程视管道为输入文件&#xff0c;接收管道的数据。 管道优缺点 1、管道…