[利用python进行数据分析01] “来⾃Bitly的USA.gov数据” 分析出各个地区的 windows和非windows用户

news2024/11/17 21:53:35
2011 年, URL 缩短服务 Bitly 跟美国政府⽹站 USA.gov 合作,提供
了⼀份从⽣成 .gov .mil 短链接的⽤户那⾥收集来的匿名数据。
2011 年,除实时数据之外,还可以下载⽂本⽂件形式的每⼩时
快照。
数据集下载:通过百度网盘分享的文件:example.txt
链接:https://pan.baidu.com/s/1t4AzSwytJOG0ZYNMjx7FtQ?pwd=w2ia 
提取码:w2ia 
--来自百度网盘超级会员V6的分享
设置一下库的依赖

from numpy.random import randn
import numpy as np
np.random.seed(123)
import os
import matplotlib.pyplot as plt
import pandas as pd
plt.rc("figure", figsize=(10, 6))
np.set_printoptions(precision=4)
pd.options.display.max_columns = 20
pd.options.display.max_rows = 20
pd.options.display.max_colwidth = 80


首先我们先读取下数据集
import json

# 使用 'utf-8' 编码打开文件,避免 UnicodeDecodeError
with open(path, encoding='utf-8') as f:
    records = [json.loads(line) for line in f]
print(records)


 

Python 有内置或第三⽅模块可以将 JSON 字符串转换成 Python
典对象。这⾥,我将使⽤ json 模块及其 loads 函数逐⾏加载已经下
载好的数据⽂件。现在, records 对象就成为⼀组 Python 字典了
直接我们使用.get()方法获取'c'键默认返回Node如果键不存在
time_zones=[rec.get("tz") for rec in records]




然后我们写一个统计数量的函数
写法1:
def get_counts(sequence):
    counts={}
    for x in sequence:
        if x in counts:
            counts[x]+=1
        else:
            counts[x]=1
    return counts

然后我们就可以统计“c”数列下“US”的个数:
 

counts = get_counts(country_zones)
print(counts["US"])
len(country_zones)


方法2:
defaultdict,这是 collections 模块中的一种字典类型,可以指定默认的工厂函数,用于在访问不存在的键时自动初始化键的值。
 

counts = defaultdict(int):

  • 创建一个 defaultdict 对象 counts,并指定 int 作为默认值的工厂函数。
  • int() 返回 0,所以每当一个新的键被访问时,默认值就是 0
  • 例如,如果访问一个键 "key1",而 "key1" 不存在,则 counts["key1"] 会自动初始化为 0
     
  • for x in sequence::

    • 遍历传入的 sequence(可以是列表、字符串等任意可迭代对象),xsequence 中的每个元素。
  • counts[x] += 1:

    • 对每个元素 x,将其作为键在 counts 中进行累加。
    • 如果 x 已经在 counts 中,则增加其对应的值(计数)。
    • 如果 x 不在 counts 中,则 defaultdict 自动初始化为 0,然后执行 += 1,计数变为 1
  • return counts:

    • 返回包含元素计数的 defaultdict

       
      from collections import defaultdict
      
      def get_counts2(sequence):
          counts = defaultdict(int) # values will initialize to 0
          for x in sequence:
              counts[x] += 1
          return counts



      我们还能写一个函数来统计最大的几个数量,从小到大排序

    • 方法1:
       

      def top_counts(count_dict, n=10):
          value_key_pairs = [(count, tz) for tz, count in count_dict.items()]
          value_key_pairs.sort()
          return value_key_pairs[-n:]


      方法2:
      直接调用collections 下的 Counter模块返回最大的10个

      from collections import Counter
      counts = Counter(country_zones)
      counts.most_common(10)



      之后我们打算用pandas对这个数据集进行分析我们使用DataFrame

      frame = pd.DataFrame(records)
      print(frame.info())
      print(frame["tz"])
      frame["tz"].head()



      从DataFrame里面提取出来c列
       

      tz_counts = frame["c"].value_counts()
      tz_counts.head()
      tz_counts[:10]



      我们对缺失的c列进行填充
      主要目的是对 frame 数据框中的 "c" 列进行清洗,将缺失值替换为 "Missing",将空字符串替换为 "Unknown",然后统计每个时区(c)的出现次数。
       

      clean_c=frame["c"].fillna("Missing")
      print(clean_c)
      clean_c[clean_c == ""] = "Unknown"
      c_counts = clean_c.value_counts()
      c_counts.head()



      然后我们调用seaborn库对统计的次数进行绘图

      import seaborn as sns
      subset = c_counts.head()
      sns.barplot(y=subset.index, x=subset.to_numpy())





      然后我们对数据集的a标签进行分析
      给整个dataframe加一个os列



       

      frame["a"].dropna():

    • frame 数据框中提取 "a" 列,并使用 .dropna() 方法移除所有的缺失值(NaN)。这确保后续操作不会因空值引发错误。
       

      [x.split()[0] for x in frame["a"].dropna()]:

    • 这是一个列表推导式,用于处理 "a" 列中的每个非空字符串 x
    • x.split():将字符串 x 按照空格拆分为一个列表,包含各个单词。
    • x.split()[0]:获取拆分后的第一个单词,即列表中的第一个元素。
    • 这一过程将 "a" 列中每个字符串的第一个单词提取出来。
    • pd.Series([...]):

      • 将提取出的第一个单词列表转换为一个 Pandas Series 对象,方便后续的统计和分析。
    • print(results.head(5)):

      • 打印 results Series 的前 5 个元素,查看提取出的第一个单词。
    • results.value_counts():

      • value_counts() 方法统计 results 中每个唯一值的出现次数,并按频次降序排列。
      • 返回的结果是一个 Series,其中索引是唯一值,值是对应的出现次数。
    • print(results.value_counts().head(8)):

      • 打印前 8 个最常见的第一个单词及其出现次数,便于查看数据分布情况

    •  
    • frame["a"].notna():

      • notna() 是 Pandas 中的一个方法,用于判断数据是否不是 NaN(即空值)。
      • frame["a"].notna() 返回一个布尔 Series,标识 "a" 列中哪些值不是 NaN
      • 例如,对于 "a" 列中的数据 ["Mozilla/5.0", NaN, "Safari", "Chrome", NaN]notna() 返回 [True, False, True, True, False]
    • frame[frame["a"].notna()]:

      • 使用布尔索引筛选 frame 数据框,仅保留 "a" 列中非空的行。
      • 结果是一个新的数据框,只包含 "a" 列中值不是 NaN 的行。
    • .copy():

      • .copy() 方法用于生成筛选后数据框的一个深拷贝,确保 cframe 是独立的,不会与 frame 共享数据。
      • 这样做是为了防止对 cframe 的操作(如修改数据)影响到原始数据 frame
    • cframe:

      • cframe 是经过筛选和复制的新的数据框,它包含所有 "a" 列非空的行
        cframe = frame[frame["a"].notna()].copy()
        cframe




        这里是删除了所有存在NAN的行


        在数据框 cframe 中创建一个新的列 "os",用于标记每行对应的操作系统是 "Windows" 还是 "Not Windows",根据 "a" 列中是否包含 "Windows" 字样来判断。
         
        cframe["os"] = np.where(cframe["a"].str.contains("Windows"),
                                "Windows", "Not Windows")
        cframe["os"].head(5)

      • cframe["a"].str.contains("Windows"):

        • cframe["a"]:获取 cframe 数据框中的 "a" 列。
        • .str.contains("Windows"):检查 "a" 列中的每个字符串是否包含 "Windows",返回一个布尔 Series。如果包含 "Windows",则为 True;否则为 False
      • np.where(condition, x, y):

        • np.where 是 NumPy 的一个函数,根据 condition 的布尔值来选择 xy
        • 如果 conditionTrue,则返回 x;如果为 False,则返回 y
        • 在这里,根据是否包含 "Windows",分别返回 "Windows""Not Windows"
      • cframe["os"] = np.where(...):

        • np.where(...) 的结果赋值给 cframe 的新列 "os"
        • 这样,"os" 列中的每一行将被标记为 "Windows""Not Windows",取决于 "a" 列的内容。
      • cframe["os"].head(5):

        • .head(5) 用于显示 "os" 列的前 5 行,方便查看标记结果。


      • 对整个dataframe进行按照 “c”,"os"两列分组
        by_c_os = cframe.groupby(["c", "os"])
        print(by_c_os)
      • by_c_os = cframe.groupby(["c", "os"]):

        • 这行代码对 cframe 数据框进行分组,按 c(时区或其他分类)和 os(操作系统)组合分组。
        • by_c_os 是一个分组对象,后续可以对分组数据进行聚合操作。
      • agg_counts = by_c_os.size().unstack().fillna(0):

        • by_c_os.size():计算每个 (c, os) 组合的分组大小(即记录数量)。
        • .unstack():将 os 从行索引转换为列,形成一个 DataFrame,行是 c 的值,列是 os 的值。
        • .fillna(0):用 0 填充 NaN,表示某个 (c, os) 组合没有出现时的计数。
      • agg_counts.head():

        • 显示 agg_counts DataFrame 的前 5 行,方便快速查看分组统计结果。
      • indexer = agg_counts.sum("columns").argsort():

        • agg_counts.sum("columns"):对每一行(每个 c)按列方向求和,即计算各时区中所有操作系统的总计数。
        • .argsort():返回求和结果从小到大的排序索引。
        • indexer 是一个 Index 对象,包含了排序后的索引位置。
      • indexer.values[:10]:

        • 取出 indexer 的前 10 个索引值。这通常用于选择出现次数较少的时区或分类。
      • print(indexer):

        • 打印 indexer,显示排序后的索引。
           
          by_c_os = cframe.groupby(["c", "os"])
          print(by_c_os)
          agg_counts = by_c_os.size().unstack().fillna(0)
          agg_counts.head()
          indexer = agg_counts.sum("columns").argsort()
          indexer.values[:10]
          print(indexer)

           
        • count_subset = agg_counts.take(indexer[-10:]):

          • indexer[-10:]:获取 indexer 的最后 10 个索引。这表示选择排序后计数值最大的 10 个组。
          • agg_counts.take(indexer[-10:]):使用 take() 方法根据 indexer 中的索引提取对应的行。
          • count_subset:是一个新的 DataFrame,包含了 agg_counts 中按总计数排序的最后 10 行数据(即计数最高的 10 组)。
        • agg_counts.sum(axis="columns").nlargest(10):

          • agg_counts.sum(axis="columns"):对 agg_counts 的每一行(即每个 c 组)按列方向求和,得到每个组的总计数。
          • nlargest(10):获取求和后值最大的前 10 个组。
          • 结果是一个包含前 10 个最大值及其对应索引的 Series。

             



      • pandas有⼀个简便⽅法nlargest,可以做同样的⼯作:
        agg_counts.sum(1).nlargest(10)


        (注意的是对a标签 所有 缺失值都delete了 对c标签 缺失值都 fill了)



         

      • count_subset = count_subset.stack():

        • stack() 方法将 count_subset DataFrame 的列索引(os)转为行索引,从而将宽表(Wide Format)转换为长表(Long Format)。
        • 这使得每个时区 (c) 和操作系统 (os) 的组合有各自的行,并且相应的计数值也在同一列中。

        例如,count_subset 经过 stack() 后的效果:

        count_subset = count_subset.stack()
        count_subset.name = "total"
        count_subset = count_subset.reset_index()
        count_subset.head(10)
        sns.barplot(x="total", y="c", hue="os",  data=count_subset)

      • count_subset.name = "total":

        • count_subset 命名为 "total",即将刚刚生成的值列命名为 "total",这对后续的绘图有利。
      • count_subset = count_subset.reset_index():

        • reset_index() 方法将多级索引 (cos) 转为普通的 DataFrame 列,使数据更整洁,并方便后续绘图使用。

      • count_subset.head(10):

        • 显示 count_subset DataFrame 的前 10 行,用于快速查看数据的结构和内容。
      • sns.barplot(x="total", y="c", hue="os", data=count_subset):

        • 使用 seaborn 的 barplot() 函数绘制分组条形图:
          • x="total":将 "total" 列的值作为 X 轴。
          • y="c":将 "c" 列的值作为 Y 轴(时区)。
          • hue="os":根据 "os" 列(操作系统)对数据进行分组和着色。
          • data=count_subset:指定用于绘图的数据源是 count_subset

             
          • 定义函数 norm_total(group):

            • 这是一个自定义函数,用于对每个分组的数据进行处理。
            • group["total"] / group["total"].sum()
              • 计算 group["total"] 中每个值相对于该组内总和的比例。
              • 归一化操作:将每个 total 值除以该组(c)内所有 total 的总和。
            • group["normed_total"] = ...
              • 将计算的归一化比例存储在新的列 "normed_total" 中。
            • return group
              • 返回经过处理的分组数据。
          • count_subset.groupby("c").apply(norm_total):

            • .groupby("c"):将 count_subset"c"(时区)进行分组。
            • .apply(norm_total):对每个分组调用 norm_total() 函数。
            • results 是包含了所有分组及其处理结果的 DataFrame,带有新增的 "normed_total" 列。

            • 还可以⽤ groupby 的transform⽅法,更⾼效的计算标准化的和


              本人为大三本科生,由于时间仓促,本文难免会出现错误或者纰漏!欢迎大家评论区讨论交流!互粉!
               

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2162543.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

LabVIEW项目编码器选择

在LabVIEW项目中,选择增量式(Incremental Encoder)和绝对式(Absolute Encoder)编码器取决于项目的具体需求。增量式编码器和绝对式编码器在工作原理、应用场景、精度和成本等方面存在显著差异。以下从多方面详细阐述两…

通过service访问Pod

假设Pod中的容器可能因为各种原因发生故障而死掉,Deployment等controller会通过动态创建和销毁Pod来保证应用整体的健壮性,换句话说,Pod是脆弱的,但应用是健壮的 每个Pod都有自己的Ip,当controller用新的Pod替代发生故…

SDK(2 note)

复习上一次内容&#xff1a; 把前一次笔记中的代码&#xff0c;简写一下 #include <windows.h> #include<tchar.h> #include <stdio.h> #include <strsafe.h> VOID showerrormassage() {LPVOID lpMsgBuf; FormatMessage(FORMAT_MESSAGE_ALLOCATE_BUFF…

TS-AI:一种用于多模态个体化脑区划分的深度学习管道,并结合任务对比合成|文献速递-Transformer架构在医学影像分析中的应用

Title 题目 TS-AI: A deep learning pipeline for multimodal subject-specific parcellation with task contrasts synthesis TS-AI&#xff1a;一种用于多模态个体化脑区划分的深度学习管道&#xff0c;并结合任务对比合成 01 文献速递介绍 人类大脑在结构和功能组织上表…

nfs版本问题导致挂载失败

一、系统环境 环境版本操作系统Linux Mint 22 Wilma内核版本6.8.0-44-genericgcc 版本arm-none-linux-gnueabihf-gcc (GNU Toolchain for the A-profile Architecture 9.2-2019.12 (arm-9.10)) 9.2.1 20191025uboot 版本2020.01开发板Linux版本5.4.31 二、问题描述 内核通过…

拒绝信息泄露!VMD滚动分解 + Informer-BiLSTM并行预测模型

前言 在时间序列预测任务中&#xff0c;像 EMD&#xff08;经验模态分解&#xff09;、CEEMDAN&#xff08;完全集合经验模态分解&#xff09;、VMD&#xff08;变分模态分解&#xff09; 等分解算法的使用有可能引入信息泄露&#xff0c;具体情况取决于这些方法的应用方式。信…

通过WebTopo在ARMxy边缘计算网关上实现系统集成

随着工业互联网技术的发展&#xff0c;边缘计算成为了连接物理世界与数字世界的桥梁&#xff0c;其重要性日益凸显。边缘计算网关作为数据采集、处理与传输的核心设备&#xff0c;在智能制造、智慧城市等领域发挥着关键作用。 1. BL340系列概述 BL340系列是基于全志科技T507-…

yolov8/9关键点检测模型检测俯卧撑动作并计数【源码免费+数据集+python环境+GUI系统】

yolov89模型检测俯卧撑动作并计数【源码免费数据集python环境GUI系统】 yolov8/9关键点检测模型检测俯卧撑动作并计数【源码免费数据集python环境GUI系统】 YOLO算法原理 YOLO&#xff08;You Only Look Once&#xff09;关键点检测的算法原理主要基于YOLO目标检测算法进行改进…

R包:VennDiagram韦恩图

加载R包 library(VennDiagram)数据 # Prepare character vectors v1 <- c("DKK1", "NPC1", "NAPG", "ERG", "VHL", "BTD", "MALL", "HAUS1") v2 <- c("SMAD4", "DKK1…

VMware虚拟网络的连接模式探究与实践

VMware安装完成虚拟机后&#xff0c;大多要进行网络配置&#xff0c;实现网络的互联互联&#xff0c;初学者往往感觉与一台实体主机的网络配置不同&#xff0c;局域网中一台实体主机一个物理网卡&#xff0c;配置一个IP地址&#xff1b;或直接通过WAN上网&#xff0c;比较直观&…

基于python的django微博内容网络分析系统,实现文本划分词结构

本项目旨在开发一个基于Python的Django框架的微博内容网络分析系统&#xff0c;聚焦于微博文本的分词处理、名词提取和主成分分析。该系统通过数据收集与预处理、分词及结构化文本分析&#xff0c;为舆情监测、话题分析和用户行为研究提供了一体化的解决方案。 主要功能包括&a…

数据分析学习之学习路线

前言 我们之前通过cda认证了解到数据分析行业&#xff0c;但是获取到证书&#xff0c;并不代表着&#xff0c;我们已经拥有的数据分析的能力&#xff0c;所以通过系统的学习数据分析需要掌握的能力&#xff0c;并学习大佬们的分析经验、分析思路&#xff0c;才是成为数据分析师…

TDengine 学习与使用经验分享:业务落地实践与架构升级探索

前言 随着物联网、工业互联网等行业的快速发展&#xff0c;时间序列数据的管理和处理需求急剧增加。传统的关系型数据库在处理大规模、高频次的时序数据时性能存在瓶颈&#xff0c;而专门针对时序数据设计的数据库系统则显示出其独特优势。TDengine 是其中的佼佼者&#xff0c;…

给pycharm项目设置conda环境新

创建虚拟环境 conda create -n llama python3.11 激活虚拟环境 conda activate llama 设置Pycharm环境

【初阶数据结构】排序——插入排序

目录 前言直接插入排序希尔排序 前言 排序&#xff1a;所谓排序就是使一串记录&#xff0c;按照其中的某个或某些关键字的大小&#xff0c;递增或递减的排列起来的操作。排序算法&#xff0c;就是如何使得记录按照要求排列的方法。   例如&#xff1a;买东西时会根据销量或价…

基于PHP+MySQL组合开发地方门户分类信息网站源码系统 带完整的安装代码包以及搭建部署教程

系统概述 随着互联网技术的飞速发展&#xff0c;地方门户分类信息网站逐渐成为城市生活不可或缺的一部分。它们涵盖了房产、招聘、二手交易、生活服务等多个领域&#xff0c;为当地居民提供了全方位的信息服务。为了满足这一市场需求&#xff0c;我们开发了这款基于PHPMySQL的…

23中设计模式,以及三种常见的设计模式demo

常见的23种设计模式 Java设计模式是软件工程中常见的解决方案&#xff0c;用于解决在软件设计中反复出现的问题。设计模式可以分为三大类&#xff1a;创建型模式、结构型模式和行为型模式。这里&#xff0c;我将简单介绍三种常见的设计模式&#xff0c;并给出相应的Java代码示例…

【车联网安全】车端网络攻击及检测的框架/模型

参考标准&#xff1a; 《汽车数据安全管理若干规定&#xff08;试行&#xff09;》ISO/SAE 21434《道路车辆 网络安全工程》威胁分析和风险评估&#xff08;TARA&#xff09;ISO/DIS 24089R155法规的国标转换&#xff1a;《汽车整车信息安全技术要求》&#xff08;UN R155&…

keil软件编写第一个c语言单片机程序并下载到单片机点亮一个发光二极管

Project-->new project-->选择文件夹-->输入工程名如&#xff1a;lession_1-->选择单片机芯片类型&#xff08;Atml的89c52&#xff09;-->newfile -->保存输入C语言文件名lession_1.c-->在左侧source Group 1右键--->选择add files to group “Source…

seaCMS v12.9代码审计学习(上半)

文章目录 CMS介绍环境搭建代码总览漏洞复现/js/player/dmplayer/player/index.php 反射性xss(详见https://github.com/HuaQiPro/seacms/issues/28)admin_ping.php 代码执行漏洞太多了&#xff0c;整理完了下半部分一次性写完 CMS介绍 海洋cms是一款经典的开源影视建站系统&…