Python数据分析项目案例

news2025/1/12 13:35:12

第一部分:数据类型处理

  • 数据加载
    • 字段含义:
      • user_id:用户ID
      • order_dt:购买日期
      • order_product:购买产品的数量
      • order_amount:购买金额
  • 观察数据
    • 查看数据的数据类型
    • 数据中是否存储在缺失值
    • 将order_dt转换成时间类型
    • 查看数据的统计描述
    • 在源数据中添加一列表示月份:astype('datetime64[M]')

df = pd.read_csv('./data/CDNOW_master.txt',header=None,sep='\s+',names=['user_id','order_dt','order_product','order_amount'])  #sep='\s+'  分割间隔 一个或多个空格
df.head()

df.shape
(69659, 4)
#查看数据类型
df.info()

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 69659 entries, 0 to 69658
Data columns (total 4 columns):
user_id          69659 non-null int64
order_dt         69659 non-null int64
order_product    69659 non-null int64
order_amount     69659 non-null float64
dtypes: float64(1), int64(3)
memory usage: 2.1 MB
 
#order_dt转换成时间序列,且加一列为购买商品的月份
df['order_dt'] = pd.to_datetime(df['order_dt'],format="%Y%m%d")
df.head()

df['month'] = df['order_dt'].astype('datetime64[M]')
df.head()

 df.describe()  #对数据源中的数值型数据的描述

第二部分:按月数据分析

  • 用户每月花费的总金额
    • 绘制曲线图展示
  • 所有用户每月的产品购买量
  • 所有用户每月的消费总次数
  • 统计每月的消费人数
#用户每月花费的总金额
df.groupby(by='month')['order_amount'].sum()
month
1997-01-01    299060.17
1997-02-01    379590.03
1997-03-01    393155.27
1997-04-01    142824.49
1997-05-01    107933.30
1997-06-01    108395.87
1997-07-01    122078.88
1997-08-01     88367.69
1997-09-01     81948.80
1997-10-01     89780.77
1997-11-01    115448.64
1997-12-01     95577.35
1998-01-01     76756.78
1998-02-01     77096.96
1998-03-01    108970.15
1998-04-01     66231.52
1998-05-01     70989.66
1998-06-01     76109.30
Name: order_amount, dtype: float64

#绘制曲线图展示
df.groupby(by='month')['order_amount'].sum().plot()

#所有用户每月的产品购买量
df.groupby(by='month')['order_product'].sum()

month
1997-01-01    19416
1997-02-01    24921
1997-03-01    26159
1997-04-01     9729
1997-05-01     7275
1997-06-01     7301
1997-07-01     8131
1997-08-01     5851
1997-09-01     5729
1997-10-01     6203
1997-11-01     7812
1997-12-01     6418
1998-01-01     5278
1998-02-01     5340
1998-03-01     7431
1998-04-01     4697
1998-05-01     4903
1998-06-01     5287
Name: order_product, dtype: int64

#所有用户每月的消费总次数
df.groupby(by='month')['user_id'].count()

month
1997-01-01     8928
1997-02-01    11272
1997-03-01    11598
1997-04-01     3781
1997-05-01     2895
1997-06-01     3054
1997-07-01     2942
1997-08-01     2320
1997-09-01     2296
1997-10-01     2562
1997-11-01     2750
1997-12-01     2504
1998-01-01     2032
1998-02-01     2026
1998-03-01     2793
1998-04-01     1878
1998-05-01     1985
1998-06-01     2043
Name: user_id, dtype: int64

#统计每月的消费人数
df.groupby(by='month')['user_id'].nunique()

month
1997-01-01    7846
1997-02-01    9633
1997-03-01    9524
1997-04-01    2822
1997-05-01    2214
1997-06-01    2339
1997-07-01    2180
1997-08-01    1772
1997-09-01    1739
1997-10-01    1839
1997-11-01    2028
1997-12-01    1864
1998-01-01    1537
1998-02-01    1551
1998-03-01    2060
1998-04-01    1437
1998-05-01    1488
1998-06-01    1506
Name: user_id, dtype: int64

第三部分:用户个体消费数据分析

  • 所有用户消费总金额和消费总购买量的统计描述
  • 各个用户消费金额和消费产品数量的散点图
  • 各个用户消费总金额的直方分布图(消费金额在1000之内的分布)
  • 各个用户消费的总数量的直方分布图(消费商品的数量在100次之内的分布)
#所有用户消费总金额和消费总购买量的统计描述
df['order_product'].sum(),df['order_amount'].sum()

(167881, 2500315.6300000004)
#各个用户消费金额和消费产品数量的散点图
users_amount_s = df.groupby(by='user_id')['order_amount'].sum()
users_product_s = df.groupby(by='user_id')['order_product'].sum()

plt.scatter(users_amount_s,usea_product_s)

#各个用户消费总金额的直方分布图(消费金额在1000之内的分布)
#1.先将满足要求的用户的行数据找出,在做分组聚合
user_amount_1000_s = df.query('order_amount <= 1000').groupby(by='user_id')['order_amount'].sum()
user_amount_1000_s

#各个用户消费的总数量的直方分布图(消费商品的数量在100之内的分布)
df.query('order_product <= 100').groupby(by='user_id')['order_product'].sum()

#df有两个常用方法
#    - apply:可以作为df的运算工具,运算df的行或者列
#    - applymap:针对df中每一个元素进行指定形式的运算

第四部分:用户消费行为分析

  • 用户第一次消费的月份分布,和人数统计
    • 绘制线形图
  • 用户最后一次消费的时间分布,和人数统计
    • 绘制线形图
  • 新老客户的占比
    • 消费一次为新用户
    • 消费多次为老用户
      • 分析出每一个用户的第一个消费和最后一次消费的时间
        • agg(['func1','func2']):对分组后的结果进行指定多种形式的聚合
      • 分析出新老客户的消费比例
  • 用户分层
    • 分析得出每个用户的总购买量和总消费金额and最近一次消费的时间的表格rfm
    • RFM模型设计
      • R表示客户最近一次交易时间的间隔。
        • /np.timedelta64(1,'D'):去除days
      • F表示客户购买商品的总数量,F值越大,表示客户交易越频繁,反之则表示客户交易不够活跃。
      • M表示客户交易的金额。M值越大,表示客户价值越高,反之则表示客户价值越低。
      • 将R,F,M作用到rfm表中
    • 根据价值分层,将用户分为:
      • 重要价值客户
      • 重要保持客户
      • 重要挽留客户
      • 重要发展客户
      • 一般价值客户
      • 一般保持客户
      • 一般挽留客户
      • 一般发展客户
        • 使用已有的分层模型即可rfm_func
# 用户第一次消费的月份分布,和人数统计
# 绘制线形图
# 用户最后一次消费的时间分布,和人数统计
# 绘制线形图
df.groupby(by='user_id')['month'].min().value_counts()

1997-02-01    8476
1997-01-01    7846
1997-03-01    7248
Name: month, dtype: int64

df.groupby(by='user_id')['month'].max().value_counts()
1997-02-01    4912
1997-03-01    4478
1997-01-01    4192
1998-06-01    1506
1998-05-01    1042
1998-03-01     993
1998-04-01     769
1997-04-01     677
1997-12-01     620
1997-11-01     609
1998-02-01     550
1998-01-01     514
1997-06-01     499
1997-07-01     493
1997-05-01     480
1997-10-01     455
1997-09-01     397
1997-08-01     384
Name: month, dtype: int64

#新老客户的占比
df_new_old = df.groupby(by='user_id')['order_dt'].agg(['min','max'])
(df_new_old['min'] == df_new_old['max']).value_counts()

True     12054
False    11516
dtype: int64

#分析得出每个用户的总购买量和总消费金额and最近一次消费的时间的表格rfm
rfm = df.pivot_table(index='user_id',aggfunc={'order_product':'sum','order_amount':'sum','order_dt':'max'})   #采用透视操作
rfm.head()

 rfm['R'] = (df['order_dt'].max() - rfm['order_dt'])/np.timedelta64(1,'D')

rfm = rfm[['order_amount','order_product','R']]
rfm.columns = ['M','F','R']

rfm.head()

#rfm分层算法
def rfm_func(x):
#存储存储的是三个字符串形式的0或者1
level = x.map(lambda x :'1' if x >= 0 else '0')
# M '0'
# F '0'
# R '1'
label = level['R'] + level.F + level.M
d = {
'111':'重要价值客户',
'011':'重要保持客户',
'101':'重要挽留客户',
'001':'重要发展客户',
'110':'一般价值客户',
'010':'一般保持客户',
'100':'一般挽留客户',
'000':'一般发展客户'
}
result = d[label]
return result
#df.apply(func):可以对df中的行或者列进行某种(func)形式的运算
rfm['label'] = rfm.apply(lambda x : x - x.mean(),axis=0).apply(rfm_func,axis = 1)
rfm.head()

第五部分:用户的生命周期

  • 将用户划分为活跃用户和其他用户
    • 统计每个用户每个月的消费次数
    • 统计每个用户每个月是否消费,消费记录为1否则记录为0
      • 知识点:DataFrame的apply和applymap的区别
        • applymap:返回df
        • 将函数做用于DataFrame中的所有元素(elements)
        • apply:返回Series
        • apply()将一个函数作用于DataFrame中的每个行或者列
    • 将用户按照每一个月份分成:
      • unreg:观望用户(前两月没买,第三个月才第一次买,则用户前两个月为观望用户)
      • unactive:首月购买后,后序月份没有购买则在没有购买的月份中该用户的为非活跃用户
      • new:当前月就进行首次购买的用户在当前月为新用户
      • active:连续月份购买的用户在这些月中为活跃用户
      • return:购买之后间隔n月再次购买的第一个月份为该月份的回头客
#统计每个用户每个月的消费次数  
df_purchase = df.pivot_table(index='user_id',values='order_dt',aggfunc='count',columns='month',fill_value=0) #columns='month'  对 values='order_dt'又做了一次划分
df_purchase.head()

#统计每个用户每个月是否消费,消费记录为1否则记录为0
df_purchase = df_purchase.applymap(lambda x:1 if x > 0 else 0)

df_purchase.head()

#将df_purchase中的原始数据0和1修改为new,unactive......,返回新的df叫做df_purchase_new
#固定算法  修改参数即可用
def active_status(data):
status = []#某个用户每一个月的活跃度
for i in range(18):

#若本月没有消费
if data[i] == 0:
if len(status) > 0:
if status[i-1] == 'unreg':
status.append('unreg')
else:
status.append('unactive')
else:
status.append('unreg')

#若本月消费
else:
if len(status) == 0:
status.append('new')
else:
if status[i-1] == 'unactive':
status.append('return')
elif status[i-1] == 'unreg':
status.append('new')
else:
status.append('active')
return status

pivoted_status = df_purchase.apply(active_status,axis = 1)
pivoted_status.head()

user_id
1    [new, unactive, unactive, unactive, unactive, ...
2    [new, unactive, unactive, unactive, unactive, ...
3    [new, unactive, return, active, unactive, unac...
4    [new, unactive, unactive, unactive, unactive, ...
5    [new, active, unactive, return, active, active...
dtype: object

df_purchase_new = DataFrame(data=pivoted_status.tolist(),index=df_purchase.index,columns=df_purchase.columns)
df_purchase_new.head()

每月【不同活跃】用户的计数

  • purchase_status_ct = df_purchase_new.apply(lambda x : pd.value_counts(x)).fillna(0)
  • 转置进行最终结果的查看
df_purchase_new.apply(lambda x:pd.value_counts(x),axis=0).fillna(0).T

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/76170.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

图像风格迁移基础入门及实践案例总结

目录 &#xff11;图像的不同风格 &#xff12;何为图像风格迁移 &#xff12;.&#xff11;基础概念及方法 &#xff12;.&#xff12;示例 &#xff13;图像风格迁移的典型研究成果 &#xff13;.1deep-photo-styletransfer &#xff13;.2CycleGAN &#xff13;.3U-…

【问题记录】Mac M1 Docker配置redis一主二从三哨兵(烧饼好吃)

文章目录Docker配置 redis一主二从三哨兵文件目录redis compose 文件在 redis 文件路径下执行 docker composesentinel 文件结构sentinel compose 配置文件sentinel config 配置文件切换到 sentinel执行 compose测试及问题记录解决方案Docker配置 redis 一主二从三哨兵 文件目…

8家最大的WooCommerce在线商店

想象一下&#xff0c;世界上三分之一的电子商务网站都由单一技术提供支持&#xff0c;而且令人惊讶的是它是免费的。我说的是最大的电子商务解决方案提供商之一&#xff0c;WooCommerce。在这里&#xff0c;我们列出了8 家最大的WooCommerce在线商店&#xff0c;以激发您建立自…

基于jsp+mysql+ssm供应链管理信息系统-计算机毕业设计

项目介绍 本文以销售供应链管理系统的开发为背景&#xff0c;对企业销售管理系统的分析&#xff0c;设计&#xff0c;开发和实施过程进行了详细的描述。本系统基于ssm框架访问作为后台数据库管理连接&#xff0c;通过jdbc与数据库建立连接&#xff0c;以jsp为前端开发工具提供…

数据库之MHA高可用集群部署及故障切换

目录 1 MHA概念 1.1 MHA 的组成 1.2 MHA 的特点 2 搭建MySQLMHA 2.2 修改三台MySQL服务器的主配置文件/etc/my.cnf&#xff0c;并创建命令软链接 2.3 配置MySQL一主两从 2.4 安装 MHA 软件 2.5 在所有服务器上配置无密码认证 2.6 在 manager 节点上配置 MHA 2.7 第一次配…

分类评价指标

不均衡数据 很多时候&#xff0c;不同类别的分类代价并不相等&#xff0c;这就是非均衡分类问题。如果在两个类别中&#xff0c;一个类别的出现次数比另一个多很多&#xff0c;那么错误类型将发挥重要作用。例如。我们一共有100个病人&#xff0c;其中99人是健康的&#xff08…

『.Net』在C#/.Net中将Json压缩成一行的几种方式

&#x1f4e3;读完这篇文章里你能收获到 在.Net Core中使用多种方式将Json压缩成一行主要介绍两种实现方案&#xff0c;Newtonsoft.Json和内置的System.Text.Json 文章目录一、Newtonsoft.Json二、System.Text.Json一、Newtonsoft.Json 将 Formatting 参数设为 Formatting.No…

世界杯杂谈之有趣的数据纪录

目录 &#xff08;一&#xff09;前言 &#xff08;二&#xff09;正文 1. 关于出场 &#xff08;1&#xff09;出场次数 &#xff08;2&#xff09;出场时间最长球员 &#xff08;3&#xff09;连续出场决赛场次最多 &#xff08;4&#xff09;世界杯出场时间最短的人 …

在Mac上优雅的使用ssh和sftp (像win上的xshell和xftp一样)

怎样在Mac上SSH和FTP?完美替代XShell是哪个软件?item2吗?Royal TSX! 没有比它更好_哔哩哔哩_bilibili 下载Royal TSX Royal TSX https://www.royalapps.com/ts/mac/features 安装插件 创建document 在document里面添加ssh和sftp 点击左下角加号,依次选这两个,因为一样,所…

使用Jenkins扩展钉钉消息通知

Jenkins借助钉钉插件&#xff0c;实现当构建失败时&#xff0c;自动触发钉钉预警。虽然插件允许自定义消息主体&#xff0c;支持使用 Jenkins环境变量&#xff0c;但是局限性依旧很大。当接收到钉钉通知后&#xff0c;若想进一步查看报错具体原因&#xff0c;仍完全依赖邮件通知…

LWIP——无操作系统移植

目录 移植说明 LwIP前期准备 以太网DMA描述符 LwIP移植流程 添加网卡驱动程序 添加LwIP源文件 移植头文件 网卡驱动编写 移植总结 移植说明 LwIP的移植可以分为两大类&#xff1a;第一类是只移植内核核心&#xff0c;此时用户应用程序编写只能基于RaW/CallBack API进行…

mybatisplus 集成druid连接池源码分析

mybatisplus 集成druid连接池源码分析&#xff1a;从spring的源码过渡到druid的相关jar包&#xff0c;里面是druid相关的类&#xff0c;下面我们开始分析&#xff1a; 1、取数据库连接的地方入口&#xff1a;public abstract class DataSourceUtils 为spring-jdbc包里面的过渡…

深度学习 Day21——利用RNN实现心脏病预测

深度学习 Day21——利用RNN实现心脏病预测 文章目录深度学习 Day21——利用RNN实现心脏病预测一、前言二、我的环境三、什么是RNN四、前期工作1、设置GPU2、导入数据3、检查数据五、数据预处理1、划分数据集2、数据标准化六、构建RNN模型七、编译模型八、训练模型九、模型评估十…

网站TDK三大标签SEO优化

网站TDK三大标签SEO优化 SEO(Search Engine Optimization)汉译为搜索引擎优化&#xff0c;是一种利用搜索引擎的规则提高网站在有关搜索引擎内自然排名的方式 SEO的目的是对网站进行深度的优化&#xff0c;从而帮助网站获取免费的流量&#xff0c;进而在搜索引擎上提升网站的排…

day39 CSRFSSRF协议玩法内网探针漏洞利用

前言&#xff1a; #知识点&#xff1a; 1、CSRF-原理&危害&探针&利用等 2、SSRF-原理&危害&探针&利用等 3、CSRF&SSRF-黑盒下漏洞探针点 详细点&#xff1a; CSRF 全称&#xff1a;Cross-site request forgery&#xff0c;即&#xff0c;跨站…

java计算机毕业设计ssm兴发农家乐服务管理系统n159q(附源码、数据库)

java计算机毕业设计ssm兴发农家乐服务管理系统n159q&#xff08;附源码、数据库&#xff09; 项目运行 环境配置&#xff1a; Jdk1.8 Tomcat8.5 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&…

RK3568平台开发系列讲解(系统优化篇)如何进行内存优化

🚀返回专栏总目录 文章目录 一、设备分级二、Bitmap 优化三、内存泄漏沉淀、分享、成长,让自己和他人都能有所收获!😄 📢内存优化,应该从哪里着手呢?我通常会从设备分级、Bitmap 优化和内存泄漏这三个方面入手。 一、设备分级 内存优化首先需要根据设备环境来综合考虑…

硬件基础

目录 一、Cisco Packet Tracer 8.1.1安装 二、汉化 一、Cisco Packet Tracer 8.1.1安装 官方汉化包的Ciscohttps://www.netacad.com/portal/resources/browse/341e11c1-d03f-4433-9413-29b9d207e7eb 直接在官网下载但是官网有时候比较慢 思科数据包跟踪器 - 网络仿真工具 (n…

北斗/GNSS高精度数据处理暨GAMIT/GLOBK v10.75软件

随着GNSS导航定位技术在不同领域的广泛应用和技术更新的飞速发展&#xff0c;在大型工程项目的设计、施工、运行和管理各个阶段对工程测量提出了更高的要求&#xff0c;许多测绘、勘测、规划、市政、交通、铁道、水利水电、建筑、矿山、道桥、国土资源、气象、地震等行业部门在…

【实时数仓】介绍、需求分析、统计架构分析和ods层日志行为数据采集

文章目录一 电商实时数仓介绍1 普通实时计算与实时2 实时电商数仓分层二 实时数仓需求分析1 离线计算与实时计算的比较2 应数场景&#xff08;1&#xff09;日常统计报表或分析图中需要包含当日部分&#xff08;2&#xff09;实时数据大屏监控&#xff08;3&#xff09;数据预警…