0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据处理中pandas的groupby小技巧

数据分析与开发 来源:Python数据科学 作者:东哥起飞 2021-04-09 11:34 次阅读

pandas的groupby是数据处理中一个非常强大的功能。虽然很多同学已已经非常熟悉了,但有些小技巧还是要和大家普及一下的。为了给大家演示,我们采用一个公开的数据集进行说明。

import pandas as pd

iris = pd.read_csv

随机采样5条,数据是长这样子的。

》》》 iris.sample(5)

sepal_length sepal_width petal_length petal_width species

95 5.7 3.0 4.2 1.2 versicolor

71 6.1 2.8 4.0 1.3 versicolor

133 6.3 2.8 5.1 1.5 virginica

4 5.0 3.6 1.4 0.2 setosa

33 5.5 4.2 1.4 0.2 setosa

因为是分组功能,所以被分的对象肯定是类别型的。在这个数据里,这里我们就以species进行分组举例。

首先,以species分组创建一个groupby的object。这里单独生成groupby对象是因为后面会反复用到,其实用的熟练了直接链接起来就可以了。

iris_gb = iris.groupby(‘species’)

一、创建频率表假如我想知道每个species类中的数量有多少,那么直接使用groupby的size函数即可,如下。

》》》 iris_gb.size()

species

setosa 50

versicolor 50

virginica 50

dtype: int64

二、计算常用的描述统计量比如,我想要按组计算均值,那么就用mean()函数。

》》》 # 计算均值

》》》 iris_gb.mean()

sepal_length sepal_width petal_length petal_width

species

setosa 5.006 3.428 1.462 0.246

versicolor 5.936 2.770 4.260 1.326

virginica 6.588 2.974 5.552 2.026

默认情况下如果没有限制,那么mean()函数将对所有变量特征计算均值。如果我希望只计算某一个变量的均值,可以指定该变量,如下所示。

》》》 # 单列

》》》 iris_gb[‘sepal_length’].mean()

species

setosa 5.006

versicolor 5.936

virginica 6.588

Name: sepal_length, dtype: float64

》》》 # 双列

》》》 iris_gb[[‘sepal_length’, ‘petal_length’]].mean()

sepal_length petal_length

species

setosa 5.006 1.462

versicolor 5.936 4.260

virginica 6.588 5.552

同理,其它描述性统计量min、max()、medianhe和std都是一样的用法。

三、查找最大值(最小值)索引如果我们要查找每个组的最大值或最小值的索引时,有一个方便的功能可以直接使用。

》》》 iris_gb.idxmax()

sepal_length sepal_width petal_length petal_width

species

setosa 14 15 24 43

versicolor 50 85 83 70

virginica 131 117 118 100

如何应用呢?

比如我们想查找每组sepal_length最大值对应的整条记录时,就可以这样用。注意,这里是整条记录,相当于按sepal_length最大值这个条件进行了筛选。

》》》 sepal_largest = iris.loc[iris_gb[‘sepal_length’].idxmax()]

》》》 sepal_largest

sepal_length sepal_width petal_length petal_width species

14 5.8 4.0 1.2 0.2 setosa

50 7.0 3.2 4.7 1.4 versicolor

131 7.9 3.8 6.4 2.0 virginica

四、Groupby之后重置索引很多时候,我们在groupby处理后还要进行其他操作。也就是说,我们想重置分组索引以使其成为正常的行和列。

第一种方法可能大家常用,就是通过reset_index()让乱序索引重置。

》》》 iris_gb.max().reset_index()

species sepal_length sepal_width petal_length petal_width

0 setosa 5.8 4.4 1.9 0.6

1 versicolor 7.0 3.4 5.1 1.8

2 virginica 7.9 3.8 6.9 2.5

但其实,还有一个看上去更加友好的用法。可以在groupby的时候就设置as_index参数,也可以达到同样效果。

》》》 iris.groupby(‘species’, as_index=False).max()

species sepal_length sepal_width petal_length petal_width

0 setosa 5.8 4.4 1.9 0.6

1 versicolor 7.0 3.4 5.1 1.8

2 virginica 7.9 3.8 6.9 2.5

五、多种统计量汇总上面都是单个统计量的操作,那如果我想同时操作好几个呢?

groupby还有一个超级棒的用法就是和聚合函数agg连起来使用。

》》》 iris_gb[[‘sepal_length’, ‘petal_length’]].agg([“min”, “mean”])

sepal_length petal_length

min mean min mean

species

setosa 4.3 5.006 1.0 1.462

versicolor 4.9 5.936 3.0 4.260

virginica 4.9 6.588 4.5 5.552

在agg里面,我们只要列出统计量的名称即可,便可同时对每个列进行多维度统计。

六、特定列的聚合我们也看到了,上面是的多个操作对于每个列都是一样的。实际使用过程中,我们可能对于每个列的需求都是不一样的。

所以在这种情况下,我们可以通过为不同的列单独设置不同的统计量。

》》》 iris_gb.agg({“sepal_length”: [“min”, “max”], “petal_length”: [“mean”, “std”]})

sepal_length petal_length

min max mean std

species

setosa 4.3 5.8 1.462 0.173664

versicolor 4.9 7.0 4.260 0.469911

virginica 4.9 7.9 5.552 0.551895

7、NamedAgg命名统计量现在我又有新的想法了。上面的多级索引看起来有点不太友好,我想把每个列下面的统计量和列名分别合并起来。可以使用NamedAgg来完成列的命名。

》》》 iris_gb.agg(

。。. sepal_min=pd.NamedAgg(column=“sepal_length”, aggfunc=“min”),

。。. sepal_max=pd.NamedAgg(column=“sepal_length”, aggfunc=“max”),

。。. petal_mean=pd.NamedAgg(column=“petal_length”, aggfunc=“mean”),

。。. petal_std=pd.NamedAgg(column=“petal_length”, aggfunc=“std”)

。。. )

sepal_min sepal_max petal_mean petal_std

species

setosa 4.3 5.8 1.462 0.173664

versicolor 4.9 7.0 4.260 0.469911

virginica 4.9 7.9 5.552 0.551895

因为NamedAgg是一个元组,所以我们也可以直接赋值元组给新的命名,效果一样,但看上去更简洁。

iris_gb.agg(

sepal_min=(“sepal_length”, “min”),

sepal_max=(“sepal_length”, “max”),

petal_mean=(“petal_length”, “mean”),

petal_std=(“petal_length”, “std”)

八、使用自定义函数上面agg聚合函数中我们都是通过添加一个统计量名称来完成操作的,除此之外我们也可直接给一个功能对象。

》》》 iris_gb.agg(pd.Series.mean)

sepal_length sepal_width petal_length petal_width

species

setosa 5.006 3.428 1.462 0.246

versicolor 5.936 2.770 4.260 1.326

virginica 6.588 2.974 5.552 2.026

不仅如此,名称和功能对象也可一起使用。

iris_gb.agg([“min”, pd.Series.mean])

更骚的是,我们还可以自定义函数,也都是可以的。

》》》 def double_length(x):

。。. return 2*x.mean()

。。.

》》》 iris_gb.agg(double_length)

sepal_length sepal_width petal_length petal_width

species

setosa 10.012 6.856 2.924 0.492

versicolor 11.872 5.540 8.520 2.652

virginica 13.176 5.948 11.104 4.052

当然如果想更简洁,也可以使用lambda函数。总之,用法非常灵活,可以自由组合搭配。

iris_gb.agg(lambda x: x.mean())

以上就是使用groupby过程中可能会用到的8个操作,如果你熟练使用起来会发现这个功能是真的很强大。

原文标题:Pandas 100 个骚操作:groupby 8 个常用技巧!

文章出处:【微信公众号:数据分析与开发】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    3868

    浏览量

    61309
  • 数据处理
    +关注

    关注

    0

    文章

    509

    浏览量

    28247

原文标题:Pandas 100 个骚操作:groupby 8 个常用技巧!

文章出处:【微信号:DBDevs,微信公众号:数据分析与开发】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    工程监测领域振弦采集仪的数据处理与分析方法探讨

    工程监测领域振弦采集仪的数据处理与分析方法探讨 在工程监测领域,振弦采集仪是常用的一种设备,用于测量和记录结构物的振动数据数据处理和分析是使用振弦采集仪得到的数据的重要环节,可以帮助
    的头像 发表于 01-10 14:44 154次阅读
    工程监测领域振弦采集仪的<b class='flag-5'>数据处理</b>与分析方法探讨

    工程监测中振弦采集仪的数据处理方法研究

    工程监测中振弦采集仪的数据处理方法研究 工程监测中振弦采集仪的数据处理方法研究是针对振弦采集仪所采集到的数据进行分析和处理,以获得需要的监测信息和结构响应。以下是一种常见的
    的头像 发表于 01-09 15:10 150次阅读
    工程监测中振弦采集仪的<b class='flag-5'>数据处理</b>方法研究

    数据处理

    初学者想请教一下大家,采集的噪声信号,想要对采集到的数据累计到一定数量再进行处理,计划每隔0.2秒进行一次数据处理,(得到均方根值等一些特征值)请问大家有什么方法可以实现
    发表于 01-07 10:11

    Python利用pandas读写Excel文件

    使用pandas模块读取Excel文件可以更为方便和快捷。pandas可以将Excel文件读取为一个DataFrame对象,方便进行数据处理和分析。
    的头像 发表于 12-16 11:22 596次阅读
    Python利用<b class='flag-5'>pandas</b>读写Excel文件

    数据处理器:DPU编程入门》+初步熟悉这本书的结构和主要内容

    大幅度提高计算速度和效率,以满足这些增长的计算需求。 其次,网络和数据处理的紧密结合是DPU演进的另一个核心驱动力。在当前的计算架构数据处理和网络功能通常是分开的,这可能导致延迟增加、数据
    发表于 12-08 18:03

    Pandas:Python中强大方便的绘图功能

    Pandas是Python中非常常用的数据处理工具,使用起来非常方便。由于建立在NumPy数组结构之上,所以它的很多操作通过NumPy或者Pandas自带的扩展模块编写,这些模块用Cython编写
    的头像 发表于 11-03 11:04 253次阅读
    <b class='flag-5'>Pandas</b>:Python中强大方便的绘图功能

    如何利用Python和pandas处理json数据

    了如何利用Python和pandas(Python的第三方库)来处理json数据,主要内容包含: json数据简介 常用json数据转化网站
    的头像 发表于 11-01 10:59 630次阅读
    如何利用Python和<b class='flag-5'>pandas</b>来<b class='flag-5'>处理</b>json<b class='flag-5'>数据</b>

    Pandas:Python中最好的数据分析工具

    您使用 Pandas 分析数据的能力。 常见的比如说: 在处理货币值时使用货币符号。例如,如果您的数据包含值 25.00,您不会立即知道该值是人民币、美元、英镑还是其他某种货币。 百分
    的头像 发表于 10-31 10:47 213次阅读
    <b class='flag-5'>Pandas</b>:Python中最好的<b class='flag-5'>数据</b>分析工具

    单片机开发中,传感器的数据处理算法

    单片机开发中,传感器的数据处理算法
    的头像 发表于 10-17 17:35 444次阅读

    如何使用Python和pandas库读取、写入文件

    在本文中,我将介绍如何使用 Python 和 pandas 库读取、写入文件。 1、安装 pip install pandas 2、读取 import pandas as pd df
    的头像 发表于 09-11 17:52 786次阅读

    超强图解Pandas,建议收藏

    Pandas数据挖掘常见的工具,掌握使用过程中的函数是非常重要的。本文将借助可视化的过程,讲解Pandas的各种操作。
    的头像 发表于 08-29 15:15 359次阅读
    超强图解<b class='flag-5'>Pandas</b>,建议收藏

    PLC的数据处理能力都和哪些因素相关?

    PLC的数据处理能力受到以下几个因素的影响: (1)PLC型号和规格:不同型号和规格的PLC具有不同的处理能力。高端PLC通常配备更强大的处理器和更大的内存容量,能够处理更复杂的控制逻
    的头像 发表于 07-31 00:10 530次阅读

    82.7 6 文本生成之数据处理 #硬声创作季

    数据处理
    充八万
    发布于 :2023年07月21日 02:15:51

    MATLAB文件读写和数据处理的详细解释

    MATLAB提供了丰富的文件读写和数据处理功能,方便对各种类型的数据进行读取、处理和保存。下面是对MATLAB文件读写和数据处理的详细解释,并给出20个示例:
    的头像 发表于 07-05 12:23 1945次阅读

    Python Pandas如何来管理结构化数据

    和DataFrame)。   在人工智能领域,Pandas经常用于机器学习和深度学习过程的预处理步骤。Pandas通过提供数据清理、重塑、合并和聚合,可以将原始
    的头像 发表于 05-25 11:22 458次阅读
    Python <b class='flag-5'>Pandas</b>如何来管理结构化<b class='flag-5'>数据</b>