京公网安备 11010802034615号
经营许可证编号:京B2-20210330
分组聚合(group by)顾名思义就是分2步:
groupby()对某列进行分组agg()函数里应用聚合函数计算结果,如sum()、mean()、count()、max()、min()等,用于对每个分组进行聚合计算。import pandas as pd
import numpy as np
import random
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
| A | B | C | D | |
|---|---|---|---|---|
| 0 | a | L | 107 | 22 |
| 1 | b | L | 177 | 59 |
| 2 | a | M | 139 | 38 |
| 3 | b | N | 3 | 50 |
| 4 | a | M | 52 | 60 |
| 5 | b | M | 38 | 82 |
单列分组
① 对单列分组后应用sum聚合函数
df.groupby('A').sum()
| C | D | |
|---|---|---|
| A | ||
| a | 298 | 120 |
| b | 218 | 191 |
② 对单列分组后应用单个指定的聚合函数
df.groupby('A').agg({'C': 'min'}).rename(columns={'C': 'C_min'})
| C_min | |
|---|---|
| A | |
| a | 52 |
| b | 3 |
③ 对单列分组后应用多个指定的聚合函数
df.groupby(['A']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
| C_max | D_min | |
|---|---|---|
| A | ||
| a | 139 | 22 |
| b | 177 | 50 |
两列分组
① 对多列分组后应用sum聚合函数:
df.groupby(['A', 'B']).sum()
| C | D | ||
|---|---|---|---|
| A | B | ||
| a | L | 107 | 22 |
| M | 191 | 98 | |
| b | L | 177 | 59 |
| M | 38 | 82 | |
| N | 3 | 50 |
② 对两列进行group 后,都应用max聚合函数
df.groupby(['A','B']).agg({'C':'max'}).rename(columns={'C': 'C_max'})
| C_max | ||
|---|---|---|
| A | B | |
| a | L | 107 |
| M | 139 | |
| b | L | 177 |
| M | 38 | |
| N | 3 |
③ 对两列进行分组group 后,分别应用max、min聚合函数
df.groupby(['A','B']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
| C_max | D_min | ||
|---|---|---|---|
| A | B | ||
| a | L | 107 | 22 |
| M | 139 | 38 | |
| b | L | 177 | 59 |
| M | 38 | 82 | |
| N | 3 | 50 |
补充1: 应用自定义的聚合函数
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
| A | B | C | D | |
|---|---|---|---|---|
| 0 | a | L | 107 | 22 |
| 1 | b | L | 177 | 59 |
| 2 | a | M | 139 | 38 |
| 3 | b | N | 3 | 50 |
| 4 | a | M | 52 | 60 |
| 5 | b | M | 38 | 82 |
# 使用自定义的聚合函数计算每个分组的最大值和最小值
def custom_agg(x):
return x.max() - x.min()
result = df[['B','C']].groupby('B').agg({'C': custom_agg})
result
| C | |
|---|---|
| B | |
| L | 70 |
| M | 101 |
| N | 0 |
补充2: 开窗函数(类似于SQL里面的over partition by):
使用transform函数计算每个分组的均值
# 使用transform函数计算每个分组的均值
df['B_C_std'] = df[['B','C']].groupby('B')['C'].transform('mean')
df
| A | B | C | D | B_C_std | |
|---|---|---|---|---|---|
| 0 | a | L | 107 | 22 | 142.000000 |
| 1 | b | L | 177 | 59 | 142.000000 |
| 2 | a | M | 139 | 38 | 76.333333 |
| 3 | b | N | 3 | 50 | 3.000000 |
| 4 | a | M | 52 | 60 | 76.333333 |
| 5 | b | M | 38 | 82 | 76.333333 |
补充3: 分组聚合拼接字符串 pandas实现类似 group_concat 功能
假设有这样一个数据:
df = pd.DataFrame({
'姓名': ['张三', '张三', '张三', '李四', '李四', '李四'],
'科目': ['语文', '数学', '英语', '语文', '数学', '英语']
})
df
| 姓名 | 科目 | |
|---|---|---|
| 0 | 张三 | 语文 |
| 1 | 张三 | 数学 |
| 2 | 张三 | 英语 |
| 3 | 李四 | 语文 |
| 4 | 李四 | 数学 |
| 5 | 李四 | 英语 |
补充:按某列分组,将另一列文本拼接合并
按名称分组,把每个人的科目拼接到一个字符串:
# 对整个group对象中的所有列应用join 连接元素
(df.astype(str)# 先将数据全转为字符
.groupby('姓名')# 分组
.agg(lambda x : ','.join(x)))[['科目']]# join 连接元素
| 科目 | |
|---|---|
| 姓名 | |
| 张三 | 语文,数学,英语 |
| 李四 | 语文,数学,英语 |
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01在数据驱动决策的时代,企业与从业者每天都会面对海量数据——电商平台的用户行为数据、金融机构的信贷风险数据、快消品牌的营销 ...
2026-04-01在数字化转型的浪潮中,企业数据已从“辅助运营的附属资源”升级为“驱动增长的核心资产”,而一套科学、可落地的企业数据管理方 ...
2026-04-01在数字化时代,每一位用户与产品的交互都会留下可追溯的行为轨迹——电商用户的浏览、加购、下单,APP用户的注册、登录、功能使 ...
2026-03-31在日常数据统计、市场调研、学术分析等场景中,我们常常需要判断两个分类变量之间是否存在关联(如性别与消费偏好、产品类型与满 ...
2026-03-31在CDA(Certified Data Analyst)数据分析师的职场实战与认证考核中,“可解释性建模”是核心需求之一——企业决策中,不仅需要 ...
2026-03-31多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30在CDA(Certified Data Analyst)数据分析师的日常工作中,“无监督分组、挖掘数据内在聚类规律”是高频核心需求——电商场景中 ...
2026-03-30机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26