京公网安备 11010802034615号
经营许可证编号:京B2-20210330
import pandas as pd
d = np.array([[81, 28, 24, 25, 96],
[ 8, 35, 56, 98, 39],
[13, 39, 55, 36, 3],
[70, 54, 69, 48, 12],
[63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
columns=list('abcde'))
df
| a | b | c | d | e | |
|---|---|---|---|---|---|
| 0 | 81 | 28 | 24 | 25 | 96 |
| 1 | 8 | 35 | 56 | 98 | 39 |
| 2 | 13 | 39 | 55 | 36 | 3 |
| 3 | 70 | 54 | 69 | 48 | 12 |
| 4 | 63 | 80 | 97 | 25 | 70 |
聚合计算是指对数据进行汇总和统计的操作。常用的聚合计算方法包括计算均值、求和、最大值、最小值、计数等。
df['a'].mean()
47.0
df['a'].sum()
235
df['a'].max()
81
df['a'].min()
8
df['a'].count()
5
df['a'].median() # 中位数
63.0
df['a'].var() #方差
1154.5
df['a'].skew() # 偏度
-0.45733193928530436
df['a'].kurt() # 峰度
-2.9999915595685325
df['a'].cumsum() # 累计求和
0 81
1 89
2 102
3 172
4 235
Name: a, dtype: int64
df['a'].cumprod() # 累计求积
0 81
1 648
2 8424
3 589680
4 37149840
Name: a, dtype: int64
df['a'].diff() # 差分
0 NaN
1 -73.0
2 5.0
3 57.0
4 -7.0
Name: a, dtype: float64
df['a'].mad() # 平均绝对偏差
29.2
df.sum(axis=0) # 按列求和汇总到最后一行
a 235
b 236
c 301
d 232
e 220
dtype: int64
df.sum(axis=1) # 按行求和汇总到最后一列
0 254
1 236
2 146
3 253
4 335
dtype: int64
df.describe() # 描述性统计
| a | b | c | d | e | |
|---|---|---|---|---|---|
| count | 5.000000 | 5.000000 | 5.000000 | 5.000000 | 5.000000 |
| mean | 47.000000 | 47.200000 | 60.200000 | 46.400000 | 44.000000 |
| std | 33.977934 | 20.656718 | 26.395075 | 30.369392 | 39.083244 |
| min | 8.000000 | 28.000000 | 24.000000 | 25.000000 | 3.000000 |
| 25% | 13.000000 | 35.000000 | 55.000000 | 25.000000 | 12.000000 |
| 50% | 63.000000 | 39.000000 | 56.000000 | 36.000000 | 39.000000 |
| 75% | 70.000000 | 54.000000 | 69.000000 | 48.000000 | 70.000000 |
| max | 81.000000 | 80.000000 | 97.000000 | 98.000000 | 96.000000 |
对整个DataFrame批量使用多个聚合函数
df.agg(['sum', 'mean','max','min','median'])
| a | b | c | d | e | |
|---|---|---|---|---|---|
| sum | 235.0 | 236.0 | 301.0 | 232.0 | 220.0 |
| mean | 47.0 | 47.2 | 60.2 | 46.4 | 44.0 |
| max | 81.0 | 80.0 | 97.0 | 98.0 | 96.0 |
| min | 8.0 | 28.0 | 24.0 | 25.0 | 3.0 |
| median | 63.0 | 39.0 | 56.0 | 36.0 | 39.0 |
对DataFramed的某些列应用不同的聚合函数
df.agg({'a':['max','min'],'b':['sum','mean'],'c':['median']})
| a | b | c | |
|---|---|---|---|
| max | 81.0 | NaN | NaN |
| min | 8.0 | NaN | NaN |
| sum | NaN | 236.0 | NaN |
| mean | NaN | 47.2 | NaN |
| median | NaN | NaN | 56.0 |
注意其中applymap函数在新版已经被弃用,这里的案例是基于pandas=1.3.2写的
在Python中如果想要对数据使用函数,可以借助apply(),applymap(),map()对数据进行转换,括号里面可以是直接函数式,或者自定义函数(def)或者匿名函数(lambda)
1、当我们要对数据框(DataFrame)的数据进行按行或按列操作时用apply()
df.apply(lambda x :x.max()-x.min(),axis=1)
#axis=1,表示按行对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按行找最大值和最小值计算,每一行输出一个值
0 72
1 90
2 52
3 58
4 72
dtype: int64
df.apply(lambda x :x.max()-x.min(),axis=0)
#默认参数axis=0,表示按列对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按列找最大值和最小值计算,每一列输出一个值
a 73
b 52
c 73
d 73
e 93
dtype: int64
2、当我们要对数据框(DataFrame)的每一个数据进行操作时用applymap(),返回结果是DataFrame格式
df.applymap(lambda x : 1 if x>60 else 0)
#从下面的结果可以看出,我们使用了applymap函数之后,
#系统自动对每一个数据进行判断,判断之后输出结果
| a | b | c | d | e | |
|---|---|---|---|---|---|
| 0 | 1 | 0 | 0 | 0 | 1 |
| 1 | 0 | 0 | 0 | 1 | 0 |
| 2 | 0 | 0 | 0 | 0 | 0 |
| 3 | 1 | 0 | 1 | 0 | 0 |
| 4 | 1 | 1 | 1 | 0 | 1 |
3、当我们要对Series的每一个数据进行操作时用map()
df['a'].map(lambda x : 1 if x>60 else 0)
0 1
1 0
2 0
3 1
4 1
Name: a, dtype: int64
总结:
apply() 函数可以在DataFrame或Series上应用自定义函数,可以在行或列上进行操作。
applymap() 函数只适用于DataFrame,可以在每个元素上应用自定义函数。
map() 函数只适用于Series,用于将每个元素映射到另一个值。
以上是数学运算部分,包括聚合计算、批量应用聚合函数,以及对Series和DataFrame进行批量映射,接下来我们来看如何对数据进行合并拼接
这里分享一个你一定用得到的小程序——CDA数据分析师考试小程序。 它是专为CDA数据分析认证考试报考打造的一款小程序。可以帮你快速报名考试、查成绩、查证书、查积分,通过该小程序,考生可以享受更便捷的服务。 扫码加入CDA小程序,与圈内考生一同学习、交流、进步!

数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01在数据驱动决策的时代,企业与从业者每天都会面对海量数据——电商平台的用户行为数据、金融机构的信贷风险数据、快消品牌的营销 ...
2026-04-01在数字化转型的浪潮中,企业数据已从“辅助运营的附属资源”升级为“驱动增长的核心资产”,而一套科学、可落地的企业数据管理方 ...
2026-04-01在数字化时代,每一位用户与产品的交互都会留下可追溯的行为轨迹——电商用户的浏览、加购、下单,APP用户的注册、登录、功能使 ...
2026-03-31在日常数据统计、市场调研、学术分析等场景中,我们常常需要判断两个分类变量之间是否存在关联(如性别与消费偏好、产品类型与满 ...
2026-03-31在CDA(Certified Data Analyst)数据分析师的职场实战与认证考核中,“可解释性建模”是核心需求之一——企业决策中,不仅需要 ...
2026-03-31多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30在CDA(Certified Data Analyst)数据分析师的日常工作中,“无监督分组、挖掘数据内在聚类规律”是高频核心需求——电商场景中 ...
2026-03-30机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26