京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:俊欣
来源:关于数据分析与可视化
大家好,我是俊欣,本篇文章应该算得上是2022年的第一篇原创了,抱歉,元旦期间小编有点偷懒。
今天小编来给大家讲一下Pandas模块当中的数据统计与排序,说到具体的就是value_counts()方法以及sort_values()方法。
value_counts()方法,顾名思义,主要是用于计算各个类别出现的次数的,而sort_values()方法则是对数值来进行排序,当然除了这些,还有很多大家不知道的衍生的功能等待被挖掘,下面小编就带大家一个一个的说过去。
我们这次用到的数据集是“非常有名”的泰坦尼克号的数据集,该数据源能够在很多平台上都能够找得到
import pandas as pd
df = pd.read_csv("titanic_train.csv")
df.head()
output
首先我们来看一下常规的用法,代码如下
df['Embarked'].value_counts()
output
S 644 C 168 Q 77 Name: Embarked, dtype: int64
下面我们简单来介绍一下value_counts()方法当中的参数,
DataFrame.value_counts(subset=None,
normalize=False,
sort=True,
ascending=False,
dropna=True)
常用到参数的具体解释为:
上面返回的结果是按照从大到小来进行排序的,当然我们也可以反过来,从小到大来进行排序,代码如下
df['Embarked'].value_counts(ascending=True)
output
Q 77 C 168 S 644 Name: Embarked, dtype: int64
同时我们也可以对索引,按照字母表的顺序来进行排序,代码如下
df['Embarked'].value_counts(ascending=True).sort_index(ascending=True)
output
C 168 Q 77 S 644 Name: Embarked, dtype: int64
当中的ascending=True指的是升序排序
默认的是value_counts()方法不会对空值进行统计,那要是我们也希望对空值进行统计的话,就可以加上dropna参数,代码如下
df['Embarked'].value_counts(dropna=False)
output
S 644 C 168 Q 77 NaN 2 Name: Embarked, dtype: int64
我们可以将数值的统计转化成百分比式的统计,可以更加直观地看到每一个类别的占比,代码如下
df['Embarked'].value_counts(normalize=True)
output
S 0.724409 C 0.188976 Q 0.086614 Name: Embarked, dtype: float64
要是我们希望对能够在后面加上一个百分比的符号,则需要在Pandas中加以设置,对数据的展示加以设置,代码如下
pd.set_option('display.float_format', '{:.2%}'.format) df['Embarked'].value_counts(normalize = True)
output
S 72.44% C 18.90% Q 8.66% Name: Embarked, dtype: float64
当然除此之外,我们还可以这么来做,代码如下
df['Embarked'].value_counts(normalize = True).to_frame().style.format('{:.2%}')
output
Embarked S 72.44% C 18.90% Q 8.66%
和Pandas模块当中的cut()方法相类似的在于,我们这里也可以将连续型数据进行分箱然后再来统计,代码如下
df['Fare'].value_counts(bins=3)
output
(-0.513, 170.776] 871 (170.776, 341.553] 17 (341.553, 512.329] 3 Name: Fare, dtype: int64
我们将Fare这一列同等份的分成3组然后再来进行统计,当然我们也可以自定义每一个分组的上限与下限,代码如下
df['Fare'].value_counts(bins=[-1, 20, 100, 550])
output
(-1.001, 20.0] 515 (20.0, 100.0] 323 (100.0, 550.0] 53 Name: Fare, dtype: int64
pandas模块当中的groupby()方法允许对数据集进行分组,它也可以和value_counts()方法联用更好地来进行统计分析,代码如下
df.groupby('Embarked')['Sex'].value_counts()
output
Embarked Sex C male 95 female 73 Q male 41 female 36 S male 441 female 203 Name: Sex, dtype: int64
上面的代码是针对“Embarked”这一类别下的“Sex”特征进行分组,然后再进一步进行数据的统计分析,当然出来的结果是Series数据结构,要是我们想让Series的数据结果编程DataFrame数据结构,可以这么来做,
df.groupby('Embarked')['Sex'].value_counts().to_frame()
下面我们来谈一下数据的排序,主要用到的是sort_values()方法,例如我们根据“年龄”这一列来进行排序,排序的方式为降序排,代码如下
df.sort_values("Age", ascending = False).head(10)
output
我们看到排序过之后的DataFrame数据集行索引依然没有变,我们希望行索引依然可以是从0开始依次的递增,就可以这么来做,代码如下
df.sort_values("Age", ascending = False, ignore_index = True).head(10)
output
下面我们简单来介绍一下sort_values()方法当中的参数
DataFrame.sort_values(by, axis=0, ascending=True, inplace=False, kind='quicksort', na_position='last', # last,first;默认是last ignore_index=False, key=None)
常用到参数的具体解释为:
我们还可以对多个字段进行排序,代码如下
df.sort_values(["Age", "Fare"], ascending = False).head(10)
output
同时我们也可以对不同的字段指定不同的排序方式,如下
df.sort_values(["Age", "Fare"], ascending = [False, True]).head(10)
output
我们可以看到在“Age”一样的情况下,“Fare”字段是按照升序的顺序来排的
我们可以自定义一个函数方法,然后运用在sort_values()方法当中,让其按照自己写的方法来排序,我们看如下的这组数据
df = pd.DataFrame({ 'product': ['keyboard', 'mouse', 'desk', 'monitor', 'chair'], 'category': ['C', 'C', 'O', 'C', 'O'], 'year': [2002, 2002, 2005, 2001, 2003], 'cost': ['$52', '$24', '$250', '$500', '$150'], 'promotion_time': ['20hr', '30hr', '20hr', '20hr', '2hr'],
})
output
当中的“cost”这一列带有美元符号“$”,因此就会干扰排序的正常进行,我们使用lambda方法自定义一个函数方法运用在sort_value()当中
df.sort_values( 'cost',
key=lambda val: val.str.replace('$', '').astype('float64')
)
output
当然我们还可以自定义一个更加复杂一点的函数,并且运用在sort_values()方法当中,代码如下
def sort_by_cost_time(x): if x.name == 'cost': return x.str.replace('$', '').astype('float64') elif x.name == 'promotion_time': return x.str.replace('hr', '').astype('int') else: return x
df.sort_values(
['year', 'promotion_time', 'cost'],
key=sort_by_cost_time
)
output
还有另外一种情况,例如我们遇到衣服的尺码,XS码、S码、M码、L码又或者是月份,Jan、Feb、Mar、Apr等等,需要我们自己去定义大小,这个时候我们需要用到的是CategoricalDtype
cat_size_order = CategoricalDtype(
['XS', 'S', 'M', 'L', 'XL'],
ordered=True
)
cat_size_order
output
CategoricalDtype(categories=['XS', 'S', 'M', 'L', 'XL'], ordered=True)
于是针对下面的数据
df = pd.DataFrame({ 'cloth_id': [1001, 1002, 1003, 1004, 1005, 1006], 'size': ['S', 'XL', 'M', 'XS', 'L', 'S'],
})
output
我们将事先定义好的顺序应用到该数据集当中,代码如下
df['size'] = df['size'].astype(cat_size_order)
df.sort_values('size')
output
先通过astype()来转换数据类型,然后再进行排序
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在构建前向神经网络(Feedforward Neural Network,简称 FNN)时,“隐藏层数目设多少?每个隐藏层该放多少个神经元?” 是每个 ...
2025-10-29这个问题切中了 Excel 用户的常见困惑 —— 将 “数据可视化工具” 与 “数据挖掘算法” 的功能边界混淆。核心结论是:Excel 透 ...
2025-10-29在 CDA(Certified Data Analyst)数据分析师的工作中,“多组数据差异验证” 是高频需求 —— 例如 “3 家门店的销售额是否有显 ...
2025-10-29在数据分析中,“正态分布” 是许多统计方法(如 t 检验、方差分析、线性回归)的核心假设 —— 数据符合正态分布时,统计检验的 ...
2025-10-28箱线图(Box Plot)作为展示数据分布的核心统计图表,能直观呈现数据的中位数、四分位数、离散程度与异常值,是质量控制、实验分 ...
2025-10-28在 CDA(Certified Data Analyst)数据分析师的工作中,“分类变量关联分析” 是高频需求 —— 例如 “用户性别是否影响支付方式 ...
2025-10-28在数据可视化领域,单一图表往往难以承载多维度信息 —— 力导向图擅长展现节点间的关联结构与空间分布,却无法直观呈现 “流量 ...
2025-10-27这个问题问到了 Tableau 中两个核心行级函数的经典组合,理解它能帮你快速实现 “相对位置占比” 的分析需求。“index ()/size ( ...
2025-10-27对 CDA(Certified Data Analyst)数据分析师而言,“假设检验” 绝非 “套用统计公式的机械操作”,而是 “将模糊的业务猜想转 ...
2025-10-27在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21