京公网安备 11010802034615号
经营许可证编号:京B2-20210330
在使用 pandas 处理结构化数据时,“选取特定值所在的行” 是最高频的操作之一 —— 无论是筛选 “性别为男的用户”“销售额超过 1000 的订单”,还是 “包含‘北京’的城市数据”,本质都是从 DataFrame 中精准定位符合条件的行。pandas 提供了多种灵活的筛选工具,从基础的布尔索引到进阶的 query 方法,覆盖从简单到复杂的所有场景。本文将从实际应用出发,拆解 6 类核心筛选方法,结合代码示例与场景对比,帮助读者快速掌握 “按需选行” 的技巧,提升数据处理效率。
在深入方法前,需先明确 “选行” 的核心价值 —— 它是数据清洗、子集分析、业务洞察的前置步骤:
子集分析:聚焦特定群体(如 “会员用户”“一线城市订单”),深入分析其特征;
业务决策:定位关键业务数据(如 “退款金额> 5000 的订单”),支撑问题排查与策略制定。
例如,电商平台分析 “高价值用户” 时,需先筛选 “近 30 天消费 > 5000 且购买次数 > 3” 的用户行;医疗数据分析 “糖尿病患者” 时,需筛选 “血糖值 > 7.0” 的患者行 —— 这些场景都依赖精准的 “选行” 操作。
pandas 选取特定行的本质是 “通过索引或条件,从 DataFrame 中提取满足要求的行子集”,核心依赖 3 类逻辑,所有方法均基于此扩展:
后续所有方法均围绕这 3 类逻辑展开,其中布尔索引是 “选特定值所在行” 的核心,需重点掌握。
根据 “筛选条件的复杂度”,将 pandas 选行方法分为 6 类,每类均配代码示例(基于 Python 3.9+、pandas 1.5+),数据示例统一使用以下电商用户 DataFrame:
import pandas as pd
# 构造示例数据
data = {
"用户ID": [101, 102, 103, 104, 105, 106],
"姓名": ["张三", "李四", "王五", "赵六", "孙七", "周八"],
"城市": ["北京朝阳", "上海浦东", "广州天河", "北京海淀", "深圳南山", "上海静安"],
"年龄": [25, 32, 28, 45, 36, 29],
"消费金额": [3500, 8200, 4800, 9500, 6300, 2800],
"会员等级": ["普通", "VIP", "普通", "VIP", "VIP", "普通"]
}
df = pd.DataFrame(data)
print("原始数据:")
print(df)
适用场景:已知目标列的 “精确值”,如选取 “会员等级 = VIP”“城市 = 北京朝阳” 的行,核心用布尔索引 +== 实现。
# 选取会员等级为"VIP"的行
vip_users = df[df["会员等级"] == "VIP"]
# 或用loc(更推荐,支持后续列筛选)
vip_users_loc = df.loc[df["会员等级"] == "VIP"]
print("VIP用户数据:")
print(vip_users_loc)
若需选取 “城市属于北京或上海” 的行,用isin() 函数(替代多个 ==+|,更简洁):
# 选取城市为"北京朝阳"或"北京海淀"或"上海浦东"或"上海静安"的行
bj_sh_users = df[df["城市"].isin(["北京朝阳", "北京海淀", "上海浦东", "上海静安"])]
# 或简化为“包含北京/上海”的城市(后续模糊匹配会讲更灵活的方式)
print("北京/上海用户数据:")
print(bj_sh_users)
字符串匹配需加引号(""),数值匹配无需(如df[df["年龄"] == 25]);
避免用==匹配浮点数(如df[df["消费金额"] == 3500.0]),因浮点精度可能导致匹配失败,建议用between()(见方法 3)。
适用场景:目标列是文本类型,需 “包含特定字符”,如选取 “城市包含北京”“姓名包含张” 的行,核心用str.contains() 实现。
# 选取城市名称中包含"北京"的行(不区分大小写,加case=False)
bj_users = df[df["城市"].str.contains("北京", case=False)]
# 若需“不包含”,加~(取反)
non_bj_users = df[~df["城市"].str.contains("北京")]
print("北京用户数据:")
print(bj_users)
str.contains () 支持正则表达式,如选取 “城市以北京开头”(排除 “北京朝阳”“北京海淀” 外的其他北京区域):
# 正则表达式:^表示开头,$表示结尾
bj_start_users = df[df["城市"].str.contains("^北京", regex=True)]
print("城市以北京开头的用户:")
print(bj_start_users)
处理缺失值:若列含 NaN,需加na=False(避免返回 NaN 导致筛选错误),如df[df["城市"].str.contains("北京", na=False)];
正则开关:默认regex=True,若需匹配 “包含 * 或.” 等特殊字符,需加regex=False(如df[df["城市"].str.contains("*", regex=False)])。
适用场景:目标列是数值类型,需 “在某个范围”,如选取 “年龄 25-30 岁”“消费金额 5000-10000” 的行,核心用between() 或比较运算符(>、<、>=、<=) 实现。
# 选取年龄在25到30岁之间的用户(包含25和30)
age_range_users = df[df["年龄"].between(25, 30)]
print("25-30岁用户数据:")
print(age_range_users)
# 选取消费金额大于5000且小于10000的用户(注意用&,且每个条件加括号)
high_spend_users = df[(df["消费金额"] > 5000) & (df["消费金额"] < 10000)]
# 若用或逻辑,用|(如消费金额<3000或>8000)
print("高消费用户数据(5000<金额<10000):")
print(high_spend_users)
多条件用&(且)、|(或),必须加括号(因运算符优先级问题);
between () 默认包含边界(left=True, right=True),如需开区间,设left=False或right=False(如df["年龄"].between(25, 30, left=False))。
适用场景:需同时满足 “多个不同类型条件”,如选取 “VIP 会员且消费金额 > 6000 且年龄 < 40” 的行,核心用布尔索引 +&/| 组合条件。
# 条件1:会员等级=VIP;条件2:消费金额>6000;条件3:年龄<40
high_value_vip = df[
(df["会员等级"] == "VIP") &
(df["消费金额"] > 6000) &
(df["年龄"] < 40)
]
# 用loc同时筛选行和列(只保留用户ID、姓名、消费金额)
high_value_vip_cols = df.loc[
(df["会员等级"] == "VIP") &
(df["消费金额"] > 6000) &
(df["年龄"] < 40),
["用户ID", "姓名", "消费金额"] # 仅保留需要的列
]
print("高价值年轻VIP用户:")
print(high_value_vip_cols)
不同列的条件可自由组合(文本精确匹配 + 数值范围匹配);
若条件复杂,建议先定义每个条件变量,再组合(提高可读性):
cond1 = df["会员等级"] == "VIP"
cond2 = df["消费金额"] > 6000
cond3 = df["年龄"] < 40
high_value_vip = df[cond1 & cond2 & cond3]
适用场景:数据清洗时,需定位 “缺失值所在行”(如 “消费金额为 NaN”)或 “无缺失值的行”,核心用isna()/notna() 实现。
# 先构造含缺失值的数据(模拟实际场景)
df_with_na = df.copy()
df_with_na.loc[2, "消费金额"] = None # 第3行(索引2)消费金额设为NaN
df_with_na.loc[4, "城市"] = None # 第5行(索引4)城市设为NaN
# 1. 选取消费金额有缺失值的行
na_spend_users = df_with_na[df_with_na["消费金额"].isna()]
# 2. 选取城市无缺失值的行
non_na_city_users = df_with_na[df_with_na["城市"].notna()]
print("消费金额有缺失的用户:")
print(na_spend_users)
print("城市无缺失的用户:")
print(non_na_city_users)
适用场景:多条件筛选时,用 query () 可直接写 “类 SQL 的条件表达式”,比布尔索引更简洁,尤其适合复杂逻辑。
# 选取VIP会员且消费金额>6000的用户(条件直接写字符串,无需df["列名"])
vip_high_spend = df.query("会员等级 == 'VIP' and 消费金额 > 6000")
print("VIP高消费用户(query方法):")
print(vip_high_spend)
若需用外部变量(如平均年龄)作为条件,用@变量名引用:
avg_age = df["年龄"].mean() # 计算平均年龄(约32.83)
# 选取年龄大于平均年龄的普通会员
above_avg_age = df.query("年龄 > @avg_age and 会员等级 == '普通'")
print(f"年龄大于平均值({avg_age:.2f})的普通会员:")
print(above_avg_age)
字符串值需加单引号(如'VIP'),数值无需;
支持复杂逻辑(如or、in,如query("城市 in ['北京朝阳', '上海浦东']"))。
结合上述方法,完成 “电商高价值用户分析” 的完整流程:筛选 “25-40 岁、消费金额 > 5000、城市包含‘北京’或‘上海’的 VIP 用户”,并导出结果。
# 步骤1:定义筛选条件
cond_city = df["城市"].str.contains("北京|上海", na=False) # 城市含北京或上海
cond_age = df["年龄"].between(25, 40) # 年龄25-40岁
cond_spend = df["消费金额"] > 5000 # 消费金额>5000
cond_vip = df["会员等级"] == "VIP" # 会员等级=VIP
# 步骤2:组合条件筛选
high_value_users = df[cond_city & cond_age & cond_spend & cond_vip]
# 步骤3:处理结果(重置索引,方便后续分析)
high_value_users = high_value_users.reset_index(drop=True) # drop=True删除原索引
# 步骤4:导出结果(保存为Excel)
high_value_users.to_excel("高价值用户.xlsx", index=False)
print("最终筛选的高价值用户:")
print(high_value_users)
输出结果:
最终筛选的高价值用户:
  用户ID 姓名 城市 年龄 消费金额 会员等级
0 102 李四 上海浦东 32 8200 VIP
1 104 赵六 北京海淀 45 9500 VIP
在选取特定行时,新手常因 “数据类型”“逻辑运算符”“缺失值” 等问题导致筛选失败,以下是高频误区的解决方案:
现象:如 “消费金额” 列是字符串类型(如"3500"),用df[df["消费金额"] > 5000]筛选无结果。
解决方案:先转换数据类型:
# 查看数据类型
print(df["消费金额"].dtype) # 若为object(字符串),需转换为int/float
df["消费金额"] = pd.to_numeric(df["消费金额"], errors="coerce") # errors="coerce"将非数值转为NaN
and/or替代&/|导致报错现象:多条件用df[(df["年龄"]>25) and (df["会员等级"]=="VIP")],报错ValueError。
原因:pandas 布尔索引需用 “按位运算符”&(且)、|(或),而非 Python 的逻辑运算符and/or。
解决方案:替换为&/|,且每个条件加括号:
correct_df = df[(df["年龄"]>25) & (df["会员等级"]=="VIP")] # 正确
现象:若 DataFrame 索引重复(如df.index = [0,1,0,3,4,5]),用loc[0]会返回所有索引为 0 的行,而非第一行。
解决方案:如需按位置选行,用 iloc;或重置索引:
# 重置索引为连续整数
df_reset = df.reset_index(drop=True)
# 按位置选第1行(iloc)
first_row = df_reset.iloc[0]
现象:列含 NaN 时,df[df["城市"].str.contains("北京")]会返回NaN,导致筛选结果包含错误行。
解决方案:加na=False,将 NaN 视为不匹配:
safe_df = df[df["城市"].str.contains("北京", na=False)]
不同选行方法的适用场景与效率不同,需根据需求选择:
| 筛选场景 | 推荐方法 | 效率(数据量 100 万行) | 关键优势 |
|---|---|---|---|
| 单条件精确匹配 | 布尔索引(df [df ["列"]== 值]) | 快(~0.1 秒) | 代码简洁,易上手 |
| 多值精确匹配 | isin() | 快(~0.2 秒) | 替代多个 ==+ |
| 文本模糊匹配 | str.contains() | 中(~0.5 秒) | 支持正则,灵活处理文本 |
| 数值范围匹配 | between() | 快(~0.1 秒) | 避免浮点精度问题 |
| 复杂多条件 | query() | 中(~0.3 秒) | 类 SQL 语法,可读性高 |
| 缺失值筛选 | isna()/notna() | 快(~0.1 秒) | 精准定位数据质量问题 |
核心建议:
日常分析优先用 “布尔索引 + isin ()/between ()”,兼顾效率与简洁;
复杂条件(如引用外部变量、多列组合)用 query (),提升代码可读性;
大数据量(千万级)筛选时,避免用 str.contains ()(正则匹配慢),可先预处理文本(如提取城市前缀)再用 isin ()。
通过掌握上述方法,可轻松应对 pandas 中 “选取特定值所在行” 的所有场景,从数据筛选到结果处理形成完整闭环,为后续分析与决策提供精准的数据支撑。

数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30在CDA(Certified Data Analyst)数据分析师的日常工作中,“无监督分组、挖掘数据内在聚类规律”是高频核心需求——电商场景中 ...
2026-03-30机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26在CDA(Certified Data Analyst)数据分析师的能力体系中,线性回归是连接描述性统计与预测性分析的关键桥梁,也是CDA二级认证的 ...
2026-03-26在数据分析、市场研究、用户画像构建、学术研究等场景中,我们常常会遇到多维度、多指标的数据难题:比如调研用户消费行为时,收 ...
2026-03-25在流量红利见顶、获客成本持续攀升的当下,营销正从“广撒网”的经验主义,转向“精耕细作”的数据驱动主义。数据不再是营销的辅 ...
2026-03-25在CDA(Certified Data Analyst)数据分析师的全流程工作中,无论是前期的数据探索、影响因素排查,还是中期的特征筛选、模型搭 ...
2026-03-25在当下数据驱动决策的职场环境中,A/B测试早已成为互联网产品、运营、营销乃至产品迭代优化的核心手段,小到一个按钮的颜色、文 ...
2026-03-24在统计学数据分析中,尤其是分类数据的分析场景里,卡方检验和显著性检验是两个高频出现的概念,很多初学者甚至有一定统计基础的 ...
2026-03-24在CDA(Certified Data Analyst)数据分析师的日常业务分析与统计建模工作中,多组数据差异对比是高频且核心的分析场景。比如验 ...
2026-03-24日常用Excel做数据管理、台账维护、报表整理时,添加备注列是高频操作——用来标注异常、说明业务背景、记录处理进度、补充关键 ...
2026-03-23作为业内主流的自助式数据可视化工具,Tableau凭借拖拽式操作、强大的数据联动能力、灵活的仪表板搭建,成为数据分析师、业务人 ...
2026-03-23在CDA(Certified Data Analyst)数据分析师的日常工作与认证考核中,分类变量的关联分析是高频核心场景。用户性别是否影响商品 ...
2026-03-23在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20