京公网安备 11010802034615号
经营许可证编号:京B2-20210330
Pandas json_normalize 函数使用教程介绍
json_normalize 是 Pandas 库中一个强大的函数,用于将嵌套的 JSON 数据规范化成平面的 DataFrame。这对于处理包含嵌套结构的 JSON 数据非常有用,使其更容易分析和操作。在本教程中,我们将深入介绍 json_normalize 函数,并通过通俗的例子帮助你理解其参数的作用。
安装 Pandas
首先,确保你已经安装了 Pandas。如果没有安装,可以使用以下命令进行安装:pip install pandas使用 json_normalize基本用法让我们从最基本的用法开始。假设有如下嵌套的 JSON 数据:{
"name":"John",
"age":30,
"address":{
"city":"New York",
"zip":"10001"
}
}
}
现在我们将使用 json_normalize 将其规范化成 DataFrame:import pandas as pd
# 嵌套的 JSON 数据
data = {
"name": "John",
"age": 30,
"address": {
"city": "New York",
"zip": "10001"
}
}
# 使用 json_normalize 规范化
df = pd.json_normalize(data)
# 打印 DataFrame
print(df)
print(df) 运行上述代码,你将得到一个包含规范化数据的 DataFrame。处理嵌套数组json_normalize 也可以处理包含嵌套数组的 JSON 数据。
考虑以下 JSON:{
"name":"John",
"age":30,
"skills":[
{"language":"Python", "level":"Intermediate"},
{"language":"JavaScript", "level":"Advanced"}
]
}
}
我们可以使用 record_path 参数指定要规范化的嵌套数组:# 嵌套数组的 JSON 数据
data_with_array = {
"name": "John",
"age": 30,
"skills": [
{"language": "Python", "level": "Intermediate"},
{"language": "JavaScript", "level": "Advanced"}
]
}
# 使用 json_normalize 规范化,指定嵌套数组路径
df_with_array = pd.json_normalize(data_with_array, record_path='skills')
# 打印 DataFrame
print(df_with_array)
通过指定 record_path 参数,我们将嵌套数组规范化成了 DataFrame。处理嵌套 JSONjson_normalize 还支持处理嵌套的 JSON 结构。
考虑以下 JSON: {
"name":"John",
"age":30,
"contact":{
"email":"john@example.com",
"phone":{
"home":"123-456-7890",
"work":"987-654-3210"
}
}
}
我们可以使用 sep 参数指定嵌套层次的分隔符:# 嵌套 JSON 数据
data_nested = {
"name": "John",
"age": 30,
"contact": {
"email": "john@example.com",
"phone": {
"home": "123-456-7890",
"work": "987-654-3210"
}
}
}
# 使用 json_normalize 规范化,指定嵌套层次分隔符
df_nested = pd.json_normalize(data_nested, sep='_')
# 打印 DataFrame
print(df_nested)
print(df_nested)在这个例子中,我们通过指定 sep 参数,将嵌套的 JSON 结构规范化成了 DataFrame。
总结
通过本教程,你学习了如何使用 Pandas 中的 json_normalize 函数将嵌套的 JSON 数据规范化成易于处理的 DataFrame。我们介绍了基本用法以及如何处理嵌套数组和嵌套 JSON 结构。希望这些通俗易懂的例子能够帮助你更好地理解 json_normalize 函数的使用。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22在数字化运营场景中,用户每一次点击、浏览、交互都构成了行为轨迹,这些轨迹交织成海量的用户行为路径。但并非所有路径都具备业 ...
2026-01-22在数字化时代,企业数据资产的价值持续攀升,数据安全已从“合规底线”升级为“生存红线”。企业数据安全管理方法论以“战略引领 ...
2026-01-22在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21在实际业务数据分析中,单一数据表往往无法满足需求——用户信息存储在用户表、消费记录在订单表、商品详情在商品表,想要挖掘“ ...
2026-01-21在数字化转型浪潮中,企业数据已从“辅助资源”升级为“核心资产”,而高效的数据管理则是释放数据价值的前提。企业数据管理方法 ...
2026-01-21在数字化商业环境中,数据已成为企业优化运营、抢占市场、规避风险的核心资产。但商业数据分析绝非“堆砌数据、生成报表”的简单 ...
2026-01-20定量报告的核心价值是传递数据洞察,但密密麻麻的表格、复杂的计算公式、晦涩的数值罗列,往往让读者望而却步,导致核心信息被淹 ...
2026-01-20在CDA(Certified Data Analyst)数据分析师的工作场景中,“精准分类与回归预测”是高频核心需求——比如预测用户是否流失、判 ...
2026-01-20在建筑工程造价工作中,清单汇总分类是核心环节之一,尤其是针对楼梯、楼梯间这类包含多个分项工程(如混凝土浇筑、钢筋制作、扶 ...
2026-01-19数据清洗是数据分析的“前置必修课”,其核心目标是剔除无效信息、修正错误数据,让原始数据具备准确性、一致性与可用性。在实际 ...
2026-01-19在CDA(Certified Data Analyst)数据分析师的日常工作中,常面临“无标签高维数据难以归类、群体规律模糊”的痛点——比如海量 ...
2026-01-19在数据仓库与数据分析体系中,维度表与事实表是构建结构化数据模型的核心组件,二者如同“骨架”与“血肉”,协同支撑起各类业务 ...
2026-01-16在游戏行业“存量竞争”的当下,玩家留存率直接决定游戏的生命周期与商业价值。一款游戏即便拥有出色的画面与玩法,若无法精准识 ...
2026-01-16为配合CDA考试中心的 2025 版 CDA Level III 认证新大纲落地,CDA 网校正式推出新大纲更新后的第一套官方模拟题。该模拟题严格遵 ...
2026-01-16在数据驱动决策的时代,数据分析已成为企业运营、产品优化、业务增长的核心工具。但实际工作中,很多数据分析项目看似流程完整, ...
2026-01-15