京公网安备 11010802034615号
经营许可证编号:京B2-20210330
python数据分析笔记—数据加载与整理
数据加载
导入文本数据
1、导入文本格式数据(CSV)的方法:
方法一:使用pd.read_csv(),默认打开csv文件。
9、10、11行三种方式均可以导入文本格式的数据。
特殊说明:第9行使用的条件是运行文件.py需要与目标文件CSV在一个文件夹中的时候可以只写文件名。第10和11行中文件名ex1.CSV前面的部分均为文件的路径。
方法二:使用pd.read.table(),需要指定是什么样分隔符的文本文件。用sep=””来指定。
2、当文件没有标题行时
可以让pandas为其自动分配默认的列名。
也可以自己定义列名。
3、将某一列作为索引,比如使用message列做索引。通过index_col参数指定’message’。
4、要将多个列做成一个层次化索引,只需传入由列编号或列名组成的列表即可。
5、文本中缺失值处理,缺失数据要么是没有(空字符串),要么是用某个标记值表示的,默认情况下,pandas会用一组经常出现的标记值进行识别,如NA、NULL等。查找出结果以NAN显示。
6、逐块读取文本文件
如果只想读取几行(避免读取整个文件),通过nrows进行制定即可。
7、对于不是使用固定分隔符分割的表格,可以使用正则表达式来作为read_table的分隔符。
(’\s+’是正则表达式中的字符)。
JSON数据是通过HTTP请求在Web浏览器和其他应用程序之间发送数据的标注形式之一。通过json.loads即可将JSON对象转换成Python对象。(import json)
对应的json.dumps则将Python对象转换成JSON格式。
直接使用read_excel(文件名路径)进行获取,与读取CSV格式的文件类似。
主要包含两种数据库文件,一种是SQL关系型数据库数据,另一种是非SQL型数据库数据即MongoDB数据库文件。
数据库文件是这几种里面比较难的,本人没有接触数据库文件,没有亲测,所以就不贴截图了。
1、数据库风格的合并
数据库风格的合并与SQL数据库中的连接(join)原理一样。通过调用merge函数即可进行合并。
当没有指明用哪一列进行连接时,程序将自动按重叠列的列名进行连接,上述语句就是按重叠列“key”列进行连接。也可以通过on来指定连接列进行连接。
当两个对象的列名不同时,即两个对象没有共同列时,也可以分别进行指定。
Left_on是指左侧DataFrame中用作连接的列。
right_on是指右侧DataFrame中用作连接的列。
通过上面的语句得到的结果里面只有a和b对应的数据,c和d以及与之相关的数据被消去,这是因为默认情况下,merge做的是‘inner’连接,即sql中的内连接,取得两个对象的交集。也有其他方式连接:left、right、outer。用“how”来指明。
也可以根据多个键(列)进行合并,用on传入一个由列名组成的列表即可。
2、索引上的合并
(1)普通索引的合并
Left_index表示将左侧的行索引引用做其连接键
right_index表示将右侧的行索引引用做其连接键
上面两个用于DataFrame中的连接键位于其索引中,可以使用Left_index=True或right_index=True或两个同时使用来进行键的连接。
(2)层次化索引
与数据库中用on来根据多个键合并一样。
3、轴向连接(合并)
轴向连接,默认是在轴方向进行连接,也可以通过axis=1使其进行横向连接。
(1)对于numpy对象(数组)可以用numpy中的concatenation函数进行合并。
(2)对于pandas对象(如Series和DataFrame),可以pandas中的concat函数进行合并。
·4、合并重叠数据
对于索引全部或部分重叠的两个数据集,我们可以使用numpy的where函数来进行合并,where函数相当于if—else函数。
对于重复的数据显示出相同的数据,而对于不同的数据显示a列表的数据。同时也可以使用combine_first的方法进行合并。合并原则与where函数一致,遇到相同的数据显示相同数据,遇到不同的显示a列表数据。
1、旋转数据
(1)重塑索引、分为stack(将数据的列旋转为行)和unstack(将数据的行旋转为列)。
(2)将‘长格式’旋转为‘宽格式’
2、转换数据
(1)数据替换,将某一值或多个值用新的值进行代替。(比较常用的是缺失值或异常值处理,缺失值一般都用NULL、NAN标记,可以用新的值代替缺失标记值)。方法是replace。
一对一替换:用np.nan替换-999
多对一替换:用np.nan替换-999和-1000.
多对多替换:用np.nan代替-999,0代替-1000.
也可以使用字典的形式来进行替换。
(2)离散化或面元划分,即根据某一条件将数据进行分组。
利用pd.cut()方式对一组年龄进行分组。
默认情况下,cut对分组条件的左边是开着的状态,右边是闭合状态。可以用left(right)=False来设置哪边是闭合的。
主要是指清理重复值,DataFrame中经常会出现重复行,清理数据主要是针对这些重复行进行清理。
利用drop_duplicates方法,可以返回一个移除了重复行的DataFrame.
默认情况下,此方法是对所有的列进行重复项清理操作,也可以用来指定特定的一列或多列进行。
默认情况下,上述方法保留的是第一个出现的值组合,传入take_last=true则保留最后一个。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27数据分析的基础范式,是支撑数据工作从“零散操作”走向“标准化落地”的核心方法论框架,它定义了数据分析的核心逻辑、流程与目 ...
2026-01-27在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22在数字化运营场景中,用户每一次点击、浏览、交互都构成了行为轨迹,这些轨迹交织成海量的用户行为路径。但并非所有路径都具备业 ...
2026-01-22在数字化时代,企业数据资产的价值持续攀升,数据安全已从“合规底线”升级为“生存红线”。企业数据安全管理方法论以“战略引领 ...
2026-01-22在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21