京公网安备 11010802034615号
经营许可证编号:京B2-20210330
CDA数据分析师 出品
作者:曹鑫
我知道,一说到数字经济,数字化转型,数字化人才,你第一感觉就是:跟我有半毛钱关系。诶,不要着急!
至少 Excel 你天天在用吧?只不过你可能用的最多的就是复制粘贴记录一下数据。你不要怀疑,这高低、左右,都算是数字化技能!因为数字化技能的核心就是数据能力,而且数据能力贯穿着公司业务全流程的每个环节,这也是为什么说,数字经济时代的新生产资料是数据!看看这张数据能力图,分成四个层面:需求层、数据层、分析层、输出层;第一层是需求层,是目标确定的过程,对整个业务进行拆解,为数据工作指明方向;第二层是数据层,包含数据获取、数据清洗、数据整;第三层是分析层,包含描述性统计制图、业务根因分析,这里就涉及到专业的算法;第四层是输出层,面向管理层、决策层、执行层,给出不同的数据报告、业务仪表盘、落地模型等。
今天遇到一个任务是「财务对账」。
对账,可以说是财务最常做的一个工作,也是基础工作之一。就算你们公司的系统已经非常完整了,你还是会遇到两个表要核对差异在哪里的情况。你会怎么做?
当数据量不大的时候,我们最简单的做法,也是最符合第一直觉的做法,把两张表放到一起,一左一右,左边有个268,右边有个268,这就对上了;左边有个20.1,右边没找到20.1,这就是多记了,但是右边有个21,所以也有可能是错记了;左边有个100,右边也有个100,左边还有个100,右边没有100了,那这里可能是多记了。剩下右边还有个8,那这就是左边漏记了,这样就把不同情况都分析出来了。
但如果数据量大了,几百上千行,甚至几万行,这个方法就有点累了,比如我们现在有的两张数据表,一份公司银行存款明细账和一份银行流水,我们需要将公司银行存款明细中的借方与银行流水的收款金额进行核对。别说几百上千行了,光看这个100多行,我就觉得看着累。
如果用 Python 来做,效率就会大大提升。我们先看看Python实现的逻辑,还是之前的例子:我们要看数据有没有重复,就是统计每个数据在两个表分别出现的次数,然后两个表中的个数相减。
知道了逻辑,我们就可以来操作了。先看看效果,就是这30多行代码,作为新人,你别怕,我们先看看有多爽!
import pandas as pd
# 读取公司明细账
df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
# 读取银行流水
df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
# 将两张表的借方-收款拼接
mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0]
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
# 判断金额出现的次数
df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
# 重复次数不为0,就是没有对上
df_result = df_count[df_count['重复次数'] != 0].copy()
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 列出两张表中具体的行 # 公司银行存款明细账中的多记/错记 df_gs[df_gs['借方'] == 1.00]
# 银行流水中的漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
读取两张 Excel 表的数据
import pandas as pd # 读取公司明细账 df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
df_gs.head()
# 读取银行流水 df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_yh.head()
数据清洗:修改列名
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_gs_jie.head()
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
df_yh_shou.head()
拼接两张表
# 将两张表的借方-收款拼接 mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0] # 剔除金额为 0 的行 mergedStuff_jie_shou
根据金额进行统计
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
df_count
# 判断金额出现的次数 df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
df_count
# 重复次数不为0,就是没有对上 df_result = df_count[df_count['重复次数'] != 0].copy()
df_result
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 多记/错记 df_gs[df_gs['借方'] == 1.00]
# 漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
未来,你只要修改好需要读取的表,确定需要比对的列,然后一键运行,结果一瞬间就出来了,而且你之后每个月,每周,甚至每天要比对的时候,你只需要确定好你要比对的表,比对的数据列,就可以快速得到结果,代码复用效率极高。你还可以进一步查看各自表中具体行的数据,方便你具体判断。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
B+树作为数据库索引的核心数据结构,其高效的查询、插入、删除性能,离不开节点间指针的合理设计。在日常学习和数据库开发中,很 ...
2026-01-30在数据库开发中,UUID(通用唯一识别码)是生成唯一主键、唯一标识的常用方式,其标准格式包含4个短横线(如550e8400-e29b-41d4- ...
2026-01-30商业数据分析的价值落地,离不开标准化、系统化的总体流程作为支撑;而CDA(Certified Data Analyst)数据分析师,作为经过系统 ...
2026-01-30在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27数据分析的基础范式,是支撑数据工作从“零散操作”走向“标准化落地”的核心方法论框架,它定义了数据分析的核心逻辑、流程与目 ...
2026-01-27在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22