京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:Python进阶者
来源:Python爬虫与数据挖掘
大家好,我是吴老板。今天给大家分享一个可将Mongodb数据库里边的文件转换为表格文件的库,这个库是我自己开发的,有问题可以随时咨询我。
Mongo2file库是一个 Mongodb 数据库转换为表格文件的库。
在我的日常工作中经常和 mongodb 打交道,而从 mongodb 数据库中批量导出数据为其他格式则成为了刚需。
如果您跟我一样每次导出数据时都需要重新编写或到处寻找 脚本代码 的话,这个库可能会对您产生帮助。
mongo2file 依赖于 PyArrow 库。它是 C++ Arrow 的 Python 版本实现。
PyArrow 目前与 Python 3.7、3.8、3.9 和 3.10 兼容。
仓库地址: https://github.com/apache/arrow
如果您在 Windows 上遇到任何的导入问题或错误,您可能需要安装 Visual Studio 2015。
警告: PyArrow 目前只支持到 win64 位 ( Python 64bit ) 操作系统。
其次,除了常见的 csv、excel、以及 json 文件格式之外, mongo2file 还支持导出 pickle、feather、parquet 的二进制压缩文件。
pickle、feather、parquet 是 Python 序列化数据的一种文件格式, 它把数据转成二进制进行存储。从而大大减少读取的时间。
pip install mongo2file
快速开始
import os from mongo2file import MongoEngine
M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_'),
collection=os.getenv('MONGO_COLLECTION', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_excel() assert "successfully" in result_ def to_pickle(): result_ = M.to_pickle() assert "successfully" in result_ def to_feather(): result_ = M.to_feather() assert "successfully" in result_ def to_parquet(): result_ = M.to_parquet() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类指定了 mongodb 表名称时、将对数据表 (mongodb集合) 进行导出操作。
其类方法参数包括:
import os from mongo2file import MongoEngine """
作用于 MongoEngine 类未指定表名称时
""" M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_json() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类只指定了 mongodb 库名称时、将对数据库下所有集合进行导出操作。
对于 mongodb 的全表查询、条件查询、聚合操作、以及索引操作(当数据达到一定量级时建议) 并不是直接影响 数据导出的最大因素。
因为 mongodb 的查询一般而言都非常快速,主要的瓶颈在于读取 数据库 之后将数据转换为大列表存入 表格文件时所耗费的时间。
_这是一件非常可怕的事情_。
当没有多线程(当然这里的多线程并不是对同一文件进行并行操作,文件写入往往是线程不安全的)、 数据表查询语句无优化时,并且当数据达到一定量级时(比如 100w 行),单表单线程表现出来的效果真是让人窒息。
在 mongo2file 在进行大数据量导出时表现的并没有多么优秀。导致的主要原因可能是:
mongo2file 表现的不如人意时,我做出了一下改进:
Reference API
MongoEngine
MongoEngine( host='localhost', port=27017, username=None, password=None, database='测试库', collection='测试表_200000' )
to_csv(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_excel(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效 :param mode: 导出模式, 枚举类型、sheet 或 xlsx, 当 is_block 为 True 时生效 :param ignore_error: 是否忽略错误、数据表中存在非序列化类型时使用、这将一定程度上影响程序的性能
to_json(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_pickle(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_feather(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_parquet(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
大家好,我是吴老板。以上就是今天要分享的全部内容了,总的来说,Mongo2file库是一个可以将 Mongodb 数据库转换为表格文件的库,不仅支持导出csv、excel、以及 json 文件格式, 还支持导出 pickle、feather、parquet 的二进制压缩文件。欢迎大家积极尝试,在使用过程中有遇到任何问题,欢迎随时联系我。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在中介效应分析中,人口统计学变量(如年龄、性别、学历、收入、职业等)是常见的控制变量或调节变量,其处理方式直接影响分析结 ...
2026-04-29在SQL数据库实操中,日期数据的存储与显示是高频需求,而“数字日期”(如20240520、20241231、45321)是很多开发者、数据分析师 ...
2026-04-29 很多分析师在设计标签时思路清晰,但真到落地环节却面临“数据在手,不知如何转化为可用标签”的困境:或因加工方式选择不当 ...
2026-04-29在手游行业竞争日趋白热化的当下,“流量为王”早已升级为“留存为王”,而付费用户留存率更是衡量一款手游盈利能力、运营质量的 ...
2026-04-28在日常MySQL数据库运维与开发中,经常会遇到“同一台服务器上,两个不同数据库(以下简称“源库”“目标库”)的表数据需要保持 ...
2026-04-28 很多分析师每天和数据打交道,但当被问到“标签是什么”“标签和指标有什么区别”“标签体系如何设计”时,却常常答不上来。 ...
2026-04-28箱线图(Box Plot)作为一种经典的数据可视化工具,广泛应用于统计学、数据分析、科研实证等领域,核心价值在于直观呈现数据的集 ...
2026-04-27实证分析是社会科学、自然科学、经济管理等领域开展研究的核心范式,其核心逻辑是通过对多维度数据的收集、分析与解读,揭示变量 ...
2026-04-27 很多数据分析师精通Excel函数和数据透视表,但当被问到“数据从哪里来”“表和视图有什么区别”“数据库管理系统和SQL是什么 ...
2026-04-27在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21