京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:Python进阶者
来源:Python爬虫与数据挖掘
大家好,我是吴老板。今天给大家分享一个可将Mongodb数据库里边的文件转换为表格文件的库,这个库是我自己开发的,有问题可以随时咨询我。
Mongo2file库是一个 Mongodb 数据库转换为表格文件的库。
在我的日常工作中经常和 mongodb 打交道,而从 mongodb 数据库中批量导出数据为其他格式则成为了刚需。
如果您跟我一样每次导出数据时都需要重新编写或到处寻找 脚本代码 的话,这个库可能会对您产生帮助。
mongo2file 依赖于 PyArrow 库。它是 C++ Arrow 的 Python 版本实现。
PyArrow 目前与 Python 3.7、3.8、3.9 和 3.10 兼容。
仓库地址: https://github.com/apache/arrow
如果您在 Windows 上遇到任何的导入问题或错误,您可能需要安装 Visual Studio 2015。
警告: PyArrow 目前只支持到 win64 位 ( Python 64bit ) 操作系统。
其次,除了常见的 csv、excel、以及 json 文件格式之外, mongo2file 还支持导出 pickle、feather、parquet 的二进制压缩文件。
pickle、feather、parquet 是 Python 序列化数据的一种文件格式, 它把数据转成二进制进行存储。从而大大减少读取的时间。
pip install mongo2file
快速开始
import os from mongo2file import MongoEngine
M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_'),
collection=os.getenv('MONGO_COLLECTION', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_excel() assert "successfully" in result_ def to_pickle(): result_ = M.to_pickle() assert "successfully" in result_ def to_feather(): result_ = M.to_feather() assert "successfully" in result_ def to_parquet(): result_ = M.to_parquet() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类指定了 mongodb 表名称时、将对数据表 (mongodb集合) 进行导出操作。
其类方法参数包括:
import os from mongo2file import MongoEngine """
作用于 MongoEngine 类未指定表名称时
""" M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_json() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类只指定了 mongodb 库名称时、将对数据库下所有集合进行导出操作。
对于 mongodb 的全表查询、条件查询、聚合操作、以及索引操作(当数据达到一定量级时建议) 并不是直接影响 数据导出的最大因素。
因为 mongodb 的查询一般而言都非常快速,主要的瓶颈在于读取 数据库 之后将数据转换为大列表存入 表格文件时所耗费的时间。
_这是一件非常可怕的事情_。
当没有多线程(当然这里的多线程并不是对同一文件进行并行操作,文件写入往往是线程不安全的)、 数据表查询语句无优化时,并且当数据达到一定量级时(比如 100w 行),单表单线程表现出来的效果真是让人窒息。
在 mongo2file 在进行大数据量导出时表现的并没有多么优秀。导致的主要原因可能是:
mongo2file 表现的不如人意时,我做出了一下改进:
Reference API
MongoEngine
MongoEngine( host='localhost', port=27017, username=None, password=None, database='测试库', collection='测试表_200000' )
to_csv(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_excel(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效 :param mode: 导出模式, 枚举类型、sheet 或 xlsx, 当 is_block 为 True 时生效 :param ignore_error: 是否忽略错误、数据表中存在非序列化类型时使用、这将一定程度上影响程序的性能
to_json(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_pickle(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_feather(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_parquet(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
大家好,我是吴老板。以上就是今天要分享的全部内容了,总的来说,Mongo2file库是一个可以将 Mongodb 数据库转换为表格文件的库,不仅支持导出csv、excel、以及 json 文件格式, 还支持导出 pickle、feather、parquet 的二进制压缩文件。欢迎大家积极尝试,在使用过程中有遇到任何问题,欢迎随时联系我。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11数字化浪潮下,数据已成为企业生存发展的核心资产,而数据思维,正是CDA(Certified Data Analyst)数据分析师解锁数据价值、赋 ...
2026-03-11线性回归是数据分析中最常用的预测与关联分析方法,广泛应用于销售额预测、风险评估、趋势分析等场景(如前文销售额预测中的多元 ...
2026-03-10在SQL Server安装与配置的实操中,“服务名无效”是最令初学者头疼的高频问题之一。无论是在命令行执行net start启动服务、通过S ...
2026-03-10在数据驱动业务的当下,CDA(Certified Data Analyst)数据分析师的核心价值,不仅在于解读数据,更在于搭建一套科学、可落地的 ...
2026-03-10在企业经营决策中,销售额预测是核心环节之一——无论是库存备货、营销预算制定、产能规划,还是战略布局,都需要基于精准的销售 ...
2026-03-09金融数据分析的核心价值,是通过挖掘数据规律、识别风险、捕捉机会,为投资决策、风险控制、业务优化提供精准支撑——而这一切的 ...
2026-03-09在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心工作,是通过数据解读业务、支撑决策,而指标与指标体系 ...
2026-03-09在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05