
作者:Python进阶者
来源:Python爬虫与数据挖掘
大家好,我是吴老板。今天给大家分享一个可将Mongodb数据库里边的文件转换为表格文件的库,这个库是我自己开发的,有问题可以随时咨询我。
Mongo2file库是一个 Mongodb 数据库转换为表格文件的库。
在我的日常工作中经常和 mongodb 打交道,而从 mongodb 数据库中批量导出数据为其他格式则成为了刚需。
如果您跟我一样每次导出数据时都需要重新编写或到处寻找 脚本代码 的话,这个库可能会对您产生帮助。
mongo2file 依赖于 PyArrow 库。它是 C++ Arrow 的 Python 版本实现。
PyArrow 目前与 Python 3.7、3.8、3.9 和 3.10 兼容。
仓库地址: https://github.com/apache/arrow
如果您在 Windows 上遇到任何的导入问题或错误,您可能需要安装 Visual Studio 2015。
警告: PyArrow 目前只支持到 win64 位 ( Python 64bit ) 操作系统。
其次,除了常见的 csv、excel、以及 json 文件格式之外, mongo2file 还支持导出 pickle、feather、parquet 的二进制压缩文件。
pickle、feather、parquet 是 Python 序列化数据的一种文件格式, 它把数据转成二进制进行存储。从而大大减少读取的时间。
pip install mongo2file
快速开始
import os from mongo2file import MongoEngine
M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_'),
collection=os.getenv('MONGO_COLLECTION', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_excel() assert "successfully" in result_ def to_pickle(): result_ = M.to_pickle() assert "successfully" in result_ def to_feather(): result_ = M.to_feather() assert "successfully" in result_ def to_parquet(): result_ = M.to_parquet() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类指定了 mongodb 表名称时、将对数据表 (mongodb集合) 进行导出操作。
其类方法参数包括:
import os from mongo2file import MongoEngine """
作用于 MongoEngine 类未指定表名称时
""" M = MongoEngine(
host=os.getenv('MONGO_HOST', '127.0.0.1'),
port=int(os.getenv('MONGO_PORT', 27017)),
username=os.getenv('MONGO_USERNAME', None),
password=os.getenv('MONGO_PASSWORD', None),
database=os.getenv('MONGO_DATABASE', 'test_')
) def to_csv(): result_ = M.to_csv() assert "successfully" in result_ def to_excel(): result_ = M.to_excel() assert "successfully" in result_ def to_json(): result_ = M.to_json() assert "successfully" in result_
to_csv()
当 MongoEngine 控制类只指定了 mongodb 库名称时、将对数据库下所有集合进行导出操作。
对于 mongodb 的全表查询、条件查询、聚合操作、以及索引操作(当数据达到一定量级时建议) 并不是直接影响 数据导出的最大因素。
因为 mongodb 的查询一般而言都非常快速,主要的瓶颈在于读取 数据库 之后将数据转换为大列表存入 表格文件时所耗费的时间。
_这是一件非常可怕的事情_。
当没有多线程(当然这里的多线程并不是对同一文件进行并行操作,文件写入往往是线程不安全的)、 数据表查询语句无优化时,并且当数据达到一定量级时(比如 100w 行),单表单线程表现出来的效果真是让人窒息。
在 mongo2file 在进行大数据量导出时表现的并没有多么优秀。导致的主要原因可能是:
mongo2file 表现的不如人意时,我做出了一下改进:
Reference API
MongoEngine
MongoEngine( host='localhost', port=27017, username=None, password=None, database='测试库', collection='测试表_200000' )
to_csv(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_excel(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效 :param mode: 导出模式, 枚举类型、sheet 或 xlsx, 当 is_block 为 True 时生效 :param ignore_error: 是否忽略错误、数据表中存在非序列化类型时使用、这将一定程度上影响程序的性能
to_json(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数 :param is_block: 是否分块导出 :param block_size: 块大小、is_block 为 True 时生效
to_pickle(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_feather(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
to_parquet(query, folder_path, filename, ...)
:param query: 数据库查询条件、字典类型、只作用于单表导出 :param folder_path: 指定导出的目录 :param filename: 指定导出的文件名 :param _id: 是否导出 _id 默认否 :param limit: 限制数据表查询的条数
大家好,我是吴老板。以上就是今天要分享的全部内容了,总的来说,Mongo2file库是一个可以将 Mongodb 数据库转换为表格文件的库,不仅支持导出csv、excel、以及 json 文件格式, 还支持导出 pickle、feather、parquet 的二进制压缩文件。欢迎大家积极尝试,在使用过程中有遇到任何问题,欢迎随时联系我。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
“纲举目张,执本末从。”若想在数据分析领域有所收获,一套合适的学习教材至关重要。一套优质且契合需求的学习教材无疑是那关键 ...
2025-06-092025 年,数据如同数字时代的 DNA,编码着人类社会的未来图景,驱动着商业时代的运转。从全球互联网用户每天产生的2.5亿TB数据, ...
2025-05-27CDA数据分析师证书考试体系(更新于2025年05月22日)
2025-05-26解码数据基因:从数字敏感度到逻辑思维 每当看到超市货架上商品的排列变化,你是否会联想到背后的销售数据波动?三年前在零售行 ...
2025-05-23在本文中,我们将探讨 AI 为何能够加速数据分析、如何在每个步骤中实现数据分析自动化以及使用哪些工具。 数据分析中的AI是什么 ...
2025-05-20当数据遇见人生:我的第一个分析项目 记得三年前接手第一个数据分析项目时,我面对Excel里密密麻麻的销售数据手足无措。那些跳动 ...
2025-05-20在数字化运营的时代,企业每天都在产生海量数据:用户点击行为、商品销售记录、广告投放反馈…… 这些数据就像散落的拼图,而相 ...
2025-05-19在当今数字化营销时代,小红书作为国内领先的社交电商平台,其销售数据蕴含着巨大的商业价值。通过对小红书销售数据的深入分析, ...
2025-05-16Excel作为最常用的数据分析工具,有没有什么工具可以帮助我们快速地使用excel表格,只要轻松几步甚至输入几项指令就能搞定呢? ...
2025-05-15数据,如同无形的燃料,驱动着现代社会的运转。从全球互联网用户每天产生的2.5亿TB数据,到制造业的传感器、金融交易 ...
2025-05-15大数据是什么_数据分析师培训 其实,现在的大数据指的并不仅仅是海量数据,更准确而言是对大数据分析的方法。传统的数 ...
2025-05-14CDA持证人简介: 万木,CDA L1持证人,某电商中厂BI工程师 ,5年数据经验1年BI内训师,高级数据分析师,拥有丰富的行业经验。 ...
2025-05-13CDA持证人简介: 王明月 ,CDA 数据分析师二级持证人,2年数据产品工作经验,管理学博士在读。 学习入口:https://edu.cda.cn/g ...
2025-05-12CDA持证人简介: 杨贞玺 ,CDA一级持证人,郑州大学情报学硕士研究生,某上市公司数据分析师。 学习入口:https://edu.cda.cn/g ...
2025-05-09CDA持证人简介 程靖 CDA会员大咖,畅销书《小白学产品》作者,13年顶级互联网公司产品经理相关经验,曾在百度、美团、阿里等 ...
2025-05-07相信很多做数据分析的小伙伴,都接到过一些高阶的数据分析需求,实现的过程需要用到一些数据获取,数据清洗转换,建模方法等,这 ...
2025-05-06以下的文章内容来源于刘静老师的专栏,如果您想阅读专栏《10大业务分析模型突破业务瓶颈》,点击下方链接 https://edu.cda.cn/g ...
2025-04-30CDA持证人简介: 邱立峰 CDA 数据分析师二级持证人,数字化转型专家,数据治理专家,高级数据分析师,拥有丰富的行业经验。 ...
2025-04-29CDA持证人简介: 程靖 CDA会员大咖,畅销书《小白学产品》作者,13年顶级互联网公司产品经理相关经验,曾在百度,美团,阿里等 ...
2025-04-28CDA持证人简介: 居瑜 ,CDA一级持证人国企财务经理,13年财务管理运营经验,在数据分析就业和实践经验方面有着丰富的积累和经 ...
2025-04-27