
用 Python 创建图形的方法有很多,但是哪种方法是最好的呢?当我们做可视化之前,要先明确一些关于图像目标的问题:你是想初步了解数据的分布情况?想展示时给人们留下深刻印象?也许你想给某人展示一个内在的形象,一个中庸的形象?
本文将介绍一些常用的 Python 可视化包,包括这些包的优缺点以及分别适用于什么样的场景。这篇文章只扩展到 2D 图,为下一次讲 3D 图和商业报表(dashboard)留了一些空间,不过这次要讲的包中,许多都可以很好地支持 3D 图和商业报表。
把这三个包放在一起有几个原因:首先 Seaborn 和 Pandas 是建立在 Matplotlib 之上的,当你在用 Seaborn 或 Pandas 中的 df.plot() 时,用的其实是别人用 Matplotlib 写的代码。因此,这些图在美化方面是相似的,自定义图时用的语法也都非常相似。
当提到这些可视化工具时,我想到三个词:探索(Exploratory)、数据(Data)、分析(Analysis)。这些包都很适合第一次探索数据,但要做演示时用这些包就不够了。
Matplotlib 是比较低级的库,但它所支持的自定义程度令人难以置信(所以不要简单地将其排除在演示所用的包之外!),但还有其它更适合做展示的工具。
Matplotlib 还可以选择样式(style selection),它模拟了像 ggplot2 和 xkcd 等很流行的美化工具。下面是我用 Matplotlib 及相关工具所做的示例图:
在处理篮球队薪资数据时,我想找出薪资中位数最高的团队。为了展示结果,我将每个球队的工资用颜色标成条形图,来说明球员加入哪一支球队才能获得更好的待遇。
import seaborn as sns import matplotlib.pyplot as plt color_order = ['xkcd:cerulean', 'xkcd:ocean', 'xkcd:black','xkcd:royal purple', 'xkcd:royal purple', 'xkcd:navy blue', 'xkcd:powder blue', 'xkcd:light maroon', 'xkcd:lightish blue','xkcd:navy'] sns.barplot(x=top10.Team, y=top10.Salary, palette=color_order).set_title('Teams with Highest Median Salary') plt.ticklabel_format(style='sci', axis='y', scilimits=(0,0))
第二个图是回归实验残差的 Q-Q 图。这张图的主要目的是展示如何用尽量少的线条做出一张有用的图,当然也许它可能不那么美观。
import matplotlib.pyplot as plt import scipy.stats as stats #model2 is a regression model log_resid = model2.predict(X_test)-y_test stats.probplot(log_resid, dist="norm", plot=plt) plt.title("Normal Q-Q plot") plt.show()
最终证明,Matplotlib 及其相关工具的效率很高,但就演示而言它们并不是最好的工具。
你可能会问,「Aaron,ggplot 是 R 中最常用的可视化包,但你不是要写 Python 的包吗?」。人们已经在 Python 中实现了 ggplot2,复制了这个包从美化到语法的一切内容。
在我看过的所有材料中,它的一切都和 ggplot2 很像,但这个包的好处是它依赖于 Pandas Python 包。不过 Pandas Python 包最近弃用了一些方法,导致 Python 版本不兼容。
如果你想在 R 中用真正的 ggplot(除了依赖关系外,它们的外观、感觉以及语法都是一样的),我在另外一篇文章中对此进行过讨论。
也就是说,如果你一定要在 Python 中用 ggplot,那你就必须要安装 0.19.2 版的 Pandas,但我建议你最好不要为了使用较低级的绘图包而降低 Pandas 的版本。
ggplot2(我觉得也包括 Python 的 ggplot)举足轻重的原因是它们用「图形语法」来构建图片。基本前提是你可以实例化图,然后分别添加不同的特征;也就是说,你可以分别对标题、坐标轴、数据点以及趋势线等进行美化。
下面是 ggplot 代码的简单示例。我们先用 ggplot 实例化图,设置美化属性和数据,然后添加点、主题以及坐标轴和标题标签。
#All Salaries ggplot(data=df, aes(x=season_start, y=salary, colour=team)) + geom_point() + theme(legend.position="none") + labs(title = 'Salary Over Time', x='Year', y='Salary ($)')
Bokeh 很美。从概念上讲,Bokeh 类似于 ggplot,它们都是用图形语法来构建图片,但 Bokeh 具备可以做出专业图形和商业报表且便于使用的界面。为了说明这一点,我根据 538 Masculinity Survey 数据集写了制作直方图的代码:
import pandas as pd from bokeh.plotting import figure from bokeh.io import show # is_masc is a one-hot encoded dataframe of responses to the question: # "Do you identify as masculine?" #Dataframe Prep counts = is_masc.sum() resps = is_masc.columns #Bokeh p2 = figure(title='Do You View Yourself As Masculine?', x_axis_label='Response', y_axis_label='Count', x_range=list(resps)) p2.vbar(x=resps, top=counts, width=0.6, fill_color='red', line_color='black') show(p2) #Pandas counts.plot(kind='bar')
用 Bokeh 表示调查结果
红色的条形图表示 538 个人关于「你认为自己有男子汉气概吗?」这一问题的答案。9~14 行的 Bokeh 代码构建了优雅且专业的响应计数直方图——字体大小、y 轴刻度和格式等都很合理。
我写的代码大部分都用于标记坐标轴和标题,以及为条形图添加颜色和边框。在制作美观且表现力强的图片时,我更倾向于使用 Bokeh——它已经帮我们完成了大量美化工作。
用 Pandas 表示相同的数据
蓝色的图是上面的第 17 行代码。这两个直方图的值是一样的,但目的不同。在探索性设置中,用 Pandas 写一行代码查看数据很方便,但 Bokeh 的美化功能非常强大。
Bokeh 提供的所有便利都要在 matplotlib 中自定义,包括 x 轴标签的角度、背景线、y 轴刻度以及字体(大小、斜体、粗体)等。下图展示了一些随机趋势,其自定义程度更高:使用了图例和不同的颜色和线条。
Bokeh 还是制作交互式商业报表的绝佳工具。
Plotly 非常强大,但用它设置和创建图形都要花费大量时间,而且都不直观。在用 Plotly 忙活了大半个上午后,我几乎什么都没做出来,干脆直接去吃饭了。我只创建了不带坐标标签的条形图,以及无法删掉线条的「散点图」。Ploty 入门时有一些要注意的点:
但它也有优点,而且设置中的所有缺点都有相应的解决方法:
以下是我针对这个包编写的代码:
#plot 1 - barplot # **note** - the layout lines do nothing and trip no errors data = [go.Bar(x=team_ave_df.team, y=team_ave_df.turnovers_per_mp)] layout = go.Layout( title=go.layout.Title( text='Turnovers per Minute by Team', xref='paper', x=0 ), xaxis=go.layout.XAxis( title = go.layout.xaxis.Title( text='Team', font=dict( family='Courier New, monospace', size=18, color='#7f7f7f' ) ) ), yaxis=go.layout.YAxis( title = go.layout.yaxis.Title( text='Average Turnovers/Minute', font=dict( family='Courier New, monospace', size=18, color='#7f7f7f' ) ) ), autosize=True, hovermode='closest') py.iplot(figure_or_data=data, layout=layout, filename='jupyter-plot', sharing='public', fileopt='overwrite') #plot 2 - attempt at a scatterplot data = [go.Scatter(x=player_year.minutes_played, y=player_year.salary, marker=go.scatter.Marker(color='red', size=3))] layout = go.Layout(title="test", xaxis=dict(title='why'), yaxis=dict(title='plotly')) py.iplot(figure_or_data=data, layout=layout, filename='jupyter-plot2', sharing='public') [Image: image.png]
表示不同 NBA 球队每分钟平均失误数的条形图。
表示薪水和在 NBA 的打球时间之间关系的散点图
总体来说,开箱即用的美化工具看起来很好,但我多次尝试逐字复制文档和修改坐标轴标签时却失败了。但下面的图展示了 Plotly 的潜力,以及我为什么要在它身上花好几个小时:
Plotly 页面上的一些示例图
Pygal 的名气就不那么大了,和其它常用的绘图包一样,它也是用图形框架语法来构建图像的。由于绘图目标比较简单,因此这是一个相对简单的绘图包。使用 Pygal 非常简单:
我在使用 Pygal 的过程中遇到的主要问题在于图片渲染。必须要用 render_to_file 选项,然后在 web 浏览器中打开文件,才能看见我刚刚构建的东西。
最终看来这是值得的,因为图片是交互式的,有令人满意而且便于自定义的美化功能。总而言之,这个包看起来不错,但在文件的创建和渲染部分比较麻烦。
虽然 Networkx 是基于 matplotlib 的,但它仍是图形分析和可视化的绝佳解决方案。图形和网络不是我的专业领域,但 Networkx 可以快速简便地用图形表示网络之间的连接。以下是我针对一个简单图形构建的不同的表示,以及一些从斯坦福 SNAP 下载的代码(关于绘制小型 Facebook 网络)。
我按编号(1~10)用颜色编码了每个节点,代码如下:
options = { 'node_color' : range(len(G)), 'node_size' : 300, 'width' : 1, 'with_labels' : False, 'cmap' : plt.cm.coolwarm } nx.draw(G, **options)
用于可视化上面提到的稀疏 Facebook 图形的代码如下:
import itertools import networkx as nx import matplotlib.pyplot as plt f = open('data/facebook/1684.circles', 'r') circles = [line.split() for line in f] f.close() network = [] for circ in circles: cleaned = [int(val) for val in circ[1:]] network.append(cleaned) G = nx.Graph() for v in network: G.add_nodes_from(v) edges = [itertools.combinations(net,2) for net in network] for edge_group in edges: G.add_edges_from(edge_group) options = { 'node_color' : 'lime', 'node_size' : 3, 'width' : 1, 'with_labels' : False, } nx.draw(G, **options)
这个图形非常稀疏,Networkx 通过最大化每个集群的间隔展现了这种稀疏化。
有很多数据可视化的包,但没法说哪个是最好的。希望阅读本文后,你可以了解到在不同的情境下,该如何使用不同的美化工具和代码。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15