京公网安备 11010802034615号
经营许可证编号:京B2-20210330
CDA数据分析师 出品
作者:Mika、真达
数据:真达
后期:泽龙
【导读】今天我们用数据来聊一聊口味虾。
Show me data,用数据说话
今天我们聊一聊 口味虾
说起湖南这个地方,大家想到的肯定是各种吃的,最常听到的就是臭豆腐,外焦里嫩,闻起来臭吃起来香,一口下去让人回味无穷。
还有香甜软糯的糖油粑粑,炸至金黄的糯米,外面裹着糖浆。
还有就是口味虾了,口味虾又叫麻辣小龙虾。在夏天的时候,邀上三五好友,来上几盘口味虾,搭配上啤酒,肥宅的生活就这么快乐的开始了,味道麻辣爽口,一口下去就想吃下一口!在湖南,没有吃上口味虾的夏天都是不完整的。
那么湖南的吃货们都喜欢吃哪家的口味虾呢?今天我们就用数据来盘一盘。
我们使用Python获取了大众点评上长沙口味虾店铺的相关信息,进行了数据分析,整体流程如下:
网络数据获取
数据读入
数据探索与可视化
01数据读入
首先导入所需包,并读入获取的数据集。
# 导入包
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
import jieba
from pyecharts.charts import Bar, Pie, Page
from pyecharts import options as opts
from pyecharts.globals import SymbolType, WarningType
WarningType.ShowWarning = False
import plotly.express as px
import plotly.graph_objects as go
此数据集包含50个搜索页面共745条数据,字段包含:餐厅名、星级、星级评分、评论数、人均消费、推荐菜、口味、环境和服务得分。
数据预览如下:
# 读入数据
df = pd.read_excel('../data/长沙小龙虾数据.xlsx')
df.drop('detail_url', axis=1. inplace=True)
df.head()
02数据预处理
此处我们对数据进行如下处理以便后的分析工作。
title: 去除前后符号
star:提取星级
score: 提取数值,转换为类别型
comment_list:提取口味、环境、服务得分
删除多余的行和列
# 星级转换
transform_star = {
20: '二星',
30: '三星',
35: '准四星',
40: '四星',
45: '准五星',
50: '五星'
}
# 处理title
df['title'] = df['title'].str.replace(r"\[\'|\'\]", "")
# star处理
df['star'] = df.star.str.extract(r'(\d+)')[0].astype('int')
df['star_label'] = df.star.map(transform_star)
# 处理score
df['score'] = df['score'].str.replace(r"\[\'|\'\]", "").replace("[]", np.nan)
df['score'] = df['score'].astype('float')
# 口味
df['taste'] = df.comment_list.str.split(',').str[0].str.extract(r'(\d+\.*\d+)').astype('float')
# 环境
df['environment'] = df.comment_list.str.split(',').str[1].str.extract(r'(\d+\.*\d+)').astype('float')
# 服务
df['service'] = df.comment_list.str.split(',').str[1].str.extract(r'(\d+\.*\d+)').astype('float')
# 删除列
df.drop('comment_list', axis=1. inplace=True)
# 删除行
df.dropna(subset=['taste'], axis=0. inplace=True)
# 删除记录少的
df = df[df.star!=20]
处理之后的数据如下,分析样本为560条。
df.head()
03数据可视化
以下展示部分可视化代码:
1不同星级店铺数量分布
准四星商户最多,占比高达65%,超过四星以上的商户占比18%,其中五星商户数量最少,仅有10家。
# 产生数据
star_num = df.star.value_counts().sort_index(ascending=True)
x_data = star_num.index.map(transform_star).tolist()
y_data = star_num.values.tolist()
# 条形图
bar1 = Bar(init_opts=opts.InitOpts(width='1350px', height='750px'))
bar1.add_xaxis(x_data)
bar1.add_yaxis('', y_data)
bar1.set_global_opts(title_opts=opts.TitleOpts(title='不同星级商户数量分布'),
visualmap_opts=opts.VisualMapOpts(max_=365)
)
bar1.render()
2店铺评论数分布
我们假设评论数目为店铺的热度,也就是它越火,消费人数越多,评论数目越多。
从直方图中可以看出,数据呈现比较严重的右偏分布,其中超过1万评论的仅有两家,我们挑选出来看一下,发现这两家都是超级文和友,超级文和友是长沙网红打卡地,国庆期间一天排16000+个号的超级网红龙虾馆,难怪热度会这么高。
# 直方图
px.histogram(data_frame=df , x='review_num', color='star_label', histfunc='sum',
title='不同星级的评论数分布',
nbins=20. width=1150. height=750)
3人均价格区间分布
我们绘制了所有店铺口味虾人均消费价格分布的直方图,发现价格分布在20~180元之间,其中人均消费大部分都在67-111元的区间内。扩展看,人均消费和商户的星级有关系吗?
# 直方图
px.histogram(data_frame=df , x='mean_price', color='star_label', histfunc='sum',
title='小龙虾人均消费价格分布', nbins=20. width=1150. height=750)
4不同星级店铺与价格等因素的关系
不同星级与价格的关系
这里绘制了星级和价格分布的小提琴图,用来展示多组数据的分布状态以及概率密度。从图形可以看出,不同星级和价格之间的分布有显著差异,表现为星级越高,平均消费价格越高。
# 小提琴图
plt.figure(figsize=(15. 8))
sns.violinplot(x='star_label', y='mean_price', data=df,
order=['五星', '准五星', '四星', '准四星', '三星']
);
plt.title('不同星级和价格的关系', fontsize=20)
plt.show()
不同星级和其他得分项的关系
我们预想,星级评价越好,它在口味、环境和服务的得分越高,热度也就越高,从绘制出来的箱线图也可以验证我们的这一假设。
那么店铺得分与口味、环境、服务、评论数量、平均价格有关系吗?接下来我们绘制一张多变量图看一下。
4数值型变量关系
多变量图用于探索数值型变量之间的关系,从多变量图可以看出:
店铺得分与口味、环境、服务得分呈现较为显著的线性相关,这也和之前的验证一致;
店铺得分和人均消费价格、评论数量关系不显著;
口味、环境、服务得分之间有显著的正相关,三者存在高则同高的情况。
# 多变量图
sns.pairplot(data=df[['score', 'review_num', 'mean_price', 'taste', 'environment', 'service', 'star_label']]
, hue='star_label')
plt.show()
数值型变量之间的相关系数
为了验证上述可视化的结果,我们通过Python计算数值型变量之间的pearson相关系数,根据经验,|r|>=0.8时,可视为高相关。从热力图中也可以得到上述结论。
# 相关系数
data_corr = df[['score', 'review_num', 'mean_price', 'taste', 'environment', 'service']].corr()
# 热力图
plt.figure(figsize=(15. 10))
sns.heatmap(data_corr, linewidths=0.1. cmap='tab20c_r', annot=True)
plt.title('数值型变量间相关系数', fontdict={'fontsize': 'xx-large', 'fontweight':'heavy'})
plt.xticks(fontsize=12)
plt.yticks(fontsize=12)
plt.show()
5推荐菜词云图
假设店铺的推荐菜就是不同店铺的热门菜,我们使用jieba对推荐菜进行分词并绘制词云图:
发现"卤虾"、"口味虾"、"油爆虾"是大家爱点的热门菜。另外大家点口味虾的同时也爱点"口味花甲"、"凤爪"、"牛油"之类的串儿等菜。
6K-means聚类分析群集占比
聚类分析用于将样本做群集划分,同一集群内成员的相似性要愈高愈好, 而不同集群间成员的相异性则要愈高愈好。我们使用Python进行了K-means聚类,对数值型变量:得分、评论数、平均价格、口味、环境、服务评论做群集划分,这里取K为3.得到以上三群,其中非常推荐的数量有3家,一般推荐的459家,非常不推荐的有97家。我们看一下这三群的描述性统计:
K-means聚类分析分布
以上是不同群集的直方图分布,通过群集分布图,可以总结如下:
非常推荐:各项得分最高、评论数最多、价格最高
一般推荐:各项得分居中、评论数居中、价格居中
非常不推荐:各项得分最低、评论数最低、价格最低
由于在做聚类分析时候去除了一个评论数为30509.0的异常样本。加上这条样本,得到最终推荐的四家店铺:
最后附上大众点评上热度值Top10的口味虾店,看看有没有你种草的店吧~
想要获取完整数据,可以私信或者留言哦。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27