京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:俊欣
来源:关于数据分析与可视化
随着各行各业都在进行数字化转型,数据方面的人才也成为了各家企业招聘的重点对象,不同数据类型的岗位提供的薪资待遇又是如何的?哪个城市最需要数据方面的人才、未来的发展前景与钱途又是怎么样的?今天小编抓取了某互联网招聘平台上面的招聘信息,来为大家分析分析。我们大致会讲
我们用Python当中的requests模块来发送与接收请求,然后用BeautifulSoup模块也解析返回的数据,代码如下
@retry(stop=stop_after_attempt(7)) def make_requests(url):
response = requests.get(url=url, headers=headers)
response_1 = BeautifulSoup(response.text, "lxml") return response_1
解析数据的代码如下
def process_data(index, job_title, response_text):
response_2 = response_text.select("div.list__YibNq") for resp in response_2[0]: if resp.select("div.p-top__1F7CL a"):
job_titles = resp.select("div.p-top__1F7CL a")[0].get_text() else:
job_titles = "" if resp.select("span.money__3Lkgq"):
payments = resp.select("span.money__3Lkgq")[0].get_text() else:
payments = "" .........
然后最后将收集到的数据导出到excel当中,代码如下
df = pd.DataFrame(
{"职位名称": job_titles_list, "薪资待遇": payments_list, "工作年限": work_years_list, "公司名称": company_name_list, "所处行业": industry_list, "岗位简介": job_title_description_list}) path = "job_files/" if not os.path.exists(path): os.makedirs(path)
df.to_excel("./job_files/{}_{}.xlsx".format(job_title, index), index = False)
小编这次所抓取的岗位分别有“数据分析师”、“数据挖掘工程师”、“数据产品经理”、“大数据开发工程师”以及“数据运营助理”等等,接下来我们就针对所收集到的数据进行清洗与进一步的处理吧
我们用到的是Pandas模块,首先先导入所有收集到的数据
import pandas as pd import os
df_all = pd.DataFrame(columns=["职位名称", "薪资待遇", "工作年限", "公司名称", "所处行业", "岗位简介"]) for file in os.listdir("./job_files"):
df = pd.read_excel("./job_files/" + file)
df_all = df_all.append(df, ignore_index=True)
我们来看一下最终的数据集长什么样子
print(df_all.info())
output
<class 'pandas.core.frame.DataFrame'> RangeIndex: 2238 entries, 0 to 2237 Data columns (total 6 columns):
# Column Non-Null Count Dtype
--- ------ -------------- ----- 0 职位名称 2238 non-null object 1 薪资待遇 2238 non-null object 2 工作年限 2238 non-null object 3 公司名称 2238 non-null object 4 所处行业 2234 non-null object 5 岗位简介 2238 non-null object dtypes: object(6)
memory usage: 105.0+ KB
数据集当中或许存在重复的内容,我们用drop_duplicates()方法来进行重复项的去除
df_all_1 = df_all.drop_duplicates()
df_all_1.info()
output
<class 'pandas.core.frame.DataFrame'> Int64Index: 2207 entries, 0 to 2237 Data columns (total 6 columns):
# Column Non-Null Count Dtype
--- ------ -------------- ----- 0 职位名称 2207 non-null object 1 薪资待遇 2207 non-null object 2 工作年限 2207 non-null object 3 公司名称 2207 non-null object 4 所处行业 2203 non-null object 5 岗位简介 2207 non-null object dtypes: object(6)
memory usage: 120.7+ KB
df_all_1 = df_all_1.dropna(axis = 0, how = "any")
df_all_1.info()
output
<class 'pandas.core.frame.DataFrame'> Int64Index: 2203 entries, 0 to 2237 Data columns (total 6 columns):
# Column Non-Null Count Dtype
--- ------ -------------- ----- 0 职位名称 2203 non-null object 1 薪资待遇 2203 non-null object 2 工作年限 2203 non-null object 3 公司名称 2203 non-null object 4 所处行业 2203 non-null object 5 岗位简介 2203 non-null object dtypes: object(6)
memory usage: 120.5+ KB
接下来为了方便对薪资数据进行统计分析,我们对此也需要进行相对应的处理
df_all_1["薪资待遇"] = df_all_1["薪资待遇"].str.replace("k", "000")
我们先来看薪资上面的差距,根据不同的职位名称来看,例如我们来看“数据产品经理”这个岗位
df_all_1[df_all_1["职位名称"].str.contains("产品经理")]['薪资待遇'].value_counts().head(5)
output
20000-40000 66 15000-30000 48 15000-25000 46 20000-30000 27 25000-50000 26 Name: 薪资待遇, dtype: int64
较多的是集中在20K-40K这个范围当中,具体我们可以通过下面这个可视化的结果来看
我们可以发现的是整体的市场中“数据产品经理”这个岗位的整体待遇是相对更好一点的,其次便是“数据挖掘工程师”这个岗位,薪资一般也比较容易达到20K-40K之间的区间
接下来我们来看一下哪些城市对数据方面的人才需求是最多的,
df_all_1["城市分布"] = df_all_1["职位名称"].apply(lambda x: x.split("[")[1].split("·")[0])
df_all_1["城市分布"].value_counts().head(10)
output
北京 702 上海 446 深圳 404 杭州 194 广州 190 成都 68 武汉 57 西安 23 南京 18 苏州 15 Name: 城市分布, dtype: int64
可以看到的是对于数据方面的人才需求最旺盛的仍然是北京,上海排在第二,与此同时呢,杭州在这方面的需求上面已经超过了广州,位列第四,同时在前十名当中成都、南京以及武汉与西安都纷纷上榜
接下来我们来看一下哪个行业所需要的数据方面的人才最多,
df_all_1["行业"] = df_all_1["所处行业"].apply(lambda x: x.split("|")[0].split("/")[0])
df_all_1["行业"].value_counts().head(10)
output
数据服务 175 内容资讯,短视频 155 软件服务 141 科技金融 114 电商平台 84 IT技术服务 68 企业服务 61 游戏 55 专业服务 52 消费生活 52 Name: 行业, dtype: int64
从上面的结果中看到,除了“数据服务”行业之外,还有“内容咨询、短视频”领域、“软件服务”、“科技金融”、“电商平台”、“IT技术服务”等领域对于数据方面的人才都有着相当旺盛的需求
我们来看一下各家公司对于数据方面的人才,在学历上又有何种要求呢?
df_all_1["学历要求"] = df_all_1["工作年限"].apply(lambda x: x.split("/")[-1])
df_all_1["学历要求"].value_counts()
output
本科 1922 硕士 119 不限 77 大专 73 博士 12 Name: 学历要求, dtype: int64
一般来说仅仅是“本科”的学历就可以了,当然还有少数的公司对于学历的要求是局限在硕士之上
各家公司为了吸引越来越多的人才前往加入公司,也打出了各色各样的标语,小编做了汇总,并且做成词云图,首先我们用jieba模块对文本数据进行分词
word_num = jieba.lcut(text, cut_all = False)
rule = re.compile(r"^[u4e00-u9fa5]+$")
word_num_selected = [word for word in word_num if word not in stop_words and re.search(rule, word) and len(word) >= 2]
接着我们使用stylecloud模块来进行词云图的绘制
stylecloud.gen_stylecloud(text=" ".join(review_list), max_words=100, collocations=False,
font_path="KAITI.ttf", icon_name="fab fa-apple", size=653,
output_name="4.png")
output
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
【核心关键词】互联网、机会、运营、关键词、账户、数字化、后台、客户、成本、网络、数据分析、底层逻辑、市场推广、数据反馈、 ...
2026-05-14在Python数据分析中,Pandas作为核心工具库,凭借简洁高效的数据处理能力,成为数据分析从业者的必备技能。其中,基于两列(或多 ...
2026-05-14 很多人把统计学理解为“一堆公式和计算”,却忽略了它的本质——一门让数据“开口说话”的科学。真正的数据分析高手,不是会 ...
2026-05-14在零售行业存量竞争日趋激烈的当下,客户流失已成为侵蚀企业利润的“隐形杀手”——据行业数据显示,零售企业平均客户流失率高达 ...
2026-05-13当流量红利消退、用户需求日趋多元,“凭经验决策、广撒网投放”的传统营销模式早已难以为继。大数据的崛起,为企业营销提供了全 ...
2026-05-13 许多数据分析师精通Excel函数和SQL查询,但当面对一张上万行的销售明细表,要快速回答“哪个地区销量最高”“哪款产品增长最 ...
2026-05-13【专访摘要】本次CDA持证专访邀请到拥有丰富物流供应链数据分析经验的赖尧,他结合自身在京东、华莱士、兰格赛等企业的从业经历 ...
2026-05-12在手游行业存量竞争日趋激烈、流量成本持续高企的当下,“拉新”早已不是行业核心痛点,“留存”尤其是“付费留存”,成为决定手 ...
2026-05-12 很多数据分析师掌握了Excel函数、会写SQL查询,但当被问到“数据从哪里来”“数据加工有哪些步骤”“如何使用分析工具连接数 ...
2026-05-12用户调研是企业洞察客户需求、优化产品服务、制定运营策略的核心前提,而调研数据的可靠性,直接决定了决策的科学性与有效性。在 ...
2026-05-11在市场竞争日趋激烈、流量成本持续攀升的今天,企业的核心竞争力已从“获取流量”转向“挖掘客户价值”。客户作为企业最宝贵的资 ...
2026-05-11 很多数据分析师精通Excel单元格操作,熟练应用多种公式,但当被问到“表结构数据的基本处理单位是什么”“字段和记录的本质 ...
2026-05-11在互联网运营、产品优化、用户增长等领域,次日留存率是衡量产品价值、用户粘性与运营效果的核心指标,更是判断新用户是否认可产 ...
2026-05-09相关性分析是数据分析领域中用于探究两个或多个变量之间关联强度与方向的核心方法,广泛应用于科研探索、商业决策、医疗研究、社 ...
2026-05-09 数据分析师八成以上的时间在和数据表格打交道,但许多人拿到Excel后习惯性地先算、先分析,结果回头发现漏了一列关键数据, ...
2026-05-09在数据驱动运营的时代,指标是连接业务目标与实际行动的核心桥梁,是企业解读业务现状、发现问题、预判趋势的“量化标尺”。一套 ...
2026-05-08在存量竞争日趋激烈的商业时代,“以客户为中心”早已从口号落地为企业运营的核心逻辑。而客户画像作为打通“了解客户”与“服务 ...
2026-05-08 很多数据分析师每天与Excel打交道,但当被问到“什么是表格结构数据”“它和表结构数据有什么区别”“表格结构数据有哪些核 ...
2026-05-08在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07