PGC123

2019-06-17   阅读量: 920

大数据 PySpark

使用jupyter notebook 来启动pyspark?

扫码加入数据分析学习群

如何使用jupyter notebook 来启动pyspark?

答:首先需要确保 SPARK_HOME及spark的bin目录添加到了环境变量path中

然后anaconda的bin路径也要添加到path变量中。

这些操作都执行完成之后就可以运行下面命令使用jupyter启动pyspark 了。

PYSPARK_DRIVER_PYTHON="jupyter" PYSPARK_DRIVER_PYTHON_OPTS="notebook" pyspark

# PYSPARK_DRIVER_PYTHON="jupyter" 指定pyspark使用什么方式启动
# PYSPARK_DRIVER_PYTHON_OPTS="notebook" #指定启动pyspark的python环境 接受的参数
添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
0.0000 0 4 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子