2019-06-17
                                阅读量:
                                1266
                            
                        使用jupyter notebook 来启动pyspark?
                        如何使用jupyter notebook 来启动pyspark?
答:首先需要确保 SPARK_HOME及spark的bin目录添加到了环境变量path中
然后anaconda的bin路径也要添加到path变量中。
这些操作都执行完成之后就可以运行下面命令使用jupyter启动pyspark 了。
PYSPARK_DRIVER_PYTHON="jupyter" PYSPARK_DRIVER_PYTHON_OPTS="notebook" pyspark
# PYSPARK_DRIVER_PYTHON="jupyter" 指定pyspark使用什么方式启动
# PYSPARK_DRIVER_PYTHON_OPTS="notebook" #指定启动pyspark的python环境 接受的参数
                        
                                0.0000
                            
                                0
                            
                                4
                            
                                
                            
                                关注作者
                            
                                    收藏
                                                            评论(0)
                    
发表评论
暂无数据
                        
                        推荐帖子
                    
                0条评论
                        0条评论
                        
            
                
                
