出现如下图中错误的原因:是因为我们安装pyecharts的版本有问题而导致的代码报错,可以看见我们安装的pyecharts版本是1.8.1,而实例是基于1.7.1版本而设计的解决方法:卸载掉 pyecharts pip uninstall pyecharts 指定版本重新安装 pip install pyecharts==1.7.1
我是大魔王哈哈
2020-06-29
输入hadoop version命令 出现bash: hadoop: 未找到命令提示 这是因为我们安装好hadoop之后并没有配置环境变量而导致的错误1. vi ~/.bashrc2. 添加如下内容:#配置环境变量:export HADOOP_HOME=/home/hduser/software/hadoop-2.7.6export PATH=$PATH:$HADOOP_HOME/bin:$HAD
我是大魔王哈哈
2020-06-28
出现Permission denied是因为我们把文件scp到了aworker01的hduser01用户下面,我们只需要把hduser01用户改为root用户即可
我是大魔王哈哈
2020-06-25
造成如下图所示错误的原因是:hive schema和metastore schema 版本不一致造成的解决方法:1. 使用root身份访问mysql mysql -u root -p password2. 使用hive数据库 use hive3. 查看version表中Schema的版本 select * from version;4. 更新version表中schema版本
我是大魔王哈哈
2020-06-24
我们把需要的 jar 包放在spark下面之后运行相应的代码 有时会报 ’JavaPackage’object is not callable 这种错误 这是因为我们的spark已经启动 这时并不能识别我们新加入的jar包,我们需要关闭spark之后重新启动spark 这时再运行程序 就可以解决这个问题了
我是大魔王哈哈
2020-06-21
这是因为安装pyecharts的版本不同导致的错误执行:pip uninstall pyecharts pip install pyecharts==1.7.0
我是大魔王哈哈
2020-06-19