前提条件:
Ubuntu16.04环境
安装好Spark2.x,并配置好环境变量
安装好python3
问题:
执行pyspark脚本报错
复制代码
1
2
3
4
5$ pyspark pyspark: line 45: python: command not found env: ‘python’: No such file or directory
原因:
因为没有配置Spark python的环境变量
解决办法:
添加python相关环境变量
复制代码
1$ nano ~/.bashrc
文件末尾添加如下语句
复制代码
1
2export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.7-src.zip:$PYTHONPATH export PYSPARK_PYTHON=python3
注意:py4j-0.10.7-src.zip要到$SPARK_HOME/python/lib目录查看是否是这个名称。不同版本的py4j的名称会有差别
保存后,让环境变量生效
复制代码
1$ source ~/.bashrc
再次输入pyspark,成功如下:
复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18$ pyspark /home/hadoop/soft/spark/bin/pyspark: line 45: python: command not found Python 3.5.2 (default, Nov 12 2018, 13:43:14) [GCC 5.4.0 20160609] on linux Type "help", "copyright", "credits" or "license" for more information. 19/01/23 00:27:46 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Welcome to ____ __ / __/__ ___ _____/ /__ _ / _ / _ `/ __/ '_/ /__ / .__/_,_/_/ /_/_ version 2.3.2 /_/ Using Python version 3.5.2 (default, Nov 12 2018 13:43:14) SparkSession available as 'spark'. >>>
查看Web监控页面:
浏览器输入ip:4040
参考:http://dblab.xmu.edu.cn/blog/1689-2/
辅助参考:https://stackoverflow.com/questions/52196261/pyspark-will-not-start-python-no-such-file-or-directory/52213155
完成! enjoy it!
最后
以上就是背后故事最近收集整理的关于执行pyspark报错env: ‘python’: No such file or directory问题的全部内容,更多相关执行pyspark报错env:内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复