Ich habe Spark 1.4 vom GH-Entwicklungsmaster erstellt, und der Build lief einwandfrei. Aber wenn ich eine mache, bin/pyspark
bekomme ich die Python 2.7.9 Version. Wie kann ich das ändern?
python
python-3.x
apache-spark
tchakravarty
quelle
quelle
PYSPARK_DRIVER_PYTHON=ipython3 PYSPARK_DRIVER_PYTHON_OPTS="notebook" ./bin/pyspark
In diesem Fall wird das IPython 3-Notebook ausgeführt.Antworten:
Stellen Sie einfach die Umgebungsvariable ein:
export PYSPARK_PYTHON=python3
Wenn Sie möchten, dass dies eine dauerhafte Änderung ist, fügen Sie diese Zeile zum pyspark-Skript hinzu.
quelle
export PYSPARK_PYTHON=python3.5
für Python 3.5$SPARK_HOME/conf/spark-env.sh
damitspark-submit
auch derselbe Interpreter verwendet wird.Wenn Sie in IPython Notebook ausgeführt werden möchten, schreiben Sie:
Wenn
python3
nicht zugänglich ist, müssen Sie stattdessen den Pfad dazu übergeben.Beachten Sie, dass die aktuelle Dokumentation (ab 1.4.1) veraltete Anweisungen enthält. Zum Glück wurde es gepatcht .
quelle
1, Profil bearbeiten:
vim ~/.profile
2, fügen Sie den Code in die Datei ein:
export PYSPARK_PYTHON=python3
3, Befehl ausführen:
source ~/.profile
4,
./bin/pyspark
quelle
Schauen Sie sich die Datei an. Die Shebang-Zeile zeigt wahrscheinlich auf die 'env'-Binärdatei, die den Pfad nach der ersten kompatiblen ausführbaren Datei durchsucht.
Sie können Python in Python3 ändern. Ändern Sie die Umgebung, um die python3-Binärdatei direkt fest zu codieren. Oder führen Sie die Binärdatei direkt mit python3 aus und lassen Sie die Shebang-Zeile weg.
quelle
PYSPARK_PYTHON
Umgebungsvariable festzulegen.Bearbeiten Sie für Jupyter Notebook die
spark-env.sh
Datei wie unten gezeigt über die BefehlszeileGehen Sie zum Ende der Datei und kopieren Sie diese Zeilen
Führen Sie dann einfach den folgenden Befehl aus, um pyspark in Notebook zu starten
quelle