“Jak mogę użyć Apache Spark z notebookiem w Anaconda” Kod odpowiedzi

Jak mogę użyć Apache Spark z notebookiem w Anaconda

PYSPARK_PYTHON=/opt/continuum/anaconda/bin/python spark-submit pyspark_script.py
Lazy Lion

Jak mogę użyć Apache Spark z notebookiem w Anaconda

import os
import sys
os.environ["PYSPARK_PYTHON"] = "/opt/continuum/anaconda/bin/python"
os.environ["JAVA_HOME"] = "/usr/java/jdk1.7.0_67-cloudera/jre"
os.environ["SPARK_HOME"] = "/opt/cloudera/parcels/CDH/lib/spark"
os.environ["PYLIB"] = os.environ["SPARK_HOME"] + "/python/lib"
sys.path.insert(0, os.environ["PYLIB"] +"/py4j-0.9-src.zip")
sys.path.insert(0, os.environ["PYLIB"] +"/pyspark.zip")
Lazy Lion

Odpowiedzi podobne do “Jak mogę użyć Apache Spark z notebookiem w Anaconda”

Pytania podobne do “Jak mogę użyć Apache Spark z notebookiem w Anaconda”

Więcej pokrewnych odpowiedzi na “Jak mogę użyć Apache Spark z notebookiem w Anaconda” w Python

Przeglądaj popularne odpowiedzi na kod według języka

Przeglądaj inne języki kodu