Ich verwende Spark (1.5.1) von einem IPython-Notebook auf einem MacBook Pro. Nach der Installation von Spark und Anaconda starte ich IPython von einem Terminal aus, indem ich Folgendes ausführe : IPYTHON_OPTS="notebook" pyspark
. Dies öffnet eine Webseite, auf der alle meine IPython-Notizbücher aufgelistet sind. Ich kann einen von ihnen auswählen und ihn auf einer zweiten Webseite öffnen. SparkContext (sc) ist bereits verfügbar, und mein erster Befehl im Notizbuch lautet help(sc)
: Er läuft einwandfrei. Das Problem, das ich habe, ist, dass ich einen Java-Heap-Space-Fehler erhalte, den ich nicht beheben kann. Wie kann ich meine aktuelle Java-Heap-Einstellung anzeigen und wie kann ich sie im Kontext meines Setups erhöhen? Die Fehlermeldung, die ich erhalte, lautet wie folgt:
Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 19 in stage 247.0 failed 1 times, most recent failure: Lost task 19.0 in stage 247.0 (TID 953, localhost): java.lang.OutOfMemoryError: Java heap space