Dies ist eine Kopie der Frage eines anderen in einem anderen Forum, die nie beantwortet wurde. Daher dachte ich, ich würde sie hier erneut stellen, da ich das gleiche Problem habe. (Siehe http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736 )
Ich habe Spark ordnungsgemäß auf meinem Computer installiert und kann Python-Programme mit den pyspark-Modulen fehlerfrei ausführen, wenn ich ./bin/pyspark als meinen Python-Interpreter verwende.
Wenn ich jedoch versuche, die reguläre Python-Shell auszuführen und pyspark-Module zu importieren, wird folgende Fehlermeldung angezeigt:
from pyspark import SparkContext
und es heißt
"No module named pyspark".
Wie kann ich das beheben? Gibt es eine Umgebungsvariable, die ich festlegen muss, um Python auf die pyspark-Header / Bibliotheken / etc. Zu verweisen? Wenn meine Funkeninstallation / spark / ist, welche Pyspark-Pfade muss ich einschließen? Oder können Pyspark-Programme nur vom Pyspark-Interpreter ausgeführt werden?