Ich bin neu in Apache Spark und habe gerade erfahren, dass Spark drei Arten von Clustern unterstützt: Standalone - das heißt, Spark verwaltet seinen eigenen Cluster YARN - mit dem YARN-Ressourcenmanager von Hadoop Mesos - Apaches dediziertes Ressourcenmanagerprojekt Da ich neu bei Spark bin, sollte ich zuerst Standalone ausprobieren . …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.