Ich möchte auf einige gute Antworten eingehen und sie mit wenigen Bildern beschreiben.
Im Spark Standalone-Modus gibt es Master- und Worker-Knoten.
Wenn wir sowohl Meister als auch Arbeiter an einem Ort für den Standalone-Modus vertreten.
Wenn Sie neugierig sind, wie Spark mit YARN funktioniert? Überprüfen Sie diesen Beitrag Spark on YARN
1. Bedeutet zwei Worker-Instanzen einen Worker-Knoten mit zwei Worker-Prozessen?
Im Allgemeinen nennen wir die Worker-Instanz als Slave, da dies ein Prozess zum Ausführen von Spark-Tasks / Jobs ist . Die empfohlene Zuordnung für einen Knoten (eine physische oder virtuelle Maschine) und einen Worker lautet:
1 Node = 1 Worker process
2. Enthält jede Worker-Instanz einen Executor für die bestimmte Anwendung (die Speicher, Aufgabe verwaltet) oder einen Worker-Knoten einen Executor?
Ja, ein Worker-Knoten kann mehrere Executoren (Prozesse) enthalten, wenn er über ausreichend CPU, Speicher und Speicher verfügt .
Überprüfen Sie den Worker-Knoten im angegebenen Bild.
Übrigens: Die Anzahl der Ausführenden in einem Arbeitsknoten zu einem bestimmten Zeitpunkt hängt vollständig von der Arbeitslast des Clusters und der Fähigkeit des Knotens ab , die Anzahl der Ausführenden auszuführen.
3. Gibt es ein Flussdiagramm, das erklärt, wie die Funkenlaufzeit ist?
Wenn wir die Ausführung aus der Spark-Perspektive über einen Ressourcenmanager für ein Programm betrachten, welche join
zwei rdd
s und dann eine reduce
Operation ausführenfilter
HIH