Ich möchte die typesichere Konfiguration eines Spark-Jobs in einer dev / prod-Umgebung ändern . Es scheint mir, dass der einfachste Weg, dies zu erreichen, darin besteht, -Dconfig.resource=ENVNAME
auf den Job überzugehen. Dann erledigt die Typesafe-Konfigurationsbibliothek die Arbeit für mich.
Gibt es eine Möglichkeit, diese Option direkt an den Job zu übergeben? Oder gibt es eine bessere Möglichkeit, die Jobkonfiguration zur Laufzeit zu ändern?
BEARBEITEN:
- Es passiert nichts, wenn ich dem Befehl spark-submit eine
--conf "spark.executor.extraJavaOptions=-Dconfig.resource=dev"
Option hinzufüge . - Ich habe,
Error: Unrecognized option '-Dconfig.resource=dev'.
als ich-Dconfig.resource=dev
zum Spark-Submit- Befehl übergehe .
-Dx=y
in der Befehlszeile bleiben .