Ich möchte die typesichere Konfiguration eines Spark-Jobs in einer dev / prod-Umgebung ändern . Es scheint mir, dass der einfachste Weg, dies zu erreichen, darin besteht, -Dconfig.resource=ENVNAMEauf den Job überzugehen. Dann erledigt die Typesafe-Konfigurationsbibliothek die Arbeit für mich.
Gibt es eine Möglichkeit, diese Option direkt an den Job zu übergeben? Oder gibt es eine bessere Möglichkeit, die Jobkonfiguration zur Laufzeit zu ändern?
BEARBEITEN:
- Es passiert nichts, wenn ich dem Befehl spark-submit eine
--conf "spark.executor.extraJavaOptions=-Dconfig.resource=dev"Option hinzufüge . - Ich habe,
Error: Unrecognized option '-Dconfig.resource=dev'.als ich-Dconfig.resource=devzum Spark-Submit- Befehl übergehe .
-Dx=yin der Befehlszeile bleiben .