Der Airflow Scheduler kann nicht mit kubernetes executor gestartet werden


12

Ich verwende https://github.com/helm/charts/tree/master/stable/airflow Helmdiagramm und erstelle ein puckle/docker-airflowImage der Version 1.10.8 mit darauf installierten Kubernetes und verwende dieses Bild im Helmdiagramm

  File "/usr/local/bin/airflow", line 37, in <module>
    args.func(args)
  File "/usr/local/lib/python3.7/site-packages/airflow/bin/cli.py", line 1140, in initdb
    db.initdb(settings.RBAC)
  File "/usr/local/lib/python3.7/site-packages/airflow/utils/db.py", line 332, in initdb
    dagbag = models.DagBag()
  File "/usr/local/lib/python3.7/site-packages/airflow/models/dagbag.py", line 95, in __init__
    executor = get_default_executor()
  File "/usr/local/lib/python3.7/site-packages/airflow/executors/__init__.py", line 48, in get_default_executor
    DEFAULT_EXECUTOR = _get_executor(executor_name)
  File "/usr/local/lib/python3.7/site-packages/airflow/executors/__init__.py", line 87, in _get_executor
    return KubernetesExecutor()
  File "/usr/local/lib/python3.7/site-packages/airflow/contrib/executors/kubernetes_executor.py", line 702, in __init__
    self.kube_config = KubeConfig()
  File "/usr/local/lib/python3.7/site-packages/airflow/contrib/executors/kubernetes_executor.py", line 283, in __init__
    self.kube_client_request_args = json.loads(kube_client_request_args)
  File "/usr/local/lib/python3.7/json/__init__.py", line 348, in loads
    return _default_decoder.decode(s)
  File "/usr/local/lib/python3.7/json/decoder.py", line 337, in decode
    obj, end = self.raw_decode(s, idx=_w(s, 0).end())
  File "/usr/local/lib/python3.7/json/decoder.py", line 353, in raw_decode
    obj, end = self.scan_once(s, idx)
json.decoder.JSONDecodeError: Expecting property name enclosed in double quotes: line 1 column 2 (char 1)

In meinem Scheduler habe ich auch versucht, wie verschiedene Quellen empfehlen:

AIRFLOW__KUBERNETES__KUBE_CLIENT_REQUEST_ARGS: {"_request_timeout" : [60,60] }

in meinen Steuerwerten. das hat auch nicht geklappt hat jemand irgendwelche ideen was fehlt mir?

Hier sind meine Werte


airflow:
  image:
     repository: airflow-docker-local
     tag: 1.10.8
  executor: Kubernetes
  service:
    type: LoadBalancer
  config:
    AIRFLOW__KUBERNETES__WORKER_CONTAINER_REPOSITORY: airflow-docker-local
    AIRFLOW__KUBERNETES__WORKER_CONTAINER_TAG: 1.10.8
    AIRFLOW__KUBERNETES__WORKER_CONTAINER_IMAGE_PULL_POLICY: Never

    AIRFLOW__KUBERNETES__WORKER_SERVICE_ACCOUNT_NAME: airflow
    AIRFLOW__KUBERNETES__DAGS_VOLUME_CLAIM: airflow
    AIRFLOW__KUBERNETES__NAMESPACE: airflow
    AIRFLOW__KUBERNETES__KUBE_CLIENT_REQUEST_ARGS: {"_request_timeout" : [60,60] }

    AIRFLOW__CORE__SQL_ALCHEMY_CONN: postgresql+psycopg2://postgres:airflow@airflow-postgresql:5432/airflow

persistence:
  enabled: true
  existingClaim: ''

workers:
  enabled: false

postgresql:
  enabled: true

redis:
  enabled: false

EDIT:

Verschiedene Versuche, Umgebungsvariablen in Steuerwerten festzulegen.yaml funktionierten nicht, danach fügte ich hinzu (achten Sie auf doppelte und einfache Anführungszeichen)

ENV AIRFLOW__KUBERNETES__KUBE_CLIENT_REQUEST_ARGS='{"_request_timeout" : [60,60] }'

zu Dockerfile hier: https://github.com/puckel/docker-airflow/blob/1.10.9/Dockerfile#L19airflow-scheduler Danach startet mein Pod, aber dann erhalte ich immer wieder den folgenden Fehler auf meinem Scheduler-Pod.

Process KubernetesJobWatcher-9: Traceback (most recent call last): 
    File "/usr/local/lib/python3.7/site-packages/urllib3/contrib/pyopenssl.py", line 313, 
    in recv_into return self.connection.recv_into(*args, **kwargs) File "/usr/local/lib/python3.7/site-packages/OpenSSL/SSL.py", 
    line 1840, in recv_into self._raise_ssl_error(self._ssl, result) File "/usr/local/lib/python3.7/site-packages/OpenSSL/SSL.py", 
    line 1646, in _raise_ssl_error raise WantReadError() OpenSSL.SSL.WantReadError

das gleiche Problem hier. Ich überprüfte docker-airflow:1.10.8und entfernt L931 von geändert verwenden , um dieses Bild. Scheint zu funktionierenconfig/airflow.cfgkube_client_request_args =
Raf

gleiche Ausgabe hier :-(
LiorH

Antworten:


3

Für den Steuerstandwert verwendet die Vorlage eine Schleife, die die airflow.configKarte in doppelte Anführungszeichen setzt" . Dies bedeutet, dass "ein beliebiger Wert in einem Wert maskiert werden muss, damit die YAML mit Ausgabevorlage gültig ist.

airflow:
  config:
    AIRFLOW__KUBERNETES__KUBE_CLIENT_REQUEST_ARGS: '{\"_request_timeout\":60}'

Das wird bereitgestellt und ausgeführt (aber ich habe keinen End-to-End-Test abgeschlossen)

Gemäß diesem Github-Problem ist das SSL-Zeitlimit des Python-Schedulers möglicherweise kein Problem, da der Watcher nach dem 60-Sekunden-Verbindungszeitlimit erneut startet.


Ja, funktioniert, danke :-)
LiorH

Keine Probleme! Können Sie überprüfen, ob der Scheduler funktioniert und nur alle X Sekunden eine neue Verbindung herstellt?
Matt

Ja, der Scheduler funktioniert. Es gibt jedoch eine Reihe anderer Probleme :-(
LiorH
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.