Normalerweise ist ein wichtiges Thema in DevOps, wie wir uns um die automatisierte Erstellung und Bereitstellung von Software-Artefakten kümmern.
Mit dem Aufstieg der Datenwissenschaft gibt es eine neue Art von Artefakten - monolitische binäre Blobs, die beispielsweise ein trainiertes neuronales Netz oder andere Modelle des maschinellen Lernens darstellen. Ein solcher Blob kann eine Größe von vielen GB haben und seine Erstellung ist noch nicht standardisiert. AFAIK bringt Organisationen zurück in das Zeitalter vor CI. Trotzdem haben sie ihre Version und die dazugehörigen Sammlungen von Trainingsdaten (Korpora), die ebenfalls schnell wachsen.
Was sind Best Practices, um diese neue Herausforderung mithilfe von DevOps-Methoden anzugehen - wenn überhaupt möglich?