Normalement, un sujet important dans DevOps est de savoir comment nous nous occupons de la création et de la livraison automatisées des artefacts logiciels.
Avec l'essor de la science des données, il existe un nouveau type d'artefact: des taches binaires monolithiques représentant un réseau neuronal formé par exemple ou d'autres modèles d'apprentissage automatique. Un tel blob peut avoir une taille de plusieurs Go et sa création n'est pas encore standardisée AFAIK ce qui ramène les organisations à l'ère pré-CI. Néanmoins, ils ont leur version et les collections associées de données de formation (corpus) qui ont également tendance à croître rapidement.
Quelles sont les meilleures pratiques pour relever ce nouveau défi en utilisant les méthodes DevOps - si possible?