J'ai une application Spark Streaming qui produit un ensemble de données pour chaque minute. J'ai besoin de sauvegarder / écraser les résultats des données traitées.
Lorsque j'ai essayé d'écraser l'ensemble de données org.apache.hadoop.mapred.FileAlreadyExistsException arrête l'exécution.
J'ai défini la propriété Spark set("spark.files.overwrite","true")
, mais il n'y a pas de chance.
Comment écraser ou prédéfinir les fichiers de Spark?
set("spark.files.overwrite","true")
fonctionne uniquement pour les fichiers ajoutés spark.addFile()