Je souhaite démarrer un cluster Apache Spark après le démarrage à l'aide de la commande suivante:
sudo ./path/to/spark/sbin/start-all.sh
Exécutez ensuite cette commande lorsque le système se prépare à redémarrer / arrêter:
sudo ./path/to/spark/sbin/stop-all.sh
Comment puis-je commencer? Existe-t-il un modèle de base sur lequel je peux construire?
J'ai essayé d'utiliser un extrêmement simple (fichier:) /lib/systemd/system/spark.service
:
[Unit]
Description=Spark service
[Service]
ExecStart=sudo ./path/to/spark/sbin/start-all.sh
Ce qui ne marche pas
exec
par ExecStart=
. De plus, je n'ai pas utilisé upstart avant.
.
...