Je voudrais surveiller un gros fichier journal (près de 1 Go) pour les erreurs. Je veux que ce soit proche du temps réel (un délai de quelques secondes est très bien). Mon plan est d'utiliser tail -f | grep
. Existe-t-il des problèmes de performances avec l'utilisation d'une telle méthode lors de son exécution sur une longue période, par exemple de zéro octet à 1 Go? Existe-t-il des pratiques normatives utilisées pour une telle surveillance? Notez que je voudrais le faire en utilisant les commandes standard Unix disponibles sur Solaris 10.
Si c'est possible, mon fichier est même retourné et j'ai encore un problème à régler :). l'utilisation de tail -F
( --follow=name
) n'est pas une option pour moi car elle -F
n'est pas prise en charge par le serveur sur lequel je veux exécuter cela. Mon plan est d'utiliser un script qui démarrera cette queue et interrogera pour savoir si le fichier est retourné. Si oui, tuez la queue et redémarrez-la. Une meilleure approche?
tail
", non?