Machine: Dell r815, CentOS 5.4, 256 Go de RAM, 4 x 12 cœurs.
Nous avons une application qui a un fichier de 275 Go. Il effectue un tri sur place sur 20 Go de données à la fois, c'est-à-dire qu'il échange des bits et les remplace dans le même fichier. Tout fonctionne bien.
Il y a un dernier passage qui lit ensuite tout le fichier et fait un tri de fusion sur les différents morceaux de 20 Go, et les sort dans un tout nouveau fichier.
Ce processus semble fonctionner correctement pendant un certain temps et il finit par débusquer environ 50 Go sur le disque. Quelque temps après cela, la machine ENTIÈRE commence à paniquer.
Commandes simples comme ps -ef
, ls -al
, accrochez depuis longtemps et apparaissent comme prenant 100% du CPU (qui est juste un noyau).
En regardant les statistiques de la mémoire top
, je vois qu'il utilise environ 120 Go de RAM (donc 128 Go gratuits) et 120 Go sous la section "en cache".
Quelqu'un a-t-il déjà vu ce genre de comportement? Le même processus fonctionne bien sur une machine avec 64 Go de mémoire - donc je pense que cela est lié au montage de RAM que j'ai dans la machine.
(Au moment où nous parlons, je lance le test sur cette machine avec tout sauf 64 Go - pour exclure un problème matériel).
Suis-je peut-être absent de certains paramètres vm /etc/sysctrl.conf
?
Merci!