Je suis en train de développer un programme informatique simple mais exigeant en ressources processeur que j'utilise pour la recherche scientifique. Il serait vraiment utile d'avoir plus de vitesse de traitement. À l'heure actuelle, j'utilise Mac OS X 10.5.7 sur un processeur Intel Core Duo à 2 GHz et mon programme est plutôt lent. Pendant un certain temps, je l’utilisais avec un ordinateur portable considérablement plus ancien avec Ubuntu et cela fonctionnait environ 20 fois plus vite.
Ce que je pense, c'est que je pourrais brancher sur le réseau local un groupe de PC d'occasion sous Linux, et utiliser une programmation en thread pour répartir la charge de traitement sur les ordinateurs. Mon programme est embarrassant en parallèle : une augmentation linéaire du nombre de cœurs devrait entraîner une augmentation presque linéaire de la vitesse de calcul. En outre, la taille du programme, les besoins en mémoire et les besoins en HD sont pratiquement nuls et la quantité d'informations à transmettre de et vers la routine principale (entre ordinateurs) est pratiquement nulle.
Donc, ce que je me demande, c'est quel type de barrage routier est susceptible de faire obstacle à la mise en œuvre de cela? Cela devrait-il être assez simple ou non? Cela fonctionnera-t-il même? En outre, lors de l'achat des ordinateurs usagés, quels facteurs dois-je prendre en compte? Pour mes besoins, est un dual core 2GHz ~ = à un single core 4GHz? Je pense qu'en règle générale, je devrais utiliser les machines à processeurs multicœurs les moins chères que je puisse trouver (meilleur rapport coût / traitement).