J'ai exécuté des tests de charge avec deux applications Web ASP.NET différentes dans IIS. Les tests sont exécutés avec 5,10,25 et 250 agents utilisateurs. Testé sur une box avec 8 Go de RAM, Windows 7 Ultimate x64. La même boîte exécutant à la fois IIS et le projet de test de charge.
J'ai fait de nombreuses analyses et les données sont très cohérentes. Pour chaque chargement, je vois un «Temps de page moyen (sec)» inférieur et un «Temps de réponse moyen (sec)» inférieur si «Activer les applications 32 bits» est défini sur Vrai dans les pools d'applications. La différence est d'autant plus prononcée que la charge est élevée. À des charges très élevées, les applications Web commencent à générer des erreurs (503) si les pools d'applications sont 64 bits, mais elles peuvent suivre le rythme si elles sont définies sur 32 bits.
Pourquoi les pools d'applications 32 bits sont-ils tellement plus efficaces? Pourquoi la valeur par défaut n'est-elle pas pour les pools d'applications 32 bits?