Ich habe Auslastungstests mit zwei verschiedenen ASP.NET-Webanwendungen in IIS ausgeführt. Die Tests werden mit 5,10,25 und 250 Benutzeragenten ausgeführt. Getestet auf einer Box mit 8 GB RAM, Windows 7 Ultimate x64. Dieselbe Box, auf der sowohl IIS als auch das Auslastungstestprojekt ausgeführt werden.
Ich habe viele Läufe durchgeführt und die Daten sind sehr konsistent. Bei jeder Auslastung werden eine niedrigere "Durchschnittliche Seitenzeit (Sek.)" Und eine niedrigere "Durchschnittliche Antwortzeit (Sek.)" Angezeigt, wenn "32-Bit-Anwendungen aktivieren" in den Anwendungspools auf "Wahr" gesetzt ist. Der Unterschied wird umso größer, je höher die Last ist. Bei sehr hoher Auslastung beginnen die Webanwendungen mit Fehlern (503), wenn es sich um 64-Bit-Anwendungspools handelt. Bei einer Einstellung auf 32-Bit können sie jedoch mithalten.
Warum sind 32-Bit-App-Pools so viel effizienter? Warum ist die Standardeinstellung für Anwendungspools nicht 32-Bit?