Ich hatte heute ein Treffen mit einem Softwareanbieter über die empfohlene Infrastruktur für die Bereitstellung einer bestimmten Anwendung. Die Anwendung benötigt zwei Server: einen App-Server für Server-Webseiten (.NET, Windows) und eine Datenbank (SQL Server). Der Anbieter behauptete, dass diese beiden Server "Bitparität" haben müssten. Damit meinten sie, dass wenn der App-Server 32 Bit war, der SQL Server 32 Bit sein sollte, oder wenn die App 64 Bit ist, der SQL Server 64 Bit ist. Andernfalls wird die Leistung beeinträchtigt.
Das kommt mir lächerlich vor. Die Server sind unabhängig und kommunizieren nur über ein Netzwerk. Netzwerkprotokolle haben nichts mit der "Bit-Ness" des Prozessors auf beiden Servern zu tun.
Bin ich im Unrecht? Gibt es einen Grund, warum eine Nichtübereinstimmung die Leistung negativ beeinflussen könnte?
HINWEIS: Ich weiß, dass bestimmte Apps in 32-Bit-Versionen schneller oder langsamer als in 64-Bit-Versionen ausgeführt werden können. Der Anbieter sagte jedoch, dass die Nichtübereinstimmung zwischen Webserver und DB-Server ein Problem verursacht. Dies ist die Aussage, die ich in Frage stelle.