Bis vor kurzem hatten wir einen kleinen Cluster von ungefähr 20 kleinen Windows-Servern im Einsatz (die jetzt alle virtualisiert wurden). Sie wurden alle für die Synchronisierung mit dem lokalen Zeitserver konfiguriert. Es befand sich in einem 1-GB-Subnetz in unserem eigenen DC. Ich habe sie nie dazu gebracht, weniger als 100 ms voneinander entfernt zu sein, was ich für einen unglaublich großen Unterschied halte.
Ist das ein normaler Wert? Was ist eine realistische Erwartung eines Zeitunterschieds zwischen Computern, die in einem 1-GB-Netzwerk ausgeführt werden und alle mit demselben Zeitserver verbunden sind und häufig aktualisiert werden, beispielsweise alle 5 Minuten?
Ich möchte dies wissen, da das Festlegen von Zeitüberschreitungen und anderen Parametern in einer verteilten Anwendung diesen Unterschied berücksichtigen muss.