Ich habe einen Linux-Server, dessen Zeit mit einer GPS-basierten NTP-Appliance in der Nähe synchronisiert ist. Die Ping-Zeiten vom Server zur Appliance betragen ca. 1 ms mit sehr geringem Jitter:
--- xxxx Ping-Statistiken --- 100 gesendete Pakete, 100 empfangene, 0% Paketverlust, Zeit 99001 ms rtt min / avg / max / mdev = 0,874 / 0,957 / 1,052 / 0,051 ms
Der NTP-Client schätzt die Genauigkeit der Zeitsynchronisation jedoch auf etwa 5 bis 6 ms, was angesichts des Setups sehr hoch erscheint:
synchronisiert mit dem NTP-Server (xxxx) in Schicht 2 Zeit korrekt auf 5 ms Abfrageserver alle 16 s
ntpq -p gibt Folgendes an:
Remote Refid st t, wenn die Abfrage den Verzögerungsoffset-Jitter erreicht ================================================== ============================ * xxxx .PPS. 1 u 10 16 377 0,964 -0,019 0,036
Zwei Fragen:
- Was kann dazu führen, dass der NTP-Client so wenig Vertrauen in die Genauigkeit der Synchronisation hat?
- Gibt es eine Möglichkeit, die tatsächliche Genauigkeit der Synchronisation zu messen, beispielsweise auf die nächste Millisekunde genau?