Bedeuten schnellere Segmente eines Netzwerks eine schnellere Flussrate oder eine geringere Latenz?


12

Dies ist eine andere dieser hypothetischen Fragen. Ich habe versucht herauszufinden, ob ein schnelleres "Segment" eines Netzwerks zwischen Host A und Host B zu einer schnelleren Flussrate oder einer geringeren Latenz zwischen diesen führt. Lassen Sie mich Ihnen die physischen Verbindungen im Netzwerk zwischen Computer A und Computer B zeigen:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

Kurz gesagt, es gibt eine 1G-Verbindung von Host A zum ersten Switch, in dem sich ein SFP-Modul befindet, das mit einer kurzen 10G / 40G / 100G-Glasfaser verbunden ist (eigentlich egal, nur schneller als 1G), die eine Verbindung herstellt ein weiteres SFP-Modul in einem anderen 1G-Kupferschalter, der über 1G-Kupfer mit Host B verbunden ist.

Fließt der Verkehr zwischen den beiden Hosts schneller, weil die Glasfaser in der Mitte läuft? Oder wären Durchflussrate und Latenz gleich, wenn der Abschnitt zwischen den beiden Switches die gleiche Geschwindigkeit hätte wie der Rest des Netzwerks?

Es wäre sinnvoll, die Latenz zwischen Host A und Host B zu verringern, aber die Eingangs- und Ausgangsrate der NICs würde die Flussrate begrenzen, richtig? Wenn ja, ist es sinnvoll, "Core" -Switches und -Router mit schnelleren Verbindungen zu verbinden?

Antworten:


13

Wirklich auch nicht. Das Ersetzen einer Kupferverbindung durch eine Glasfaserverbindung kann die Latenz geringfügig verringern (vorausgesetzt, es handelt sich um eine nicht überlastete Verbindung). Was Sie jedoch wirklich erhalten, wenn Sie eine "Kern" -Verbindung durch eine Verbindung mit höherer Bandbreite ersetzen, ist eine geringere Überlastung. In Ihrem Beispielszenario spielt das keine Rolle, da sich an jedem Ende nur ein Gerät befindet. In einem Live-Netzwerk kann die Verlagerung von 1g- auf 10g-Core-Links zu Engpässen im Core des Netzwerks führen.

Als Nebeneffekt erhalten Sie möglicherweise eine geringere Latenz und einen besseren Verkehrsfluss. Dies liegt jedoch nur an der Verringerung der Überlastung, damit die Router / Switches nicht überlastet werden und der Verkehr ausfällt bzw. in die Warteschlange gestellt wird.


Wenn Sie also die Geschwindigkeit der Verbindungen im Kern des Netzwerks erhöhen, erhöht sich die Kapazität, nicht die Geschwindigkeit.
Libbux

4
Grundsätzlich ja. "Geschwindigkeit" in der Netzwerksprache ist nicht so sehr, wie schnell es ist, sondern wie viele Bits pro Sekunde Sie über eine Verbindung übertragen können. Latenz / RTT ist normalerweise eine Frage der Gesamtentfernung in Kombination mit der Anzahl der Geräte im Pfad. Jeder Hop / jedes Gerät führt zu einer geringen Latenz. Die "Echtheit" hängt im Wesentlichen von der Physik und der Lichtgeschwindigkeit ab.
Justin Seabrook-Rocha

Der entscheidende Punkt dabei ist, dass die Bits alle die gleiche Geschwindigkeit zurücklegen - das habe ich mich wirklich gefragt.
Libbux

2
Ich werde auch erwähnen, dass all dies aus dem Fenster geht, wenn Sie das Land des Finanzhandels betreten. In dieser Welt ist RTT König. Sogar Mikrosekunden von RTT spielen eine Rolle, was sie dazu veranlasst, alle möglichen dummen Dinge zu tun, wie zum Beispiel die Workstation 100 Fuß näher an den Server heranzuführen und den Glasfasertropfen zu verkürzen.
Justin Seabrook-Rocha

7
Während das Signal mit derselben Rate übertragen wird, unabhängig davon, ob es sich um 100 M, 1 GE oder 10 GE handelt, sinkt die Serialisierungsverzögerung (die Zeit, die zum Einspeisen des Frames in den Draht benötigt wird) mit steigender Rate. Das heißt, wenn Sie einen Frame mit einer Serialisierungsverzögerung von 100 M für 1538B von 0,123 ms senden, befindet sich dieser Frame bei 1GE bereits 21 km in der Glasfaser.
Ytti

6

Die Geschwindigkeit des Datenflusses macht keinen Unterschied in der Physik des Mediums. Damit meine ich, dass es die gleiche Zeit dauert, bis ein elektrisches Signal von einer Seite einer 100-Meter-Kupferleitung zur anderen fließt, unabhängig davon, ob dieses Signal Teil einer 10-Mbit / s- oder einer 1-Gbit / s-Verbindung ist.

Wenn Sie von Kupfer zu Glasfaser wechseln, werden Sie vielleicht eine kleine Verbesserung bemerken, aber es sollte eigentlich nur ein geringfügiger Unterschied sein.

Jetzt können andere Faktoren ins Spiel kommen, zum Beispiel, dass Geräte mit 10 Gbit / s im Allgemeinen besser in der Lage sind, die Frames / Pakete zu verarbeiten als Geräte mit 10 Mbit / s, sodass die vom Gerät hinzugefügte Latenz verringert werden kann Gut. Dies hängt jedoch ausschließlich von den Fähigkeiten des Geräts und nicht von der Geschwindigkeit der Verbindung ab.


5

In diesem Fall sollte die Umstellung von 1G auf einen 10G-Core nichts wesentlich ändern. Nur ein geringfügiger Anstieg des Durchsatzes würde durch die schnellere Signalisierung (verringerte Bit-Zeit) auf der 10G + -Verbindung verursacht. Aber ohne eine Überlastung (sprich: andere Hosts) hätten sie die Verbindung von Anfang an sättigen können.

Die Zeit, die Hosts A & B benötigen, um ein Paket (ein- und auszusenden), ändert sich nicht. Die Zeit, die das Paket benötigt, um von Switch zu Switch zu springen, ist theoretisch proportional schneller. Bei diesen Geschwindigkeiten ist der Unterschied jedoch für einen Menschen nicht erkennbar. (~ 10μs für 1500 mtu Paket)


Würde beispielsweise eine 100-G-Verbindung zwischen Switches einen spürbaren Unterschied bewirken?
Libbux

Sie können ihre lokale Verbindung bereits mehr als auslasten, also nein. Mit empfindlichen Testgeräten können Sie die Änderung der Paketlatenz messen, aber die One-Gig-Verbindungen werden dadurch nicht schneller. :-) Das heißt, der wahre Vorteil ist die Vermeidung von Überlastungen, wenn mehr als nur Host A und B über den Link erreichbar sind.
Ricky Beam

0

Da der Durchsatz = Windows-Größe / RTT ist, ist es eine andere Frage, ob es sich lohnt, wenn RTT den Durchsatz erhöht. Je größer das Fenster, desto stärker wirkt sich die Verringerung der RTT aus.


1
Bei einem 128k-Fenster wäre 1G Ende-zu-Ende ~ 3,5G / s. Mit einer 10G-Verbindung in der Mitte springt diese Zahl auf ~ 5G / s. Sie werden feststellen, dass beide Zahlen deutlich über der Host-Link-Geschwindigkeit liegen, sodass dies überhaupt nicht auffällt.
Ricky Beam

0

Es hängt davon ab, ob.

In einem ansonsten inaktiven Netzwerk kommt es darauf an, ob die Vermittlungsgeräte "store and forward" oder "cut through" sind. Wenn die Vermittlungsgeräte gespeichert und weitergeleitet werden, bedeuten schnellere Verbindungen eine geringere Latenz. Wenn sie jedoch Cut-Through-Switching unterstützen, wird eine zusätzliche Latenz eingeführt, da es nicht möglich ist, ein Cut-Through-Switching von einer langsameren eingehenden Verbindung zu einer schnelleren ausgehenden Verbindung durchzuführen. Wenn Sie jedoch nicht in der Welt des Hochfrequenzhandels oder ähnlichem spielen, ist dies in beiden Fällen wahrscheinlich vernachlässigbar.

In einem praktischen Netzwerk mit mehr Kapazität im Kern verringert sich die Wahrscheinlichkeit, dass eine Überlastung durch andere Benutzer auftritt. Die Überlastung senkt den Durchsatz und erhöht die Latenz. Im Allgemeinen ist es gut, wenn Ihre Core-Links schneller sind als Ihre Endbenutzer-Links, so dass kein Endbenutzer sie sättigen kann (wenn Sie also Gigabit auf dem Desktop ausführen, sollten Sie wahrscheinlich einen 10-Gigabit-Core ausführen).

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.