Fügt die Überbrückung eine Verzögerung hinzu?


10

Wenn ich eine Brücke benutze, um wie ein Mann in der Mitte zu schnüffeln, fügt die Brücke dann eine Verzögerung hinzu? Und welches Wort sollte ich Verzögerung oder Latenz verwenden?


Wenn Sie eine Verzögerung von Null wünschen, verwenden Sie einen Tipp - das Signal wird elektrisch (oder optisch) repliziert, sodass Sie genau sehen, was gesendet wurde (Fehler und alles) [Hinweis: Sie sind teuer, trotz der darin enthaltenen Logik im Wert von 5 USD].
Ricky Beam

Antworten:


12

Hallo und willkommen bei Network Engineering.

Wie für "Verzögerung" vs "Latenz": Die Begriffe werden nicht immer konsistent verwendet. Einige Hinweise finden Sie hier .

Ich denke, im Allgemeinen wird der Begriff Latenz verwendet, wenn End-to-End-Zeiten für eine Richtung betrachtet werden, die sich im Wesentlichen aus der Summe aller Verzögerungen bei der Ausbreitung, Serialisierung, Pufferung (und möglicherweise Verarbeitung) zusammensetzen, die von den verschiedenen Komponenten entlang des Pfades eingeführt werden von der Quelle zum Ziel (und zurück, wenn man über Roundtrip-Zeiten (RTT) sprechen möchte). Sie können also sagen, dass eine Bridge die Gesamtlatenz etwas verzögert.

(nächster Abschnitt nach einem hilfreichen Kommentar bearbeitet) Eine Bridge addiert im Vergleich zu einem direkten Kabel mindestens einmal die Serialisierungsverzögerung des angegebenen Netzwerkmediums (der Ausgangsseite der Bridge), nachdem sie verarbeitet wurde, um die Bits des Frames auszusenden wieder auf der Ausgangsseite. Natürlich wird pro Richtung eine Serialisierungsverzögerung hinzugefügt , und da in den meisten Anwendungsfällen (zumindest einige) Daten in beide Richtungen fließen müssen, fügt die Bridge die Serialisierungsverzögerung schließlich zweimal hinzu.

Siehe auch diese Frage und wiki.geant.org für ihre Tabelle über Serialisierungsverzögerungen.

Verzögerungen bei der Serialisierung für verschiedene Medien unter https://wiki.geant.org/display/public/EK/SerializationDelay

In Ihrem Fall tritt aufgrund des "Mannes in der Mitte" eine zusätzliche Verzögerung bei der Pufferung und Verarbeitung auf. Wie viel das sein wird, hängt ganz von der Verarbeitungskapazität der gegebenen Überbrückungssoftware auf der gegebenen Plattform und den verschiedenen Merkmalen und Modulen ab, denen der Rahmen ausgesetzt ist.


1
Ich habe meinen Kaffee noch nicht getrunken, denke also vielleicht nicht klar, aber fügt das Hinzufügen einer Brücke notwendigerweise das Zweifache der Serialisierungsverzögerung hinzu? Natürlich wird immer eine Serialisierungsverzögerung hinzugefügt (es sei denn, es wird eine Art Durchbruch durchgeführt), aber die "sendende" Serialisierung erfolgt parallel zur Deserialisierung des nächsten Empfängers (was sowieso immer passieren würde) es effektiv nur eine zusätzliche Verzögerung insgesamt? Entschuldigung, wenn das nicht sehr klar ist ...
psmears

1
@psmears Die Serialisierungsverzögerung, wenn die Bridge den Frame am anderen Ende sendet, wird in jedem Fall vereinbart. Was die Empfangsseite betrifft ... Stellen wir uns ein ansonsten identisches "direktes" Kabel vor, das die Brücke umgeht, wobei dieselbe Bitsequenz synchron gesendet wird, aber die Brücke umgeht. Im Kabel breiten sich die Bits nur über die Leitung aus, während die Brücke darauf wartet, dass das letzte Bit mit der Verarbeitung beginnt ... Oh. du hast recht, danke! Dann ist es Zeit für eine Bearbeitung.
Marc 'netztier' Luethi

Die Serialisierungsverzögerung ist mit Wirespeed, daher ist es keine große Verzögerung. Die meisten modernen Switches für Unternehmen schalten mit Wirespeed, daher ist jede Verzögerung sehr, sehr gering, wahrscheinlich verursacht durch Überlastung und Warteschlangen auf einer überzeichneten Schnittstelle.
Ron Maupin

8

Ja, eine Brücke / ein Schalter fügt einem Frame eine gewisse Verzögerung hinzu - in der Größenordnung von 1 bis 20 µs.

Bei Switches spricht man normalerweise von Latenz - der Verzögerung zwischen dem Empfang eines Frames und der Weiterleitung an einen anderen Port. Ein Switch benötigt einige Zeit, um die Zieladresse zu empfangen und die Weiterleitungsentscheidung zu treffen. Store-and-Forward-Schalter (die übliche Art) müssen den gesamten Frame empfangen, bevor mit dem Weiterleiten begonnen werden kann. Hochgeschwindigkeits-Trennschalter können unter 1 µs fallen. Bearbeiten : Wie @kasperd richtig hervorgehoben hat, ist ein Durchschneiden nur möglich, wenn Quell- und Zielport mit der gleichen Geschwindigkeit oder mit gleichem Rückschritt ausgeführt werden.


3
Es ist erwähnenswert, dass Cut-Through nur dann eine optimale Leistung erzielt, wenn eingehende und ausgehende Verbindungen mit derselben Bitrate ausgeführt werden. Und es könnte sein, dass sich kein Anbieter die Mühe gemacht hat, Cut-Through für Szenarien mit gemischten Bitraten zu implementieren.
Kasperd

2
@Kasperd Cisco behauptet für seine Nexus 3000-Serie "Cut-Through" für identische Geschwindigkeiten und Geschwindigkeitsabsenkungsszenarien (40G -> 1 / 10G), jedoch nicht für Geschwindigkeitssteigerungen (1 / 10G -> 40g). cisco.com/c/en/us/td/docs/switches/datacenter/nexus3000/sw/…
Marc 'netztier' Luethi

@kasperd & Marc'netztier'Luethi - Auf jeden Fall, danke. Ein Durchschneiden mit einer Erhöhung ist nicht möglich, da Ihnen schnell die Daten ausgehen (es sei denn, Sie haben jetzt die Rahmenlänge, die Sie nicht haben).
Zac67

@ Zac67 Die Länge ist bei einigen Frames bekannt, jedoch nicht bei allen Frames. (Und nachdem ich gelesen habe, wie das funktioniert,
bereue
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.