Netzwerklatenz: 100 Mbit vs. 1 Gbit


11

Ich habe einen Webserver mit einer aktuellen Verbindung von 100 Mbit und mein Provider bietet ein Upgrade auf 1 Gbit an. Ich verstehe, dass sich dies auf den Durchsatz bezieht, aber je größer die Pakete sind, desto schneller können sie auch übertragen werden. Daher würde ich eine leichte Verkürzung der Antwortzeit erwarten (z. B. Ping). Hat das jemals jemand verglichen?

Beispiel (100 MBit bis 100 MBit Server) mit 30 Byte Last:

> ping server -i0.05 -c200 -s30
[...]
200 packets transmitted, 200 received, 0% packet loss, time 9948ms
rtt min/avg/max/mdev = 0.093/0.164/0.960/0.093 ms

Beispiel (100 MBit bis 100 MBit Server) mit 300 Byte Last (unterhalb der MTU):

> ping server -i0.05 -c200 -s300
[...]
200 packets transmitted, 200 received, 0% packet loss, time 10037ms
rtt min/avg/max/mdev = 0.235/0.395/0.841/0.078 ms

Also von 30 bis 300 der Durchschnitt. Die Latenz steigt von 0,164 auf 0,395 - ich würde erwarten, dass dies für eine Verbindung zwischen 1 und 1 Gbit langsamer zunimmt. Ich würde sogar erwarten, dass 100 MBit bis 1 GBit schneller sind, wenn die Verbindung über einen Switch erfolgt, der zuerst wartet, bis er das gesamte Paket empfangen hat.

Update: Bitte lesen Sie die Kommentare zu den Antworten sorgfältig durch! Die Verbindung ist nicht gesättigt, und ich denke nicht, dass diese Geschwindigkeitssteigerung für Menschen für eine Anfrage von Bedeutung ist, aber es geht um viele Anfragen, die sich summieren (Redis, Datenbank usw.).

Zur Antwort von @LatinSuD :

> ping server -i0.05 -c200 -s1400
200 packets transmitted, 200 received, 0% packet loss, time 9958ms
rtt min/avg/max/mdev = 0.662/0.866/1.557/0.110 ms

Es gibt auch eine andere Codierung (10b / 12b?) Mit neuen Gbit-Ethernet-Karten und -Kabeln, sodass die Leistung um 25% gesteigert werden kann, zusätzlich zu 10x (wenn gesättigt) gegenüber 100 Mbit?
Huseyin Tugrul Buyukisik

Antworten:


15

Die Latenz würde nur dann spürbar sinken, wenn die aktuelle 100-Mbit-Verbindung gesättigt ist. Wenn es nicht gesättigt ist, werden Sie wahrscheinlich keine Änderung bemerken.

Außerdem ist Ihre Annahme, dass die 1-Gbit-Verbindung größere Pakete unterstützen kann, falsch. Die maximale Paketgröße wird von der MTU der verschiedenen Geräte auf dem Weg bestimmt, den das Paket nimmt - angefangen von der Netzwerkkarte auf Ihrem Server bis hin zur MTU des Computers Ihres Kunden. In internen LAN-Anwendungen (wenn Sie die Kontrolle über alle Geräte entlang des Pfads haben) ist es manchmal möglich, die MTU zu erhöhen. In dieser Situation bleibt die Standard-MTU von 1500 jedoch ziemlich hängen. Wenn Sie Pakete senden, die größer als sind Dadurch werden sie fragmentiert, wodurch die Leistung tatsächlich abnimmt.


2
"Anerkennbar" ist hier das Schlüsselwort. Ich habe gerade zwei Server mit identischer Hardware und geringer Netzwerklast überprüft, aber mit unterschiedlichen Ethernet-Geschwindigkeiten. Die durchschnittliche Ping-Zeit (lokal, mit der Ping-Quelle im selben Subnetz) fiel von 0,21 Millisekunden auf 0,17 Millisekunden. Wenn Sie dieselben Server von zu Hause aus anpingen, hatte jeder eine Zeit von 53 Millisekunden. Es gibt viel zu viele Faktoren, die außerhalb der Kontrolle Ihres Anbieters liegen, um ein Upgrade lohnenswert zu machen.
Mike Renfro

1
+1 Technisch gesehen gibt es einen Unterschied, der jedoch völlig unauffällig ist, es sei denn, die jeweilige Anwendung reagiert unglaublich empfindlich auf Latenz.
Chris S

Danke für den Test! Von 0,21 auf 0,17 ist eine Verbesserung von 20%, was großartig ist. Ich bin nicht besorgt über den Ping von zu Hause aus (50 ms), sondern über die Zeit, in der die Anfrage beim Anbieter bleibt. Wir haben die gesamte Verarbeitung (CPU) und Nicht-Laufwerks-E / A (RAM / Cache / etc.) Auf das Maximum optimiert. Jetzt frage ich mich, wie viel die Netzwerkgeschwindigkeit zwischen den Servern zur gesamten Latenz insgesamt beiträgt. ZB machen wir ~ 20 Redis-Anfragen für eine Webserver-Anfrage. @ MikeRenfro: Kannst du den gleichen Test mit einer höheren Lastgröße machen? Normaler Ping ist durchschnittlich 30 Byte. Redis um 250. Ich würde erwarten, dass der Unterschied wächst.
Andreas Richter

2
@Andreas; Ich denke, Sie haben den Sinn dieser Kommentare völlig verfehlt. Das ist eine Verbesserung von 40 Nanosekunden. Eine Menge, die für den Menschen völlig unvorstellbar ist . Und das ist keine kumulative Zahl, es ist nicht so, dass jede Anfrage 40 Nanosekunden länger dauert. es ist nur das erste wird so viel schneller sein, also wird das zweite direkt dahinter so oder so aufgereiht sein.
Chris S

1
@ChrisS: Bei der Frage ging es nicht um Wahrnehmbarkeit - es war eine Frage, ob jemand sie jemals getestet hat und Mike. Es sind auch keine 40 Nanosekunden, es sind Mikrosekunden , also verpassen Sie den Punkt um den Faktor 1000 ... ein dickes Lob. Glauben Sie mir, dass ich weiß, was ich tue ... 20% würden ausreichen, um die zusätzlichen Kosten zu rechtfertigen.
Andreas Richter

12

JA gbit hat eine geringere Latenz, da:

  • Die gleiche Anzahl von Bytes kann schneller übertragen werden

ABER die Verbesserung ist nur spürbar, wenn die Pakete eine bestimmte Größe haben:

  • 56-Byte-Paket => praktisch keine schnellere Übertragung
  • 1000-Byte-Paket => 20% schnellere Übertragung
  • 20000-Byte-Paket (e) => 80% schnellere Übertragung

Wenn Sie also eine Anwendung haben, die sehr latenzempfindlich ist (4 ms gegenüber 0,8 ms, Roundtrip für 20 KB) und die Übertragung größerer Pakete erfordert, kann der Wechsel von 100 MBit zu GBit zu einer Latenzreduzierung führen, obwohl Sie diese verwenden viel weniger als die 100mbit / s im Durchschnitt (= die Verbindung ist nicht dauerhaft gesättigt).

Server (100 MBit) -> Switch (GBit) -> Server (100 MBit):

size: 56 :: rtt min/avg/max/mdev = 0.124/0.176/0.627/0.052 ms
size: 100 :: rtt min/avg/max/mdev = 0.131/0.380/1.165/0.073 ms
size: 300 :: rtt min/avg/max/mdev = 0.311/0.463/2.387/0.115 ms
size: 800 :: rtt min/avg/max/mdev = 0.511/0.665/1.012/0.055 ms
size: 1000 :: rtt min/avg/max/mdev = 0.560/0.747/1.393/0.058 ms
size: 1200 :: rtt min/avg/max/mdev = 0.640/0.830/2.478/0.104 ms
size: 1492 :: rtt min/avg/max/mdev = 0.717/0.782/1.514/0.055 ms
size: 1800 :: rtt min/avg/max/mdev = 0.831/0.953/1.363/0.055 ms
size: 5000 :: rtt min/avg/max/mdev = 1.352/1.458/2.269/0.073 ms
size: 20000 :: rtt min/avg/max/mdev = 3.856/3.974/5.058/0.123 ms

Server (gbit) -> Switch (gbit) -> Server (gbit):

size: 56 :: rtt min/avg/max/mdev = 0.073/0.144/0.267/0.038 ms
size: 100 :: rtt min/avg/max/mdev = 0.129/0.501/0.630/0.074 ms
size: 300 :: rtt min/avg/max/mdev = 0.185/0.514/0.650/0.072 ms
size: 800 :: rtt min/avg/max/mdev = 0.201/0.583/0.792/0.079 ms
size: 1000 :: rtt min/avg/max/mdev = 0.204/0.609/0.748/0.078 ms
size: 1200 :: rtt min/avg/max/mdev = 0.220/0.621/0.746/0.080 ms
size: 1492 :: rtt min/avg/max/mdev = 0.256/0.343/0.487/0.043 ms
size: 1800 :: rtt min/avg/max/mdev = 0.311/0.672/0.815/0.079 ms
size: 5000 :: rtt min/avg/max/mdev = 0.347/0.556/0.803/0.048 ms
size: 20000 :: rtt min/avg/max/mdev = 0.620/0.813/1.222/0.122 ms

= Durchschnittlich über mehrere Server 80% Latenzreduzierung für 20 KB Ping

(Wenn nur einer der Links Gbit ist, haben Sie immer noch eine Latenzreduzierung von 5% für 20-KB-Ping.)


1
Da die meisten Netzwerkgeräte gespeichert und weitergeleitet werden, muss ein Paket vollständig von einem Switch / Router empfangen werden, bevor es weitergeleitet wird. Schnellere Verbindungen reduzieren diese Zeit, wodurch sich auch die Latenz verringert (solange die Verbindung nicht die Geschwindigkeit mehrerer paralleler Verbindungen erhält).
Brian

1
Aufgrund der Erklärung ist diese Antwort bei weitem die beste auf der Seite. Die anderen scheinen diese Tatsache erklären zu wollen, indem sie einen Sonderfall annehmen - die Netzwerkleistung über große Entfernungen / viele Switches. Dies ist wichtig zu berücksichtigen, insbesondere im Hinblick auf die Bedenken des OP (Webserver). Diese Antwort zeigt jedoch auch, wie viel Unterschied die Schaltgeschwindigkeit in einem einzelnen Sprung bewirken kann.
Tyler

3

Ich denke, Sie haben ein grundlegendes Missverständnis über Bandbreitenlatenz und "Geschwindigkeit". Geschwindigkeit ist eine Funktion von Bandbreite und Latenz. Betrachten Sie beispielsweise eine Lieferung von Daten auf DVDs, die im ganzen Land versandt werden und deren Ankunft 3 Tage dauert. Vergleichen Sie das mit dem Senden der Daten über das Internet. Das Internet hat eine Verbindung mit viel geringerer Latenz, aber um die "Geschwindigkeit" der Verbindung mit der Sendung abzugleichen, müssten Sie 9,6 MB pro Sekunde empfangen ( Referenzbeispiel aus dieser Quelle ).

In Ihrem Fall können Sie durch ein Upgrade auf eine höhere Bandbreite mehr gleichzeitige Benutzer bedienen, ohne jedoch die Latenz für einen einzelnen Benutzer zu verbessern.


Das ist falsch - vergleichen Sie einfach den Ping mit einer anderen Nutzlast, die unter der aktuellen MTU liegt: Ping-Server -i0.05 -c200 -s30 vs. Ping-Server -i0.05 -c200 -s300 ... Oder sprechen Sie in Ihrem Beispiel: the LKW mit 1mio DVDs würde langsamer fahren, weil er schwerer ist als der mit 1 DVD.
Andreas Richter

2
Die Ping-Zeit von @andreas ist nicht die ganze Geschichte. Nehmen wir also an, dass Pakete, die niedriger als die MTU sind, schneller ankommen als Pakete mit voller MTU. Der Unterschied besteht darin, dass Sie nicht alle Daten haben, die das 1 Paket bei voller MTU in der gleichen Zeit hat, die die 2 Pakete benötigen, um anzukommen. Die Latenz ist die Zeit, die benötigt wird, bis alle Daten eintreffen. Um zur Lkw-Analogie zurückzukehren: Selbst wenn ein Lkw mit 1 CD in der Hälfte der Zeit als LKW mit 500 CDs ankommt, benötigt der Lkw 500 Fahrten, um die Daten zu liefern (750 Tage gegenüber 3).
Jim B

@ JimB: Ja, wie bereits erwähnt, ging es bei meiner Frage nicht um die Ladungsgröße, sondern um die Geschwindigkeit: Der volle LKW benötigt 10 Stunden, um vom Zoll gescannt zu werden, der kleine nur 1 Stunde. 100 MBit / s bedeutet auch, dass ein 100-Bit-Paket ein theoretisches Minimum von 0,000954 ms und ein 1000-Bit-Paket ein theoretisches Minimum von 0,00954 ms benötigt. Natürlich Bearbeitungszeit / etc. auf der Netzwerkkarte / Switch / etc. Machen Sie einen höheren Teil der gesamten Latenz, aber ich würde auch erwarten, dass diese bei einem 1-Gbit-Switch usw. schneller sind. Bitte beachten Sie den Kommentar von @MikeRenfro, er hat ihn tatsächlich getestet und kam zu einer 20% igen Steigerung.
Andreas Richter

@andreas - 20% im selben Subnetz, das für Ihre Frage irrelevant ist
Jim B

1
@andreas 20% eines Sub-Millisekunden-Pings sind immer noch ein Sub-Millisekunden-Ping. Selbst 150% eines Sub-Millisekunden-Pings, wie bei Ihren Tests, spielen in der realen Welt keine Rolle. Haben Sie wirklich eine Anwendung, bei der es darauf ankommt, ob Ihre Daten in 0,0003 Sekunden statt in 0,0002 Sekunden dort angekommen sind ?
Shane Madden

2

Du schaust auf die Welt durch ein Loch. Ein gültiger Test für Latenzunterschiede bei unterschiedlichen Geschwindigkeiten wäre zwischen zwei identischen Netzwerkkarten, die mit einem Querverbindungskabel verbunden sind. Stellen Sie die Rechengeschwindigkeit der Netzwerkkarten auf 10 MB, 100 MB und 1000 MB ein. Dies zeigt, dass es bei den verschiedenen Geschwindigkeiten praktisch keinen Unterschied in der Latenz gibt. Alle Pakete werden unabhängig von der maximal verwendeten Bandbreite mit derselben Drahtgeschwindigkeit übertragen. Sobald Sie Switches mit Store- und Forward-Caching hinzufügen, ändert sich alles. Das Testen der Latenz über einen Switch muss mit nur zwei Verbindungen zum Switch durchgeführt werden. Jeder andere Datenverkehr kann die Latenz Ihres Tests beeinträchtigen. Selbst dann kann der Switch Protokolle verschieben, Pakettypzähler anpassen, die interne Uhr aktualisieren usw. Alles kann die Latenz beeinflussen.

Ja, das Umschalten von 100 MB auf 1 GB kann aufgrund von Hardwareänderungen, unterschiedlicher Netzwerkkarte, unterschiedlichem Switch und unterschiedlichem Treiber schneller sein (geringere Latenz). Ich habe größere Änderungen in der Ping-Latenz aufgrund von Treiberunterschieden gesehen als alle anderen Änderungen. Bandbreite, Switches, Auslagern von Netzwerkkarten usw ..

Der Switch wäre die nächstgrößere Änderung, da der Cut-Through für Einzelübertragungstests erheblich schneller ist als das Speichern und Weiterleiten. Ein gut gestalteter Speicher- und Vorwärtsschalter kann jedoch den Durchschaltschalter in Bezug auf die Gesamtleistung unter hoher Last überholen. In den frühen Tagen des Gigabit habe ich 10 MB Hochleistungs-Backplane-Switches mit geringerer Latenz als billige Gigabit-Switches gesehen.

Ping-Tests sind für die Leistungsanalyse bei Verwendung des Internets praktisch irrelevant. Es handelt sich um schnelle Tests, um eine Vorstellung davon zu bekommen, was zum Zeitpunkt des Tests auf dem Transport passiert. Das Testen der Produktionsleistung ist viel komplizierter als nur ein Ping. Hochleistungs-Switches sind Computer und verhalten sich unter hoher Last unterschiedlich - Änderung der Latenz.

Wenn eine langsamere Netzwerkkarte oder eine Netzwerkkarte auf eine langsamere Geschwindigkeit eingestellt ist, kann dies einem Server bei gleichzeitigen Bursts helfen, indem die Eingabe in den Server mithilfe des Switch-Cache gedrosselt wird. Eine einzelne erneute Übertragung kann eine Verringerung der Latenz aufheben. In der Regel sind mittlere bis hohe Verkehrszahlen wichtig, nicht einzelne Ping-Tests. Beispiel: Altes langsames Sun Ultrasparc (höhere Latenz für einen einzelnen Ping) übertrifft den neuen billigen Gigabit-Desktop, der als Entwicklungsserver verwendet wird, wenn die Bandbreite unter 70% 100 MB liegt. Der Desktop verfügt über eine schnellere Gb-Netzwerkkarte, eine schnellere Verbindung, einen schnelleren Speicher, mehr Speicher, eine schnellere Festplatte und einen schnelleren Prozessor, funktioniert jedoch nicht so gut wie die Hardware / Software der Serverklasse. Dies bedeutet nicht, dass ein aktuell optimierter Server, auf dem gb-gb ausgeführt wird, nicht schneller als alte Hardware ist und sogar größere Durchsatzlasten bewältigen kann. Die Frage nach "

Finden Sie heraus, ob Ihr Provider unterschiedliche Switches für die 100-MB- oder 1-GB-Verbindungen verwendet. Wenn sie dieselbe Switch-Backplane verwenden, würde ich die Erhöhung nur bezahlen, wenn das Verkehrsaufkommen die niedrigere Bandbreite überschreitet. Andernfalls stellen Sie möglicherweise fest, dass in kurzer Zeit viele andere Benutzer auf Gigabit umschalten und die wenigen Benutzer, die auf dem alten Switch verbleiben, jetzt eine höhere Leistung aufweisen - geringere Latenz bei hoher Auslastung des Switches (Gesamtlast des Switches, nicht nur auf Ihre Server) ).

Beispiel für Äpfel und Orangen: Der lokale ISP stellte einen neuen Switch für gebündelte Dienste, DSL und Telefon bereit. Anfänglich konnten die Benutzer eine Leistungssteigerung verzeichnen. System war überverkauft. Jetzt haben Benutzer, die auf dem alten Switch verbleiben, eine höhere konsistente Leistung. In der späten Nacht sind die Benutzer des neuen Systems schneller. Am Abend unter hoher Last übertreffen die alten Switch-Clients das neue überlastete System deutlich.

Eine geringere Latenz korreliert nicht immer mit einer schnelleren Lieferung. Sie erwähnen MySQl in den 20 Anfragen, eine einzelne Seite zu bedienen. Dieser Datenverkehr sollte sich nicht auf derselben Netzwerkkarte befinden wie die Seitenanforderungen. Durch das Verschieben des gesamten internen Datenverkehrs in ein internes Netzwerk werden Kollisionen und die Gesamtzahl der Pakete auf der ausgehenden Netzwerkkarte reduziert und größere Gewinne erzielt als der Latenzgewinn von 0,04 ms eines einzelnen Pakets. Reduzieren Sie die Anzahl der Anforderungen pro Seite, um die Latenz beim Laden von Seiten zu verringern. Komprimieren Sie die Seiten, HTML, CSS, Javascript und Bilder, um die Ladezeiten der Seiten zu verringern. Diese drei Änderungen führen zu größeren Gesamtgewinnen als die Bezahlung der Bandbreite, die nicht zur Reduzierung der Latenz von 0,04 ms verwendet wird. Der Ping muss 24 Stunden laufen und gemittelt werden, um die tatsächliche Latenzzeitänderung zu sehen. Intelligente Switches führen jetzt eine adaptive Drosselung vom Typ RTSP mit kleinen anfänglichen Bandbreitenerhöhungen und großen gedrosselten Übertragungen durch. Abhängig von Ihrer Seitengröße (Grafik, großes HTML / CSS / Javascript) sehen Sie möglicherweise anfängliche Verbindungslatenzen / Bandbreiten, die viel niedriger / höher sind als bei einer großen Seite oder bei der Übertragung ganzer Seiten. Wenn ein Teil Ihrer Seite gestreamt wird, kann es zu einer drastisch unterschiedlichen Leistung zwischen der Seite und dem Stream kommen.


Vielen Dank für all die tollen Eingaben: 1.) Es ist der gleiche Schalter, 2.) Eine zweite Netzwerkkarte für interne / externe Klänge ist vernünftig und einen Versuch wert - auch wenn zB MySQL / etc. sind alle bidirektional, so dass Kollisionen "nur" auf die Hälfte reduziert würden. 3.) Ein Test in der realen Welt ist nur Nic-Nic vorzuziehen. Mike hat es mit einem Subnetz gemacht und hat das bekommen, was Sie erwartet haben. Hardware: "56 Byte = 19% Verbesserung, 200 Byte = 27%, 1000 Byte = 59%! Je größer das Paket, desto wichtiger. Und Gigabit stieg nur von 0,17 ms (56 Byte) auf 0,23 ms (1000 Byte) ) => 35%, während 100 Mbit von 0,21 auf 0,56 => 166% anstiegen ".
Andreas Richter

1

Nehmen wir 300-Byte-Pakete an (wenn Sie es verwenden -s 300, wäre es aufgrund von Headern tatsächlich größer).

300 bytes = 2400 bits
2400 bits / 100Mbit/sec = 0.024ms

0,024 ms ist ungefähr die tatsächliche Zeit, die zum Senden des Frames erforderlich ist (ohne Berücksichtigung der mittleren Zugriffszeit oder der Header).

In einer Ping-Pong-Sequenz würde die doppelte Zeit (0,048 ms) plus der Zeit benötigt, die das Betriebssystem benötigt, um die Abfrage zu verarbeiten.

Das bedeutet für mich, dass Ihre Latenz durch 90% mehrerer Overhead-Faktoren verursacht wird. Ich bin mir nicht sicher, ob Sie einen großen Unterschied zu Gb sehen werden. Ein wahrscheinlich weniger als 1 ms Unterschied wird auf einem Webserver nicht wahrnehmbar sein.

Wie auch immer, könnten Sie es mit einem wirklich großen Paket wie 1400 Byte versuchen?


Jemand hat bereits die Nummern für einen bestimmten Server ausgeführt, und der Unterschied lag bei 40 Nanosekunden. Ihre Schätzung ist um den Faktor 25 mal zu groß.
Chris S

@LatinSuD: Danke für den konstruktiven Ansatz und nicht die Schuld, dass ich nicht weiß, was ich tue. Ich werde die Ergebnisse in der eigentlichen Frage veröffentlichen, da ich dort formatieren kann. Aber übrigens. Ich würde auch erwarten, dass der Overhead um 90% schneller wird , da die Prozessoren in den Netzwerkkarten usw. (hoffentlich) auch für GBit schneller sind. @ ChrisS: Mikrosekunden und ich verstehe nicht, was du mit dem 25. meinst.
Andreas Richter

Ich entschuldige mich dafür, dass ich Mikro und Nano verwechselt habe. auf jeden Fall ist es nicht wahrnehmbar. LatinSuD schätzte eine Differenz von 1 ganzen Millisekunde, was 25-mal mehr ist als die von Mike gefundenen 40 Mikrosekunden.
Chris S

@ ChrisS: keine Sorge. Die 0,04 ms waren für einen 38-Byte-Ping. Wenn unser durchschnittliches Server-Server-Paket etwa 300 Byte beträgt, könnte der Unterschied 0,4 ms betragen. Wenn wir jetzt 20 Anfragen für eine Webserver-Anforderung (Redis, MySQL usw.) stellen, würde dies zu einer Geschwindigkeitssteigerung von 8 ms führen, was einer Geschwindigkeitssteigerung von 10% für aktuelle Webanfragen entspricht und die zusätzlichen Kosten vollständig rechtfertigen würde. Ich habe hier einfach nicht die Ressourcen, um die Tests selbst durchzuführen, aber glauben Sie mir, dass sie auch dann relevant sein können, wenn sie vom Menschen nicht wahrgenommen werden. Wie Elektrizität oder Gott.
Andreas Richter

1
@Andreas, ich bezweifle sehr, dass es so skalieren wird; Sowohl ein 10x größeres Paket mit 10x geringerer Latenz als auch 20x so viele Pakete sind 20x schneller. Wenn sich dies herausstellt, bedeutet dies eine Reduzierung des Netzwerk-Overheads um 10%. Sie müssen dennoch die in der Anwendung verbrachte Zeit berücksichtigen, die wahrscheinlich eine bis mehrere Größenordnungen länger ist als die Netzwerklatenzkomponente. Ich hoffe es klappt auf jeden Fall gut für dich.
Chris S

1

Dies hängt von der Art des Switches ab, mit dem Sie eine Verbindung herstellen. Bei einigen Anbietern (wie Crisco ... ich meine Cisco) fließen ICMP-Pakete zurück zur CPU ( gag ).

Möglicherweise ist es besser, einen Host-zu-Host-Test mit einer 100-Mbit / s- und 1-Gbit / s-Verbindung durchzuführen (dh keinen Host-zu-Switch- oder Host-zu-Router-Test).

Am Ende des Tages hängt die Latenz von der Weiterleitungsrate auf dem Switch und den Einzelheiten der Switch-Architektur ab (wo die ASICs auf der Platine platziert sind, wie das Sperren zwischen Leitungskarten gehandhabt wird usw.). Viel Glück beim Testen.


Vielen Dank, ich beziehe mich nur auf Host-Switch-Host-Tests und verstehe nicht alle Switch-Interna. Ich würde einfach gerne sehen, ob jemand jemals ein Benchmarking durchgeführt hat: Host- (100 MBit) -Switch- (100 MBit) -Host, Host- (100 MBit) -Switch- (1 GBit) -Host und Host- (1 GBit) -Switch- (1 GBit) ) -Host-Latenz für verschiedene Paketgrößen. Wenn niemand es getan hat, werde ich es tun und die Antwort hier posten.
Andreas Richter

1
Früher habe ich Schaltanlagen weiterverkauft. Es genügt zu sagen, dass Ihre Ergebnisse mir nahe legen, dass Sie an einen Cisco-Switch angeschlossen sind. Es gibt andere Alternativen, die geringere Latenzen bieten. Wie Sie zu Recht betont haben, führt mehr Bandbreite nicht zu geringeren Latenzen (Comcast ist der Hauptverantwortliche dafür, dass die Leute in dieser Hinsicht dumm sind). Wenn Sie sich in einer gehosteten Umgebung befinden, stecken Sie wahrscheinlich in der Hardware fest (und da in einer gehosteten Umgebung die zusätzlichen Mikrosekunden nicht besonders wichtig sind). Zeigen Sie mir Millionen von PS im Steady-State und ich werde mich für weitere Details interessieren. :)
Sean
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.