Ja (und nein, es ist keine Internetgeschwindigkeit und es ist keine Geschwindigkeit per se).
Geschwindigkeit
Geschwindigkeit ist eine sehr ungenaue Formulierung, die zwei verschiedene Dinge vermischt, die weitgehend unabhängig sind, aber miteinander interagieren: Latenz und Bandbreite.
Außerdem handelt es sich bei der von Ihnen beobachteten Geschwindigkeit nicht um Internetgeschwindigkeit . Es ist eine sehr komplexe Mischung aus vielen Dingen, die auf Ihrer Seite (Ihrem Computer), auf der anderen Seite (Server) und an mehreren Stellen dazwischen passieren. Dies kann beim nächsten Server, auf den Sie zugreifen, eine ganz andere Sache sein, auch wenn dieser Server genauso weit entfernt (oder weiter entfernt) ist.
Bandbreite
Die Bandbreite ist die Datenmenge, die Sie - theoretisch - pro Zeiteinheit auf den Draht übertragen können. Dafür gibt es normalerweise harte und weiche Grenzen. Die harte Grenze wäre, was die Leitung nehmen kann, und dann gibt es das, wofür Sie bezahlen und was der Anbieter Ihnen erlaubt (normalerweise weniger!). Transfers sind häufig nicht einheitlich, sie beginnen schneller und werden dann sehr bald gedrosselt.
Zum Beispiel habe ich einen 96Mbit / s Uplink mit einer physischen Leitungskapazität von 112Mbit / s. Dies liegt daran, dass für eine verbesserte Stabilität weniger Bandbreite verwendet wird, als tatsächlich möglich wäre. Allerdings bezahle ich nur 50Mbit / s (das ist für meine Bedürfnisse ausreichend und 10 € pro Monat billiger), obwohl ich tatsächlich 96Mbit / s bekomme. Warten Sie ... wie funktioniert das? Warum sollte dann jemand mehr Geld bezahlen? Nun, ich sende alles mit 96MBit / s, aber der Provider blockiert mich nach sehr kurzer Zeit (weniger als 0,1 Sekunden) im Verborgenen und lässt das Senden / Empfangen von Daten erst zu, wenn genügend Zeit verstrichen ist, sodass ich in der Nähe bin die Quote, die ich bezahlt habe. Somit habe ich im Schnitt meine 50Mbit / s. Sehr ähnliche Dinge passieren an mehreren Stellen im Internet, durch die auch Ihr Datenverkehr geleitet wird (ohne dass Sie es jemals wissen). Verkehr wird "geprägt"
Die Bandbreite im Internet ist größtenteils so groß, dass sie - außer bei landesweiten DDoS-Angriffen - in keiner Weise einschränkend ist. Nun, theoretisch und in den meisten Teilen der Welt.
Es gibt jedoch Engpässe: Einer ist an Ihrem Ende, der nächste offensichtlich am Ende des Servers, und es besteht die sehr reale Chance, dass die Gesamtbandbreite, wenn Sie mit einem Server an einem anderen geografischen Standort, insbesondere in einem Land der Dritten Welt, interagieren wird deutlich schlechter als einer der beiden sein. Einige Länder in Südostasien haben internationaleUplinks, die nicht viel höher sind als die einer Handvoll einzelner Heimanwender in anderen Ländern (oder sogar im selben Land). Ich weiß nicht, ob dies immer noch der Fall ist (die Dinge ändern sich weltweit sehr schnell), aber in Thailand war der Zugriff auf einen Server innerhalb desselben Landes früher viermal schneller als der Zugriff auf einen Server in einem anderen Land, z Nur aus diesem Grund. Das Gleiche gilt, wenn Sie versuchen, auf einen Server in ihrem Land zuzugreifen.
Auch wenn die Bandbreite in Ihrem Standort hoch sein mag, ist es die langsamste Verbindung in der Kette, die die Datenmenge begrenzt, durch die Sie Daten übertragen können (genau wie in einer Wasserleitung). Eine größere Entfernung bedeutet, dass im Allgemeinen mehr Chancen bestehen, auf eine langsame (oder überlastete) Verbindung zu stoßen.
Latenz
Die Latenz ist die Zeit, die ein Signal benötigt, um an einem bestimmten Punkt an Ihrem Standort (oder an einem bestimmten Ort) anzukommen .
Erstens gibt es die Lichtgeschwindigkeit, die (nicht) konstant ist und als harte physikalische Grenze nicht umgangen werden kann. Warum sage ich "(nicht) konstant"?Nun, weil die Realität noch schlimmer ist als die Theorie. Die Lichtgeschwindigkeit ist wirklich eine Obergrenze, gemessen im Vakuum. In einem Kupferkabel oder sogar mehr in einem Glasfaserkabel ist die messbare Lichtgeschwindigkeit leicht um etwa 30% langsamer als im Vakuum, und die tatsächliche Entfernung ist länger. Das liegt nicht nur daran, dass das Kabel nicht perfekt gerade verläuft, sondern auch daran, dass das Licht im Zick-Zack-Verfahren an den Wänden entlangläuft (Totalreflexion). Es ist eine schwierige Herausforderung (das heißt: unmöglich), die Lichtgeschwindigkeit signifikant zu erhöhen. Dies ist nicht möglich, wenn Sie ein anderes Medium verwenden, aber wenn Sie ein Medium mit höherer Lichtgeschwindigkeit verwenden, müssen Sie den Brechungsindex ändern, um die interne Totalreflexion zu verringern und letztendlich zu verlieren. Das heißt, es sei denn, das Signal geht in einer vollkommen geraden Linie,
Zusammenfassend lässt sich sagen, dass es eine mehr oder weniger feste Verzögerung gibt, die unvermeidbar ist. Während sie bei lokalen Übertragungen (LAN oder einigen Kilometern) nicht wahrgenommen wird, wird sie sehr deutlich, wenn das Signal einen halben Kontinent durchquert. Zusätzlich zu dieser harten physischen Grenze treten Verzögerungen auf, die von Zwischenroutern und möglicherweise von Ihrem lokalen Uplink (der berüchtigten "letzten Meile") verursacht werden.
Beispiel: Bei einer typischen ATM-basierten Heim-Internetverbindung beträgt die Verzögerung nur etwa 4 ms, wenn Ihre Datagramme unnötigerweise in PPP eingekapselt und in ATM-Frames mit einer Größe von 53 Byte aufgeteilt und an den DSLAM weitergeleitet werden das ATM-Netzwerk des Anbieters und wird wieder zusammengesetzt, bevor ein IP-Netzwerk erneut betreten wird. Der Grund dafür ist historisch. Es war einmal so, als wäre ATM ein guter Plan, um Telefonate mit geringer Latenz und hoher Qualität über große Entfernungen zu ermöglichen. Es war einmal in den 1980er Jahren, aber leider bewegen sich Telekommunikationsanbieter nur langsam.
Selbst bei vielen Installationen, deren Name "Glasfaser" enthält, wird in der Realität auf den letzten zehn Metern Kupferdraht verwendet, wobei die Glasfaser nicht selten auf der Straße endet (obwohl echte Glasfaser im Keller vorhanden ist).
Ein typischer Internet-Router fügt Ihrer Verzögerung einen Wert im Bereich von 0,05 bis 0,2 Millisekunden hinzu. Je nachdem, wie beschäftigt er ist (und möglicherweise nicht erstklassig), kann dies durchaus eine volle Millisekunde sein. Das ist nicht viel, aber denken Sie daran, dass 6-8 Router zwischen Ihnen und dem Zielserver keine Seltenheit sind, und dass Sie möglicherweise 12-15 Router auf einer größeren Entfernung haben! Sie können versuchen zu rennen tracert some.server.name
, um sich selbst zu sehen.
Eine Linie, die von der NSA oder der SVR durchtrennt und abgegriffen wurde (also im Grunde genommen jede Hauptlinie, die vom / zum asiatischen Kontinent oder über das Rote Meer, das Indische Meer oder den Atlantischen Ozean führt), hat mindestens zwei weitere Millisekunden oder so der Latenz für das Spionage-Zeug, das sie machen, hinzugefügt, möglicherweise mehr. Es ist bekannt, dass einige Nationen nicht nur Inhalte beobachten und bestimmte IP-Bereiche sperren (oder zumindest stark verdächtigen), sondern sogar aktiv politisch / ideologisch unangemessene Inhalte filtern / sperren. Dies kann zu viel längeren Verzögerungen führen.
Selbst für "nahe gelegene" Standorte können Sie also mit einer Verzögerung von 15 bis 25 ms rechnen, für ein anderes Land sollten Sie jedoch mit ~ 100 ms auf einem anderen Kontinent von 150 bis 250 ms rechnen, wenn Sie 400 bis 500 Pech haben Frau.
Trotzdem scheint es, dass dies keinen großen Unterschied macht, da es sich nur um eine einmalige anfängliche Verzögerung handelt, die Sie kaum bemerken. Recht?
Leider ist das nicht ganz richtig. Die meisten Protokolle, die erhebliche Datenmengen übertragen, wie z. B. TCP, verwenden eine quittierungsgesteuerte Bandbreitendrosselung, sodass die Datenmenge, die Sie auf die Leitung übertragen können, von der Zeit abhängt, die für eine vollständige Hin- und Rückfahrt erforderlich ist nochmal). Dies ist nicht 100% genau, da TCP versucht, den Durchsatz mithilfe mehrerer komplexer Fensteralgorithmen zu optimieren, die vor dem Warten auf Bestätigung ein paar Datagramme senden.
Dies kann den Effekt zwar irgendwie abschwächen, das Grundprinzip bleibt jedoch bestehen: Was Sie senden (oder empfangen) können, ist endgültig an die Zeit gebunden, die für den Eingang von Bestätigungen erforderlich ist. Einige andere Protokolle mit strengeren Echtzeitanforderungen und weniger wichtigen Zuverlässigkeitsanforderungen ( denke IP-Telefonie) verwendet eine andere Strategie mit unterschiedlichen Themen (auf die ich nicht näher eingehen werde).
Sie können sehen, welche große Auswirkung die Latenz hat, wenn Sie eine schlechte TCP-Implementierung (Microsoft Windows) mit einer besseren (Linux) vergleichen. Während beide dasselbe Protokoll sprechen und anscheinend genau dasselbe tun, kommen sie mit der Latenzkompensation nicht so gut zurecht.
Ich besitze einen Desktop-Computer (6700K-Prozessor, 64 GB RAM, Windows) und eine Synology DiskStation (ARMv8-Chip mit geringem Stromverbrauch, 1 GB RAM, Linux). Der Desktop-Computer, der an denselben Router angeschlossen ist, ist zwar um ein Vielfaches leistungsstärker, kann jedoch die 50-Mbit / s-Leitung beim Herunterladen von nationalen oder EU-internen Servern (15-20 ms RTT) nicht vollständig auslasten, selbst wenn mehrere Downloads gleichzeitig durchgeführt werden. Die meek DiskStation hat kein Problem damit, die Leitung mit einem einzigen Download vollständig auszulasten und einen um 15-20% höheren Durchsatz zu erzielen - das gleiche Kabel, das gleiche alles.
In meinem lokalen Netzwerk (wo die Latenz deutlich unter einer Millisekunde liegt) gibt es keinen merklichen Unterschied zwischen den beiden. Das ist der Effekt der Latenz.
Geschwindigkeit ... schon wieder
Zusammenfassend kann man davon ausgehen, dass die "Geschwindigkeit" mit zunehmender Entfernung abnimmt, hauptsächlich, weil die Latenz zunimmt und in gewissem Maße, weil Sie dazwischen Verbindungen mit geringerer Bandbreite haben. Zum größten Teil sollte der Effekt jedoch tolerierbar sein.