Was sind die korrekten Verwendungsrichtlinien für SI- und IEC-Binärpräfixe bei Verwendung von dezimalen (Potenz von 10) Maßeinheiten in Bezug auf Computernetzwerke und binären (Potenz von 2) Maßeinheiten (insbesondere Datenübertragung, aber auch Dateigröße) ?
Diese Wiki-Seite enthält eine detaillierte Beschreibung des Problems und verschiedene Lösungen. Ich finde das oben verlinkte Wiki etwas verwirrend.
Ich verwende immer die SI-Einheiten (Dezimaleinheiten) für den Datendurchsatz und die IEC-Werte (binäre Präfixe von 2 ^) für die Dateigröße. Von Zeit zu Zeit sehe ich jedoch Leute, die die Geschwindigkeit mit einem Vielfachen von 1024
in ihren Summen berechnen .
Ich habe immer ein Vielfaches von 1000 für die Geschwindigkeitsmessung verwendet, z. B. 1 Kbit / s = 1000 Bps;
- 100 bps == 100 bps (Bit pro Sekunde)
- 100 000 bps == 100 Kbit / s (Kilobit pro Sekunde)
- 100 000 000 bps == 100 Mbit / s (Megabits pro Sekunde)
- und so weiter...
Bei Messungen der Dateigröße oder des Speichers habe ich immer ein Vielfaches von 1024 (binäre Präfixe) verwendet, z. B. eine 1-KB-Datei mit einer Größe von 1024 Byte.
- 100Bs == 100B (Byte) Datei
- 100 000Bs == 100 KB (Kilobyte) -Datei
- 100 000 000Bs == 100 MB (Megabyte) Datei
- und so weiter...
Hier kann es zu Diskrepanzen zwischen Netzwerken und Kunden kommen. Ein Beispiel für ein Standardabrechnungsproblem ist, dass ein Kunde eines Internetdienstanbieters eine Bandbreitentoleranz von 50 GB pro Monat hat. Verschiedene Betriebssysteme verwenden unterschiedliche Maßeinheiten für Geschwindigkeit und Speicher und zeigen diese mit den verschiedenen IEC- und SI-Präfixen an. In diesem Abschnitt derselben Wiki-Seite zu Betriebssystemen und Software werden die Diskrepanzen zwischen Betriebssystemen und Softwarepaketen aufgelistet, bei denen verschiedene Präfixe mit Maßeinheiten kombiniert werden.
Ein ISP kann 50 (1024^3) bytes * 50 == 50GBs
GB Daten messen, die als (1 GB == 1073741824 Byte) übertragen wurden. und der Benutzer kann anderer Meinung sein, wenn das 50-GB-Limit erreicht ist. Ein Benutzer, dessen Computer beispielsweise Gibibytes anzeigt, würde 46,57 übertragene Gibibytes anzeigen.
Aus der Sicht des Netzwerks
- 50 GB in Bit:
((((50GBs*1000)*1000)*1000)*8)=400000000000 bits
- Bps zum Kopieren von 50 GB in einer Stunde:
(((400000000000/60)/60)/24)/24=192901.23
- Diese Geschwindigkeit in Mbit / s:
((192901.23/1000)/1000)*24*24 = 111.11Mbps
Ein Gibibyte ist so viele Bits: ((((50GiB*1024)*1024)*1024)*8)=429496729600
das ist mehr. Ein Link, der 1 Stunde lang mit 111,11 Mbit / s ausgeführt wird, hat also keinen Gibibyte übertragen.
Was ist eine bewährte Methode, die aus rein netzwerktechnischer und technischer Sicht (nicht legal in Bezug auf Fair-Use-Richtlinien oder AGB usw.) immer Mega / Giga / Tera oder Mibi / Gibi, IEC- oder SI-Notation für Messungen und Überwachung usw. verwendet? Wie hält man alles einheitlich?