Es ist einfacher und billiger, die Bandbreite des DRAM zu erhöhen, als die Latenz zu verringern. Um die Daten aus einer offenen RAM-Reihe abzurufen, ist ein nicht unerheblicher Arbeitsaufwand erforderlich.
Die Spaltenadresse muss decodiert werden, die Multiplexer, die auswählen, auf welche Leitungen zugegriffen werden soll, müssen angesteuert werden, und die Daten müssen über den Chip zu den Ausgangspuffern gelangen. Dies nimmt etwas Zeit in Anspruch, zumal die SDRAM-Chips nach einem auf hohe RAM-Dichten und nicht auf hohe Logikgeschwindigkeiten zugeschnittenen Verfahren hergestellt werden. Um die Bandbreite beispielsweise mithilfe von DDR (1, 2, 3 oder 4) zu erhöhen, kann der größte Teil der Logik entweder erweitert oder per Pipeline übertragen werden und mit der gleichen Geschwindigkeit wie in der vorherigen Generation betrieben werden. Das einzige, was schneller sein muss, ist der E / A-Treiber für die DDR-Pins.
Um die Latenz zu verringern, muss dagegen der gesamte Vorgang beschleunigt werden, was sehr viel schwieriger ist. Höchstwahrscheinlich müssten Teile des RAM in einem ähnlichen Prozess wie bei Hochgeschwindigkeits-CPUs hergestellt werden, was die Kosten erheblich erhöht (der Hochgeschwindigkeitsprozess ist teurer und jeder Chip muss zwei verschiedene Prozesse durchlaufen).
Wenn Sie CPU-Caches mit RAM und Festplatte / SSD vergleichen, besteht eine umgekehrte Beziehung zwischen großem und schnellem Speicher. Ein L1 $ ist sehr schnell, kann aber nur zwischen 32 und 256 KB Daten speichern. Der Grund, warum es so schnell ist, ist, dass es klein ist:
- Es kann sehr nahe an der CPU platziert werden, sodass die Daten eine kürzere Strecke zurücklegen müssen, um dorthin zu gelangen
- Die Drähte können kürzer gemacht werden, was wiederum bedeutet, dass die Daten weniger Zeit benötigen, um sie zu durchlaufen
- Es nimmt nicht viel Fläche oder viele Transistoren ein, so dass es nicht so teuer ist, es in einem geschwindigkeitsoptimierten Prozess zu machen und viel Energie pro gespeichertem Bit zu verbrauchen
Wenn Sie die Hierarchie nach oben verschieben, wird jede Speicheroption in der Kapazität größer, aber auch in der Fläche und weiter vom verwendeten Gerät entfernt, was bedeutet, dass das Gerät langsamer werden muss.