Vielleicht möchten Sie einen Schritt zurücktreten und sehen, woher und warum diese vorhandenen Modelle stammen. Wenn ein Prozess erstellt wird, erhält er einfach einen flachen Speicherbereich, der einfach von 0 bis N indiziert wird. Da dieser Speicherbereich (hier geht es um RAM) von einer dedizierten Hardware und einigen ausgefallenen Halbleitern unterstützt wird, ist er ziemlich schnell. aber es ist nicht das einzige seiner Art. Andere Geräte wie Festplatten sind im Wesentlichen dasselbe, flacher Speicherplatz, der durch einen Index adressierbar ist, aber viele Größenordnungen langsamer.
Der Grund, warum "ein Heap" existiert, ist, dass es für jede Anwendung unpraktisch wäre, zu versuchen, die Verwendung von RAM selbst zu verwalten. Vor langer Zeit, genau so geschah es, planten Programmierer im Voraus genau, wofür jeder RAM-Speicherort verwendet werden würde. Da die Software immer komplexer wurde, sagte jemand, wäre es nicht schön, wenn ich einfach zu einer Black Box gehen und sagen könnte: "Ich brauche 10 Bytes, also gib mir" und mich nicht um all die komplizierten Details kümmern müsste, wo und wie diese 10 Bytes sind kommen von oder wie sie zurückgefordert werden. Das ist, was ein Haufen ist, wird nicht wirklich grundlegender als das.
Jedes Mal, wenn ein Thread erstellt wird, gibt es einige Datenstrukturen (und einen Stapel), die mit derselben "Gimme-Operation" erfasst werden, die ich gerade beschrieben habe. Ein Stack, der nahezu universell einsetzbar ist, da er perfekt zu Funktionsaufruf-Stack-Frames und deren LIFO-Charakter passt. Theoretisch könnten jeder Funktionsaufruf und jede lokale Variable auf dem Heap zugewiesen werden, aber das wäre einfach zu teuer, verglichen mit nur wenigen Montageanweisungen, die zum Aktualisieren des Stapelzeigerregisters (ESP auf x86) erforderlich sind.
Thread Local Storage (TLS) basiert ebenfalls auf dem Heap. Wenn ein Thread erstellt wird, wird im Rahmen einer Reise zum Heap zum Zuweisen von Speicher für Verwaltungsstrukturen auch ein separater Speicherplatz für TLS vom Heap zugewiesen.
Am Ende haben Sie also nur einen generischen Speicherzuweiser (dh den Heap), und alles andere ist darüber hinaus eine spezielle Form. Mit anderen Worten, wenn Sie bereit sind, einen Aspekt von "Ich möchte so viel (oder so wenig) zuweisen, wie ich möchte, so lange ich möchte und frei zu lassen, wann immer ich möchte" aufzugeben, könnten Sie dem Handel entkommen Aus generischem Heap-Allokator für ein anderes Modell, das Geschwindigkeit bietet, jedoch auf Kosten einer anderen Einschränkung.
Stapel nehmen. Es ist unglaublich schnell im Vergleich zum Heap, aber die beiden Kompromisse sind: 1) Sie steuern nicht, wann Speicher freigegeben wird; Sobald die Funktion beendet ist, ist alles, was Sie zugewiesen haben, weg und 2) da Stapel im Allgemeinen nur eine begrenzte Größe haben, sollten Sie vorsichtig sein, große Datenmengen direkt auf dem Stapel zuzuweisen.
Eine andere Art von "Speichermodell" ist der Virtual Memory Manager (VMM), der von nahezu jedem wichtigen Betriebssystem über Systemaufrufe angeboten wird. VMM ist Heap in dem Sinne sehr ähnlich, dass Sie nach beliebig viel Speicher fragen und ihn so lange aufbewahren können, wie Sie möchten. Die Einschränkung besteht jedoch darin, dass Sie Speicher nur in Seitengrößen-Vielfachen (z. B. 4 KB) zuweisen können, sodass die direkte Verwendung von VMM in einer typischen Anwendung, die häufig 8 bis 24 Byte gleichzeitig zuweist, viel Overhead verursachen würde. Tatsächlich basiert nahezu jede Heap-Implementierung auf VMM, um eine sehr allgemeine, nicht spezialisierte Zuweisung kleiner Blöcke zu ermöglichen. Heap geht immer dann an VMM, wenn mehr Speicher benötigt wird, und verteilt dann viele kleine Teile dieses Speichers an die Anwendung.
Wenn Sie eine App haben, für die große Blöcke zugewiesen werden müssen, können Sie direkt zu VMM wechseln. Einige Heaps enthalten jedoch eine if-Anweisung in malloc (). Wenn die Blockgröße einen bestimmten Schwellenwert überschreitet, werden sie einfach zu VMM weitergeleitet für dich.
Eine andere Form von Allokatoren, anstatt Heap direkt zu verwenden, wären Pools. Ein Pool ist ein spezialisierter Allokator, bei dem alle Blöcke dieselbe Größe haben. Pools (genau wie Stack und TLS) werden auf Heap oder VMM erstellt. Pools sind an Orten nützlich, an denen Sie viele (Millionen) kurzlebige, kleine Objekte derselben Größe zuweisen. Stellen Sie sich einen Netzwerkdienst vor, der eingehende Anforderungen verarbeitet. Jede Clientanforderung kann dazu führen, dass dieselbe N-Byte-Struktur zugewiesen wird, um diese Anforderung zu verarbeiten. Der Nachteil bei der Verwendung von Pools besteht darin, dass jeder Pool nur eine Blockgröße verarbeitet (Sie können jedoch mehrere Pools erstellen). Der Vorteil von Pools besteht darin, dass keine komplizierte Logik erforderlich ist, da alle Objekte dieselbe Größe haben. Wenn Sie stattdessen einen neuen Block benötigen, erhalten Sie nur den Block, der kürzlich freigegeben wurde.
Und zum Schluss denken Sie an die Festplatte, die ich oben erwähnt habe. Sie könnten ein Speichermodell haben, das sich wie ein Dateisystem verhält und dieselbe Vorstellung von Verzeichniseinträgen und i-Knoten dupliziert, um eine hierarchische Zuordnung von Datenblöcken zu ermöglichen, wobei jeder Datenblock mit einem Pfad adressiert ist. Genau das macht tmpfs .
Abgesehen von dem, was ich erwähnt habe, gibt es sicher noch andere spezialisiertere Modelle, aber am Ende basiert alles auf einem flachen Adressraum (bis einige Genuis einen seltsamen, nicht flachen Raum finden ) geht alles auf diesen generischen "Gimme" -Zuweiser zurück, der entweder VMM oder der Heap ist.