NUMA
aus Wikipedia, der freien Enzyklopädie
Non-Uniform Memory Architecture oder kurz NUMA ist eine Computer-Speicher-Architektur für Multiprozessorsysteme, bei denen die Zugriffszeiten auf den Speicher vom Ort des Speichers abhängen. Ein Prozessor kann auf seinen eigenen, als lokal zugewiesenen Speicher schneller zugreifen als auf den von anderen Prozessoren im gleichen System verwalteten Speicher.
NUMA-Architekturen sind der logisch nächste Schritt zur Erhöhung der Skalierbarkeit von SMP-Architekturen. NUMA-Systeme stehen dabei im Gegensatz zu sogenannten UMA- (Uniform-Memory-Architecture), NoRMA- (No-Remote-Memory-Architecture) und CoMA- (Cache-only-Memory-Architecture) Architekturen.
Inhaltsverzeichnis |
[Bearbeiten] Cache-Kohärenz und NUMA
Fast alle Rechnerarchitekturen benutzen eine kleine Menge sehr schnellen Speichers, der als Cache bezeichnet wird, um bei Speicherzugriffen Lokalitätseigenschaften auszunutzen. Bei Verwendung von NUMA sorgt das Beibehalten der Cache-Kohärenz über den verteilten Speicher für zusätzlichen Overhead. Als Beispiel stelle man sich vor, dass sich ein Prozessor Daten aus dem Speicher eines anderen Prozessors holt, damit Berechnungen anstellt und die Ergebnisse in seinen lokalen Cache schreibt. Der Cache des Prozessors, von dem die Daten stammen (und vielleicht auch noch weitere Caches im System) müssen dann synchronisiert werden.
Nicht Cache-kohärente NUMA-Systeme sind zwar einfacher zu entwickeln und zu bauen, aber mit dem Standard-Programmiermodell von von Neumann nur schwer programmierbar. Daher besitzen alle derzeit im Einsatz befindlichen NUMA-Systeme spezielle Hardware, um die Cache-Kohärenz sicherzustellen, und werden deshalb auch als cache-coherent NUMA (ccNUMA) bezeichnet.
Dies wird meistens durch Inter-Prozessor-Kommunikation zwischen den Cache-Controllern erreicht, die so für konsistente Speicherinhalte sorgen, falls die gleiche Speicherstelle in mehr als einem Cache gespeichert ist. ccNUMA leidet unter schlechter Performance, wenn mehrere Prozessoren schnell nacheinander auf dieselbe Speicherstelle zugreifen wollen. Daher versucht ein Betriebssystem mit NUMA-Unterstützung die Häufigkeit solcher Zugriffe zu minimieren, indem Prozessoren und Speicher auf NUMA-freundliche Art und Weise alloziert werden.
Aktuelle Implementationen von ccNUMA Systemen sind beispielsweise AMD Mehrprozessor Systeme auf Opteron Basis. Frühere NUMA Systeme basierten auf dem Alpha-Prozessor EV7 von Digital Equipment Corporation(DEC).
[Bearbeiten] NUMA vs. Cluster-Computing
NUMA kann als sehr eng gekoppelte Form von Cluster-Computing gesehen werden. Das Hinzufügen von Paging für virtuellen Speicher zu einer Cluster-Architektur macht es möglich, NUMA in Software zu implementieren, wo keine NUMA-Hardware existiert. Die Latenzzeiten von softwarebasiertem NUMA sind jedoch um ein vielfaches größer als mit Hardware-NUMA.
[Bearbeiten] Sonstiges
NUMA ist auch die Abkürzung für eine fiktive Organisation (National Underwater and Marine Agency) in Büchern des amerikanischen Schriftstellers Clive Cussler. Im Jahre 1978 gründete Clive Cussler tatsächlich eine gemeinnützige Gesellschaft mit dem Namen "NUMA", die es sich zum Ziel setzt, das maritime Erbe durch die Entdeckung, archäologische Erforschung und Konservierung von Schiffwracks zu erhalten, siehe dazu NUMA.net.
[Bearbeiten] Weblinks
- NUMA FAQ (englisch)
Der Original-Artikel aus der englischen Wikipedia enthält Material von FOLDOC, das hier und in der engl. Wikipedia unter einer Public-Domain-Lizenz verwendet wird.