Home

Mehrprozessorsysteme

Mehrprozessorsysteme bezeichnen Computersysteme, die aus zwei oder mehr Prozessoren bestehen, die Ressourcen wie Speicher, I/O-Geräte und Netzwerkinfrastruktur gemeinsam nutzen oder kommunizieren, um Aufgaben parallel zu bearbeiten. Sie unterscheiden sich nach Speicherarchitektur in zwei Hauptkategorien: gemeinsam genutzter Speicher (Shared-Memory) und verteilter Speicher (Distributed-Memory). Beim Shared-Memory-System haben alle Prozessoren direkten Zugriff auf denselben Speicherbereich, typischerweise über eine gemeinsame Bus- oder Crossbar-Verbindung; das Betriebssystem kümmert sich um die Koherence der Cache-Inhalte (Cache-Coherence). Beim verteilten Speicher besitzt jeder Prozessor seinen eigenen lokalen Speicher, und die Kommunikation erfolgt über Netzwerke oder Compute Nodes; solche Systeme werden oft als NUMA (Non-Uniform Memory Access) oder UMA (Uniform Memory Access) klassifiziert, wobei NUMA eine nicht einheitliche Speicherzugriffszeit je nach Prozessor-Memory-Standort vorsieht.

Architekturformen umfassen Symmetrische Mehrprozessorsysteme (SMP) mit einem einheitlichen Adressraum, Multiprozessor-Server, Hochleistungsrechner (HPC) und Cluster mit verteiltem

Software- und Betriebssystemunterstützung ist entscheidend: Scheduler, Thread- und Prozessmanagement, Synchronisation, Speicherallokation und Parallelisierungsmodelle (Threads, MPI, OpenMP)

Anwendungen finden sich in Server- und Rechenzentren, HPC, wissenschaftliche Simulationen, Datenanalyse und eingebetteten Systemen. Vorteile sind

Speicher.
Interprozesskommunikation
erfolgt
über
Netzwerke
oder
spezialisierte
Verbindungsstrukturen
(Crossbar,
Switch-Array).
Koherence-Protokolle
wie
MESI
sorgen
dafür,
dass
Cache-Inhalte
konsistent
bleiben.
ermöglichen
effiziente
Nutzung
der
Ressourcen.
erhöhte
Throughput,
Skalierbarkeit
und
Leistungsfähigkeit
bei
parallelen
Lasten;
Herausforderungen
sind
Programmieraufwand,
Datenlokalität,
Kommunikations-Overhead,
Cache-Kohärenz
und
Kosten.