GPUArchitektur
GPUArchitektur bezeichnet die innere Bauweise moderner Grafikprozessoren, die auf hohe Parallelität für Grafikrendering und rechenintensive GPGPU-Aufgaben ausgelegt ist. Sie bildet die Grundlage für die Effizienz von Rendering-Pipelines sowie für allgemeine Rechenarbeiten auf der GPU.
Typische Architekturen bestehen aus vielen Recheneinheiten, die Threads in großen Gruppen ausführen. NVIDIA-GPUs nutzen Streaming Multiprocessors
Der Speicher umfasst globalen Arbeitsspeicher, L2- und teils L1-Caches, lokalen Speicher, Shared Memory, Texture- und Constant-Memory.
Die Pipeline deckt Grafik-Rendering (Vertex-, Geometrie-, Fragment-/Pixel-Shader) und Compute-Kerne ab. Neue Optionen integrieren Ray-Tracing-Hardware (RT-Kerne) und
Programmierung erfolgt über spezialisierte APIs und Sprachen wie CUDA, OpenCL, Vulkan oder DirectX/OpenGL-Shadermodel. Compiler, Scheduling, Speicherzugriffe
Zukunftstrends umfassen noch mehr parallele Einheiten, weiter steigende Speicherbandbreite, effizientere Energieausnutzung, gemischte Precision sowie erweiterte Unterstützung