høyytelsesdatabehandling
Høyytelsesdatabehandling (HPC) refererer til datasystemer og teknikker som kjører svært krevende beregninger raskt ved å utnytte parallelle ressurser og store mengder minne og lagring. HPC-systemer består ofte av klynger av noder koblet med høyhastighetsnettverk og kan inkludere akseleratorer som GPUs eller FPGA-er. Programvaren fokuserer på parallellisering ved hjelp av modeller som MPI og OpenMP, samt kjøretidsverktøy og parallelle filsystemer som Lustre eller GPFS.
HPC brukes i vitenskapelige simuleringer, vær- og klima-modellering, molekylær- og materialforskning, fysikk og geovitenskap, samt industriell
Arkitekturer inkluderer distribuerte minne-klynger og delte minne-systemer, ofte med heterogene elementer som GPU-er. Dette gir høy
Framover ses eksascale- og energibalanserte systemer, bedre integrasjon av kunstig intelligens i HPC-arbeidsbelastninger, og økt bruk