Det är ett stående önskemål i vetenskap och teknik att höja datorernas räknekapacitet. Snabba datorer med en enda processor och ett enda minne är dyra att tillverka och att använda, och dessutom finns det fysikaliska begränsningar för hur snabb en sådan dator kan bli. En metodik för att komma runt detta är att koppla ihop många (kanske flera tusen) processorer och minnen av standardtyp och låta dem arbeta parallellt på samma problem. De olika processorerna måste då skicka meddelanden med delresultat mellan varandra. Olika typer av sådana parallelldatorer behandlas i kursen.

Vidare presenteras och analyseras parallella algoritmer för fundamentala beräkningsproblem som exempelvis matris-vektormultiplikation. Intressanta frågeställningar är om det finns parallellism i en viss algoritm eller i en omarbetning av algoritmen.