
Engineering Kiosk #184 GPU Programmierung - von CUDA bis OpenMP mit Peter Thoman
Feb 25, 2025
Dr. Prof. Peter Thoman, ein führender Experte für GPU-Computing und Wissenschaftler an der Universität Innsbruck, diskutiert die faszinierende Welt der GPU-Programmierung. Er erklärt die Unterschiede zwischen verteiltem und parallelem Rechnen und stellt wichtige Standards wie CUDA und OpenMP vor. Besonders spannend ist die Betrachtung von Matrixoperationen und warum sie perfekt für GPUs geeignet sind. Außerdem beleuchtet er die Herausforderungen bei kombinatorischen Problemen wie dem Handlungsreisenden. Ein klarer Einstieg für Entwickler und ein Ausblick auf die Zukunft der Hardware runden das Gespräch ab.
AI Snips
Chapters
Transcript
Episode notes
Zwei Dekaden GPU-Erfahrung
- Peter Thoman programmiert seit über 20 Jahren GPUs, bereits vor CUDA.
- Er lehrt GPU-Computing und co-gründete PH3, das Spiele portiert und optimiert.
Paralleles vs. Verteiltes Rechnen
- Parallelrechnen bedeutet meist, denselben Algorithmus gleichzeitig auf vielen Daten auszuführen.
- Distributed Computing meint dagegen räumlich getrennte Systeme mit viel höheren Latenzen.
Warum GPUs So Viel Parallelismus Haben
- GPUs sind für extrem datenparallele, ähnliche Berechnungen pro Element optimiert.
- Hardware führt nur einen Bruchteil wirklich gleichzeitig aus, Scheduler wechselt aber sehr schnell zwischen Tasks.
