Siden det seneste årti har vi set GPU’er komme mere hyppigt ind i billedet inden for områder som HPC (High-Performance Computing) og det mest populære område, nemlig spil. GPU’er er blevet forbedret år efter år, og nu er de i stand til at gøre nogle utroligt gode ting, men i de seneste par år har de fået endnu mere opmærksomhed på grund af deep learning.
Da deep learning-modeller bruger en stor mængde tid på træning, var selv kraftige CPU’er ikke effektive nok til at håndtere så mange beregninger på et givet tidspunkt, og det er det område, hvor GPU’er simpelthen udkonkurrerede CPU’er på grund af deres parallelisme. Men før vi går i dybden, skal vi først forstå nogle ting om GPU.
En GPU eller “Graphics Processing Unit” er en miniudgave af en hel computer, men kun dedikeret til en specifik opgave. Den er i modsætning til en CPU, der udfører flere opgaver på samme tid. GPU’en kommer med sin egen processor, som er indbygget på sit eget bundkort kombineret med v-ram eller video ram, og også et ordentligt termisk design til ventilation og køling.
AMD GPU’er er anstændige til spil, men så snart deep learning kommer ind i billedet, så er simpelthen Nvidia langt foran. Det betyder ikke, at AMD GPU’er er dårlige. Det skyldes softwareoptimering og drivere, som ikke bliver opdateret aktivt, på Nvidia-siden har de bedre drivere med hyppige opdateringer og oven i købet CUDA, cuDNNN hjælper med at fremskynde beregningen.
En del velkendte biblioteker som Tensorflow, PyTorch understøtter CUDA. Det betyder, at entry-level GPU’er i GTX 1000-serien kan bruges. På AMD-siden har det meget lidt softwareunderstøttelse til deres GPU’er. På hardwaresiden har Nvidia introduceret dedikerede tensor cores. AMD har ROCm til acceleration, men det er ikke godt som tensor cores, og mange deep learning biblioteker understøtter ikke ROCm. I de sidste par år har man ikke bemærket noget stort spring i ydeevne.
På grund af alle disse punkter udmærker Nvidia sig ganske enkelt inden for deep learning.
Summary
For at konkludere fra alt det, vi har lært, er det klart, at Nvidia fra nu af er markedsleder med hensyn til GPU’er, men jeg håber virkelig, at selv AMD indhenter dem i fremtiden eller i det mindste laver nogle bemærkelsesværdige forbedringer i det kommende lineup af deres GPU’er, da de allerede gør et godt stykke arbejde med hensyn til deres CPU’er i.e Ryzen-serien.
Den rækkevidde af GPU’er i de kommende år er enorm, da vi laver nye innovationer og gennembrud inden for deep learning, machine learning og HPC. GPU-acceleration vil altid være praktisk for mange udviklere og studerende for at komme ind på dette område, da deres priser også bliver mere overkommelige. Også tak til det brede fællesskab, der også bidrager til udviklingen af AI og HPC.