Un cœur CUDA est l'une des minuscules unités mathématiques présentes dans un GPU NVIDIA qui effectue les tâches fastidieuses liées au traitement graphique et au calcul parallèle. Chaque cœur se trouve dans un bloc plus grand appelé « multiprocesseur de flux » (SM) et, sur les GPU GeForce « Blackwell » modernes, chaque SM contient 128 cœurs CUDA. C'est pourquoi vous verrez des totaux tels que 21 760 cœurs CUDA sur une RTX 5090. La puce comporte simplement de nombreux SM, chacun contenant ces cœurs.
CUDA (la plateforme de calcul parallèle de NVIDIA) est le volet logiciel : elle permet aux applications et aux frameworks d'envoyer efficacement des tâches de rendu, d'IA et de simulation massivement parallèles à ces cœurs.
Considérez un GPU comme une usine conçue pour traiter des tâches volumineuses. Les cœurs CUDA traitent les tâches dans des groupes de 32 threads qui exécutent la même instruction sur différentes données (un modèle que NVIDIA appelle SIMT). C'est ainsi que les GPU traitent des milliers d'opérations à la fois. Chaque SM dispose de planificateurs qui maintiennent de nombreux threads en cours d'exécution afin de masquer la latence de la mémoire et de garder ces cœurs occupés.
Une image mentale utile :
Ceux-ci déchargent certaines tâches spécifiques afin que les cœurs CUDA puissent se concentrer sur l'ombrage/le calcul.
Crédit image : NVIDIA
En général, mais pas à elles seules. L'architecture joue un rôle très important. Par exemple, la génération Ampere de NVIDIA a doublé le débit FP32 par SM par rapport à Turing, ce qui signifie que la puissance « par cœur » a changé d'une génération à l'autre. Ada a également considérablement augmenté la taille des caches (notamment L2), ce qui améliore les performances de nombreuses charges de travail sans modifier le nombre de cœurs. En résumé, comparer le nombre de cœurs CUDA entre différentes générations n'est pas comparable.
Autres facteurs importants :
Une règle empirique conviviale :
Si vous souhaitez vérifier rapidement l'échelle, la RTX 5090 répertorie 21 760 cœurs CUDA, ce qui montre comment NVIDIA comptabilise les cœurs par SM sur plusieurs SM. Mais là encore, les gains de performances proviennent de la conception globale, et non du nombre seul.
Crédit image : NVIDIA
Vous n'avez pas besoin d'un câble spécial, mais vous devez disposer de la pile logicielle appropriée. CUDA est la plateforme de NVIDIA ; les applications l'utilisent via des pilotes, des boîtes à outils et des bibliothèques. De nombreuses applications et infrastructures populaires sont déjà conçues pour exploiter l'accélération CUDA une fois que vos pilotes NVIDIA et (si nécessaire) la boîte à outils CUDA sont installés. Les applications prises en charge l'utilisent tout simplement.
CUDA fonctionne sur les GPU NVIDIA compatibles CUDA de toutes les gammes de produits (GeForce/RTX pour les jeux et la création, RTX professionnel et GPU pour centres de données). Le guide de programmation indique que le modèle s'adapte à de nombreuses générations de GPU et références. NVIDIA tient à jour une liste des GPU compatibles CUDA et de leurs capacités de calcul.
Un cœur CUDA est-il identique à un « cœur de shader » ?
Dans le jargon quotidien des GPU, oui, sur les GPU NVIDIA, les « cœurs CUDA » désignent les ALU FP32/INT32 programmables utilisées pour l'ombrage et le calcul général à l'intérieur de chaque SM.
Pourquoi le nombre de cœurs CUDA varie-t-il autant d'une génération à l'autre ?
Parce que les architectures évoluent. Ampere a modifié les chemins de données FP32 (plus de travail par cycle d'horloge) et Ada a remanié les caches afin que les performances ne soient pas proportionnelles au nombre de cœurs.
C'est quoi déjà, une chaîne ?
Un groupe de 32 threads qui s'exécutent en parallèle sur le SM. Les applications lancent des milliers de threads ; le GPU les planifie sous forme de warps afin de maintenir le matériel occupé.
Les cœurs CUDA sont-ils utiles pour l'IA ?
Oui, mais les grands accélérateurs de l'IA moderne sont les Tensor Cores. Les cœurs CUDA continuent de gérer une grande partie du travail environnant dans ces pipelines.