🎮 La Carte Graphique (GPU)

Bloc 1 Module 1.2 BTS SIO SISR
FormationBTS SIO option SISR — IRIS Mediaschool
BlocB1 — Infrastructure & Réseaux
ModuleM1.2 — Architecture Matérielle
PrérequisC1.2.1 — Le Processeur, C1.2.3 — La Carte Mère

🎯 Objectifs

À l'issue de ce cours, vous serez capable de :

  • Expliquer le rôle d'un GPU et sa différence fondamentale avec un CPU.
  • Décrire l'architecture interne d'un GPU (cœurs, mémoire VRAM, bus).
  • Distinguer un GPU intégré (iGPU) d'un GPU dédié (dGPU) et choisir la solution adaptée à un besoin.
  • Identifier les différents connecteurs d'affichage (VGA, DVI, HDMI, DisplayPort) et les résolutions associées.
  • Connaître les principaux fabricants (NVIDIA, AMD, Intel) et leurs gammes de produits.
  • Comprendre les usages du calcul parallèle sur GPU (GPGPU) : IA, rendu 3D, simulation scientifique.
  • Dimensionner l'alimentation et le refroidissement nécessaires à un GPU.
  • Mettre en œuvre un GPU dans un contexte serveur (passthrough, vGPU).
  • Utiliser les outils de diagnostic et de supervision d'un GPU sous Linux et Windows.

📖 Qu'est-ce qu'un GPU ?

Le GPU (Graphics Processing Unit), ou processeur graphique, est un composant matériel spécialisé dans le traitement massivement parallèle de données. Conçu à l'origine pour accélérer l'affichage 2D et 3D à l'écran, le GPU est devenu un élément central de l'informatique moderne, utilisé bien au-delà du simple rendu graphique.

CPU vs GPU : séquentiel vs parallèle massif

La différence fondamentale entre un CPU et un GPU réside dans leur philosophie de calcul :

Critère CPU (Central Processing Unit) GPU (Graphics Processing Unit)
Nombre de cœurs 4 à 64 cœurs (grand public / serveur) Des centaines à des milliers de cœurs
Type de calcul Séquentiel — traitement de tâches complexes une par une Parallèle massif — traitement de milliers de tâches simples simultanément
Fréquence Élevée (3 à 6 GHz) Plus basse (1 à 3 GHz)
Cache Grand cache L1/L2/L3 (jusqu'à 128 Mo) Cache plus petit mais mémoire VRAM dédiée rapide
Spécialisation Tâches générales, logique complexe, branchements Opérations arithmétiques simples et répétitives sur de grands ensembles de données
Analogie Un professeur d'université résolvant des problèmes complexes un par un Des centaines d'élèves résolvant chacun un calcul simple en même temps

Le CPU est optimisé pour la latence (exécuter une tâche le plus rapidement possible), tandis que le GPU est optimisé pour le débit (exécuter un maximum de tâches en parallèle). C'est cette architecture massivement parallèle qui rend le GPU indispensable pour le rendu graphique, où chaque pixel de l'écran doit être calculé de façon indépendante.

Rôle historique et moderne

Historiquement, le GPU se chargeait exclusivement de :

  • L'accélération de l'affichage 2D (bureau, fenêtres, défilement).
  • Le rendu 3D en temps réel (jeux vidéo, CAO).
  • Le décodage vidéo matériel (lecture de DVD, puis Blu-ray, puis streaming 4K).

Aujourd'hui, le GPU est aussi utilisé pour :

  • L'entraînement et l'inférence de modèles d'intelligence artificielle (deep learning).
  • Le calcul scientifique haute performance (HPC).
  • Le minage de cryptomonnaies (bien que de moins en moins rentable sur GPU).
  • Le transcodage vidéo accéléré matériellement (NVENC, VCE, Quick Sync).
  • La virtualisation d'affichage dans les datacenters (VDI).

📖 Architecture d'un GPU

L'architecture interne d'un GPU moderne est organisée en plusieurs blocs fonctionnels spécialisés, chacun jouant un rôle précis dans le pipeline de rendu ou de calcul.

Cœurs de calcul : CUDA Cores et Stream Processors

Les cœurs de calcul sont les unités fondamentales du GPU. Leur dénomination varie selon le fabricant :

  • CUDA Cores (NVIDIA) : unités de calcul à virgule flottante capables d'effectuer des opérations arithmétiques simples (addition, multiplication). Une RTX 4090 possède 16 384 CUDA cores.
  • Stream Processors (AMD) : équivalent fonctionnel des CUDA cores chez AMD. Une RX 7900 XTX possède 6 144 Stream Processors.
  • Xe Cores (Intel) : les unités de calcul des GPU Intel Arc.

Ces cœurs sont regroupés en blocs appelés SM (Streaming Multiprocessors) chez NVIDIA ou CU (Compute Units) chez AMD. Chaque SM/CU contient un ensemble de cœurs, des registres, du cache partagé et des unités de contrôle.

Unités spécialisées

Unité Rôle Détail
TMU (Texture Mapping Units) Application des textures sur les polygones 3D Gèrent le filtrage bilinéaire, trilinéaire et anisotrope des textures
ROP (Render Output Units) Écriture des pixels finaux dans le framebuffer Gèrent l'antialiasing, le blending (mélange de couleurs) et le Z-buffer (profondeur)
RT Cores (NVIDIA) Accélération matérielle du ray tracing Calculent les intersections rayon/triangle en temps réel pour des éclairages réalistes
Tensor Cores (NVIDIA) Accélération des calculs matriciels (IA) Utilisés pour le DLSS (upscaling par IA) et l'entraînement de réseaux de neurones
Ray Accelerators (AMD) Équivalent AMD des RT Cores Présents à partir de l'architecture RDNA 2

Mémoire VRAM

La VRAM (Video Random Access Memory) est la mémoire dédiée du GPU. Elle stocke les textures, le framebuffer, les shaders compilés et les données de calcul. Contrairement à la RAM système, la VRAM est directement reliée au GPU par un bus très rapide.

Type de VRAM Bande passante Utilisation Exemples de cartes
GDDR6 Jusqu'à ~512 Go/s Cartes grand public milieu de gamme RTX 4060, RX 7600
GDDR6X Jusqu'à ~1 008 Go/s Cartes haut de gamme gaming RTX 4080, RTX 4090
HBM2 / HBM2e / HBM3 Jusqu'à ~3 350 Go/s (HBM3) GPU datacenter et professionnels NVIDIA A100 (HBM2e), H100 (HBM3), AMD Instinct MI250X

Bus mémoire

Le bus mémoire détermine la quantité de données pouvant transiter simultanément entre le GPU et sa VRAM. Plus le bus est large, plus la bande passante est élevée :

Largeur du bus Segment Exemple
64 bits Entrée de gamme / iGPU GPU intégrés, cartes bureautiques
128 bits Milieu de gamme RTX 4060, RX 7600
192 bits Milieu-haut de gamme RTX 4070
256 bits Haut de gamme RTX 4080, RX 7900 XT
384 bits Très haut de gamme RTX 4090, RX 7900 XTX
4096 / 5120 bits Datacenter (HBM) NVIDIA A100, H100

La bande passante mémoire se calcule ainsi :
Bande passante (Go/s) = Fréquence effective (MHz) × Largeur du bus (bits) ÷ 8

📖 GPU intégré vs GPU dédié

Il existe deux grandes catégories de GPU, chacune répondant à des besoins différents.

GPU intégré (iGPU)

Le GPU intégré est incorporé directement dans le processeur (CPU). Il partage la mémoire RAM système au lieu de disposer de sa propre VRAM. On parle parfois d'APU (Accelerated Processing Unit) chez AMD.

  • Intel UHD Graphics : présent dans la plupart des processeurs Intel Core, suffisant pour la bureautique et le décodage vidéo.
  • Intel Iris Xe : présent dans les processeurs Intel Core de 11ᵉ génération et plus, performances légèrement supérieures.
  • AMD Radeon Graphics (intégré) : présent dans les APU AMD Ryzen (séries G/GE), offre souvent de meilleures performances graphiques que les iGPU Intel.

GPU dédié (dGPU)

Le GPU dédié est une carte séparée installée dans un slot PCIe de la carte mère. Il dispose de sa propre VRAM, de son propre système de refroidissement et de sa propre alimentation.

Critère GPU intégré (iGPU) GPU dédié (dGPU)
Performances Faibles à moyennes Moyennes à très élevées
Mémoire Partagée avec la RAM système VRAM dédiée (4 à 48 Go en gaming, jusqu'à 80+ Go en datacenter)
Consommation Très faible (15-45 W partagés avec le CPU) Élevée (75 à 600 W)
Coût Inclus dans le prix du CPU De 150 € à 2 000+ € (gaming), bien plus en pro
Encombrement Aucun (intégré au CPU) Occupe 2 à 4 slots PCIe, peut mesurer jusqu'à 35 cm
Use cases Bureautique, navigation web, lecture vidéo, serveurs sans besoin graphique Gaming, création 3D, montage vidéo, IA, calcul scientifique, VDI

Quand choisir quoi ?

  • Poste bureautique / serveur headless : un iGPU suffit amplement. Cela réduit le coût, la consommation et la complexité.
  • Poste de travail CAO / montage vidéo : un dGPU professionnel (Quadro/RTX Pro, Radeon Pro) est recommandé pour les drivers certifiés et la VRAM importante.
  • Poste gaming : un dGPU gaming (GeForce, Radeon) est indispensable.
  • Serveur d'IA / HPC : un ou plusieurs dGPU datacenter (A100, H100, Instinct) sont nécessaires.

📖 Connectique d'affichage

La carte graphique transmet le signal vidéo à l'écran via différents connecteurs. L'évolution de ces connecteurs suit celle des résolutions et des fréquences de rafraîchissement.

Connecteur Type de signal Résolution max Audio Statut
VGA (D-Sub 15 broches) Analogique 2048 × 1536 (théorique) Non Obsolète — encore présent sur certains moniteurs anciens et vidéoprojecteurs
DVI-D / DVI-I Numérique (DVI-D) / Numérique + Analogique (DVI-I) 2560 × 1600 (Dual-Link) Non (sauf certaines implémentations) En voie de disparition — remplacé par HDMI/DP
HDMI 1.4 Numérique 4K @ 30 Hz Oui Répandu sur les anciens écrans et téléviseurs
HDMI 2.0 Numérique 4K @ 60 Hz Oui Encore très courant
HDMI 2.1 Numérique 4K @ 120 Hz / 8K @ 60 Hz Oui Standard actuel haut de gamme
DisplayPort 1.4 Numérique 4K @ 120 Hz / 8K @ 30 Hz (avec DSC) Oui Standard professionnel très répandu
DisplayPort 2.1 Numérique 4K @ 240 Hz / 8K @ 85 Hz / 16K (avec DSC) Oui Dernière version, débit jusqu'à 80 Gbit/s

Résolutions courantes

Nom courant Résolution Nombre de pixels Ratio
Full HD (1080p) 1920 × 1080 ~2,07 millions 16:9
QHD / 1440p 2560 × 1440 ~3,69 millions 16:9
4K / UHD 3840 × 2160 ~8,29 millions 16:9
8K / UHD-2 7680 × 4320 ~33,18 millions 16:9

Remarque : Le DisplayPort est généralement préféré en milieu professionnel car il supporte le daisy-chaining (chaînage de plusieurs écrans sur un seul câble) et offre souvent une meilleure bande passante. Le HDMI reste le standard pour les téléviseurs et les appareils grand public.

📖 Fabricants et gammes

Le marché des GPU est dominé par trois acteurs principaux, chacun proposant des gammes adaptées à différents segments.

NVIDIA

NVIDIA est le leader du marché GPU, tant dans le gaming que dans le datacenter.

Gamme Segment Exemples Caractéristiques
GeForce GTX / RTX Gaming / Grand public RTX 4060, RTX 4070, RTX 4080, RTX 4090 Ray tracing, DLSS, performances gaming optimisées
RTX (série pro) Stations de travail professionnelles RTX A4000, RTX A5000, RTX A6000 Drivers certifiés (ISV), grande VRAM (jusqu'à 48 Go), ECC
Tesla / A100 / H100 / B200 Datacenter / IA / HPC A100 (80 Go HBM2e), H100 (80 Go HBM3) Calcul pur (pas de sortie vidéo), NVLink, mémoire HBM

AMD

AMD propose une alternative compétitive, particulièrement dans le segment gaming avec ses architectures RDNA.

Gamme Segment Exemples Caractéristiques
Radeon RX Gaming / Grand public RX 7600, RX 7800 XT, RX 7900 XTX Architecture RDNA 3, ray tracing, FSR (upscaling)
Radeon Pro Stations de travail professionnelles Radeon Pro W7800, W7900 Drivers certifiés, grande VRAM, support multi-écran pro
Instinct Datacenter / IA / HPC MI250X, MI300X Mémoire HBM, ROCm (alternative à CUDA), calcul haute performance

Intel

Intel est un entrant récent sur le marché des GPU dédiés avec sa gamme Arc.

Gamme Segment Exemples Caractéristiques
Arc (A-Series) Gaming entrée/milieu de gamme Arc A380, Arc A750, Arc A770 Architecture Xe-HPG, ray tracing, XeSS (upscaling par IA)
Intel UHD / Iris Xe GPU intégrés UHD 770, Iris Xe (12ᵉ-14ᵉ gen) Intégrés dans les CPU, suffisants pour la bureautique
Data Center GPU (Max / Ponte Vecchio) Datacenter / HPC Intel Data Center GPU Max 1550 Mémoire HBM2e, calcul scientifique, oneAPI

📖 GPU et calcul parallèle (GPGPU)

Le GPGPU (General-Purpose computing on Graphics Processing Units) désigne l'utilisation du GPU pour des calculs qui ne sont pas liés au rendu graphique. Cette approche exploite l'architecture massivement parallèle du GPU pour accélérer des tâches de calcul intensif.

Frameworks de calcul GPU

Framework Éditeur GPU supportés Description
CUDA NVIDIA NVIDIA uniquement Plateforme propriétaire de calcul parallèle. Standard de facto pour l'IA et le HPC. Langage basé sur C/C++ avec extensions.
OpenCL Khronos Group NVIDIA, AMD, Intel, ARM… Standard ouvert multi-plateforme. Moins performant que CUDA sur GPU NVIDIA, mais compatible avec tous les fabricants.
ROCm AMD AMD (principalement) Plateforme open source d'AMD, alternative à CUDA. Compatibilité HIP pour porter du code CUDA vers AMD.
oneAPI / SYCL Intel Intel, NVIDIA, AMD Framework unifié d'Intel pour le calcul hétérogène (CPU, GPU, FPGA).
Vulkan Compute Khronos Group Tous API graphique et de calcul bas-niveau, multi-plateforme.

Domaines d'application du GPGPU

🤖 Intelligence Artificielle et Machine Learning

L'entraînement de réseaux de neurones profonds (deep learning) repose sur des multiplications matricielles massives, opération pour laquelle le GPU est extrêmement efficace. Les frameworks comme TensorFlow, PyTorch et JAX utilisent CUDA pour accélérer les calculs. Les Tensor Cores de NVIDIA accélèrent encore davantage ces opérations grâce au calcul en précision mixte (FP16/FP32).

⛏️ Minage de cryptomonnaies

Le minage consiste à effectuer des calculs de hachage en boucle pour valider des transactions sur une blockchain. L'architecture parallèle du GPU le rend beaucoup plus efficace qu'un CPU pour cette tâche. Cependant, depuis le passage d'Ethereum au Proof of Stake (2022), le minage sur GPU a fortement diminué pour les principales cryptomonnaies.

🎬 Rendu 3D et simulation

Les moteurs de rendu comme Blender Cycles, V-Ray et OctaneRender utilisent le GPU pour accélérer le calcul de rayons lumineux (ray tracing). Un rendu qui prendrait des heures sur CPU peut être réalisé en quelques minutes sur GPU.

🔬 Simulation scientifique

La dynamique des fluides (CFD), la simulation moléculaire, l'analyse financière, la météorologie et la génomique exploitent le GPU pour traiter d'immenses jeux de données. Les supercalculateurs modernes intègrent des milliers de GPU (ex : le supercalculateur Frontier avec des GPU AMD Instinct MI250X).

📖 Alimentation et refroidissement

Les GPU dédiés sont parmi les composants les plus gourmands en énergie d'un ordinateur. Dimensionner correctement l'alimentation et le refroidissement est essentiel pour garantir stabilité et longévité.

TDP et TGP

  • TDP (Thermal Design Power) : puissance thermique maximale que le système de refroidissement doit dissiper, exprimée en watts.
  • TGP (Total Graphics Power) : consommation totale de la carte graphique, incluant le GPU, la VRAM et les composants auxiliaires.
  • TBP (Total Board Power) : synonyme de TGP, utilisé par certains fabricants.
Carte TDP / TGP Alimentation recommandée
RTX 4060 115 W 550 W
RTX 4070 Ti 285 W 700 W
RTX 4090 450 W 850 W
RX 7900 XTX 355 W 800 W
NVIDIA A100 (datacenter) 300-400 W Alimentation serveur dédiée

Connecteurs d'alimentation

Le slot PCIe x16 fournit au maximum 75 W. Pour les cartes nécessitant plus de puissance, des connecteurs d'alimentation supplémentaires sont requis :

Connecteur Puissance Usage
PCIe 6-pin 75 W Cartes entrée/milieu de gamme (75 + 75 = 150 W max)
PCIe 8-pin (6+2) 150 W Cartes milieu/haut de gamme
2 × 8-pin 300 W (+ 75 W slot) Cartes haut de gamme
3 × 8-pin 450 W (+ 75 W slot) Cartes très haut de gamme
12VHPWR (16-pin) Jusqu'à 600 W Nouveau standard ATX 3.0, utilisé par les RTX 4000/5000

Solutions de refroidissement

Type Principe Avantages Inconvénients
Open-air (ventilateurs axiaux) 2 ou 3 ventilateurs soufflant sur un radiateur à ailettes et caloducs Excellent refroidissement, silencieux à charge modérée Rejette l'air chaud dans le boîtier, occupe 2,5 à 4 slots
Blower (turbine centrifuge) Un ventilateur radial aspire l'air et l'expulse par l'arrière de la carte Évacue l'air chaud directement hors du boîtier, idéal pour les boîtiers compacts et les configurations multi-GPU Plus bruyant, températures plus élevées
Watercooling (AIO ou custom) Un waterblock sur le GPU relié à un radiateur externe par des tuyaux de liquide Températures les plus basses, fonctionnement très silencieux Coût élevé, installation complexe, risque de fuite
Refroidissement passif Dissipation par un radiateur massif sans ventilateur Aucun bruit (0 dB) Limité aux GPU très basse consommation

📖 GPU en contexte serveur

Dans un environnement serveur et datacenter, le GPU joue un rôle croissant pour la virtualisation d'affichage, l'IA et le calcul haute performance.

GPU Passthrough (virtualisation)

Le GPU passthrough consiste à attribuer un GPU physique complet et exclusif à une seule machine virtuelle (VM). La VM dispose alors d'un accès direct au matériel, avec des performances proches du natif.

  • Nécessite le support IOMMU (Intel VT-d ou AMD-Vi) dans le BIOS/UEFI.
  • Utilisé avec des hyperviseurs comme KVM/QEMU, VMware ESXi ou Proxmox VE.
  • Limitation : un GPU ne peut être assigné qu'à une seule VM à la fois.

vGPU (GPU virtualisé)

La technologie vGPU (notamment NVIDIA GRID et NVIDIA vGPU) permet de partager un seul GPU physique entre plusieurs machines virtuelles simultanément. Chaque VM reçoit une fraction des ressources GPU.

Critère GPU Passthrough vGPU (NVIDIA GRID)
Partage 1 GPU → 1 VM 1 GPU → plusieurs VM
Performances Quasi-natives Bonnes, partagées proportionnellement
Flexibilité Limitée (tout ou rien) Élevée (profils configurables)
Licence Pas de licence spécifique requise Licence NVIDIA GRID/vGPU obligatoire
Usage typique VM de calcul IA dédiée, gaming cloud VDI (Virtual Desktop Infrastructure), postes de travail virtuels

GPU dans les racks serveurs

Les GPU datacenter sont conçus spécifiquement pour l'environnement serveur :

  • Format : cartes au format PCIe pleine longueur, souvent en simple slot avec refroidissement passif (le flux d'air du serveur assure le refroidissement).
  • Interconnexion : technologies comme NVLink (NVIDIA) permettent à plusieurs GPU de communiquer entre eux avec une bande passante très élevée (jusqu'à 900 Go/s sur NVLink 4).
  • Systèmes multi-GPU : des serveurs comme le NVIDIA DGX intègrent jusqu'à 8 GPU interconnectés par NVLink dans un seul châssis.
  • Gestion à distance : les GPU datacenter supportent la supervision à distance via nvidia-smi, IPMI et des outils de gestion de flotte.

📖 Diagnostic et outils

La gestion, le diagnostic et la supervision des GPU sont essentiels pour un technicien SISR. Voici les principaux outils disponibles.

Outils en ligne de commande (Linux)

Commande Description Exemple
lspci | grep -i vga Liste les périphériques PCI de type VGA (détecte les GPU installés) lspci | grep -i vga → affiche le modèle du GPU détecté
lspci -v -s <ID> Affiche les détails d'un périphérique PCI spécifique lspci -v -s 01:00.0 → détails du GPU (mémoire, driver utilisé, IRQ)
nvidia-smi Outil NVIDIA pour superviser les GPU : température, utilisation, mémoire VRAM, processus nvidia-smi → tableau de bord complet du GPU NVIDIA
nvidia-smi -l 2 Rafraîchissement automatique toutes les 2 secondes (monitoring continu) Utile pour surveiller la charge GPU pendant un entraînement IA
nvidia-smi -q Informations détaillées sur le GPU (clocks, ECC, power, etc.) Diagnostique complet du GPU
glxinfo | grep "OpenGL" Affiche les informations OpenGL du driver graphique actif Vérifie que l'accélération 3D fonctionne et quel driver est utilisé
vainfo Affiche les capacités de décodage/encodage vidéo matériel (VA-API) Vérifie le support du transcodage matériel H.264/H.265
vulkaninfo Affiche les capacités Vulkan du GPU Diagnostique le support Vulkan pour les applications 3D
sensors (lm-sensors) Affiche les températures des composants, dont le GPU sensors | grep -A5 "gpu"

Outils graphiques

Outil Plateforme Description
GPU-Z Windows Affiche toutes les caractéristiques du GPU : modèle, révision, fréquences, VRAM, température, charge. Outil de référence pour l'identification du matériel.
MSI Afterburner Windows Monitoring avancé et overclocking. Permet de surveiller la température, les fréquences, la consommation et d'ajuster les courbes de ventilation.
HWiNFO64 Windows Supervision complète du système, incluant le GPU : températures, fréquences, consommation, hotspot.
Gestionnaire des tâches Windows 10/11 L'onglet « Performances » affiche l'utilisation du GPU, la mémoire VRAM dédiée/partagée et le décodage/encodage vidéo.
NVIDIA Settings / AMD Adrenalin Windows / Linux Panneaux de configuration des drivers NVIDIA et AMD : paramètres 3D, résolution, gestion des écrans, profils par application.

Drivers GPU

Le choix du driver est crucial pour les performances et la stabilité du GPU :

Fabricant Driver Linux Driver Windows Notes
NVIDIA Driver propriétaire NVIDIA (recommandé) ou Nouveau (open source, performances limitées) GeForce Game Ready / Studio Driver NVIDIA a partiellement ouvert ses modules noyau Linux en 2022. Le driver propriétaire reste nécessaire pour CUDA et les performances optimales.
AMD Mesa / RADV (open source, intégré au noyau Linux, excellent support) AMD Adrenalin Software AMD contribue activement au driver open source. Mesa + RADV offre d'excellentes performances sous Linux.
Intel i915 / xe (open source, intégré au noyau Linux) Intel Graphics Driver Support open source natif sous Linux. Les GPU Arc utilisent le driver xe.

Vérification de l'installation sous Linux

Voici une procédure typique pour diagnostiquer un GPU sous Linux :

  1. Détecter le GPU : lspci | grep -i vga
  2. Vérifier le driver chargé : lspci -k -s 01:00.0 (chercher la ligne Kernel driver in use)
  3. Vérifier l'accélération 3D : glxinfo | grep "direct rendering" (doit afficher Yes)
  4. Pour NVIDIA — vérifier le driver : nvidia-smi (affiche la version du driver et de CUDA)
  5. Vérifier les températures : nvidia-smi -q -d TEMPERATURE ou sensors
  6. Surveiller en temps réel : watch -n1 nvidia-smi ou nvtop (outil TUI dédié)
  1. Quelle est la principale différence architecturale entre un CPU et un GPU ?
  2. Que signifie l'acronyme VRAM ?
  3. Quel type de mémoire est utilisé dans les GPU grand public modernes ?
  4. Quelle technologie NVIDIA permet d'utiliser le GPU pour du calcul généraliste (GPGPU) ?
  5. Quel connecteur vidéo supporte la 4K à 120 Hz avec HDR dynamique ?
  6. Quelle est la différence entre un iGPU et un dGPU ?
  7. Quelle commande Linux permet de surveiller l'utilisation d'un GPU NVIDIA ?
  8. Comment s'appelle la technologie qui partage un GPU physique entre plusieurs VM ?
📝 Corrections
  1. Le GPU a des milliers de petits cœurs pour le parallélisme massif, le CPU a peu de cœurs puissants pour les tâches séquentielles — Le GPU excelle dans le débit (traiter beaucoup de données similaires en même temps), le CPU dans la latence (exécuter des tâches complexes rapidement).
  2. Video Random Access Memory — C'est la mémoire dédiée du GPU, distincte de la RAM système, utilisée pour stocker textures, framebuffers et données de calcul.
  3. GDDR6 ou GDDR6X — Les GPU gaming utilisent de la GDDR6/GDDR6X pour le débit, tandis que les GPU serveur/HPC utilisent de la HBM (High Bandwidth Memory).
  4. CUDA — CUDA (Compute Unified Device Architecture) est la plateforme propriétaire NVIDIA pour le calcul sur GPU, utilisée en IA, simulation et HPC.
  5. HDMI 2.1 — HDMI 2.1 supporte 48 Gbit/s, la 4K@120Hz, le 8K@60Hz et le HDR dynamique. Le DisplayPort 2.1 offre encore plus de bande passante.
  6. L'iGPU est intégré au CPU (bureautique), le dGPU est une carte dédiée (gaming/création) — L'iGPU partage la RAM système, le dGPU a sa propre VRAM et est bien plus puissant.
  7. nvidia-smi — nvidia-smi (System Management Interface) affiche l'utilisation GPU, la VRAM, la température et les processus en cours.
  8. vGPU (NVIDIA GRID) — Le vGPU permet de partager un GPU physique entre plusieurs machines virtuelles, contrairement au GPU passthrough qui attribue le GPU entier à une seule VM.
💡 À retenir

Le GPU est un processeur massivement parallèle, composé de centaines à milliers de cœurs, conçu pour traiter simultanément de grandes quantités de données. Contrairement au CPU (optimisé pour la latence et les tâches séquentielles complexes), le GPU excelle dans le débit et les opérations répétitives. Il dispose de sa propre mémoire (VRAM) en GDDR6/GDDR6X ou HBM, reliée par un bus large (128 à 384+ bits). On distingue les GPU intégrés (iGPU, dans le CPU, pour la bureautique) des GPU dédiés (dGPU, carte séparée, pour le gaming, la création et le calcul). Les connecteurs d'affichage modernes sont le HDMI 2.1 et le DisplayPort 2.1. Les trois grands fabricants sont NVIDIA (leader, CUDA), AMD (Radeon, ROCm) et Intel (Arc, oneAPI). Le GPGPU permet d'utiliser le GPU pour l'IA, le HPC et la simulation. En contexte serveur, le GPU passthrough attribue un GPU complet à une VM, tandis que le vGPU (NVIDIA GRID) le partage entre plusieurs VM. Les outils essentiels sont lspci, nvidia-smi, glxinfo et GPU-Z.

← Cours précédent Retour au module →