🎮 La Carte Graphique (GPU)
| Formation | BTS SIO option SISR — IRIS Mediaschool |
|---|---|
| Bloc | B1 — Infrastructure & Réseaux |
| Module | M1.2 — Architecture Matérielle |
| Prérequis | C1.2.1 — Le Processeur, C1.2.3 — La Carte Mère |
🎯 Objectifs
À l'issue de ce cours, vous serez capable de :
- Expliquer le rôle d'un GPU et sa différence fondamentale avec un CPU.
- Décrire l'architecture interne d'un GPU (cœurs, mémoire VRAM, bus).
- Distinguer un GPU intégré (iGPU) d'un GPU dédié (dGPU) et choisir la solution adaptée à un besoin.
- Identifier les différents connecteurs d'affichage (VGA, DVI, HDMI, DisplayPort) et les résolutions associées.
- Connaître les principaux fabricants (NVIDIA, AMD, Intel) et leurs gammes de produits.
- Comprendre les usages du calcul parallèle sur GPU (GPGPU) : IA, rendu 3D, simulation scientifique.
- Dimensionner l'alimentation et le refroidissement nécessaires à un GPU.
- Mettre en œuvre un GPU dans un contexte serveur (passthrough, vGPU).
- Utiliser les outils de diagnostic et de supervision d'un GPU sous Linux et Windows.
📖 Qu'est-ce qu'un GPU ?
Le GPU (Graphics Processing Unit), ou processeur graphique, est un composant matériel spécialisé dans le traitement massivement parallèle de données. Conçu à l'origine pour accélérer l'affichage 2D et 3D à l'écran, le GPU est devenu un élément central de l'informatique moderne, utilisé bien au-delà du simple rendu graphique.
CPU vs GPU : séquentiel vs parallèle massif
La différence fondamentale entre un CPU et un GPU réside dans leur philosophie de calcul :
| Critère | CPU (Central Processing Unit) | GPU (Graphics Processing Unit) |
|---|---|---|
| Nombre de cœurs | 4 à 64 cœurs (grand public / serveur) | Des centaines à des milliers de cœurs |
| Type de calcul | Séquentiel — traitement de tâches complexes une par une | Parallèle massif — traitement de milliers de tâches simples simultanément |
| Fréquence | Élevée (3 à 6 GHz) | Plus basse (1 à 3 GHz) |
| Cache | Grand cache L1/L2/L3 (jusqu'à 128 Mo) | Cache plus petit mais mémoire VRAM dédiée rapide |
| Spécialisation | Tâches générales, logique complexe, branchements | Opérations arithmétiques simples et répétitives sur de grands ensembles de données |
| Analogie | Un professeur d'université résolvant des problèmes complexes un par un | Des centaines d'élèves résolvant chacun un calcul simple en même temps |
Le CPU est optimisé pour la latence (exécuter une tâche le plus rapidement possible), tandis que le GPU est optimisé pour le débit (exécuter un maximum de tâches en parallèle). C'est cette architecture massivement parallèle qui rend le GPU indispensable pour le rendu graphique, où chaque pixel de l'écran doit être calculé de façon indépendante.
Rôle historique et moderne
Historiquement, le GPU se chargeait exclusivement de :
- L'accélération de l'affichage 2D (bureau, fenêtres, défilement).
- Le rendu 3D en temps réel (jeux vidéo, CAO).
- Le décodage vidéo matériel (lecture de DVD, puis Blu-ray, puis streaming 4K).
Aujourd'hui, le GPU est aussi utilisé pour :
- L'entraînement et l'inférence de modèles d'intelligence artificielle (deep learning).
- Le calcul scientifique haute performance (HPC).
- Le minage de cryptomonnaies (bien que de moins en moins rentable sur GPU).
- Le transcodage vidéo accéléré matériellement (NVENC, VCE, Quick Sync).
- La virtualisation d'affichage dans les datacenters (VDI).
📖 Architecture d'un GPU
L'architecture interne d'un GPU moderne est organisée en plusieurs blocs fonctionnels spécialisés, chacun jouant un rôle précis dans le pipeline de rendu ou de calcul.
Cœurs de calcul : CUDA Cores et Stream Processors
Les cœurs de calcul sont les unités fondamentales du GPU. Leur dénomination varie selon le fabricant :
- CUDA Cores (NVIDIA) : unités de calcul à virgule flottante capables d'effectuer des opérations arithmétiques simples (addition, multiplication). Une RTX 4090 possède 16 384 CUDA cores.
- Stream Processors (AMD) : équivalent fonctionnel des CUDA cores chez AMD. Une RX 7900 XTX possède 6 144 Stream Processors.
- Xe Cores (Intel) : les unités de calcul des GPU Intel Arc.
Ces cœurs sont regroupés en blocs appelés SM (Streaming Multiprocessors) chez NVIDIA ou CU (Compute Units) chez AMD. Chaque SM/CU contient un ensemble de cœurs, des registres, du cache partagé et des unités de contrôle.
Unités spécialisées
| Unité | Rôle | Détail |
|---|---|---|
| TMU (Texture Mapping Units) | Application des textures sur les polygones 3D | Gèrent le filtrage bilinéaire, trilinéaire et anisotrope des textures |
| ROP (Render Output Units) | Écriture des pixels finaux dans le framebuffer | Gèrent l'antialiasing, le blending (mélange de couleurs) et le Z-buffer (profondeur) |
| RT Cores (NVIDIA) | Accélération matérielle du ray tracing | Calculent les intersections rayon/triangle en temps réel pour des éclairages réalistes |
| Tensor Cores (NVIDIA) | Accélération des calculs matriciels (IA) | Utilisés pour le DLSS (upscaling par IA) et l'entraînement de réseaux de neurones |
| Ray Accelerators (AMD) | Équivalent AMD des RT Cores | Présents à partir de l'architecture RDNA 2 |
Mémoire VRAM
La VRAM (Video Random Access Memory) est la mémoire dédiée du GPU. Elle stocke les textures, le framebuffer, les shaders compilés et les données de calcul. Contrairement à la RAM système, la VRAM est directement reliée au GPU par un bus très rapide.
| Type de VRAM | Bande passante | Utilisation | Exemples de cartes |
|---|---|---|---|
| GDDR6 | Jusqu'à ~512 Go/s | Cartes grand public milieu de gamme | RTX 4060, RX 7600 |
| GDDR6X | Jusqu'à ~1 008 Go/s | Cartes haut de gamme gaming | RTX 4080, RTX 4090 |
| HBM2 / HBM2e / HBM3 | Jusqu'à ~3 350 Go/s (HBM3) | GPU datacenter et professionnels | NVIDIA A100 (HBM2e), H100 (HBM3), AMD Instinct MI250X |
Bus mémoire
Le bus mémoire détermine la quantité de données pouvant transiter simultanément entre le GPU et sa VRAM. Plus le bus est large, plus la bande passante est élevée :
| Largeur du bus | Segment | Exemple |
|---|---|---|
| 64 bits | Entrée de gamme / iGPU | GPU intégrés, cartes bureautiques |
| 128 bits | Milieu de gamme | RTX 4060, RX 7600 |
| 192 bits | Milieu-haut de gamme | RTX 4070 |
| 256 bits | Haut de gamme | RTX 4080, RX 7900 XT |
| 384 bits | Très haut de gamme | RTX 4090, RX 7900 XTX |
| 4096 / 5120 bits | Datacenter (HBM) | NVIDIA A100, H100 |
La bande passante mémoire se calcule ainsi :
Bande passante (Go/s) = Fréquence effective (MHz) × Largeur du bus (bits) ÷ 8
📖 GPU intégré vs GPU dédié
Il existe deux grandes catégories de GPU, chacune répondant à des besoins différents.
GPU intégré (iGPU)
Le GPU intégré est incorporé directement dans le processeur (CPU). Il partage la mémoire RAM système au lieu de disposer de sa propre VRAM. On parle parfois d'APU (Accelerated Processing Unit) chez AMD.
- Intel UHD Graphics : présent dans la plupart des processeurs Intel Core, suffisant pour la bureautique et le décodage vidéo.
- Intel Iris Xe : présent dans les processeurs Intel Core de 11ᵉ génération et plus, performances légèrement supérieures.
- AMD Radeon Graphics (intégré) : présent dans les APU AMD Ryzen (séries G/GE), offre souvent de meilleures performances graphiques que les iGPU Intel.
GPU dédié (dGPU)
Le GPU dédié est une carte séparée installée dans un slot PCIe de la carte mère. Il dispose de sa propre VRAM, de son propre système de refroidissement et de sa propre alimentation.
| Critère | GPU intégré (iGPU) | GPU dédié (dGPU) |
|---|---|---|
| Performances | Faibles à moyennes | Moyennes à très élevées |
| Mémoire | Partagée avec la RAM système | VRAM dédiée (4 à 48 Go en gaming, jusqu'à 80+ Go en datacenter) |
| Consommation | Très faible (15-45 W partagés avec le CPU) | Élevée (75 à 600 W) |
| Coût | Inclus dans le prix du CPU | De 150 € à 2 000+ € (gaming), bien plus en pro |
| Encombrement | Aucun (intégré au CPU) | Occupe 2 à 4 slots PCIe, peut mesurer jusqu'à 35 cm |
| Use cases | Bureautique, navigation web, lecture vidéo, serveurs sans besoin graphique | Gaming, création 3D, montage vidéo, IA, calcul scientifique, VDI |
Quand choisir quoi ?
- Poste bureautique / serveur headless : un iGPU suffit amplement. Cela réduit le coût, la consommation et la complexité.
- Poste de travail CAO / montage vidéo : un dGPU professionnel (Quadro/RTX Pro, Radeon Pro) est recommandé pour les drivers certifiés et la VRAM importante.
- Poste gaming : un dGPU gaming (GeForce, Radeon) est indispensable.
- Serveur d'IA / HPC : un ou plusieurs dGPU datacenter (A100, H100, Instinct) sont nécessaires.
📖 Connectique d'affichage
La carte graphique transmet le signal vidéo à l'écran via différents connecteurs. L'évolution de ces connecteurs suit celle des résolutions et des fréquences de rafraîchissement.
| Connecteur | Type de signal | Résolution max | Audio | Statut |
|---|---|---|---|---|
| VGA (D-Sub 15 broches) | Analogique | 2048 × 1536 (théorique) | Non | Obsolète — encore présent sur certains moniteurs anciens et vidéoprojecteurs |
| DVI-D / DVI-I | Numérique (DVI-D) / Numérique + Analogique (DVI-I) | 2560 × 1600 (Dual-Link) | Non (sauf certaines implémentations) | En voie de disparition — remplacé par HDMI/DP |
| HDMI 1.4 | Numérique | 4K @ 30 Hz | Oui | Répandu sur les anciens écrans et téléviseurs |
| HDMI 2.0 | Numérique | 4K @ 60 Hz | Oui | Encore très courant |
| HDMI 2.1 | Numérique | 4K @ 120 Hz / 8K @ 60 Hz | Oui | Standard actuel haut de gamme |
| DisplayPort 1.4 | Numérique | 4K @ 120 Hz / 8K @ 30 Hz (avec DSC) | Oui | Standard professionnel très répandu |
| DisplayPort 2.1 | Numérique | 4K @ 240 Hz / 8K @ 85 Hz / 16K (avec DSC) | Oui | Dernière version, débit jusqu'à 80 Gbit/s |
Résolutions courantes
| Nom courant | Résolution | Nombre de pixels | Ratio |
|---|---|---|---|
| Full HD (1080p) | 1920 × 1080 | ~2,07 millions | 16:9 |
| QHD / 1440p | 2560 × 1440 | ~3,69 millions | 16:9 |
| 4K / UHD | 3840 × 2160 | ~8,29 millions | 16:9 |
| 8K / UHD-2 | 7680 × 4320 | ~33,18 millions | 16:9 |
Remarque : Le DisplayPort est généralement préféré en milieu professionnel car il supporte le daisy-chaining (chaînage de plusieurs écrans sur un seul câble) et offre souvent une meilleure bande passante. Le HDMI reste le standard pour les téléviseurs et les appareils grand public.
📖 Fabricants et gammes
Le marché des GPU est dominé par trois acteurs principaux, chacun proposant des gammes adaptées à différents segments.
NVIDIA
NVIDIA est le leader du marché GPU, tant dans le gaming que dans le datacenter.
| Gamme | Segment | Exemples | Caractéristiques |
|---|---|---|---|
| GeForce GTX / RTX | Gaming / Grand public | RTX 4060, RTX 4070, RTX 4080, RTX 4090 | Ray tracing, DLSS, performances gaming optimisées |
| RTX (série pro) | Stations de travail professionnelles | RTX A4000, RTX A5000, RTX A6000 | Drivers certifiés (ISV), grande VRAM (jusqu'à 48 Go), ECC |
| Tesla / A100 / H100 / B200 | Datacenter / IA / HPC | A100 (80 Go HBM2e), H100 (80 Go HBM3) | Calcul pur (pas de sortie vidéo), NVLink, mémoire HBM |
AMD
AMD propose une alternative compétitive, particulièrement dans le segment gaming avec ses architectures RDNA.
| Gamme | Segment | Exemples | Caractéristiques |
|---|---|---|---|
| Radeon RX | Gaming / Grand public | RX 7600, RX 7800 XT, RX 7900 XTX | Architecture RDNA 3, ray tracing, FSR (upscaling) |
| Radeon Pro | Stations de travail professionnelles | Radeon Pro W7800, W7900 | Drivers certifiés, grande VRAM, support multi-écran pro |
| Instinct | Datacenter / IA / HPC | MI250X, MI300X | Mémoire HBM, ROCm (alternative à CUDA), calcul haute performance |
Intel
Intel est un entrant récent sur le marché des GPU dédiés avec sa gamme Arc.
| Gamme | Segment | Exemples | Caractéristiques |
|---|---|---|---|
| Arc (A-Series) | Gaming entrée/milieu de gamme | Arc A380, Arc A750, Arc A770 | Architecture Xe-HPG, ray tracing, XeSS (upscaling par IA) |
| Intel UHD / Iris Xe | GPU intégrés | UHD 770, Iris Xe (12ᵉ-14ᵉ gen) | Intégrés dans les CPU, suffisants pour la bureautique |
| Data Center GPU (Max / Ponte Vecchio) | Datacenter / HPC | Intel Data Center GPU Max 1550 | Mémoire HBM2e, calcul scientifique, oneAPI |
📖 GPU et calcul parallèle (GPGPU)
Le GPGPU (General-Purpose computing on Graphics Processing Units) désigne l'utilisation du GPU pour des calculs qui ne sont pas liés au rendu graphique. Cette approche exploite l'architecture massivement parallèle du GPU pour accélérer des tâches de calcul intensif.
Frameworks de calcul GPU
| Framework | Éditeur | GPU supportés | Description |
|---|---|---|---|
| CUDA | NVIDIA | NVIDIA uniquement | Plateforme propriétaire de calcul parallèle. Standard de facto pour l'IA et le HPC. Langage basé sur C/C++ avec extensions. |
| OpenCL | Khronos Group | NVIDIA, AMD, Intel, ARM… | Standard ouvert multi-plateforme. Moins performant que CUDA sur GPU NVIDIA, mais compatible avec tous les fabricants. |
| ROCm | AMD | AMD (principalement) | Plateforme open source d'AMD, alternative à CUDA. Compatibilité HIP pour porter du code CUDA vers AMD. |
| oneAPI / SYCL | Intel | Intel, NVIDIA, AMD | Framework unifié d'Intel pour le calcul hétérogène (CPU, GPU, FPGA). |
| Vulkan Compute | Khronos Group | Tous | API graphique et de calcul bas-niveau, multi-plateforme. |
Domaines d'application du GPGPU
🤖 Intelligence Artificielle et Machine Learning
L'entraînement de réseaux de neurones profonds (deep learning) repose sur des multiplications matricielles massives, opération pour laquelle le GPU est extrêmement efficace. Les frameworks comme TensorFlow, PyTorch et JAX utilisent CUDA pour accélérer les calculs. Les Tensor Cores de NVIDIA accélèrent encore davantage ces opérations grâce au calcul en précision mixte (FP16/FP32).
⛏️ Minage de cryptomonnaies
Le minage consiste à effectuer des calculs de hachage en boucle pour valider des transactions sur une blockchain. L'architecture parallèle du GPU le rend beaucoup plus efficace qu'un CPU pour cette tâche. Cependant, depuis le passage d'Ethereum au Proof of Stake (2022), le minage sur GPU a fortement diminué pour les principales cryptomonnaies.
🎬 Rendu 3D et simulation
Les moteurs de rendu comme Blender Cycles, V-Ray et OctaneRender utilisent le GPU pour accélérer le calcul de rayons lumineux (ray tracing). Un rendu qui prendrait des heures sur CPU peut être réalisé en quelques minutes sur GPU.
🔬 Simulation scientifique
La dynamique des fluides (CFD), la simulation moléculaire, l'analyse financière, la météorologie et la génomique exploitent le GPU pour traiter d'immenses jeux de données. Les supercalculateurs modernes intègrent des milliers de GPU (ex : le supercalculateur Frontier avec des GPU AMD Instinct MI250X).
📖 Alimentation et refroidissement
Les GPU dédiés sont parmi les composants les plus gourmands en énergie d'un ordinateur. Dimensionner correctement l'alimentation et le refroidissement est essentiel pour garantir stabilité et longévité.
TDP et TGP
- TDP (Thermal Design Power) : puissance thermique maximale que le système de refroidissement doit dissiper, exprimée en watts.
- TGP (Total Graphics Power) : consommation totale de la carte graphique, incluant le GPU, la VRAM et les composants auxiliaires.
- TBP (Total Board Power) : synonyme de TGP, utilisé par certains fabricants.
| Carte | TDP / TGP | Alimentation recommandée |
|---|---|---|
| RTX 4060 | 115 W | 550 W |
| RTX 4070 Ti | 285 W | 700 W |
| RTX 4090 | 450 W | 850 W |
| RX 7900 XTX | 355 W | 800 W |
| NVIDIA A100 (datacenter) | 300-400 W | Alimentation serveur dédiée |
Connecteurs d'alimentation
Le slot PCIe x16 fournit au maximum 75 W. Pour les cartes nécessitant plus de puissance, des connecteurs d'alimentation supplémentaires sont requis :
| Connecteur | Puissance | Usage |
|---|---|---|
| PCIe 6-pin | 75 W | Cartes entrée/milieu de gamme (75 + 75 = 150 W max) |
| PCIe 8-pin (6+2) | 150 W | Cartes milieu/haut de gamme |
| 2 × 8-pin | 300 W (+ 75 W slot) | Cartes haut de gamme |
| 3 × 8-pin | 450 W (+ 75 W slot) | Cartes très haut de gamme |
| 12VHPWR (16-pin) | Jusqu'à 600 W | Nouveau standard ATX 3.0, utilisé par les RTX 4000/5000 |
Solutions de refroidissement
| Type | Principe | Avantages | Inconvénients |
|---|---|---|---|
| Open-air (ventilateurs axiaux) | 2 ou 3 ventilateurs soufflant sur un radiateur à ailettes et caloducs | Excellent refroidissement, silencieux à charge modérée | Rejette l'air chaud dans le boîtier, occupe 2,5 à 4 slots |
| Blower (turbine centrifuge) | Un ventilateur radial aspire l'air et l'expulse par l'arrière de la carte | Évacue l'air chaud directement hors du boîtier, idéal pour les boîtiers compacts et les configurations multi-GPU | Plus bruyant, températures plus élevées |
| Watercooling (AIO ou custom) | Un waterblock sur le GPU relié à un radiateur externe par des tuyaux de liquide | Températures les plus basses, fonctionnement très silencieux | Coût élevé, installation complexe, risque de fuite |
| Refroidissement passif | Dissipation par un radiateur massif sans ventilateur | Aucun bruit (0 dB) | Limité aux GPU très basse consommation |
📖 GPU en contexte serveur
Dans un environnement serveur et datacenter, le GPU joue un rôle croissant pour la virtualisation d'affichage, l'IA et le calcul haute performance.
GPU Passthrough (virtualisation)
Le GPU passthrough consiste à attribuer un GPU physique complet et exclusif à une seule machine virtuelle (VM). La VM dispose alors d'un accès direct au matériel, avec des performances proches du natif.
- Nécessite le support IOMMU (Intel VT-d ou AMD-Vi) dans le BIOS/UEFI.
- Utilisé avec des hyperviseurs comme KVM/QEMU, VMware ESXi ou Proxmox VE.
- Limitation : un GPU ne peut être assigné qu'à une seule VM à la fois.
vGPU (GPU virtualisé)
La technologie vGPU (notamment NVIDIA GRID et NVIDIA vGPU) permet de partager un seul GPU physique entre plusieurs machines virtuelles simultanément. Chaque VM reçoit une fraction des ressources GPU.
| Critère | GPU Passthrough | vGPU (NVIDIA GRID) |
|---|---|---|
| Partage | 1 GPU → 1 VM | 1 GPU → plusieurs VM |
| Performances | Quasi-natives | Bonnes, partagées proportionnellement |
| Flexibilité | Limitée (tout ou rien) | Élevée (profils configurables) |
| Licence | Pas de licence spécifique requise | Licence NVIDIA GRID/vGPU obligatoire |
| Usage typique | VM de calcul IA dédiée, gaming cloud | VDI (Virtual Desktop Infrastructure), postes de travail virtuels |
GPU dans les racks serveurs
Les GPU datacenter sont conçus spécifiquement pour l'environnement serveur :
- Format : cartes au format PCIe pleine longueur, souvent en simple slot avec refroidissement passif (le flux d'air du serveur assure le refroidissement).
- Interconnexion : technologies comme NVLink (NVIDIA) permettent à plusieurs GPU de communiquer entre eux avec une bande passante très élevée (jusqu'à 900 Go/s sur NVLink 4).
- Systèmes multi-GPU : des serveurs comme le NVIDIA DGX intègrent jusqu'à 8 GPU interconnectés par NVLink dans un seul châssis.
- Gestion à distance : les GPU datacenter supportent la supervision à distance via
nvidia-smi, IPMI et des outils de gestion de flotte.
📖 Diagnostic et outils
La gestion, le diagnostic et la supervision des GPU sont essentiels pour un technicien SISR. Voici les principaux outils disponibles.
Outils en ligne de commande (Linux)
| Commande | Description | Exemple |
|---|---|---|
lspci | grep -i vga |
Liste les périphériques PCI de type VGA (détecte les GPU installés) | lspci | grep -i vga → affiche le modèle du GPU détecté |
lspci -v -s <ID> |
Affiche les détails d'un périphérique PCI spécifique | lspci -v -s 01:00.0 → détails du GPU (mémoire, driver utilisé, IRQ) |
nvidia-smi |
Outil NVIDIA pour superviser les GPU : température, utilisation, mémoire VRAM, processus | nvidia-smi → tableau de bord complet du GPU NVIDIA |
nvidia-smi -l 2 |
Rafraîchissement automatique toutes les 2 secondes (monitoring continu) | Utile pour surveiller la charge GPU pendant un entraînement IA |
nvidia-smi -q |
Informations détaillées sur le GPU (clocks, ECC, power, etc.) | Diagnostique complet du GPU |
glxinfo | grep "OpenGL" |
Affiche les informations OpenGL du driver graphique actif | Vérifie que l'accélération 3D fonctionne et quel driver est utilisé |
vainfo |
Affiche les capacités de décodage/encodage vidéo matériel (VA-API) | Vérifie le support du transcodage matériel H.264/H.265 |
vulkaninfo |
Affiche les capacités Vulkan du GPU | Diagnostique le support Vulkan pour les applications 3D |
sensors (lm-sensors) |
Affiche les températures des composants, dont le GPU | sensors | grep -A5 "gpu" |
Outils graphiques
| Outil | Plateforme | Description |
|---|---|---|
| GPU-Z | Windows | Affiche toutes les caractéristiques du GPU : modèle, révision, fréquences, VRAM, température, charge. Outil de référence pour l'identification du matériel. |
| MSI Afterburner | Windows | Monitoring avancé et overclocking. Permet de surveiller la température, les fréquences, la consommation et d'ajuster les courbes de ventilation. |
| HWiNFO64 | Windows | Supervision complète du système, incluant le GPU : températures, fréquences, consommation, hotspot. |
| Gestionnaire des tâches | Windows 10/11 | L'onglet « Performances » affiche l'utilisation du GPU, la mémoire VRAM dédiée/partagée et le décodage/encodage vidéo. |
| NVIDIA Settings / AMD Adrenalin | Windows / Linux | Panneaux de configuration des drivers NVIDIA et AMD : paramètres 3D, résolution, gestion des écrans, profils par application. |
Drivers GPU
Le choix du driver est crucial pour les performances et la stabilité du GPU :
| Fabricant | Driver Linux | Driver Windows | Notes |
|---|---|---|---|
| NVIDIA | Driver propriétaire NVIDIA (recommandé) ou Nouveau (open source, performances limitées) | GeForce Game Ready / Studio Driver | NVIDIA a partiellement ouvert ses modules noyau Linux en 2022. Le driver propriétaire reste nécessaire pour CUDA et les performances optimales. |
| AMD | Mesa / RADV (open source, intégré au noyau Linux, excellent support) | AMD Adrenalin Software | AMD contribue activement au driver open source. Mesa + RADV offre d'excellentes performances sous Linux. |
| Intel | i915 / xe (open source, intégré au noyau Linux) | Intel Graphics Driver | Support open source natif sous Linux. Les GPU Arc utilisent le driver xe. |
Vérification de l'installation sous Linux
Voici une procédure typique pour diagnostiquer un GPU sous Linux :
- Détecter le GPU :
lspci | grep -i vga - Vérifier le driver chargé :
lspci -k -s 01:00.0(chercher la ligne Kernel driver in use) - Vérifier l'accélération 3D :
glxinfo | grep "direct rendering"(doit afficher Yes) - Pour NVIDIA — vérifier le driver :
nvidia-smi(affiche la version du driver et de CUDA) - Vérifier les températures :
nvidia-smi -q -d TEMPERATUREousensors - Surveiller en temps réel :
watch -n1 nvidia-smiounvtop(outil TUI dédié)
- Quelle est la principale différence architecturale entre un CPU et un GPU ?
- Que signifie l'acronyme VRAM ?
- Quel type de mémoire est utilisé dans les GPU grand public modernes ?
- Quelle technologie NVIDIA permet d'utiliser le GPU pour du calcul généraliste (GPGPU) ?
- Quel connecteur vidéo supporte la 4K à 120 Hz avec HDR dynamique ?
- Quelle est la différence entre un iGPU et un dGPU ?
- Quelle commande Linux permet de surveiller l'utilisation d'un GPU NVIDIA ?
- Comment s'appelle la technologie qui partage un GPU physique entre plusieurs VM ?
📝 Corrections
- Le GPU a des milliers de petits cœurs pour le parallélisme massif, le CPU a peu de cœurs puissants pour les tâches séquentielles — Le GPU excelle dans le débit (traiter beaucoup de données similaires en même temps), le CPU dans la latence (exécuter des tâches complexes rapidement).
- Video Random Access Memory — C'est la mémoire dédiée du GPU, distincte de la RAM système, utilisée pour stocker textures, framebuffers et données de calcul.
- GDDR6 ou GDDR6X — Les GPU gaming utilisent de la GDDR6/GDDR6X pour le débit, tandis que les GPU serveur/HPC utilisent de la HBM (High Bandwidth Memory).
- CUDA — CUDA (Compute Unified Device Architecture) est la plateforme propriétaire NVIDIA pour le calcul sur GPU, utilisée en IA, simulation et HPC.
- HDMI 2.1 — HDMI 2.1 supporte 48 Gbit/s, la 4K@120Hz, le 8K@60Hz et le HDR dynamique. Le DisplayPort 2.1 offre encore plus de bande passante.
- L'iGPU est intégré au CPU (bureautique), le dGPU est une carte dédiée (gaming/création) — L'iGPU partage la RAM système, le dGPU a sa propre VRAM et est bien plus puissant.
- nvidia-smi — nvidia-smi (System Management Interface) affiche l'utilisation GPU, la VRAM, la température et les processus en cours.
- vGPU (NVIDIA GRID) — Le vGPU permet de partager un GPU physique entre plusieurs machines virtuelles, contrairement au GPU passthrough qui attribue le GPU entier à une seule VM.
Le GPU est un processeur massivement parallèle, composé de centaines à milliers de cœurs, conçu pour traiter simultanément de grandes quantités de données. Contrairement au CPU (optimisé pour la latence et les tâches séquentielles complexes), le GPU excelle dans le débit et les opérations répétitives. Il dispose de sa propre mémoire (VRAM) en GDDR6/GDDR6X ou HBM, reliée par un bus large (128 à 384+ bits). On distingue les GPU intégrés (iGPU, dans le CPU, pour la bureautique) des GPU dédiés (dGPU, carte séparée, pour le gaming, la création et le calcul). Les connecteurs d'affichage modernes sont le HDMI 2.1 et le DisplayPort 2.1. Les trois grands fabricants sont NVIDIA (leader, CUDA), AMD (Radeon, ROCm) et Intel (Arc, oneAPI). Le GPGPU permet d'utiliser le GPU pour l'IA, le HPC et la simulation. En contexte serveur, le GPU passthrough attribue un GPU complet à une VM, tandis que le vGPU (NVIDIA GRID) le partage entre plusieurs VM. Les outils essentiels sont lspci, nvidia-smi, glxinfo et GPU-Z.
