💻 Virtualisation — Réseaux virtuels et stockage
| Formation | BTS SIO option SISR — IRIS Mediaschool |
|---|---|
| Bloc | B2 — Administration Systèmes & Réseaux |
| Module | M2.2 — Services réseau et systèmes |
| Compétence | B2.2 |
| Durée | 3h30 |
| Prérequis | Avoir complété la Séance 1 (Hyperviseurs et VMs) |
🎯 Introduction (10 min)
Snapshots VMware croissant sans contrôle → disque VMFS plein → VM freeze en production → 4h d'interruption. Cet incident illustre qu'une stratégie de snapshot et de stockage mal pensée peut paralyser un service critique.
Dans cette séance nous verrons comment organiser le réseau virtuel (bridges VLAN-aware), ajouter un datastore NFS, comprendre iSCSI, et automatiser des sauvegardes/restaurations fiables.
À l'issue de cette séance, vous serez capable de :
- Configurer un bridge VLAN-aware sur Proxmox et connecter une VM à un VLAN (tag 20 Users).
- Ajouter un datastore NFS et lancer des sauvegardes
vzdumppuis restaurer une VM avecqmrestore. - Comprendre les principes d'un target iSCSI et les concepts de Proxmox HA et migration en ligne.
📖 1. Réseaux virtuels Proxmox (60 min)
Par défaut, Proxmox expose un bridge vmbr0 qui connecte les VMs au LAN physique. Pour transporter plusieurs VLANs sur la même interface physique, on crée un bridge VLAN-aware (ex : vmbr1) et on trunk le port du switch vers l'interface physique du nœud Proxmox.
Configuration /etc/network/interfaces — bridge VLAN-aware
auto vmbr1
iface vmbr1 inet manual
bridge-ports none
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
Explication : bridge-ports none signifie que le bridge n'est pas lié à une interface physique en mode access ; on s'attend à ce que la carte physique (ex : eno1) soit en trunk et que le bridge reçoive les VLAN tags. Alternativement, on peut configurer bridge-ports eno1 et laisser le bridge traiter les VLANs.
Attacher une VM à un VLAN (tag 20)
# Configure la VM 100 pour utiliser vmbr1 et tag VLAN 20
qm set 100 --net0 virtio,bridge=vmbr1,tag=20
Dans la VM, l'interface virtuelle verra les trames non taggées si le bridge est configuré en mode access sur ce port virtuel, ou bien recevra les VLANs selon la configuration du guest.
Topologie VLAN-aware
[Switch Catalyst] Gi0/1 (trunk 802.1Q)
| tag:10,20,30
|
[proxmox01: eno1]
|
vmbr1 (bridge-vlan-aware yes)
|-- VM100 (virtio) tag=20 -> VLAN Users (192.168.20.0/24)
|-- VM101 (virtio) tag=10 -> VLAN Admin (192.168.10.0/24)
Points opérationnels
- Le switch doit être configuré en trunk 802.1Q sur le port connecté à Proxmox.
bridge-vlan-aware yespermet au bridge de manipuler les VLAN tags ; attention au routage et aux règles de firewalling.
📖 2. Stockage : local-lvm, NFS, iSCSI (40 min)
Local-lvm (LVM-Thin)
Stockage sur disque local utilisant LVM thin pools.
| Avantage | Inconvénient |
|---|---|
| Thin provisioning, snapshots rapides | Perte locale en cas de panne matérielle |
Ajouter un datastore NFS
pvesm add nfs nas01 --server 192.168.10.15 --export /volume1/proxmox
# ou nommer le stockage backup-nas pour les sauvegardes :
# pvesm add nfs backup-nas --server 192.168.10.15 --export /volume1/proxmox
Vérification :
pvesm status
ls /mnt/pve/nas01 # ou /mnt/pve/backup-nas
iSCSI (principes)
- iSCSI expose des LUNs block via réseau. Le client (initiator) se connecte au target, découvre les LUNs et peut les mapper à des volumes LVM ou à des VMs.
targetcliou la gestion du SAN permet de créer targets/ACLs.- Sous Proxmox, on peut ajouter un storage iSCSI et l'utiliser comme PV pour LVM.
| Type de stockage | Protocole | Avantage principal | Usage typique |
|---|---|---|---|
| local-lvm | Local (LVM) | Rapidité, snapshots LVM-thin | VMs locales, dev |
| NFS | NFS v3/v4 | Partagé, sauvegardes centralisées | Dumps, ISOs, migration |
| iSCSI | iSCSI/TCP | Blocs partagés haute perf | Clusters HA, bases de données |
📖 3. Sauvegarde et restauration (30 min)
Proxmox fournit vzdump pour sauvegarder des machines (QEMU et LXC). Utiliser le mode snapshot pour cohérence sur LVM-thin ou avec qemu-guest-agent pour la cohérence applicative.
Sauvegarde d'une VM
vzdump 100 --storage backup-nas --compress gzip --mode snapshot
Explication :
--mode snapshotréalise une sauvegarde cohérente en se reposant sur les capacités de snapshot du stockage.--compress gzipcompresse l'archive pour économiser l'espace.
Restauration depuis un dump
qmrestore /mnt/pve/backup-nas/dump/vzdump-qemu-100.vma.gz 101
Vérification : démarrer la VM 101 et vérifier le service / les fichiers restaurés.
| Commande | Rôle | Options clés |
|---|---|---|
vzdump <vmid> | Sauvegarde VM/LXC | --mode snapshot|suspend|stop, --compress, --storage |
qmrestore <archive> <vmid> | Restauration QEMU | --storage, --force |
pct restore <vmid> <archive> | Restauration LXC | --storage |
Respecter la règle 3-2-1 : 3 copies, sur 2 supports différents, dont 1 hors site. Tester régulièrement la restauration ; une sauvegarde non testée n'est pas une sauvegarde fiable.
📖 4. Proxmox HA et migration en ligne (20 min)
Un cluster Proxmox en HA nécessite au moins 3 nœuds pour obtenir un quorum et tolérer les pannes. Le gestionnaire HA orchestre la relance des ressources (VMs) en cas de panne nœud.
Ajouter une VM au gestionnaire HA
ha-manager add vm:100
Migration en ligne (live) d'une VM
qm migrate 100 pve-node2 --online
La migration en ligne transfère mémoire et état sans arrêter le service (quelques micro-interruptions possibles). Prérequis : stockage partagé ou réplication configurée.
| Concept | Description | Commande |
|---|---|---|
| Cluster Proxmox | Ensemble de nœuds partageant configuration et état | pvecm create <nom> |
| Quorum | Majorité requise pour décisions cluster (≥ 3 nœuds recommandés) | pvecm status |
| HA Manager | Relance automatique des VMs en cas de panne nœud | ha-manager add vm:<id> |
| Migration en ligne | Déplacement d'une VM entre nœuds sans interruption service | qm migrate <vmid> <nœud> --online |
Le stockage de la VM doit être partagé entre les nœuds (NFS, iSCSI, Ceph) ou une réplication doit être active. Sans cela, seule la migration hors ligne (avec arrêt VM) est possible.
💻 Travaux Pratiques (70–80 min)
Contexte
Sur proxmox01 d'InnovatTech, vous devez :
- créer un bridge VLAN-aware
vmbr1; - connecter la VM
debian-devau VLAN 20 (Users) ; - ajouter un datastore NFS pointant vers
nas01(192.168.10.15) ; - effectuer une sauvegarde
vzdumpet restaurer la VM sur l'ID 101.
Objectif
Mettre en production un réseau virtuel VLAN-aware et valider la chaîne sauvegarde/restauration d'une VM.
Prérequis techniques
- Accès root à proxmox01
- Switch configuré en trunk 802.1Q sur le port connecté à proxmox01
- NAS Synology
nas01accessible (192.168.10.15)
Étape 1 — Créer et activer vmbr1 (VLAN-aware)
# Éditer /etc/network/interfaces et ajouter :
auto vmbr1
iface vmbr1 inet manual
bridge-ports none
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
# Appliquer la configuration (si ifupdown2 installé) :
ifreload -a
# ou :
systemctl restart networking
Étape 2 — Connecter debian-dev au VLAN 20
qm set 100 --net0 virtio,bridge=vmbr1,tag=20
# Redémarrer la VM si nécessaire :
qm restart 100
# Vérifier dans la VM : ip addr show / journal dhclient
Étape 3 — Ajouter le datastore NFS vers nas01
pvesm add nfs nas01 --server 192.168.10.15 --export /volume1/proxmox
# ou si vous préférez utiliser l'id backup-nas pour la sauvegarde :
# pvesm add nfs backup-nas --server 192.168.10.15 --export /volume1/proxmox
pvesm status
ls /mnt/pve/nas01
Étape 4 — Sauvegarde de la VM 100
vzdump 100 --storage backup-nas --compress gzip --mode snapshot
# Sortie attendue : confirmation de création du fichier
# vzdump-qemu-100.vma.gz dans /mnt/pve/backup-nas/dump
Étape 5 — Restauration sur une nouvelle VM 101
qmrestore /mnt/pve/backup-nas/dump/vzdump-qemu-100.vma.gz 101
qm start 101
# Vérifier l'adresse IP et l'état des services restaurés
Livrable attendu
- Capture de la configuration
/etc/network/interfacesavecvmbr1. - Commandes et sortie de
pvesm statusmontrant nas01/backup-nas. - Enregistrement du fichier
vzdump-qemu-100.vma.gzet preuve de la restauration (connexion à la VM 101 et vérification d'un fichier ou service).
Critères de réussite
- ☐
vmbr1existe et est configurébridge-vlan-aware yessur proxmox01. - ☐
debian-devreçoit une IP sur le VLAN 20 et communique avec 192.168.20.0/24. - ☐ NFS datastore (
nas01oubackup-nas) monté et listé parpvesm status. - ☐ Sauvegarde
vzdumpcomplète présente dans/mnt/pve/backup-nas/dumpet restauration de la VM 101 fonctionnelle.
🗂️ Synthèse de séance (10 min)
Nous avons configuré le réseau virtuel VLAN-aware, compris la séparation logique des flux et ajouté un datastore NFS pour externaliser les sauvegardes. La sauvegarde/restauration via vzdump est un outil fiable si la stratégie de stockage (NFS/iSCSI/cluster) est correctement conçue et testée. Prochaine étape en exploitation : automatiser les sauvegardes, vérifier les snapshots et intégrer Proxmox HA pour minimiser le RTO.
bridge-vlan-aware yes permet au bridge Linux de manipuler les tags 802.1Q, indispensable pour transporter plusieurs VLANs sur une seule interface physique. vzdump + stockage NFS externe forment la base d'une stratégie de sauvegarde exploitable. Pour la haute disponibilité, Proxmox HA + cluster 3 nœuds + stockage partagé réduisent le RTO à quelques minutes.
Question de vérification : En une phrase, expliquez pourquoi bridge-vlan-aware yes est utile dans Proxmox quand le switch est configuré en trunk.
📝 Quiz — Auto-évaluation (5 questions)
-
Q1 (QCM) — Pour rendre un bridge Proxmox capable de transporter plusieurs VLANs 802.1Q, quelle directive doit-on ajouter dans
/etc/network/interfaces? -
Q2 (QCM) — Quelle commande permet d'ajouter un datastore NFS nommé
backup-naspointant vers le serveur192.168.10.15dans Proxmox ? -
Q3 (QCM) — Pour sauvegarder la VM 100 sur le stockage
backup-nasavec compression gzip et mode snapshot, quelle commande est correcte ? -
Q4 (Vrai/Faux) — Un cluster Proxmox HA nécessite au minimum 3 nœuds pour obtenir un quorum et tolérer la panne d'un nœud.
-
Q5 (QCM) — Pour migrer en ligne la VM 100 vers le nœud
pve-node2sans interruption de service, quelle commande utilise-t-on ?
Le plugin de quiz vous donnera un score et enregistrera vos points pour le leaderboard.
