148 private links
!! Seuls les disques marqués comme étant backupables seront transférés.
- Mettre tous les disques (qui sont des mountpoint puisqu'on parle de containers) du container comme backupables
2.Installer pve-zsync
apt install pve-zsync
-
Ajouter la clef SSH publique de l'utilisateur root du serveur d'origine dans /root/.ssh/authorized_keys du serveur de destination
-
Permettre la connexion en SSH (TCP port 22) du serveur d'origine vers celui de destination (a priori, se fait au niveau du firewall du nouveau serveur, en IN)
-
Sur le serveur d'origine:
pve-zsync sync --source 100 --dest 192.168.1.100:zfs-hdd --verbose --maxsnap 2 --name borg --limit 51200
Où:
100 = ID du container sur le serveur d'origine
192.168.1.100 = IP du serveur de destination. Ne fonctionne pas avec nom de domaine d'après la doc
zfs-hdd = pool ZFS sur le serveur de destination
2: le nombre de snapshot à prendre avec
borg: le nom de l'action (sert si on veut la manager après)
rootfs: zfs-hdd:subvol-211-disk-0,size=14Gn de synchro, pas du serveur
51200: la limite de bande passante utilisée, en KBytes/sec ici 50 MB/s environFaire ça dans un tmux peut aider pour éviter les blagues en cas de déconnection
-
Sur le serveur de destination, copier le fichier /etc/pve/lxc/100.conf vers /etc/pve/lxc/111.conf, où 100 est l'ID du container à migrer et 111 un ID libre sur le Proxmox de destination
scp /etc/pve/lxc/211.conf root@cadre3.provelo.org:/etc/pve/lxc/211.conf
- Sur le serveur de destination, éditer le fichier 111.conf pour mettre le bon nom de dataset ZFS pour le rootfs et le éventuelle mp (points de montage):
Dans l'exmple, ça donnerait ça:
rootfs: zfs-hdd:subvol-211-disk-0,size=14G
- On peut tenter de démarrer le container juste pour être sûr que ça fonctionne.
- À l'heure de la migration, rejouer une seconde fois la ligne de commande pve-zsync pour synchroniser les disques, et démarrer le container.
- Migrer son IP flottante vers le nouveau Proxmox, si on en a une.