Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
elearning:workbooks:debian:10:junior:l121 [2022/05/17 08:22] – created adminelearning:workbooks:debian:10:junior:l121 [2024/03/08 10:36] (Version actuelle) admin
Ligne 1: Ligne 1:
 ~~PDF:LANDSCAPE~~ ~~PDF:LANDSCAPE~~
  
-Version : **2020.01**+Version : **2024.01**
  
 Dernière mise-à-jour : ~~LASTMOD~~ Dernière mise-à-jour : ~~LASTMOD~~
  
-======LDF511 Validation de la Formation======+======LDF512 Gestion des Disques Avancée - Raid Logiciel======
  
 =====Contenu du Module===== =====Contenu du Module=====
  
-  * **LDF511 Validation de la Formation**+  * **LDF512 Gestion Avancée des Disques - Raid Logiciel**
     * Contenu du Module     * Contenu du Module
-    * Pour Aller Plus Loin +    * Concepts RAID 
-      * Support de Cours +      * Disques en miroir 
-      * L'Infrastructure Hors Formation +      * Bandes de données 
-        Matériel +    Types de RAID 
-        Logiciels +      RAID 0 - Concaténation 
-        Machine Virtuelle +      RAID 0 - Striping 
-    Rappel du Programme de la Formation +      RAID 1 - Miroir 
-      * Jour #+      * RAID 1+0 - Striping en Miroir 
-      * Jour #+      * RAID - Miroir avec Contrôle d'Erreurs 
-      * Jour #+      * RAID et 4 - Striping avec Parité 
-      * Jour #4 +      * RAID 5 - Striping avec Parité Distribuée 
-    Remettre en Etat l'Infrastructure +      Au délà de RAID 5 
-    * Évaluation de la Formation +    * RAID Logiciel sous Debian 
-    Remerciements+      Préparation du disque 
 +      * Partitionnement 
 +      * Mise en Place du RAID 5 Logiciel
  
-=====Pour Aller Plus Loin=====+=====Concepts RAID=====
  
-====Support de Cours====+Les solutions RAID ou //Redundant Array of Independent Disks// ou encore //Redundant Array of Inexpensive Disks// permettent la combinaison de plusieurs disques de façon à ce que ceux-ci soient vu comme un seul disque logique.
  
-L'accès au supports de cours ainsi que les LABS et les validations des acquis se fait grâce à un abonnement annuel par stagiaire à une plateforme de cours sur Internet.+Les solutions RAID sont issues du travail fourni par l'université de Berkeley en Californie sur un projet de tolérances de pannesLes systèmes RAID offre maintenant plusieurs avantages :
  
-L'utilisation de cette plateforme permet :+    * Addition des capacités, 
 +    * Amélioration des performances, 
 +    * Apporter la tolérance de panne.
  
-  * de mesurer le niveau du stagiaire avant la formation et celui atteint en fin de formation grâce aux tests de validations des acquis, +Deux concepts sont fondamentaux à la compréhension des solutions RAID.
-  * de suivre du travail de chaque participant en termes de temps passé dans chaque module grâce à un reporting détaillé.+
  
-L'abonnement permet aux stagiaires :+====Disques en miroir====
  
-  * de télécharger des supports de cours et des LABS au format PDF le dernier jour de la formation, +La technique des disques en miroir consiste à dupliquer l'écriture des données sur plusieurs disques. Le miroir peut être géré par un logiciel ou par du matériel.
-  * de refaire les LABS en mode autonome en cas de missions décalées en relation avec le contenu de la formation initiale, +
-  * de rester en contact avec le formateur en cas de problèmes en production liés au contenu du cours, +
-  * de consulter les mises à jour du contenu des supports de cours pendant la période de l'abonnement, +
-  * d'échanger avec les autres participants de la session ainsi qu'avec les anciens stagiaires.+
  
-====L'Infrastructure Hors Formation====+====Bandes de données====
  
-===Matériel===+La technique des bandes de données, autrement appelée //data striping// consiste à couper les données à enregistrer en segments séquentiels et contigus pour les enregistrer sur plusieurs disques physiques. L'ensemble des segments constitue alors un disque logique ou //striped disk//. Cette technique peut être améliorée en déposant une bande de parité, calculée à partir des données des autres bandes, afin de pouvoir reconstituer une bande de données défaillante.
  
-  * Un poste 64 bits (MacOS, Linux, Windows(tm) ou Solaris(tm)), +=====Types de RAID=====
-  * Dans le cas de Windows(tm), **seulement** la version 7 ou 10 avec Hyper-V **désinstallé**, +
-  * Le mot de passe du compte administrateur du système, +
-  * Clavier AZERTY FR ou QWERTY US, +
-  * 8 Go de RAM minimum, +
-  * Processeur 4 cœurs minimum, +
-  * 8 Go d'espace disque disponible.+
  
-===Logiciels===+====RAID 0 - Concaténation====
  
-  * Oracle VirtualBox v 6.0 ou plus (MacOS, Linux, Windows(tm) ou Solaris(tm)), +Création de volume par récupération de l'espace libre sur un ou plusieurs disquesLe principe de la concaténation est la création d'un volume à bandes où chaque bande est une tranche.
-  * Si Windows(tm) - Putty et WinSCP, +
-  * Navigateur Web Chrome ou Firefox.+
  
-===Machine Virtuelle===+{{:linux:raid0c.gif|}}
  
-A télécharger : **[[https://my-short.link/ZFznHxG|Debian_10]]**.+===Avantages===
  
-=====Rappel du Programme de la Formation=====+  * Récupération de l'espace disque.
  
-====Jour #1 - 7 heures====+===Inconvénients===
  
-  * **LDF500 - Debian 10 Linux : Technician** - 1 heure. +  * Pas de protection des données
-    * Pré-requis +  Pas d'augmentation des performances d'E/S.
-      * Matériel +
-      * Logiciels +
-      * Internet +
-    * Utilisation de l'Infrastructure +
-      * Connexion au Serveur Cloud +
-        * LinuxMacOS et Windows 10 muni du client ssh +
-        Windows 7 et Windows 10 sans client ssh +
-      * Démarrage de la Machine Virtuelle +
-      * Connexion à la Machine Virtuelle +
-    * Programme de la Formation +
-    * Évaluation des Compétences+
  
-  * **LDF501 Gestion des Utilisateurs** - 2 heures. +====RAID 0 Striping====
-    * Présentation +
-      * /etc/nsswitch.conf +
-      * Interrogation des Bases de Données +
-        * Intérrogation de la Base passwd +
-        * Intérrogation de la Base group +
-        * Consulter le Contenu d'une Base +
-      * Les Fichiers /etc/group et /etc/gshadow +
-        * La Commande grpck +
-        * Les Commandes grpconv et grpunconv +
-      * Les Fichiers /etc/passwd et /etc/shadow +
-        * La Commande pwck +
-        * Les Commandes pwconv et pwunconv +
-    * Commandes +
-      * Groupes +
-        * groupadd +
-        * groupdel +
-        * groupmod +
-        * newgrp +
-        * gpasswd +
-      * Utilisateurs +
-        * useradd +
-        * userdel +
-        * usermod +
-        * passwd +
-        * chage +
-    * Configuration +
-      * L'option -D de la commande useradd +
-      * Le Répertoire /etc/skel +
-      * La Commande id +
-      * La Commande groups +
-      * Le Fichier /etc/login.defs +
-    * LAB #1 - Gestion des Utilisateurs sous Debian 8 +
-    * LAB #2 - Forcer l'utilisation des mots de passe complexe avec PAM +
-      * Utiliser des Mots de Passe Complexe +
-      * Bloquer un Compte après N Echecs de Connexion +
-      * Configuration +
-    * su et su - +
-    * sudo+
  
-  * **LRF502 - Gestion des Paquets** - 2 heures. +Création de volume sur plusieurs disques afin d'augmenter les performances d'E/SLe principe du striping est la création d'un volume à bandes réparties sur plusieurs tranches. La taille de la bande doit être fonction des données à écrire sur le volume (16k, 32k, 64k, etc.) Cette taille est choisie à la création du volume.
-    * LAB #1 - Compiler à partir des sources +
-      * ./configure +
-      * make +
-      * make check +
-      * make install +
-    * La Commande dpkg +
-      * Configuration +
-      * Utilisation +
-    * La Commande dselect +
-    * La Commande apt-get +
-      * Configuration +
-      * Dépôts +
-      * Utilisation +
-    * LAB #1 - Utiliser la commande apt-get +
-    * LAB #2 - Utiliser la commande apt-cache +
-    * Les Bibliothèques Partagées +
-      * Présentation +
-      * Introduction +
-      * Stockage +
-      * ld-linux.so.2 +
-      * La Commande ldd +
-      * Le fichier /etc/ld.so.conf +
-      * La Commande ldconfig+
  
-  * **LDF503 - Gestion des Droits** - 2 heures. +{{:linux:raid0s.gif|}}
-    * Présentation +
-    * Préparation +
-    * Les Droits Unix Simples +
-      * La Modification des Droits +
-        * La Commande chmod +
-          * Mode Symbolique +
-          * Mode Octal +
-        * La Commande umask +
-      * Modifier le propriétaire ou le groupe +
-        * La Commande chown +
-        * La Commande chgrp +
-    * Les Droits Unix Étendus +
-      * SUID/SGID bit +
-      * Inheritance Flag +
-      * Sticky bit +
-    * Les Droits Unix Avancés +
-      * Les ACL +
-    * Les Attributs Étendus+
  
-====Jour #2 - 7 heures====+===Avantages===
  
-  * **LDF504 - Gestion des Disques, des Systèmes de Fichiers et du Swap** - 5 heures. +  * Augmentation des performances d'E/S par écriture en parallèle sur les disques.
-    * Périphériques de stockage +
-    * Partitions +
-    * Partitionnement +
-      * LAB #1 - Partitionnement de votre Disque parted +
-    * Logical Volume Manager (LVM) +
-      * LAB #2 - Volumes Logiques Linéaires +
-        * Physical Volume (PV) +
-        * Volume Group (VG) et Physical Extent (PE) +
-        * Logical Volumes (LV) +
-      * LAB #3 - Étendre un Volume Logique à Chaud +
-      * LAB #4 - Snapshots +
-      * LAB #5 - Suppression des Volumes +
-      * LAB #6 - Volumes Logiques en Miroir +
-      * LAB #7 - Modifier les Attributs LVM +
-      * LAB #8 - Volumes Logiques en Bandes +
-      * LAB #9 - Gérer les Métadonnées +
-    * Systèmes de Fichiers Journalisés +
-      * Présentation +
-      * Ext3 +
-        * Gestion d'Ext3 +
-        * LAB #10 - Convertir un Système de Fichiers Ext3 en Ext2 +
-        * LAB #11 - Convertir un Système de Fichiers Ext2 en Ext3 +
-        * LAB #12 - Placer le Journal sur un autre Partition +
-        * LAB #13 - Modifier la Fréquence de Vérification du Système de Fichiers Ext3 +
-      * Ext4 +
-        * LAB #14 - Créer un Système de Fichiers Ext4 +
-        * LAB #15 - Ajouter une Étiquette au Système de Fichiers Ext4 +
-        * LAB #16 - Convertir un Système de Fichiers Ext3 en Ext4 +
-      * XFS +
-        * LAB #17 - Créer un Système de Fichiers XFS +
-        * LAB #18 - Ajouter une Étiquette au Système de Fichiers XFS +
-      * ReiserFS +
-        * LAB #19 - Créer un Système de Fichiers ReiserFS +
-        * LAB #20 - Ajouter une Étiquette au Système de Fichiers ReiserFS +
-      * JFS +
-        * LAB #21 - Créer un Système de Fichiers JFS +
-        * LAB #22 - Ajouter une Étiquette au Système de Fichiers JFS +
-      * Btrfs +
-        * LAB #23 - Créer un Système de Fichiers Btrfs +
-        * LAB #24 - Convertir un Système de Fichiers Ext4 en Brtfs +
-        * LAB #25 - Créer un Snapshot +
-        * LAB #26 - Ajouter une Étiquette au Système de Fichiers Btrfs +
-      * Comparaison des Commandes par Système de Fichiers +
-    * LAB #27 - Créer un Système de Fichiers ISO +
-      * La Commande genisoimage +
-    * Systèmes de Fichiers Chiffrés +
-      * LAB #28 - Créer un Système de Fichiers Chiffré avec encryptfs +
-      * LAB #29 - Créer un Système de Fichiers Chiffré avec LUKS +
-        * Présentation +
-        * Mise en Place +
-        * Ajouter une deuxième Passphrase +
-        * Supprimer une Passphrase +
-    * Le Swap +
-      * Taille du swap +
-      * Partitions de swap +
-      * La Commande swapon +
-      * La Commande swapoff +
-      * LAB #30 - Créer un Fichier de Swap+
  
-  * **LDF505 - Gestion des Tâches** - 2 heures. +===Inconvénients===
-    * cron +
-      * Le Fichier /etc/crontab +
-      * Les Champs Temporels +
-      * Les crontabs Utilisateurs +
-      * Les Fichiers /etc/cron.allow et /etc/cron.deny +
-    * anacron +
-      * Le Fichier /etc/anacrontab +
-      * Les Fichiers cron.daily, cron.weekly et cron.monthly +
-    * at+
  
-====Jour #3 - 7 heures====+  * Pas de protection des données.
  
-  * **LDF506 - Gestion de l'Archivage et de la Compression** - 2 heures. +====RAID 1 - Miroir====
-    * Types de Sauvegardes +
-      * Sauvegarde complète +
-      * Sauvegarde différentielle +
-      * Sauvegarde incrémentale +
-      * Sauvegarde décrémentale +
-    * Outils Classiques de Sauvegarde +
-      * Préparation +
-      * La Commande tar +
-        * Présentation +
-        * LAB #1 - Travailler avec la Commande tar +
-        * La Commande GPL tar et la Compression +
-      * La Commande cpio +
-        * Présentation +
-        * LAB #2 - Travailler avec la Commande cpio +
-      * La Commande dd +
-        * Présentation +
-        * LAB #3 - Travailler avec la Commande dd +
-      * Les Commandes dump et restore +
-        * Présentation +
-    * Outils Avancés de Sauvegarde +
-      * Outils de Sauvegarde Unidirectionnelle +
-      * Outils de Sauvegarde Multidirectionnelle +
-      * Outils de Sauvegarde des Partitions +
-    * Compression +
-      * La Commande gzip +
-        * Présentation +
-        * LAB #4 - Travaller avec la Commande gzip +
-      * La Commande bzip2 +
-        * Présentation +
-        * LAB #5 - Travailler avec la Commande bzip2 +
-      * La Commande xz +
-        * Présentation +
-        * LAB #6 - Travailler avec la Commande xz +
-      * Autres Utilitaires+
  
-  * **LDF507 - Gestion des Processus** - 2 heures. +Création d'un volume où les disques sont en miroirQuand les deux disques sont connectés à des contrôleurs de disques différentson parle de //duplexing// :
-    * Présentation +
-    * Les Types de Processus +
-    * Les Commandes relatives aux Processus +
-      * La Commande ps +
-      * La Commande pgrep +
-      * La Commande pstree +
-      * La Commande top +
-      * Les Commandes fgbg et jobs +
-      * La Commande wait +
-      * La Commande nice +
-      * La Commande renice +
-      * La Commande nohup +
-      * La Commande kill +
-      * La Commande pkill+
  
-  * **LDF508 - Gestion de la Journalisation** - 3 heures. +{{:linux:raid1m.gif|}}
-    * Présentation +
-    * La Commande dmesg +
-    * Surveillance Sécuritaire +
-      * La Commande last +
-      * La Commande lastlog +
-      * La Commande lastb +
-      * Le fichier /var/log/auth.log +
-    * Le fichier /var/log/audit/audit.log +
-      * Gestion des événements audit +
-        * auditd +
-        * auditctl +
-        * audispd +
-      * La consultation des événements audit +
-        * La Commande aureport +
-        * La Commande ausearch +
-    * Le fichier /var/log/messages +
-    * Applications +
-    * rsyslog +
-      * Priorités +
-      * Sous-systèmes applicatifs +
-      * /etc/rsyslog.conf +
-        * Modules +
-        * Directives Globales +
-        * Règles +
-          * Sous-système applicatif.Priorité +
-          * Sous-système applicatif!Priorité +
-          * Sous-système applicatif=Priorité +
-          * L'utilisation du caractère spécial * +
-          * n Sous-systèmes avec la même priorité +
-          * n Sélecteurs avec la même Action +
-    * La Commande logger +
-    * La Commande logrotate +
-    * La Journalisation avec journald +
-      * Consultation des Journaux +
-        * Consultation des Journaux d'une Application Spécifique +
-        * Consultation des Journaux depuis le Dernier Démarrage +
-        * Consultation des Journaux d'une Priorité Spécifique +
-        * Consultation des Journaux d'une Plage de Dates ou d'Heures +
-        * Consultation des Journaux en Live +
-        * Consultation des Journaux avec des Mots Clefs+
  
-====Jour #4 - 7 heures====+===Avantages===
  
-  * **LDF509 - Gestion des Impressions** - 2 heures.  +  * Protection des données contre une défaillance d'un disque.
-    * Cups +
-      * Protocoles +
-      * Paquets +
-      * Daemon +
-      * Le fichier /etc/cups/cupsd.conf +
-      * Filtres +
-      * Backends +
-      * Journaux +
-      * Imprimantes +
-      * Administration +
-        * La Commande lpstat +
-        * La Commande lpadmin +
-        * Les Commandes accept et cupsenable +
-        * Classe d'imprimantes +
-        * Le fichier /etc/cups/printers.conf +
-        * Le fichier /etc/cups/classes.conf +
-        * La Commande cancel +
-        * La Commande lpmove +
-        * L'interface Web+
  
-  * **LDF510 - Gestion du Démarrage et de l'Arrêt du Système** - 4 heures. +===Inconvénients===
-    * Présentation +
-    * BIOS, EFI et OpenFirmware +
-      * Systèmes à base du BIOS +
-        * Charger de Démarrage +
-      * Systèmes à base de l'EFI +
-      * Autres Systèmes +
-    * Gestionnaire d'amorçage +
-      * LILO +
-        * La Commande LILO +
-        * Codes Erreur de LILO +
-      * GRUB 2 +
-        * Le fichier /boot/grub2/device.map +
-        * Le fichier /etc/default/grub +
-        * Les fichiers du répertoire /etc/grub.d +
-        * Configurer l'Authentification +
-        * Modifier la Configuration de GRUB 2 en Ligne de Commande +
-      * Gestionnaires de Démarrages Alternatifs +
-        * Systemd-boot +
-        * U-boot +
-        * Le Projet Syslinux +
-          * SYSLINUX +
-          * EXTLINUX +
-          * ISOLINUX +
-          * PXELINUX +
-        * Isodhpfx +
-    * Initramfs +
-      * Examiner l'image existante +
-      * Le script init +
-      * La Commande mkinitramfs +
-    * Processus de Démarrage du Noyau Linux +
-    * Processus Init +
-    * Démarrer Debian 6 avec SysVinit +
-      * Niveaux d'exécution sous Debian 6 +
-      * Inittab +
-      * Scripts de Démarrage +
-        * Le script rc.S sous Debian 6 +
-      * Répertoire init.d +
-      * Linux Standard Base +
-        * Codes Retour Standardisés +
-        * Scripts +
-      * Répertoires rcx.d +
-        * rc.local +
-      * La Commande chkconfig +
-      * La Commande update-rc.d sous Debian 6 +
-    * Démarrer Debian 10 avec systemd +
-      * La Commande systemctl +
-      * Fichiers de Configuration +
-      * Système de Démarrage +
-      * La Commande systemd-analyze +
-      * Gestion des Services +
-    * Arrêt Système du Système +
-      * La Commande shutdown +
-      * La Commande reboot +
-      * La Commande halt +
-      * La Commande poweroff+
  
-  * **LDF511 - Validation de la Formation** - 1 heure. +  * Coûteux à cause de l'augmentation du nombre de disques.
-    * Pour Aller Plus Loin +
-      * Support de Cours +
-      * L'Infrastructure Hors Formation +
-        * Matériel +
-        * Logiciels +
-        * Machine Virtuelle +
-    * Rappel du Programme de la Formation +
-      * Jour #1 +
-      * Jour #2 +
-      * Jour #3 +
-      * Jour #4 +
-    * Remettre en Etat l'Infrastructure +
-    * Évaluation de la Formation +
-    * Remerciements+
  
-=====Remettre en Etat l'Infrastructure=====+====RAID 1+0 - Striping en Miroir====
  
-Utilisez la commande suivante pour arrêter la machine virtuelle :+Le RAID 1+0 ou encore 0+1 est une technique qui réunit le RAID 0 et le RAID 1. On l'appelle aussi un RAID **exotique**: 
 + 
 +{{:linux:raid10.gif|}} 
 + 
 +===Avantages=== 
 + 
 +  * Protection des données contre une défaillance d'un disque. 
 +  * Augmentation des performances d'E/S par écriture en parallèle sur les disques. 
 + 
 +===Inconvénients=== 
 + 
 +  * Coûteux à cause de l'augmentation du nombre de disques. 
 + 
 +====RAID 2 - Miroir avec Contrôle d'Erreurs==== 
 + 
 +Le RAID 2 est une technique de miroir avec contrôle de correction d'erreurs (EEC). De nos jours cette technique est peu utilisée, ayant été remplacée par les RAID 3, 4 et 5. 
 + 
 +====RAID 3 et 4 - Striping avec Parité==== 
 + 
 +Les RAID 3 et 4 sont des technologies avec bandes de parité distribuées sur un seul disque : 
 + 
 +{{:linux:raid34.gif|}} 
 + 
 +En RAID 3, la taille des segments n’est pas modifiable et est fixée à 512 octets (en RAID 3 : un segment = un secteur de disque dur = 512 octets). 
 + 
 +En RAID 4, la taille des segments est variable et se modifie en temps réel. Cela implique que les informations de parité doivent être mise à jour à chaque écriture afin de vérifier si la taille des segments a été modifiée.  
 + 
 +===Avantages=== 
 + 
 +  * Protection des données contre une défaillance d'un disque. 
 + 
 +===Inconvénients=== 
 + 
 +  * Création d'un goulot d'étranglement des données à cause de l'écriture des données de parité sur un seul disque. 
 + 
 +====RAID 5 - Striping avec Parité Distribuée==== 
 + 
 +Le RAID 5 est une technologie avec bandes de parité distribuées sur plusieurs disques : 
 + 
 +{{:linux:raid5.gif|}} 
 + 
 +===Avantages=== 
 + 
 +  * Protection des données contre une défaillance d'un disque, 
 +  * Evite le goulot d'étranglement d'un seul disque de parité. 
 + 
 +===Inconvénients=== 
 + 
 +  * Lecture moins performante qu'avec RAID 3 et 4. 
 + 
 +====Au délà de RAID 5==== 
 + 
 +Il existe aussi deux autres technologies RAID, toute deux issues de la technologie RAID 5 : 
 + 
 +  * RAID 6 
 +    * //Disk Striping with Double Distributed Parity// 
 +  * RAID TP 
 +    * //Disk Striping with Triple Distributed Parity// 
 + 
 +=====RAID Logiciel sous Debian===== 
 + 
 +====Préparation du disque==== 
 + 
 +===Partitionnement=== 
 + 
 +Suite à votre LAB de la leçon **Gestion des Disques et le Swap**, votre disque comporte 12 partitions :
  
 <code> <code>
-desktop@serverXX:~$ VBoxManage controlvm Debian_10 poweroff +root@debian8:~# fdisk -l 
-0%...10%...20%...30%...40%...50%...60%...70%...80%...90%...100%+ 
 +Disk /dev/sda: 20 GiB, 21474836480 bytes, 41943040 sectors 
 +Units: sectors of 1 * 512 = 512 bytes 
 +Sector size (logical/physical): 512 bytes / 512 bytes 
 +I/O size (minimum/optimal): 512 bytes / 512 bytes 
 +Disklabel type: dos 
 +Disk identifier: 0xac1e8183 
 + 
 +Device     Boot    Start      End  Sectors  Size Id Type 
 +/dev/sda1  *        2048 20482047 20480000  9.8G 83 Linux 
 +/dev/sda2       20482048 41938943 21456896 10.2G  5 Extended 
 +/dev/sda5       20484096 24578047  4093952    2G 82 Linux swap / Solaris 
 +/dev/sda6       24610816 25587711   976896  477M fd Linux raid autodetect 
 +/dev/sda7       25589760 25980927   391168  191M 8e Linux LVM 
 +/dev/sda8       25982976 26568703   585728  286M 8e Linux LVM 
 +/dev/sda9       26570752 27547647   976896  477M fd Linux raid autodetect 
 +/dev/sda10      27549696 28329983   780288  381M 8e Linux LVM 
 +/dev/sda11      28332032 29308927   976896  477M fd Linux raid autodetect 
 +/dev/sda12      29310976 30287871   976896  477M fd Linux raid autodetect 
 +/dev/sda13      30289920 30699519   409600  200M 83 Linux
 </code> </code>
  
-Ensuite restaurez l'état d'origine de la machine virtuelle :+====Mise en Place du RAID 5 Logiciel==== 
 + 
 +Dans le cas de cet exemple les quatre partitions concernées par la mise en place d'un RAID 5 sont : 
 + 
 +<file> 
 +/dev/sda6       24610816 25587711   976896  477M fd Linux raid autodetect 
 +/dev/sda9       26570752 27547647   976896  477M fd Linux raid autodetect 
 +/dev/sda11      28332032 29308927   976896  477M fd Linux raid autodetect 
 +/dev/sda12      29310976 30287871   976896  477M fd Linux raid autodetect 
 +</file> 
 + 
 +La création d'une unité RAID avec la commande **mdadm** se fait grâce aux options passées en arguments à la commande :
  
 <code> <code>
-desktop@serverXX:~$ VBoxManage snapshot Debian_10 restorecurrent +mdadm --create <unité RAID> [options] <unités physiques>
-Restoring snapshot 'snapshot1' (22df4e22-876a-4e94-88a8-8422a3a6b158) +
-0%...10%...20%...30%...40%...50%...60%...70%...80%...90%...100%+
 </code> </code>
  
-=====Évaluation de la Formation=====+Sous Debian 8, mdadm n'est pas installé par défaut :
  
-Afin de valider votre formationveuillez compléter l’Évaluation de la Formation.+<code> 
 +root@debian8:~# apt-get install mdadm 
 +Reading package lists... Done 
 +Building dependency tree        
 +Reading state information... Done 
 +The following NEW packages will be installed: 
 +  mdadm 
 +0 upgraded1 newly installed, 0 to remove and 0 not upgraded. 
 +Need to get 432 kB of archives. 
 +After this operation, 1,233 kB of additional disk space will be used. 
 +Get:1 http://ftp.fr.debian.org/debian/ jessie/main mdadm amd64 3.3.2-5+deb8u1 [432 kB] 
 +Fetched 432 kB in 3s (123 kB/s) 
 +Preconfiguring packages ... 
 +Selecting previously unselected package mdadm. 
 +(Reading database ... 82568 files and directories currently installed.) 
 +Preparing to unpack .../mdadm_3.3.2-5+deb8u1_amd64.deb ... 
 +Unpacking mdadm (3.3.2-5+deb8u1) ... 
 +Processing triggers for man-db (2.7.0.2-5) ... 
 +Processing triggers for systemd (215-17+deb8u4) ... 
 +Setting up mdadm (3.3.2-5+deb8u1) ... 
 +Generating mdadm.conf... done. 
 +update-initramfs: deferring update (trigger activated) 
 +update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults 
 +update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults 
 +Processing triggers for systemd (215-17+deb8u4) ... 
 +Processing triggers for initramfs-tools (0.120+deb8u1) ... 
 +update-initramfs: Generating /boot/initrd.img-3.16.0-4-amd64 
 +W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. 
 +W: mdadm: no arrays defined in configuration file 
 +</code>
  
-=====Remerciements=====+Saisissez maintenant la commande suivante : 
 + 
 +<code> 
 +root@debian8:~# mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sda6 /dev/sda9 /dev/sda11 
 +mdadm: Defaulting to version 1.2 metadata 
 +mdadm: array /dev/md1 started. 
 +</code> 
 + 
 +Les options dans la ligne de commande sont : 
 + 
 +^ Option Courte ^ Option Longue ^ Description ^ 
 +| -l | - -level | Le niveau RAID - **linear, 0,1,2,4 ou 5** | 
 +| -n | - -raid-devices=<nombre> | Le nombre de périphériques actifs dans le RAID | 
 + 
 +Les autres options de la commande **mdadm** peuvent être visualisées grâce à la commande suivante : 
 + 
 +<code> 
 +root@debian8:~# mdadm --help-options 
 +Any parameter that does not start with '-' is treated as a device name 
 +or, for --examine-bitmap, a file name. 
 +The first such name is often the name of an md device.  Subsequent 
 +names are often names of component devices. 
 + 
 +Some common options are: 
 +  --help        -h   : General help message or, after above option, 
 +                       mode specific help message 
 +  --help-options     : This help message 
 +  --version     -V   : Print version information for mdadm 
 +  --verbose     -v   : Be more verbose about what is happening 
 +  --quiet       -q   : Don't print un-necessary messages 
 +  --brief       -b   : Be less verbose, more brief 
 +  --export      -Y   : With --detail, --detail-platform or --examine use 
 +                       key=value format for easy import into environment 
 +  --force       -f   : Override normal checks and be more forceful 
 + 
 +  --assemble    -A   : Assemble an array 
 +  --build       -B   : Build an array without metadata 
 +  --create      -C   : Create a new array 
 +  --detail      -D   : Display details of an array 
 +  --examine     -E   : Examine superblock on an array component 
 +  --examine-bitmap -X: Display the detail of a bitmap file 
 +  --examine-badblocks: Display list of known bad blocks on device 
 +  --monitor     -F   : monitor (follow) some arrays 
 +  --grow        -G   : resize/ reshape and array 
 +  --incremental -I   : add/remove a single device to/from an array as appropriate 
 +  --query       -Q   : Display general information about how a 
 +                       device relates to the md driver 
 +  --auto-detect      : Start arrays auto-detected by the kernel 
 +</code> 
 + 
 +Les //modes majeurs// de la commande **mdadm** peuvent être visualisés grâce à la commande suivante : 
 + 
 +<code> 
 +root@debian8:~# mdadm --help 
 +mdadm is used for building, managing, and monitoring 
 +Linux md devices (aka RAID arrays) 
 +Usage: mdadm --create device options... 
 +            Create a new array from unused devices. 
 +       mdadm --assemble device options... 
 +            Assemble a previously created array. 
 +       mdadm --build device options... 
 +            Create or assemble an array without metadata. 
 +       mdadm --manage device options... 
 +            make changes to an existing array. 
 +       mdadm --misc options... devices 
 +            report on or modify various md related devices. 
 +       mdadm --grow options device 
 +            resize/reshape an active array 
 +       mdadm --incremental device 
 +            add/remove a device to/from an array as appropriate 
 +       mdadm --monitor options... 
 +            Monitor one or more array for significant changes. 
 +       mdadm device options... 
 +            Shorthand for --manage. 
 +Any parameter that does not start with '-' is treated as a device name 
 +or, for --examine-bitmap, a file name. 
 +The first such name is often the name of an md device.  Subsequent 
 +names are often names of component devices. 
 + 
 + For detailed help on the above major modes use --help after the mode 
 + e.g. 
 +         mdadm --assemble --help 
 + For general help on options use 
 +         mdadm --help-options 
 +</code> 
 + 
 +Dernièrement, chaque //mode majeur// dispose de son propre aide : 
 + 
 +<code> 
 +root@debian8:~# mdadm --assemble --help 
 +Usage: mdadm --assemble device options... 
 +       mdadm --assemble --scan options... 
 + 
 +This usage assembles one or more raid arrays from pre-existing 
 +components. 
 +For each array, mdadm needs to know the md device, the identity of 
 +the array, and a number of sub devices. These can be found in a number 
 +of ways. 
 + 
 +The md device is given on the command line, is found listed in the 
 +config file, or can be deduced from the array identity. 
 +The array identity is determined either from the --uuid, --name, or 
 +--super-minor commandline arguments, from the config file, 
 +or from the first component device on the command line. 
 + 
 +The different combinations of these are as follows: 
 + If the --scan option is not given, then only devices and identities 
 + listed on the command line are considered. 
 + The first device will be the array device, and the remainder will be 
 + examined when looking for components. 
 + If an explicit identity is given with --uuid or --super-minor, then 
 + only devices with a superblock which matches that identity is considered, 
 + otherwise every device listed is considered. 
 + 
 + If the --scan option is given, and no devices are listed, then 
 + every array listed in the config file is considered for assembly. 
 + The identity of candidate devices are determined from the config file. 
 + After these arrays are assembled, mdadm will look for other devices 
 + that could form further arrays and tries to assemble them.  This can 
 + be disabled using the 'AUTO' option in the config file. 
 + 
 + If the --scan option is given as well as one or more devices, then 
 + Those devices are md devices that are to be assembled.  Their identity 
 + and components are determined from the config file. 
 + 
 + If mdadm can not find all of the components for an array, it will assemble 
 + it but not activate it unless --run or --scan is given.  To preserve this 
 + behaviour even with --scan, add --no-degraded.  Note that "all of the 
 + components" means as many as were present the last time the array was running 
 + as recorded in the superblock.  If the array was already degraded, and 
 + the missing device is not a new problem, it will still be assembled.  It 
 + is only newly missing devices that cause the array not to be started. 
 + 
 +Options that are valid with --assemble (-A) are: 
 +  --bitmap         : bitmap file to use with the array 
 +  --uuid      -u   : uuid of array to assemble. Devices which don'
 +                       have this uuid are excluded 
 +  --super-minor-m  : minor number to look for in super-block when 
 +                       choosing devices to use. 
 +  --name      -N   : Array name to look for in super-block. 
 +  --config    -c   : config file 
 +  --scan        -s   : scan config file for missing information 
 +  --run         -R   : Try to start the array even if not enough devices 
 +                       for a full array are present 
 +  --force       -f   : Assemble the array even if some superblocks appear 
 +                     : out-of-date.  This involves modifying the superblocks. 
 +  --update    -U   : Update superblock: try '-A --update=?' for option list. 
 +  --no-degraded      : Assemble but do not start degraded arrays. 
 +  --readonly    -o   : Mark the array as read-only. No resync will start 
 +</code> 
 + 
 +Constatez maintenant les informations concernant le RAID 5 créé : 
 + 
 +<code> 
 +root@debian8:~# cat /proc/mdstat 
 +Personalities : [raid6] [raid5] [raid4]  
 +md1 : active raid5 sda11[3] sda9[1] sda6[0] 
 +      974848 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] 
 +       
 +unused devices: <none> 
 +</code> 
 + 
 +Grâce à la commande mdadm, il est possible d'obtenir d'avantage d'informations : 
 + 
 +<code> 
 +root@debian8:~# mdadm --query /dev/md1 
 +/dev/md1: 952.16MiB raid5 3 devices, 0 spares. Use mdadm --detail for more detail. 
 +</code> 
 + 
 +L'option **- -detail** produit le résultat suivant : 
 + 
 +<code> 
 +root@debian8:~# mdadm --query /dev/md1 
 +/dev/md1: 952.16MiB raid5 3 devices, 0 spares. Use mdadm --detail for more detail. 
 +root@debian8:~# mdadm --detail /dev/md1 
 +/dev/md1: 
 +        Version : 1.2 
 +  Creation Time : Wed Aug  3 13:20:07 2016 
 +     Raid Level : raid5 
 +     Array Size : 974848 (952.16 MiB 998.24 MB) 
 +  Used Dev Size : 487424 (476.08 MiB 499.12 MB) 
 +   Raid Devices : 3 
 +  Total Devices : 3 
 +    Persistence : Superblock is persistent 
 + 
 +    Update Time : Wed Aug  3 13:20:16 2016 
 +          State : clean  
 + Active Devices : 3 
 +Working Devices : 3 
 + Failed Devices : 0 
 +  Spare Devices : 0 
 + 
 +         Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 +           Name : debian8: (local to host debian8) 
 +           UUID : 41b8799a:e24feb35:39e9aa3a:ec920626 
 +         Events : 18 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    6        0      active sync   /dev/sda6 
 +                    9        1      active sync   /dev/sda9 
 +                   11        2      active sync   /dev/sda11 
 +</code> 
 + 
 +Notez la ligne **Persistence : Superblock is persistent**. En effet, cette implémentation de RAID inscrit les caractéristiques du volume dans un //super bloc// persistant en début de chaque unité de type bloc dans le volume. 
 + 
 +<WRAP center round todo> 
 +Recherchez la signification des termes Layout, Chunk size, Major et Minor. 
 +</WRAP> 
 + 
 +Cependant, il necéssaire de renseigner le fichier **/etc/mdadm/mdadm.conf** afin que le RAID soit contruit à chaque démarrage : 
 + 
 +<code> 
 +root@debian8:~# echo 'DEVICES /dev/sda6 /dev/sda9 /dev/sda11' > /etc/mdadm/mdadm.conf 
 +root@debian8:~# mdadm --detail --scan >> /etc/mdadm/mdadm.conf  
 +root@debian8:~# cat /etc/mdadm/mdadm.conf 
 +DEVICES /dev/sda6 /dev/sda9 /dev/sda11 
 +ARRAY /dev/md1 metadata=1.2 name=debian8:1 UUID=41b8799a:e24feb35:39e9aa3a:ec920626 
 +</code> 
 + 
 +Chaque unité peut être examinée individuellement : 
 + 
 +<code> 
 +root@debian8:~# mdadm --examine /dev/sda6 
 +/dev/sda6: 
 +          Magic : a92b4efc 
 +        Version : 1.2 
 +    Feature Map : 0x0 
 +     Array UUID : 41b8799a:e24feb35:39e9aa3a:ec920626 
 +           Name : debian8: (local to host debian8) 
 +  Creation Time : Wed Aug  3 13:20:07 2016 
 +     Raid Level : raid5 
 +   Raid Devices : 3 
 + 
 + Avail Dev Size : 974848 (476.08 MiB 499.12 MB) 
 +     Array Size : 974848 (952.16 MiB 998.24 MB) 
 +    Data Offset : 2048 sectors 
 +   Super Offset : 8 sectors 
 +   Unused Space : before=1960 sectors, after=0 sectors 
 +          State : clean 
 +    Device UUID : be46c991:3ad0ce5e:0bf2ec4e:1de865aa 
 + 
 +    Update Time : Wed Aug  3 13:20:16 2016 
 +  Bad Block Log : 512 entries available at offset 72 sectors 
 +       Checksum : 16f72803 - correct 
 +         Events : 18 
 + 
 +         Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 +   Device Role : Active device 0 
 +   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing) 
 +</code> 
 + 
 +A ce stade il est intéressant de noter comment réagir lors d'une défaillance d'un disque. Dans notre cas nous allons indiquer au système que la partition /dev/sda6 est devenue défaillante : 
 + 
 +<code> 
 +root@debian8:~# mdadm --manage --set-faulty /dev/md1 /dev/sda6 
 +mdadm: set /dev/sda6 faulty in /dev/md1 
 +</code> 
 + 
 +L'utilisation de la ligne de commande suivante nous confirme le statut de /dev/sda6 : 
 + 
 +<code> 
 +root@debian8:~# mdadm --detail /dev/md1 
 +/dev/md1: 
 +        Version : 1.2 
 +  Creation Time : Wed Aug  3 13:20:07 2016 
 +     Raid Level : raid5 
 +     Array Size : 974848 (952.16 MiB 998.24 MB) 
 +  Used Dev Size : 487424 (476.08 MiB 499.12 MB) 
 +   Raid Devices : 3 
 +  Total Devices : 3 
 +    Persistence : Superblock is persistent 
 + 
 +    Update Time : Wed Aug  3 13:27:53 2016 
 +          State : clean, degraded  
 + Active Devices : 2 
 +Working Devices : 2 
 + Failed Devices : 1 
 +  Spare Devices : 0 
 + 
 +         Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 +           Name : debian8: (local to host debian8) 
 +           UUID : 41b8799a:e24feb35:39e9aa3a:ec920626 
 +         Events : 20 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    0        0      removed 
 +                    9        1      active sync   /dev/sda9 
 +                   11        2      active sync   /dev/sda11 
 + 
 +                    6        -      faulty   /dev/sda6 
 +</code> 
 + 
 +Il est maintenant nécessaire de supprimer /dev/sda6 de notre RAID 5 : 
 + 
 +<code> 
 +root@debian8:~# mdadm --manage --remove /dev/md1 /dev/sda6 
 +mdadm: hot removed /dev/sda6 from /dev/md1 
 +</code> 
 + 
 +A l'examen de notre RAID, on constate que /dev/sda6 a été supprimé : 
 + 
 +<code> 
 +root@debian8:~# mdadm --detail /dev/md1 
 +/dev/md1: 
 +        Version : 1.2 
 +  Creation Time : Wed Aug  3 13:20:07 2016 
 +     Raid Level : raid5 
 +     Array Size : 974848 (952.16 MiB 998.24 MB) 
 +  Used Dev Size : 487424 (476.08 MiB 499.12 MB) 
 +   Raid Devices : 3 
 +  Total Devices : 2 
 +    Persistence : Superblock is persistent 
 + 
 +    Update Time : Wed Aug  3 13:29:30 2016 
 +          State : clean, degraded  
 + Active Devices : 2 
 +Working Devices : 2 
 + Failed Devices : 0 
 +  Spare Devices : 0 
 + 
 +         Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 +           Name : debian8: (local to host debian8) 
 +           UUID : 41b8799a:e24feb35:39e9aa3a:ec920626 
 +         Events : 21 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    0        0      removed 
 +                    9        1      active sync   /dev/sda9 
 +                   11        2      active sync   /dev/sda11 
 +</code> 
 + 
 +Constatez maintenant l'existance de votre RAID : 
 + 
 +<code> 
 +root@debian8:~# cat /proc/mdstat 
 +Personalities : [raid6] [raid5] [raid4]  
 +md1 : active raid5 sda11[3] sda9[1] 
 +      974848 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU] 
 +       
 +unused devices: <none> 
 +</code> 
 + 
 +<WRAP center round important> 
 +Notez que le RAID a été démarré avec 2 unités au lieu de trois. 
 +</WRAP> 
 + 
 +Pour ajouter un autre disque à notre RAID afin de remplacer /dev/sda6 il convient d'utiliser l'option **--add** : 
 + 
 +<code> 
 +root@debian8:~# mdadm --manage --add /dev/md1 /dev/sda12 
 +mdadm: added /dev/sda12 
 +</code> 
 + 
 +L'exemen du RAID indique que /dev/sda12 a été ajouté en tant que //spare// et à l'issu de quelques secondes le RAID 5 a été reconstruite : 
 + 
 +<code> 
 +root@debian8:~# mdadm --manage --add /dev/md1 /dev/sda12 
 +mdadm: added /dev/sda12 
 +root@debian8:~# mdadm --detail /dev/md1 
 +/dev/md1: 
 +        Version : 1.2 
 +  Creation Time : Wed Aug  3 13:20:07 2016 
 +     Raid Level : raid5 
 +     Array Size : 974848 (952.16 MiB 998.24 MB) 
 +  Used Dev Size : 487424 (476.08 MiB 499.12 MB) 
 +   Raid Devices : 3 
 +  Total Devices : 3 
 +    Persistence : Superblock is persistent 
 + 
 +    Update Time : Wed Aug  3 13:35:24 2016 
 +          State : clean  
 + Active Devices : 3 
 +Working Devices : 3 
 + Failed Devices : 0 
 +  Spare Devices : 0 
 + 
 +         Layout : left-symmetric 
 +     Chunk Size : 512K 
 + 
 +           Name : debian8: (local to host debian8) 
 +           UUID : 41b8799a:e24feb35:39e9aa3a:ec920626 
 +         Events : 40 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                   12        0      active sync   /dev/sda12 
 +                    9        1      active sync   /dev/sda9 
 +                   11        2      active sync   /dev/sda11 
 +</code> 
 + 
 +Naturellement, il nécessaire de renseigner le fichier **/etc/mdadm/mdadm.conf** du changement afin que le RAID soit construit à chaque démarrage : 
 + 
 +<code> 
 +root@debian8:~# echo 'DEVICES /dev/sda12 /dev/sda9 /dev/sda11' > /etc/mdadm/mdadm.conf 
 +root@debian8:~# mdadm --detail --scan >> /etc/mdadm/mdadm.conf 
 +root@debian8:~# cat /etc/mdadm/mdadm.conf 
 +DEVICES /dev/sda12 /dev/sda9 /dev/sda11 
 +ARRAY /dev/md1 metadata=1.2 name=debian8:1 UUID=41b8799a:e24feb35:39e9aa3a:ec9206260 
 +</code>
  
-Nous vous remercions de votre confiance et nous vous souhaitons une excellente continuation. 
  
 ----- -----
-Copyright © 2022 Hugh Norris - Document non-contractuel. Le programme peut être modifié sans préavis.+Copyright © 2024 Hugh Norris.
Menu