Ceci est une ancienne révision du document !


Dernière mise-à-jour : 2020/01/30 03:36

SO209 - Gestion du Système de Fichiers UFS

Concepts RAID

Les solutions RAID ou Redundant Array of Independent Disks ou encore Redundant Array of Inexpensive Disks permettent la combinaison de plusieurs disques de façon à ce que ceux-ci soient vu comme un seul disque logique.

Les solutions RAID sont issues du travail fourni par l'université de Berkeley en Californie sur un projet de tolérances de pannes. Les systèmes RAID offre maintenant plusieurs avantages :

  • Addition des capacités,
  • Amélioration des performances,
  • Apporter la tolérance de panne.

Deux concepts sont fondamentaux à la compréhension des solutions RAID.

Disques en miroir

La technique des disques en miroir consiste à dupliquer l'écriture des données sur plusieurs disques. Le miroir peut être géré par un logiciel ou par du matériel.

Bandes de données

La technique des bandes de données, autrement appelée data striping consiste à couper les données à enregistrer en segments séquentiels et contigus pour les enregistrer sur plusieurs disques physiques. L'ensemble des segments constitue alors un disque logique ou striped disk. Cette technique peut être améliorée en déposant une bande de parité, calculée à partir des données des autres bandes, afin de pouvoir reconstituer une bande de données défaillante.

Types de RAID

RAID 0 - Concaténation

Création de volume par récupération de l'espace libre sur un ou plusieurs disques. Le principe de la concaténation est la création d'un volume à bandes où chaque bande est une tranche. Il est similaire au LVM sous Linux et HP-UX.

;#;;#;

Avantages

  • Récupération de l'espace disque.

Inconvénients

  • Pas de protection des données,
  • Pas d'augmentation des performances d'E/S.

RAID 0 - Striping

Création de volume sur plusieurs disques afin d'augmenter les performances d'E/S. Le principe du striping est la création d'un volume à bandes réparties sur plusieurs tranche. La taille de la bande doit être fonction des données à écrire sur le volume (16k, 32k, 64k, etc.) Cette taille est choisie à la création du volume.

;#;;#;

Avantages

  • Augmentation des performances d'E/S par écriture en parallèle sur les disques.

Inconvénients

  • Pas de protection des données.

RAID 1 - Miroir

Création d'un volume où les disques sont en miroir. Quand les deux disques sont connectés à des contrôleurs de disques différents, on parle de duplexing :

;#;;#;

Avantages

  • Protection des données contre une défaillance d'un disque.

Inconvénients

  • Coûteux à cause de l'augmentation du nombre de disques.

RAID 1+0 - Striping en Miroir

Le RAID 1+0 ou encore 0+1 est une technique qui réunit le RAID 0 et le RAID 1. On l'appelle aussi un RAID exotique:

;#;;#;

Avantages

  • Protection des données contre une défaillance d'un disque.
  • Augmentation des performances d'E/S par écriture en parallèle sur les disques.

Inconvénients

  • Coûteux à cause de l'augmentation du nombre de disques.

RAID 2 - Miroir avec Contrôle d'Erreurs

Le RAID 2 est une technique de miroir avec contrôle de correction d'erreurs (EEC). De nos jours cette technique est peu utilisée, ayant été remplacée par les RAID 3, 4 et 5.

RAID 3 et 4 - Striping avec Parité

Les RAID 3 et 4 sont des technologies avec bandes de parité distribuées sur un seul disque :

;#;;#;

En RAID 3, la taille des segments n’est pas modifiable et est fixée à 512 octets (en RAID 3 : un segment = un secteur de disque dur = 512 octets).

En RAID 4, la taille des segments est variable et se modifie en temps réel. Cela implique que les informations de parité doivent être mise à jour à chaque écriture afin de vérifier si la taille des segments a été modifiée.

Avantages

  • Protection des données contre une défaillance d'un disque.

Inconvénients

  • Création d'un goulot d'étranglement des données à cause de l'écriture des données de parité sur un seul disque.

RAID 5 - Striping avec Parité Distribuée

Le RAID 5 est une technologie avec bandes de parité distribuées sur plusieurs disques :

;#;;#;

Avantages

  • Protection des données contre une défaillance d'un disque,
  • Evite le goulot d'étranglement d'un seul disque de parité.

Inconvénients

  • Lecture moins performante qu'avec RAID 3 et 4.

Au délà de RAID 5

Il existe aussi deux autres technologies RAID, toute deux issues de la technologie RAID 5 :

  • RAID 6
    • Disk Striping with Double Distributed Parity
  • RAID TP
    • Disk Striping with Triple Distributed Parity

Solaris Volume Manager

Introduction

Le Solaris Volume Manager est un service évolué de la gestion de l'espace disque. Il a été introduit avec Solaris 9.

Le Solaris Volume Manager implémente les niveaux :

  • RAID 0 - Concaténation
  • RAID 0 - Striping
  • RAID 1 - Mirroring
  • RAID 5 - Striping avec parité distribuée

Sur un système SPARC, il existe 8 tranches tandis que sur un système x64/x86 il en existe 16. Sur un système x64/x86, la 8ième tranche est utilisée pour contenir le code pour le boot tandis que le 9ième est utilisée pour des secteurs alternatives sur certains systèmes. La commande format ne permet pas de manipuler plus de 8 tranches. Pour les systèmes x64/x86, il existe un logiciel sous licence GPL appelé dskpart qui permet de manipuler les 16 tranches. Le README se trouve à cette adresse.

Terminologie

Volumes

L'entité de base du Solaris Volume Manager est un volume. Un volume est composé d'un ensemble de tranches et apparait comme un disque logique via un pseudo-device autrement appelé un meta-device.

Noms des Volumes

Les noms des volumes sont générés dans les répertoires /dev/md/dsk et /dev/md/rdsk. Chaque volume possède un nom unique allant de d0 jusqu'à d127. Il n'y a pas de standardisation au niveau des noms. Par conséquent un RAID 5 peut avoir le nom d5, d0 ou d127 par exemple.

State Database

Les informations concernant la configuration courante du Solaris Volume Manager sont stockées dans la State Database. Il est nécessaire de copier cette base de données en plusieurs exemplaires, appelés des replicas ou répliques. Chaque réplique a une taille de 4 Mo par défaut (8192 blocks).

La création des copies de la State Database est la première opération à effectuer sur un serveur. Il est conseillé que les répliques résident dans des tranches dédiées à cet effet. Par convention on utilise la partition S7 des disques pour stocker les répliques.

La State Database joue un rôle très important sous Solaris Volume Manager. Quand intervient une désynchronisation entre des sous-miroirs, le système doit savoir où se trouvent les données valides.

Dans ce cas il va avoir une élection à majorité absolue entre les copies de la State Database. Pour cette raison il est nécessaire de créer au moins trois copie de cette dernière.

Qui plus est au moins la moitié des répliques doit être accessible lorsque le système est en cours de fonctionnement. Dans le cas contraire le système crash.

Au moins la moitié des répliques + 1 doit être accessible pour qu'un système puisse démarrer.

Dans le cas d'un système à 2 disques, si un disque tombe en panne, la règle des 50% +1 ne pourra jamais être respectée et le système crash en boucle.

Il est cependant possible de démarrer un système sans obtenir la majorité absolue. Pour cela on positionne le paramètre md:mirrored_root_flag=1 dans le fichier /etc/system :

echo "set md:mirrored_root_flag=1" >>/etc/system

Les répliques sont utilisées également comme zone de synchronisation des volume-miroirs (RAID 1). Un nombre insuffisant de répliques provoquerait une baisse significative des performances d'entrée/sortie pour les volumes en miroir. En général, on préconise la création d'au moins 2 répliques par volume RAID 1 jusqu'à une limite de 50 répliques par disque.

Partitions logicielles

Les Partitions logicielles ou soft partitions en anglais permettent de diviser des devices en plusieurs parties. Cette division permet de créer une multitude de systèmes de fichiers sur un device. Il est possible de créer ces partitions logicielles, soit à partir d'un volume, soit directement à partir d'une partition.

Réserve de Tranches Dynamiques

Une Réserve de Tranches Dynamiques ou hot spare pool en anglais est un ensemble de tranches disponibles en remplacement en cas d'une défaillance d'un disque composant un miroir ou un RAID-5. Lorsqu'une défaillance d'un disque survient, SVM va utiliser une partition de la Réserve de Tranches Dynamiques afin de remplacer ce disque. Il est nécessaire bien entendu que les tranches stockées dans la Réserve de Tranches Dynamiques soient d'une taille égale ou supérieure à la tranche à remplacer. Il est impératif d'ajouter les tranches par ordre de taille de la plus petite à la plus grande. En effet lorsque SVM recherche une partition de remplacement, celui-ci lit la liste des tranches dans l'ordre dans lequel celles-ci ont été ajoutées dans la réserve.

Fichiers Importants

  • /etc/lvm/mddb.cf
    • contient l'emplacement de la metadb et de ses répliques,
  • /kernel/drv/md.conf
    • reflète les informations du fichier mddb.cf. Il est nécessaire au fonctionnement du driver md.

Gestion des meta devices

LAB#1 - Préparation du disque

Préparez votre disque de la façon suivante :

  • tranche 3 de 20Mo minimum
  • tranche 4 d'une taille deux fois celle du tranche 5
  • tranche 5 et tranche 6 d'une taille égale.

Vous devez obtenir une table des partitions similaire à celle-ci :

partition> pri
Volume:  My Disk
Current partition table (original):
Total disk cylinders available: 2607 + 2 (reserved cylinders)

Part      Tag    Flag     Cylinders        Size            Blocks
  0       root    wm      68 - 1189        8.59GB    (1122/0/0) 18024930
  1       swap    wu       1 -   67      525.56MB    (67/0/0)    1076355
  2     backup    wm       0 - 2606       19.97GB    (2607/0/0) 41881455
  3 unassigned    wm    1190 - 1192       23.53MB    (3/0/0)       48195
  4 unassigned    wm    1193 - 1454        2.01GB    (262/0/0)   4209030
  5 unassigned    wm    1455 - 1637        1.40GB    (183/0/0)   2955960
  6 unassigned    wm    1639 - 1821        1.40GB    (183/0/0)   2939895
  7       home    wm    1822 - 2606        6.01GB    (785/0/0)  12611025
  8       boot    wu       0 -    0        7.84MB    (1/0/0)       16065
  9 unassigned    wm       0               0         (0/0/0)           0

Voici quelques indications pour vous faciliter la tâche ci-dessus :

  • Créez un répertoire /backup à la racine de votre système de fichiers,
  • Créez un tar du contenu de /export/home et placez-le dans /backup,
  • Démontez /export/home,
  • Commentez la ligne /export/home dans le fichier /etc/vfstab,
  • Lancez la commande format et choisissez le menu partitions,
  • Diminuez la taille de la tranche 7 de façon à récupérer 4 Go d'espace disque,
  • Créez la tranche 3 de 20mo,
  • Créez la tranche 4 de 2Go,
  • Créez les tranches 5 et 6 d'une taille égale, la somme étant équivalente à l'espace disque restant,
  • Nommez la nouvelle table de partitions “My Table” en utilisant les menus partition > name,
  • Montez au menu supérieur en utilisant la commande quit,
  • Nommez le volume “My Disk” avec le menu volname,
  • Sauvez votre table dans l'emplacement par défaut en utilisant la commande save,
  • Quittez la commande format avec quit,
  • Créez un nouveau FileSystem sur S7 avec la commande newfs /dev/dsk/c0t0d0s7,
  • Éditez le fichier /etc/vfstab en supprimant le caractère # devant la ligne /export/home,
  • Montez /export/home avec la commande mount /export/home,
  • Restaurez le contenu du fichier tar dans /backup vers /export/home.

Vérifiez ensuite qu'il n'existe pas de State Database :

# metadb -i
metadb: unknown: aucune base de données existante

Créez maintenant la State Database ainsi que 2 répliques dans votre tranche 3 :

# metadb -f -a -c 3 c0t0d0s3
# metadb
        flags           first blk       block count
     a        u         16              8192            /dev/dsk/c0t0d0s3
     a        u         8208            8192            /dev/dsk/c0t0d0s3
     a        u         16400           8192            /dev/dsk/c0t0d0s3

Les options de la commande sont :

  • -a : Permet d'ajouter une réplique.
  • -f : Permet de forcer un état de la metadb. Cette option est à utiliser lors de la création de la première réplique ou lors de la suppression de la dernière.
  • -c < n > : Permet de spécifier le nombre de répliques à ajouter sur une partition. Cette option permet de placer plusieurs répliques sur une seule partition.

Constatez le contenu du fichier /etc/lvm/mddb.cf :

# cat /etc/lvm/mddb.cf
#metadevice database location file do not hand edit
#driver minor_t daddr_t device id       checksum
sd      3       16      id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d -4385
sd      3       8208    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d -12577
sd      3       16400   id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d -20769

ainsi que le fichier /kernel/drv/md.conf :

# cat /kernel/drv/md.conf
#
#pragma ident   "@(#)md.conf    2.2     04/04/02 SMI"
#
# Copyright 2004 Sun Microsystems, Inc.  All rights reserved.
# Use is subject to license terms.
#
# The parameters nmd and md_nsets are obsolete.  The values for these
# parameters no longer have any meaning.
name="md" parent="pseudo" nmd=128 md_nsets=4;
# Begin MDD database info (do not edit)
mddb_bootlist1="sd:3:16:id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d sd:3:8208:id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d sd:3:16400:id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b/d";
# End MDD database info (do not edit)

Constatez maintenant la création de la metadb :

# metadb -i
        flags           first blk       block count
     a        u         16              8192            /dev/dsk/c0t0d0s3
     a        u         8208            8192            /dev/dsk/c0t0d0s3
     a        u         16400           8192            /dev/dsk/c0t0d0s3
 r - la réplique ne contient pas d'informations de transfert de périphérique
 o - réplique active avant la dernière modification de la configuration de la base de données du métapériphérique mddb
 u - la réplique est mise à jour
 l - le localisateur pour cette réplique a été lu avec succès
 c - la réplique se trouvait dans /etc/lvm/mddb.cf
 p - un patch a été appliqué à la réplique dans le noyau
 m - la réplique est maître : elle est sélectionnée comme réplique d'entrée
 W - la réplique contient des erreurs d'écriture de périphérique
 a - la réplique est active, des validations ont lieu dans cette réplique
 M - la réplique a rencontré des problèmes avec les blocs maîtres
 D - la réplique a rencontré des problèmes avec les blocs de données
 F - la réplique a rencontré des problèmes liés au format
 S - la réplique est trop petite pour contenir la base de données actuelle
 R - la réplique contenait des erreurs de lecture de périphérique

Créez ensuite un filesystem UFS sur le tranche 5 :

# newfs -v -b 4096 -m 10 /dev/rdsk/c0t0d0s5
newfs: construction d'un nouveau système de fichiers /dev/rdsk/c0t0d0s5 : (y/n)? y
pfexec mkfs -F ufs /dev/rdsk/c0t0d0s5 2955960 63 -1 4096 1024 32 10 3 4096 t 0 -1 8 256 n
Avertissement : 5448 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/rdsk/c0t0d0s5:     2955960 secteurs dans 482 cylindres de 48 pistes, 128 secteurs
        1443,3 Mo dans 69 groupes de cylindres (7 c/g, 21,00 Mo/g, 5056 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 43168, 86304, 129440, 172576, 215712, 258848, 301984, 345120, 388256,
 2545056, 2588192, 2631328, 2674464, 2717600, 2752544, 2795680, 2838816,
 2881952, 2925088

Montez votre tranche 5 à la racine de votre système de fichiers et créez un fichier appelé SVM test conteant la chaîne svm_test :

# mkdir /slice5
# mount /dev/dsk/c0t0d0s5 /slice5
# cd /slice5
# ls
lost+found
# echo "SVM test" > svm_test

LAB#2 - RAID 0 - Concaténation

Le Solaris Volume Manager peut être utilisé pour concaténer des tranches afin de créer un volume contigu. Afin d'y parvenir, il convient d'utiliser la commande metainit en passant en argument à la commande au moins une tranche démontée. Dans notre cas, vous allez concaténer les tranches 5 et 6 de votre disque. Saisissez donc les commandes suivantes :

# cd ..
# umount /slice5
# metainit d0 2 1 c0t0d0s5 1 c0t0d0s6
d0: Concaténation/Bande configurée

Dans ce cas, vous avez créer un volume d0 de deux tranches qui se suivent physiquement. Le chiffre 2 indique le nombre de bandes tandis que les chiffres 1 indiquent le nombre de tranches par bande. Dans le cas d'un volume concaténé il devrait y avoir autant de bandes que de tranches. Constatez ensuite la création du volume en utilisant la commande metastat :

# metastat -p
d0 2 1 c0t0d0s5 \
         1 c0t0d0s6
# metastat d0
d0: Concat/Stripe
    Taille : 5895855 blocs (2,8 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base        Redistribution
        c0t0d0s5              0     Non         Oui
    Bande 1 :
        Périphérique   Bloc de débu Base        Redistribution
        c0t0d0s6              0     Non         Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Montez ensuite le volume d0 et constatez l'espace disque libre :

# mount /dev/md/dsk/d0 /slice5
# df -h
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/dsk/c0t0d0s0      8,5G   4,1G   4,3G    49%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1,5G  1016K   1,5G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       8,5G   4,1G   4,3G    49%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1,5G   112K   1,5G     1%    /tmp
swap                   1,5G    36K   1,5G     1%    /var/run
mypool                 341M    37K   340M     1%    /mypool
/dev/dsk/c0t0d0s7      5,9G   6,0M   5,9G     1%    /export/home
/dev/md/dsk/d0         1,4G   1,4M   1,2G     1%    /slice5

Vous noterez que le volume monté ne reflète pas l'addition des deux tranches en termes de taille. En effet, pour l'instant le file system précédemment présent sur c0t0d0s5 n'occupe pas tout le volume d0. Afin d'étendre le file system à la taille maximale du volume, il convient d'utiliser la commande growfs :

# growfs -M /slice5 /dev/md/rdsk/d0
Avertissement : 2386 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d0:        5895854 secteurs dans 960 cylindres de 48 pistes, 128 secteurs
        2878,8 Mo dans 138 groupes de cylindres (7 c/g, 21,00 Mo/g, 5056 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 43168, 86304, 129440, 172576, 215712, 258848, 301984, 345120, 388256,
 5505056, 5548192, 5591328, 5634464, 5677600, 5720736, 5763872, 5807008,
 5850144, 5893280

Constatez ensuite la réussite de la commande :

# df -h
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/dsk/c0t0d0s0      8,5G   4,1G   4,3G    49%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1,5G  1016K   1,5G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       8,5G   4,1G   4,3G    49%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1,5G   112K   1,5G     1%    /tmp
swap                   1,5G    36K   1,5G     1%    /var/run
mypool                 341M    37K   340M     1%    /mypool
/dev/dsk/c0t0d0s7      5,9G   6,0M   5,9G     1%    /export/home
/dev/md/dsk/d0         2,7G   2,8M   2,6G     1%    /slice5

Naviguez ensuite au point de montage de votre volume et constatez la présence du fichier précédemment créé :

# cd /slice5
# ls
lost+found  svm_test
# cat svm_test
SVM test

Créez ensuite un deuxième fichier de contrôle :

# echo "svm_test_2" > svm_test_2
# ls
lost+found  svm_test    svm_test_2

Constatez l'état du volume avec la commande metastat :

# metastat
d0: Concat/Stripe
    Taille : 5895855 blocs (2,8 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base        Redistribution
        c0t0d0s5              0     Non         Oui
    Bande 1 :
        Périphérique   Bloc de débu Base        Redistribution
        c0t0d0s6              0     Non         Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Afin de rajouter une tranche à un volume existant, il convient d'utiliser la commande metattach. Ajoutez donc la tranche c0t0d0s4 au volume d0 :

# metattach d0 c0t0d0s4
d0: composant connecté

Augmentez ensuite la taille du filesystem :

# growfs -M /slice5 /dev/md/rdsk/d0
Avertissement : 1996 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d0:        10104884 secteurs dans 1645 cylindres de 48 pistes, 128 secteurs
        4934,0 Mo dans 235 groupes de cylindres (7 c/g, 21,00 Mo/g, 5056 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 43168, 86304, 129440, 172576, 215712, 258848, 301984, 345120, 388256,
 9681056, 9724192, 9767328, 9810464, 9853600, 9896736, 9939872, 9983008,
 10026144, 10069280

Constatez la taille du volume :

# df -h
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/dsk/c0t0d0s0      8,5G   4,1G   4,3G    49%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1,5G  1016K   1,5G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       8,5G   4,1G   4,3G    49%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1,5G   112K   1,5G     1%    /tmp
swap                   1,5G    36K   1,5G     1%    /var/run
mypool                 341M    37K   340M     1%    /mypool
/dev/dsk/c0t0d0s7      5,9G   6,0M   5,9G     1%    /export/home
/dev/md/dsk/d0         4,7G   4,8M   4,5G     1%    /slice5

Constatez ensuite la présence de vos fichiers :

# pwd
/slice5
# ls
lost+found  svm_test    svm_test_2
# cat svm_test_2
svm_test_2

Démontez ensuite votre volume et supprimez-le grâce à la commande metaclear :

# cd ..
# umount /slice5
# metaclear d0
d0: Concaténation/Bande supprimée#

Montez ensuite la tranche c0t0d0s5 sur slice5 et constatez la présence de vos fichiers :

# mount /dev/dsk/c0t0d0s5 /slice5
# cd /slice5
# ls
lost+found  svm_test    svm_test_2

Notez que les fichiers et leurs contenus sont intacts.

Dans l'exemple précédent, vous avez créé un volume de tranches qui se suivent physiquement. Cette fois-ci, il convient de récupérer deux tranches orphelines sur votre disque. Créez donc un volume contenant les tranches 4 et 6 de votre disque :

# cd ..
# umount /slice5
# metainit d0 2 1 c0t0d0s4 1 c0t0d0s6
d0: Concaténation/Bande configurée
# newfs -v -b 4096 -m 10 /dev/md/rdsk/d0
newfs: construction d'un nouveau système de fichiers /dev/md/rdsk/d0 : (y/n)? y
pfexec mkfs -F ufs /dev/md/rdsk/d0 7148925 63 240 4096 1024 96 10 3 8192 t 0 -1 8 14 n
Avertissement : 2836 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d0:        7148924 secteurs dans 473 cylindres de 240 pistes, 63 secteurs
        3490,7 Mo dans 158 groupes de cylindres (3 c/g, 22,15 Mo/g, 2688 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 45456, 90880, 136304, 181728, 227152, 272576, 318000, 363424, 408848,
 6722784, 6768208, 6813632, 6859056, 6904480, 6949904, 6995328, 7040752,
 7086176, 7131600

Montez ce volume :

# mount /dev/md/dsk/d0 /slice5
# df -h
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/dsk/c0t0d0s0      8,5G   4,1G   4,3G    49%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1,5G  1016K   1,5G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       8,5G   4,1G   4,3G    49%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1,5G   112K   1,5G     1%    /tmp
swap                   1,5G    36K   1,5G     1%    /var/run
mypool                 341M    37K   340M     1%    /mypool
/dev/dsk/c0t0d0s7      5,9G   6,0M   5,9G     1%    /export/home
/dev/md/dsk/d0         3,4G   3,4M   3,0G     1%    /slice5

Vérifiez le contenu de votre volume :

# cd /slice5
# ls
lost+found

Vos fichiers de contrôle ne sont pas présents car ils sont stockés sur le file system sur c0t0d0s5 qui ne fait pas partie de ce d0.

Dernièrement, démontez votre volume et détruisez-le avec la commande metaclear :

# cd ..
# umount /slice5
# metaclear d0
d0: Concaténation/Bande supprimée#

LAB#3 - RAID 0 - Striping et Partitions Logicielles

Créez maintenant un volume striping avec une taille d'inode de 8k :

# metainit d0 1 2 c0t0d0s5 c0t0d0s6 -i 8k
d0: Concaténation/Bande configurée
# metastat d0
d0: Concat/Stripe
    Taille : 5863725 blocs (2,8 GB)
    Entrelacement 0 : (entrelacer : 16 blocs)
        Périphérique   Bloc de débu Base        Redistribution
        c0t0d0s5              0     Non         Oui
        c0t0d0s6              0     Non         Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Le chiffre 1 représente le nombre de bandes. Le chiffre 2 représente le nombre de tranches sur lesquelles la bande sera répartie.

Avec le Solaris Volume manager, il est aussi possible de créer des partitions logicielles à l'intérieur d'un volume. Afin de créer une partition logicielle, il convient d'utiliser la commande metainit en passant en arguments :

  • le nom de la partition logicielle
  • l'option -p
  • le nom de volume dans lequel sera insérée la partition logicielle
  • la taille de la partition logicielle.

Créez donc la partition logicielle d5 et constatez sa présence :

# metainit d5 -p d0 512m
d5: Partition logicielle configurée
# metastat -p d5
d5 -p d0 -o 16 -b 1048576
d0 1 2 c0t0d0s5 c0t0d0s6 -i 16b

Créez ensuite un filesystem sur d5 :

# newfs /dev/md/rdsk/d5
newfs: /dev/md/rdsk/d5 monté en dernier comme /slice5
newfs: construction d'un nouveau système de fichiers /dev/md/rdsk/d5 : (y/n)? y
Avertissement : 9824 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d5:        1048576 secteurs dans 70 cylindres de 240 pistes, 63 secteurs
        512,0 Mo dans 14 groupes de cylindres (5 c/g, 36,91 Mo/g, 17536 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 75696, 151360, 227024, 302688, 378352, 454016, 529680, 605344, 681008,
 756672, 832336, 908000, 983664

Montez d5 et constatez sa taille avec la commande df :

# mount /dev/md/dsk/d5 /slice5
# df -h | grep d5
/dev/md/dsk/d5         482M   1,0M   433M     1%    /slice5

Constatez ensuite l'état des volumes avec la commande metastat :

# metastat
d5: Partition logicielle
    Périphérique : d0
    Etat : Ok
    Taille : 1048576 blocs (512 MB)
        Etendu            Bloc de début          Nombre de blocs
             0                       16                  1048576

d0: Concat/Stripe
    Taille : 5863725 blocs (2,8 GB)
    Entrelacement 0 : (entrelacer : 16 blocs)
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui
        c0t0d0s6              0     Non             Ok   Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Le Solaris Volume Manager peut également être utilisé pour créer une partition logicielle directement sur une tranche. Créez donc la partition logicielle d1 sur la tranche 4 de votre disque et constatez le bon déroulement de la commande :

# metainit d1 -p c0t0d0s4 1g
d1: Partition logicielle configurée
# metastat -p
d1 -p c0t0d0s4 -o 1 -b 2097152
d5 -p d0 -o 16 -b 1048576
d0 1 2 c0t0d0s5 c0t0d0s6 -i 16b

Créez ensuite un file system sur d1 :

# newfs /dev/md/rdsk/d1
newfs: construction d'un nouveau système de fichiers /dev/md/rdsk/d1 : (y/n)? y
Avertissement : 4528 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d1:        2097152 secteurs dans 139 cylindres de 240 pistes, 63 secteurs
        1024,0 Mo dans 28 groupes de cylindres (5 c/g, 36,91 Mo/g, 17536 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 75696, 151360, 227024, 302688, 378352, 454016, 529680, 605344, 681008,
 1361984, 1437648, 1513312, 1588976, 1664640, 1740304, 1815968, 1891632,
 1967296, 2042960

Montez la partition logicielle en /slice6 et constatez sa taille avec la commande df :

# mkdir /slice6
# mount /dev/md/dsk/d1 /slice6
# df -h /slice6
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/md/dsk/d1         964M   1,0M   905M     1%    /slice6

Pour augmenter la taille de la partition logicielle, il convient d'utiliser la commande metattach. Augmentez donc la taille de d1 de 512m et constatez le bon déroulement de la commande :

# metattach d1 512m
d1: Partition logicielle créée
# metastat -p
d1 -p c0t0d0s4 -o 1 -b 3145728
d5 -p d0 -o 16 -b 1048576
d0 1 2 c0t0d0s5 c0t0d0s6 -i 16b

Comparez les deux lignes d1 avant et après la commande :

  • d1 -p c0t0d0s4 -o 1 -b 2097152
  • d1 -p c0t0d0s4 -o 1 -b 3145728

Notez que la taille a été augmentée de 1048576.

Constatez ensuite la taille de d1 :

# df -h /slice6
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/md/dsk/d1         964M   1,0M   905M     1%    /slice6

Comme dans le cas précédent, le résultat ne reflète pas la taille réelle du volume. Utilisez donc la commande growfs pour aligner la taille du file system/ sur celle du volume :

# growfs -M /slice6 /dev/md/rdsk/d1
Avertissement : 14352 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d1:        3145728 secteurs dans 209 cylindres de 240 pistes, 63 secteurs
        1536,0 Mo dans 42 groupes de cylindres (5 c/g, 36,91 Mo/g, 17536 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 75696, 151360, 227024, 302688, 378352, 454016, 529680, 605344, 681008,
 2421280, 2496944, 2572608, 2648272, 2723936, 2799600, 2875264, 2950928,
 3026592, 3102256

Constatez maintenant la taille de d1 :

# df -h /slice6
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/md/dsk/d1         1,4G   1,5M   1,4G     1%    /slice6

Démontez d1 et supprimez-le :

# umount /slice6
# metaclear -r d1
d1: Partition logicielle supprimée

Constatez ensuite le bon déroulement de la commande :

# metastat
d5: Partition logicielle
    Périphérique : d0
    Etat : Ok
    Taille : 1048576 blocs (512 MB)
        Etendu            Bloc de début          Nombre de blocs
             0                       16                  1048576

d0: Concat/Stripe
    Taille : 5863725 blocs (2,8 GB)
    Entrelacement 0 : (entrelacer : 16 blocs)
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui
        c0t0d0s6              0     Non             Ok   Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Démontez d5 et supprimez d0 :

# umount /slice5
# metaclear -r d0
metaclear: unknown: d0: métapériphérique en cours d'utilisation

Comme vous pouvez constater, il est impossible de supprimer d0 puisque celui-ci contient d5. Supprimez donc d'abord d5 et d0 en même temps :

# metaclear -r d5
d5: Partition logicielle supprimée
d0: Concaténation/Bande supprimée#

L'option -r de la commande metaclear implique une suppression récursive.

LAB#4 - RAID 1 - Miroir

Dans le cas de la mise en place d'un RAID 1, il est primordial que les deux disques soient identiques :

  • la même capacité,
  • la même géométrie.

Dans le cas de la mise en place d'un miroir entre deux disques entiers, la première tâche à effectuer est de copier la structure et le contenu du disque 0 vers le disque 1. Pour accomplir cette tache, utilisez une des deux commandes suivantes :

# prtvtoc -h /dev/rdsk/c0t0d0s2 | fmthard -s - /dev/rdsk/c1d0s2
# dd if=/dev/rdsk/c0t0d0s2 of=/dev/rdsk/c1d0s2 count=16

Dans le cas de ce LAB, vous allez simuler la mise en place d'un RAID 1 en utilisant deux tranches identiques. Pour accomplir cette tâche, il convient de créer d'abord les sous-miroirs :

# metainit d2 1 1 c0t0d0s5
d2: Concaténation/Bande configurée
# metainit d3 1 1 c0t0d0s6
d3: Concaténation/Bande configurée

Avec SVM on peut utiliser jusqu'à 4 sous-miroirs par volume (4 copies des données).

Ensuite créez le miroir d4 en y attachant les sous-miroirs d2 et d3 :

HERE

# metainit d4 -m d2
d4: Miroir configuré
# metattach d4 d3
d4: sous-miroir d3 is attached

Constatez le résultat de vos commandes :

# metastat
d4: Miroir
    Sous-miroir 0: d2
      Etat : Ok
    Sous-miroir 1: d3
      Etat : Resynchronisation
    Accès : 1
    Option de lecture : roundrobin (par défaut)
    Option d'écriture : parallel (par défaut)
    Taille : 2939895 blocs (1,4 GB)

d2: Sous-miroir de d4
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui


d3: Sous-miroir de d4
    Etat : Resynchronisation
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s6              0     Non             Ok   Oui


Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Vous devez noter dans le résultat de la commande la présence de plusieurs lignes importantes :

  • Etat : Resynchronisation
    • En effet, lors de la mise en place du miroir, les disques se synchronisent. Aucune action n'est alors permise sur le volume tant que la synchronisation ne soit pas effectuée. La ligne Etat peut prendre plusieurs valeurs : Okay, Resyncing , Resync canceled ou Needs Maintenance,
  • Accès : 1
    • La valeur d'Accès ou Pass number en anglais est un chiffre entre 0 et 9. Ce chiffre conditionne l'ordre dans lequel les miroirs seront synchronisés lors du re-démarrage du système. La valeur par défaut est 1. Dans le cas où deux miroirs possèdent la même valeur pour l'Accès, lesdeux miroirs sont synchronisés en même temps. Dans le cas contraire les miroirs sont synchronisés dans l'ordre croissant de 1 à 9. Une valeur de 0 est utilisée pour un miroir en lecture seule.
  • Option de lecture : roundrobin (par défaut)
    • L'option roundrobin concerne l'ordonnancement de la répartition de charge. Dans ce cas les lectures de données sont successivement faites sur chaque sous-miroir, l'un après l'autre.
  • Option d'écriture : parallel (par défaut)
    • L'option parallel implique que les données soient répliquées et envoyées d'une manière simultanée aux miroirs du volume.

Consultez la page Internet suivante pour vous renseigner sur les options de lecture et d'écriture pour des volumes RAID 1 Wikipedia.

A l'issu de la période de synchronisation, l'état devient OK :

# metastat
d4: Miroir
    Sous-miroir 0: d2
      Etat : Ok
    Sous-miroir 1: d3
      Etat : Ok
    Accès : 1
    Option de lecture : roundrobin (par défaut)
    Option d'écriture : parallel (par défaut)
    Taille : 2939895 blocs (1,4 GB)

d2: Sous-miroir de d4
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui


d3: Sous-miroir de d4
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s6              0     Non             Ok   Oui


Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Les options de lecture (r) et d'écriture (w) peuvent être modifiées grâce à l'utilisation de la commande metaparam :

# metaparam -r geometric d4
# metaparam d4
d4 : Les paramètres du miroir actuels sont :
    Accès : 1
    Option de lecture : geometric (-g)
    Option d'écriture : parallel (par défaut)
# metaparam -w serial d4
# metaparam d4
d4 : Les paramètres du miroir actuels sont :
    Accès : 1
    Option de lecture : geometric (-g)
    Option d'écriture : serial (-S)

La même commande peut être utilisée pour modifier la valeur de l'Accès ou Pass Number :

# metaparam -p 5 d4
# metaparam d4
d4 : Les paramètres du miroir actuels sont :
    Accès : 5
    Option de lecture : geometric (-g)
    Option d'écriture : serial (-S)

Afin de poursuivre, il convient de re-définir l'Accès à 1 :

# metaparam -p 1 d4
# metaparam d4
d4 : Les paramètres du miroir actuels sont :
    Accès : 1
    Option de lecture : geometric (-g)
    Option d'écriture : serial (-S)

Créez maintenant un file system sur le volume d4 :

# newfs -v -b 4096 -m 10 /dev/md/rdsk/d4
newfs: /dev/md/rdsk/d4 monté en dernier comme /slice5
newfs: construction d'un nouveau système de fichiers /dev/md/rdsk/d4 : (y/n)? y
pfexec mkfs -F ufs /dev/md/rdsk/d4 2939895 63 240 4096 1024 32 10 3 4096 t 0 -1 8 14 n
Avertissement : 8506 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d4:        2939894 secteurs dans 195 cylindres de 240 pistes, 63 secteurs
        1435,5 Mo dans 65 groupes de cylindres (3 c/g, 22,15 Mo/g, 5344 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 45456, 90880, 136304, 181728, 227152, 272576, 318000, 363424, 408848,
 2498352, 2543776, 2589200, 2634624, 2680048, 2725472, 2770896, 2816320,
 2861744, 2907168

Montez ensuite votre RAID 1 sur /slice5 et créez ensuite le fichier raidtest sur /slice5 :

# mount /dev/md/dsk/d4 /slice5
# echo "Ceci est un test d'un miroir" > /slice5/raidtest

Vous allez maintenant renommer le volume RAID 1 en d40. Pour accomplir cette tâche, il convient d'abord de démonter le volume et d'utiliser la commande metarename :

# umount /slice5
# metarename d4 d40
d4: a été renommé d40

Constatez maintenant vos volumes :

# metastat
d40: Miroir
    Sous-miroir 0: d2
      Etat : Ok
    Sous-miroir 1: d3
      Etat : Ok
    Accès : 1
    Option de lecture : geometric (-g)
    Option d'écriture : serial (-S)
    Taille : 2939895 blocs (1,4 GB)

d2: Sous-miroir de d40
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui


d3: Sous-miroir de d40
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s6              0     Non             Ok   Oui


Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Dans le cas d'une défaillance d'un disque du miroir la valeur de Etat devient Needs Maintenance. Il est donc nécessaire de remplacer celui-ci. Dans ce cas, il convient d'utiliser la commande metadetach :

# metadetach -f d40 d3
d40: sous-miroir d3 déconnecté

Il est ensuite nécessaire de supprimer le volume du disque défaillant en utilisant la commande metaclear :

# metaclear -f d3
d3: Concaténation/Bande supprimée#

Après avoir réparé/remplacé le disque défaillant, il est nécessaire de reconstruire le sous-miroir :

# metainit d30 1 1 c0t0d0s6
d30: Concaténation/Bande configurée

Dernièrement, il convient de rattacher le nouveau volume au miroir :

# metattach d40 d30
d40: sous-miroir d30 is attached

et ensuite de constater l'état des volumes :

# metastat
d40: Miroir
    Sous-miroir 0: d2
      Etat : Ok
    Sous-miroir 1: d30
      Etat : Resynchronisation
    Resynchronisation en cours : 51 % terminé
    Accès : 1
    Option de lecture : geometric (-g)
    Option d'écriture : serial (-S)
    Taille : 2939895 blocs (1,4 GB)

d2: Sous-miroir de d40
    Etat : Ok
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui


d30: Sous-miroir de d40
    Etat : Resynchronisation
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s6              0     Non             Ok   Oui


Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Notez que le volume d30 est en cours de synchronisation. Ce processus de synchronisation peut être interrompue grâce à la commande metasync -c d40. Dans ce cas la valeur de Etat devient Resync canceled. La synchronisation peut ensuite est reprise grâce à la commande metasync d40.

Il convient maintenant de constater que les données soient présentes :

# mount /dev/md/dsk/d40 /slice5
# cd /slice5
# ls
lost+found  raidtest

Le volume RAID 1 peut être supprimé à l'aide de la commande metaclear :

# cd ..
# umount /slice5
# metaclear -r d40
d40: Miroir supprimé
d2: Concaténation/Bande suppriméed30: Concaténation/Bande supprimée

LAB#5 - Réserve de Tranches Dynamiques

Pour utiliser une Réserve de Tranches Dynamiques il convient d'abord de la créer grâce à la commande metainit :

# metainit hsp000
 
hsp000: Réserve de tranches dynamiques configurée#

A ce stade, votre Réserve de Tranches Dynamiques est vide. Pour visualiser l'état de la Réserve de Tranches Dynamiques, il convient d'utiliser la commande metahs -i :

# metahs -i
hsp000: est vide

Device Relocation Information:
Device   Reloc  Device ID

Ajoutez maintenant la tranche 4 de votre disque à la Réserve de Tranches Dynamiques grâce à la commande metahs -a :

# metahs -a hsp000 c0t0d0s4
hsp000: Tranche dynamique ajoutée#

Constatez maintenant l'état de votre Réserve de Tranches Dynamiques :

# metahs -i
hsp000: 1 hot spare
        Périphérique   Etat        Longue               Redistribution
        c0t0d0s4       Disponible   4209030 blocks      Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Bien que votre Réserve de Tranches Dynamiques soit créée, elle est à ce stade inutilisable parce qu'elle n'est attachée à aucun volume. Pour attacher une Réserve de Tranches Dynamiques à un volume, il convient d'utiliser la commande metaparam.

A l'aide du manuel de la commande, déterminez les options adéquates pour attacher une Réserve de Tranches Dynamiques à un volume RAID 5.

Pour supprimer une Réserve de Tranches Dynamiques, il convient d'utiliser la commande metaclear :

# metaclear hsp000
hsp000: Réserve de tranches dynamiques supprimée#

Il est aussi possible d'attacher une Réserve de Tranches Dynamiques à un volume lors de la création de ce dernier.

Créez donc la Réserve de Tranches Dynamiques hsp001 :

# metainit hsp001
hsp001: Réserve de tranches dynamiques configurée

Ajoutez maintenant la tranche 4 de votre disque à la Réserve de Tranches Dynamiques grâce à la commande metahs -a :

# metahs -a hsp001 c0t0d0s4
hsp001: Tranche dynamique ajoutée

Mettez en place un miroir entre les tranches 5 et 6 en indiquant que la Réserve de Tranches Dynamiques hsp001 sera attachée aux volumes :

# metainit d10 1 1 c0t0d0s5 -h hsp001
d10: Concaténation/Bande configurée
# metainit d11 1 1 c0t0d0s6 -h hsp001
d11: Concaténation/Bande configurée
# metainit d20 -m d10 d11
metainit: d20: AVERTISSEMENT : Ce type de metainit est déconseillé.
Les sous-miroirs ne contiennent peut-être pas les mêmes données.
Pour de plus amples informations, reportez-vous à ERREURS dans metainit(1M).
d20: Miroir configuré

Notez bien le message d'avertissement lors de la première création du miroir. Bien que possible, cette syntaxe est déconseillée. Il convient donc d'utiliser les deux commandes metainit et metattach.

# metaclear d20
d20: Miroir supprimé
# metainit d20 -m d10
d20: Miroir configuré
# metattach d20 d11
d20: sous-miroir d11 is attached

Constatez maintenant le résultat de votre travail :

# metahs -i
hsp001: 1 hot spare
        Périphérique   Etat        Longue               Redistribution
        c0t0d0s4       Disponible   4209030 blocks      Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b
# metastat
d20: Miroir
    Sous-miroir 0: d10
      Etat : Ok
    Sous-miroir 1: d11
      Etat : Ok
    Accès : 1
    Option de lecture : roundrobin (par défaut)
    Option d'écriture : parallel (par défaut)
    Taille : 2939895 blocs (1,4 GB)

d10: Sous-miroir de d20
    Etat : Ok
    réserve de tranches dynamiques : hsp001
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s5              0     Non             Ok   Oui


d11: Sous-miroir de d20
    Etat : Ok
    réserve de tranches dynamiques : hsp001
    Taille : 2939895 blocs (1,4 GB)
    Bande 0 :
        Périphérique   Bloc de débu Base          Etat Redis Tranche dynamique
        c0t0d0s6              0     Non             Ok   Oui


hsp001: 1 hot spare
        Périphérique   Etat        Longue               Redistribution
        c0t0d0s4       Disponible   4209030 blocks      Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Essayez maintenant de supprimer la Réserve de Tranches Dynamiques hsp001 :

# metaclear hsp001
metaclear: unknown: hsp001: réserve de tranches dynamiques en cours d'utilisation

Notez qu'il n'est pas possible de supprimer hsp001 tant que cette dernière soit en cours d'utilisation.

Pour détacher hsp001 des sous-miroirs d10 et d11, il convient d'utiliser la commande metaparam avec l'option -h none :

# metaparam -h none d10
# metaparam -h none d11

Il est possible de supprimer des tranches de la Réserve de Tranches Dynamiques grâce à la commande metahs -d :

# metahs -d hsp001 c0t0d0s4
hsp001: Tranche dynamique supprimée

Dernièrement supprimez la Réserve de Tranches Dynamiques hsp001 ainsi que votre miroir :

# metaclear hsp001
hsp001: Réserve de tranches dynamiques supprimée#
# metaclear -r d20
d20: Miroir supprimé
d10: Concaténation/Bande suppriméed11: Concaténation/Bande supprimée#

LAB#6 - RAID 5 - Striping avec Parité Distribuée

Pour créer un volume RAID 5, il est nécessaire de disposer d'au moins trois disques.

Dans le cas de ce LAB, vous allez simuler la mise en place d'un RAID 5 en utilisant trois tranches. Pour accomplir cette tâche, il convient d'utiliser la commande metainit :

# metainit d5 -r c0t0d0s4 c0t0d0s5 c0t0d0s6
d5: RAID configuré

Il convient ensuite de constater l'état du volume :

# metastat -p
d5 -r c0t0d0s4 c0t0d0s5 c0t0d0s6 -k -i 32b
# metastat
d5: RAID
    Etat : Initialisation
    Initialisation en cours: 74.3% terminé
    Entrelacement : 32 blocs
    Taille : 5863725 blocs (2,8 GB)
Périphérique d'origine :
    Taille : 5879104 blocs (2,8 GB)
        Périphérique   Bloc de débu Base          Etat Redis  Tranche dynamique
        c0t0d0s4            330       Non           Ok   Oui
        c0t0d0s5            330       Non           Ok   Oui
        c0t0d0s6            330       Non           Ok   Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Notez que l'état du volume RAID 5 est Initialisation. Il existe trois états pour RAID 5, à savoir en anglais Initializing, Okay et Maintenance. Notez aussi qu'il existe un état pour chaque tranche dans le volume. Il existe 5 états pour les tranches, à savoir en anglais, Initializing, Okay, Resyncing, Maintenance ou Maintenance Last Erred.

A l'issu de la période d'initialisation, l'état devient Ok :

# metastat
d5: RAID
    Etat : Ok
    Entrelacement : 32 blocs
    Taille : 5863725 blocs (2,8 GB)
Périphérique d'origine :
    Taille : 5879104 blocs (2,8 GB)
        Périphérique   Bloc de débu Base          Etat Redis  Tranche dynamique
        c0t0d0s4            330       Non           Ok   Oui
        c0t0d0s5            330       Non           Ok   Oui
        c0t0d0s6            330       Non           Ok   Oui

Device Relocation Information:
Device   Reloc  Device ID
c0t0d0   Oui    id1,sd@SATA_____VBOX_HARDDISK____VB11d23ca4-8967fc4b

Créez maintenant un file system sur le volume RAID 5 :

# newfs -v -b 4096 -m 10 /dev/md/rdsk/d5
newfs: construction d'un nouveau système de fichiers /dev/md/rdsk/d5 : (y/n)? y
pfexec mkfs -F ufs /dev/md/rdsk/d5 5863725 63 240 4096 1024 64 10 3 6144 t 0 -1 8 14 n
Avertissement : 2836 secteur(s) du dernier cylindre n'ont pas été alloués
/dev/md/rdsk/d5:        5863724 secteurs dans 388 cylindres de 240 pistes, 63 secteurs
        2863,1 Mo dans 130 groupes de cylindres (3 c/g, 22,15 Mo/g, 3552 i/g)
sauvegardes de super-blocs (pour fsck -F ufs -o b=#) at:
 32, 45456, 90880, 136304, 181728, 227152, 272576, 318000, 363424, 408848,
 5450912, 5496336, 5541760, 5587184, 5632608, 5678032, 5723456, 5768880,
 5814304, 5859728

Montez d5 sur /slice5 et constatez sa taille :

# mount /dev/md/dsk/d5 /slice5
# df -h
Système de fichiers  taille utilisé  dispo capacité  Monté sur
/dev/dsk/c0t0d0s0      8,5G   4,1G   4,3G    49%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1,5G  1016K   1,5G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       8,5G   4,1G   4,3G    49%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1,5G   112K   1,5G     1%    /tmp
swap                   1,5G    36K   1,5G     1%    /var/run
mypool                 341M    37K   340M     1%    /mypool
/dev/dsk/c0t0d0s7      5,9G   6,0M   5,9G     1%    /export/home
/dev/md/dsk/d5         2,7G   2,8M   2,5G     1%    /slice5

Expliquez la dernière ligne. Y-a-t-il des anomalies ?

Quotas

Les quotas sont appliqués sur des filesystems. L'administrateur met souvent des quotas en place sur l'arborescence de /export/home pour limiter l'espace de stockage occupé par les utilisateurs.

LAB#7 - Quotas sur UFS

Dans le cas de cet exemple, vous allez utiliser le RAID 5 logiciel créé précédemment pour stocker les fichiers de /export/home.

Copiez tous le contenu de /export/home vers /slice5 :

# cp -pR /export/home/* /slice5

Démontez maintenant /slice5 :

# umount /slice5

Editez le fichier /etc/vfstab en mettant en commentaire la ligne commençant par /dev/dsk/c0t0d0s7 et en ajoutant la ligne commençant par /dev/md/dsk/d5 :

#/dev/dsk/c0t0d0s7        /dev/rdsk/c0t0d0s7        /export/home    ufs     2       yes     -
/dev/md/dsk/d5 /dev/md/rdsk/d5        /export/home    ufs     2       yes     rq

Notez l'utilisation de l'option rq qui indique au système la mise en place de quotas pour ce volume.

Démontez ensuite /export/home :

# umount /dev/dsk/c0t0d0s7

Remontez /export/home et contrôlez le résultat :

# mount /export/home
# cat /etc/mnttab
/dev/dsk/c0t0d0s0       /       ufs     rw,intr,largefiles,logging,xattr,onerror=panic,dev=780000       1370245312
/devices        /devices        devfs   dev=4a40000     1370245290
ctfs    /system/contract        ctfs    dev=4ac0001     1370245290
proc    /proc   proc    dev=4a80000     1370245290
mnttab  /etc/mnttab     mntfs   dev=4b00001     1370245290
swap    /etc/svc/volatile       tmpfs   xattr,dev=4b40001       1370245290
objfs   /system/object  objfs   dev=4b80001     1370245290
sharefs /etc/dfs/sharetab       sharefs dev=4bc0001     1370245290
/usr/lib/libc/libc_hwcap1.so.1  /lib/libc.so.1  lofs    dev=780000      1370245301
fd      /dev/fd fd      rw,dev=4d40001  1370245312
swap    /tmp    tmpfs   xattr,dev=4b40002       1370245318
swap    /var/run        tmpfs   xattr,dev=4b40003       1370245318
mypool  /mypool zfs     rw,devices,setuid,nonbmand,exec,rstchown,xattr,atime,dev=2d50002        1370245324
-hosts  /net    autofs  nosuid,indirect,ignore,nobrowse,dev=4e00001     1370245339
auto_home       /home   autofs  indirect,ignore,nobrowse,dev=4e00002    1370245339
solaris:vold(pid557)    /vol    nfs     ignore,noquota,dev=4dc0001      1370245340
/dev/md/dsk/d5  /export/home    ufs     rw,intr,largefiles,logging,xattr,onerror=panic,dev=1540005      1370263404

Pour activer les quotas sur /export/home, il convient de créer le fichier normal quotas à la racine du point de montage :

# touch /export/home/quotas

Le fichier quotas doit appartenir à root du groupe root et posséder des permissions de 600 :

# chmod 600 /export/home/quotas

Si besoin est, créez un utilisateur user1 avec le mot de passe test1234 :

# groupadd groupe1
# useradd -m -g groupe1 -d /export/home/user1 user1
64 blocs
# passwd user1
Nouveau mot de passe : test1234
Entrez de nouveau le mot de passe : test1234
passwd: mot de passe correctement modifié pour user1

Configurez votre éditeur par défaut en tant que vi :

# which vi
/usr/bin/vi
# echo $EDITOR
/usr/dt/bin/dtpad
# EDITOR=/usr/bin/vi
# export EDITOR
# echo $EDITOR
/usr/bin/vi

Mettez en place maintenant des quotas soft de 8 000 Ko et hard de 10 000 Ko pour l'utilisateur user1 :

# edquota user1

Modifiez ce fichier ainsi :

fs /export/home blocks (soft = 8001, hard = 10001) inodes (soft = 0, hard = 0)

Notez que les chiffres saisis sont 8001 et 10001. La taille des blocs est de 1 Ko. Il est à noter que vous pouvez soit mettre en place un quota en taille, soit mettre en place un quota basé sur le nombre d'inodes utilisés par l'utilisateur.

Activez maintenant les quotas sur /export/home :

# quotaon /export/home

La commande quotaon peut prendre comme argument soit un point de montage spécifique soit -a au cas où les quotas seront activés sur tous les filesystems ayant un fichier quotas à la racine de leur point de montage.

De cette manière vous avez mis en place un quota souple ou soft en anglais de 8 000 Ko et un quota stricte ou hard en anglais de 10 000 Ko pour l'utilisateur user1.

Quand l'utilisateur user1 aura dépassé le quota souple, il recevra un message d'avertissement. L'utilisateur aura ensuite 7 jours de grâce pour redescendre en dessous de sa limite souple. A l'issu de la période de grâce, sa consommation en taille ou en inodes devient de facto sa limite stricte.

Pour modifier la période de grâce, il convient d'utiliser la commande edquota avec l'option -t.

Mettez en place une période de grâce de 10 jours.

Si pendant la période de grâce l'utilisateur dépasse le quota stricte, il ne pourra plus enregistrer dans /export/home, sauf dans le cas où il supprime des fichiers pour retomber en dessous de la limite stricte.

Pour vérifier la cohérence des informations du fichier quotas, il convient d'utiliser la commande quotacheck :

# quotacheck /export/home

La commande quotacheck peut prendre comme argument soit un point de montage spécifique soit -a au cas où les cohérences de tous les quotas seront effectués sur tous les filesystems ayant un fichier quotas à la racine de leur point de montage. Attention, sur un filesystem contenant un grand nombre de fichiers la commande quotacheck peut prendre un temps considérable.

Pour visualiser les quotas utilisez la commande repquota :

# repquota /export/home
                      Block limits                      File limits
User           used   soft   hard    timeleft    used   soft   hard    timeleft
user1     --      5   8001  10001                   5      0      0

Vérifiez ensuite la véracité de la colonne used :

# du -h /export/home/user1
   5K   /export/home/user1

Si besoin est, créez un utilisateur user2 avec le mot de passe test :

# groupadd groupe2
# useradd -m -g groupe2 -d /export/home/user2 user2
64 blocs
# passwd user2
Nouveau mot de passe : test1234
Entrez de nouveau le mot de passe : test1234
passwd: mot de passe correctement modifié pour user2

Vous pouvez mettre en place les mêmes quotas pour d'autres utilisateurs en utilisant la commande edquota avec l'option -p suivie par le nom de l'utilisateur proto-type :

# edquota -p user1 user2
# repquota -v /export/home
/dev/md/dsk/d5 (/export/home):
                      Block limits                      File limits
User           used   soft   hard    timeleft    used   soft   hard    timeleft
user1     --      5   8001  10001                   5      0      0
user2     --      0   8001  10001                   0      0      0

Devenez maintenant l'utilisateur user1 et créez un gros fichier :

# su - user1
Sun Microsystems Inc.   SunOS 5.10      Generic January 2005
$ pwd
/export/home/user1
$ cd /
$ ls -lRa > /export/home/user1/ls1 2>&1
quota_ufs: Warning: over disk limit (pid 1542, uid 100, inum 15, fs /export/home)
quota_ufs: over hard disk limit (pid 1542, uid 100, inum 15, fs /export/home)
$ exit
# du -h /export/home/user1
 9,8M   /export/home/user1

Notez les deux messages lors du dépassement de la limite souple et stricte.

Revenez à l'utilisation de votre tranche 7 pour le montage de /export/home. Placez-y des quotas pour l'utilisateur user1 et détruisez votre volume RAID 5.

Références


<html> <center> Copyright © 2011-2018 I2TCH LIMITED.<br><br> </center> </html>

Menu