Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
elearning:workbooks:solaris:10:junior:l116 [2019/11/30 15:36] adminelearning:workbooks:solaris:10:junior:l116 [2020/01/30 03:28] (Version actuelle) – modification externe 127.0.0.1
Ligne 1: Ligne 1:
 ~~PDF:LANDSCAPE~~ ~~PDF:LANDSCAPE~~
 +
 +Version: **2020.01**
  
 Dernière mise-à-jour : ~~LASTMOD~~ Dernière mise-à-jour : ~~LASTMOD~~
- 
-Version: 1.11.01 
  
 ======SO210 - Gestion du système de fichiers ZFS====== ======SO210 - Gestion du système de fichiers ZFS======
- 
-=====Préparation de la VM Solaris 10==== 
- 
-Éteignez la VM Solaris 10. Dans la section **Stockage** de l'**Oracle VM VirtualBox Manager**, ajoutez les disques suivants au controleur **existant** SATA : 
- 
-^ Type ^ Taille ^ Nom ^ 
-| vmdk | 200 Mb | Disk1 |  
-| vmdk | 200 Mb | Disk2 |  
-| vmdk | 200 Mb | Disk3 |  
-| vmdk | 200 Mb | Disk4 |  
-| vmdk | 200 Mb | Disk5 |  
-| vmdk | 20 Gb | Mirror |  
- 
-Re-démarrez la VM Solaris 10. 
  
 =====Présentation de ZFS===== =====Présentation de ZFS=====
Ligne 27: Ligne 13:
 Solaris ZFS utilise un modèle de stockage en pools qui supprime purement et simplement le concept de volumes. Ainsi, ZFS supprime les problèmes liés à la gestion des partitions, à l'approvisionnement et à la croissance des systèmes de fichiers. Des centaines de systèmes de fichiers peuvent faire partie d'un seul et même pool de stockage. Chaque système n'utilise que l'espace qui lui est strictement nécessaire. La bande passante d'E/S combinée de tous les périphériques du pool est disponible à tout moment pour tous les systèmes de fichiers. Solaris ZFS utilise un modèle de stockage en pools qui supprime purement et simplement le concept de volumes. Ainsi, ZFS supprime les problèmes liés à la gestion des partitions, à l'approvisionnement et à la croissance des systèmes de fichiers. Des centaines de systèmes de fichiers peuvent faire partie d'un seul et même pool de stockage. Chaque système n'utilise que l'espace qui lui est strictement nécessaire. La bande passante d'E/S combinée de tous les périphériques du pool est disponible à tout moment pour tous les systèmes de fichiers.
  
-Toutes les opérations sont des transactions copie-écriture. L'état sur disque est donc toujours valide. Chaque bloc comprend une somme de contrôle. Toute corruption des données silencieuses est donc impossible. Les données peuvent, en outre, être autorétablies dans des configurations répliquées. Cette fonctionnalité signifie que si une copie est endommagée, Solaris ZFS la détecte et utilise une autre copie pour réparer celle endommagée.+Toutes les opérations sont des transactions copie-écriture. L'état sur disque est donc toujours valide. Chaque bloc comprend une somme de contrôle. Toute corruption des données silencieuses est donc impossible. Les données peuvent, en outre, être auto-rétablies dans des configurations répliquées. Cette fonctionnalité signifie que si une copie est endommagée, Solaris ZFS la détecte et utilise une autre copie pour réparer celle endommagée.
  
 ====Le vocabulaire ZFS==== ====Le vocabulaire ZFS====
Ligne 34: Ligne 20:
  
 ^ Terme ^ Description ^ ^ Terme ^ Description ^
-| pool | Un élement de stockage regroupant une ou plusieures partitions de disques contenant un ou plusieurs file systems |+| pool | Un élément de stockage regroupant une ou plusieurs partitions de disques contenant un ou plusieurs file systems |
 | file system | Un **dataset** contenant répertoires et fichiers | | file system | Un **dataset** contenant répertoires et fichiers |
 | clone | Une copie d'un file system | | clone | Une copie d'un file system |
Ligne 70: Ligne 56:
 | remove | Supprime un disque d'un pool existant | | remove | Supprime un disque d'un pool existant |
 | replace | Remplace un disque par un autre dans un pool existant | | replace | Remplace un disque par un autre dans un pool existant |
-| scrub | Vérifie les checksums d'un pool et répare des blocs de données dommagés |+| scrub | Vérifie les checksums d'un pool et répare des blocs de données endommagés |
  
 ===La Commande zfs=== ===La Commande zfs===
Ligne 91: Ligne 77:
 | mount | Mounts a ZFS file system at a specific mount point | | mount | Mounts a ZFS file system at a specific mount point |
 | unmount | Unmounts a ZFS file system | | unmount | Unmounts a ZFS file system |
 +
 +=====Préparation de la VM Solaris 10====
 +
 +Éteignez la VM Solaris 10. Dans la section **Stockage** de l'**Oracle VM VirtualBox Manager**, ajoutez les disques suivants au contrôleur **existant** SATA :
 +
 +^ Type ^ Taille ^ Nom ^
 +| vmdk | 256 Mb | Disk1 | 
 +| vmdk | 256 Mb | Disk2 | 
 +| vmdk | 256 Mb | Disk3 | 
 +| vmdk | 256 Mb | Disk4 | 
 +| vmdk | 256 Mb | Disk5 | 
 +| vmdk | 20 Gb | Mirror | 
 +
 +Démarrez la VM Solaris 10, créez ensuite le fichier **reconfigure** à la racine du système et re-démarrez le :
 +
 +<code>
 +# touch /reconfigure
 +# shutdown -i0 -g1 -y
 +</code>
 +
 +Connectez-vous à la VM et vérifiez que les disques ont été détectés :
 +
 +<code>
 +# format
 +Searching for disks...done
 +
 +
 +AVAILABLE DISK SELECTIONS:
 +       0. c0t0d0 <ATA    -VBOX HARDDISK  -1.0 cyl 2085 alt 2 hd 255 sec 63>  My Disk
 +          /pci@0,0/pci8086,2829@d/disk@0,0
 +       1. c0t2d0 <ATA    -VBOX HARDDISK  -1.0  cyl 253 alt 2 hd 64 sec 32>
 +          /pci@0,0/pci8086,2829@d/disk@2,0
 +       2. c0t3d0 <ATA    -VBOX HARDDISK  -1.0  cyl 253 alt 2 hd 64 sec 32>
 +          /pci@0,0/pci8086,2829@d/disk@3,0
 +       3. c0t4d0 <ATA    -VBOX HARDDISK  -1.0  cyl 253 alt 2 hd 64 sec 32>
 +          /pci@0,0/pci8086,2829@d/disk@4,0
 +       4. c0t5d0 <ATA    -VBOX HARDDISK  -1.0  cyl 253 alt 2 hd 64 sec 32>
 +          /pci@0,0/pci8086,2829@d/disk@5,0
 +       5. c0t6d0 <ATA    -VBOX HARDDISK  -1.0  cyl 253 alt 2 hd 64 sec 32>
 +          /pci@0,0/pci8086,2829@d/disk@6,0
 +       6. c0t7d0 <ATA    -VBOX HARDDISK  -1.0  cyl 2608 alt 2 hd 255 sec 63>
 +          /pci@0,0/pci8086,2829@d/disk@7,0
 +Specify disk (enter its number): ^C 
 +</code>
  
 =====LAB #1 - La Gestion du Stockage ZFS===== =====LAB #1 - La Gestion du Stockage ZFS=====
Ligne 106: Ligne 136:
 <code> <code>
 # zpool list # zpool list
-NAME     SIZE  ALLOC   FREE    CAP  HEALTH  ALTROOT +NAME    SIZE  ALLOC  FREE  CAP  HEALTH  ALTROOT 
-mypool   187M    80K   187M     0%  ONLINE  -+mypool  242M    77K  242M   0%  ONLINE  -
 </code> </code>
  
Ligne 114: Ligne 144:
 <code> <code>
 # zpool status # zpool status
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: aucun requis + scan: none requested 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 125: Ligne 155:
             c0t3d0  ONLINE               0             c0t3d0  ONLINE               0
  
-erreurs aucune erreur de données connue+errorsNo known data errors
 </code> </code>
  
Ligne 133: Ligne 163:
 # zfs list # zfs list
 NAME     USED  AVAIL  REFER  MOUNTPOINT NAME     USED  AVAIL  REFER  MOUNTPOINT
-mypool    97K   155M    31K  /mypool+mypool  83.5K   210M    31K  /mypool
 </code> </code>
  
Ligne 148: Ligne 178:
 # zfs create mypool/home/user1 # zfs create mypool/home/user1
 # zfs list # zfs list
-NAME                USED  AVAIL  REFER  MOUNTPOINT +NAME               USED  AVAIL  REFER  MOUNTPOINT 
-mypool              181K   155M    32K  /mypool +mypool             163K   210M    32K  /mypool 
-mypool/home          62K   155M    31K  /mypool/home +mypool/home         62K   210M    31K  /mypool/home 
-mypool/home/user1    31K   155M    31K  /mypool/home/user1+mypool/home/user1   31K   210M    31K  /mypool/home/user1
 </code> </code>
  
Ligne 166: Ligne 196:
 # zfs set mountpoint=/users mypool/home # zfs set mountpoint=/users mypool/home
 # zfs list # zfs list
-NAME                USED  AVAIL  REFER  MOUNTPOINT +NAME               USED  AVAIL  REFER  MOUNTPOINT 
-mypool              366K   155M    32K  /mypool +mypool             173K   210M    32K  /mypool 
-mypool/home          63K   155M    32K  /users +mypool/home         63K   210M    32K  /users 
-mypool/home/user1    31K   155M    31K  /users/user1+mypool/home/user1   31K   210M    31K  /users/user1
 </code> </code>
  
Ligne 178: Ligne 208:
 ====L'Ajout d'un Hot Spare==== ====L'Ajout d'un Hot Spare====
  
-Pour visualiser touts le charactéristiques associées à **mypool**, utilisez la commande **zpool** avec la sous-commande **get** :+Pour visualiser tous le caractéristiques associées à **mypool**, utilisez la commande **zpool** avec la sous-commande **get** :
  
 <code> <code>
 # zpool get all mypool # zpool get all mypool
-NAME    PROPERTY       VALUE       SOURCE +NAME    PROPERTY       VALUE                 SOURCE 
-mypool  size           187M        +mypool  size           242M                  
-mypool  capacity       0%          +mypool  capacity       0%                    
-mypool  altroot        -           default +mypool  altroot        -                     default 
-mypool  health         ONLINE      +mypool  health         ONLINE                
-mypool  guid           13590865085725716842  default +mypool  guid           10980242944530705327  - 
-mypool  version        29          default +mypool  version        32                    default 
-mypool  bootfs                   default +mypool  bootfs                             default 
-mypool  delegation     on          default +mypool  delegation     on                    default 
-mypool  autoreplace    off         default +mypool  autoreplace    off                   default 
-mypool  cachefile      -           default +mypool  cachefile      -                     default 
-mypool  failmode       wait        default +mypool  failmode       wait                  default 
-mypool  listsnapshots  on          default +mypool  listsnapshots  on                    default 
-mypool  autoexpand     off         default +mypool  autoexpand     off                   default 
-mypool  free           186M        +mypool  free           242M                  
-mypool  allocated      724K        +mypool  allocated      257K                  
-mypool  readonly       off         -+mypool  readonly       off                   -
 </code> </code>
  
  
-Notez que la valeur d'**autoreplace** est **off**. Afin d'utiliser un hot spare, il est necessaire de changer cette valeur à **on** :+Notez que la valeur d'**autoreplace** est **off**. Afin d'utiliser un hot spare, il est nécessaire de changer cette valeur à **on** :
  
 <code> <code>
Ligne 211: Ligne 241:
 </code> </code>
  
-Ajoutez maintenant en tant que spare le quatrième disque que vous avez précedement créé :+Ajoutez maintenant en tant que spare le quatrième disque que vous avez précédemment créé :
  
 <code> <code>
 # zpool add mypool spare c0t5d0 # zpool add mypool spare c0t5d0
 # zpool status mypool # zpool status mypool
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: aucun requis + scan: none requested 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 226: Ligne 256:
             c0t2d0  ONLINE               0             c0t2d0  ONLINE               0
             c0t3d0  ONLINE               0             c0t3d0  ONLINE               0
-        éléments de rechange +        spares 
-          c0t5d0    AVAIL+          c0t5d0    AVAIL   
  
-erreurs aucune erreur de données connue+errorsNo known data errors
 </code> </code>
  
Ligne 238: Ligne 268:
 <code> <code>
 # cat /dev/urandom > /users/user1/randomfile & # cat /dev/urandom > /users/user1/randomfile &
-1658+909
 </code> </code>
  
Ligne 252: Ligne 282:
 pool        alloc   free   read  write   read  write pool        alloc   free   read  write   read  write
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
-mypool      94,6M  92,4M          26    176   321K +mypool      48.6M   193M              172   150K 
-  mirror    94,6M  92,4M          26    176   321K +  mirror    48.6M   193M              172   150K 
-    c0t2d0      -      -      0     26    183   326K +    c0t2d0      -      -      0         230   155K 
-    c0t3d0      -      -      0     26    112   326K+    c0t3d0      -      -      0          58   155K
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
  
Ligne 261: Ligne 291:
 pool        alloc   free   read  write   read  write pool        alloc   free   read  write   read  write
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
-mypool       109M  77,7M         657      0  7,77M +mypool      67.0M   175M          77      0  1.66M 
-  mirror     109M  77,7M      0    657      0  7,77M +  mirror    67.0M   175M      0     77      0  1.66M 
-    c0t2d0      -      -      0    657      0  7,78M +    c0t2d0      -      -      0     54      0  1.66M 
-    c0t3d0      -      -      0    657      0  7,78M+    c0t3d0      -      -      0     54      0  1.66M
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
  
Ligne 270: Ligne 300:
 pool        alloc   free   read  write   read  write pool        alloc   free   read  write   read  write
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
-mypool       131M  56,5M         510      0  4,69M +mypool      78.6M   163M         157      0  3.65M 
-  mirror     131M  56,5M         510      0  4,69M +  mirror    78.6M   163M         157      0  3.65M 
-    c0t2d0      -      -      0    506      0  4,70M +    c0t2d0      -      -      0     89      0  3.66M 
-    c0t3d0      -      -      0    507      0  4,70M+    c0t3d0      -      -      0     90      0  3.74M
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
  
Ligne 279: Ligne 309:
 pool        alloc   free   read  write   read  write pool        alloc   free   read  write   read  write
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
-mypool       137M  50,3M         588      0  3,77M +mypool      98.8M   143M         118      0  1.77M 
-  mirror     137M  50,3M         588      0  3,77M +  mirror    98.8M   143M         118      0  1.77M 
-    c0t2d0      -      -      0    542      0  3,78M +    c0t2d0      -      -      0     64      0  1.77M 
-    c0t3d0      -      -      0    555      0  3,78M+    c0t3d0      -      -      0     64      0  1.75M
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
  
Ligne 288: Ligne 318:
 pool        alloc   free   read  write   read  write pool        alloc   free   read  write   read  write
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
-mypool       138M  48,9M         515      0  2,63M +mypool       111M   131M         290      0  3.87M 
-  mirror     138M  48,9M         515      0  2,63M +  mirror     111M   131M         290      0  3.87M 
-    c0t2d0      -      -      0    423      0  2,64M +    c0t2d0      -      -      0    139      0  3.88M 
-    c0t3d0      -      -      0    419      0  2,64M+    c0t3d0      -      -      0    139      0  3.88M
 ----------  -----  -----  -----  -----  -----  ----- ----------  -----  -----  -----  -----  -----  -----
  
Ligne 303: Ligne 333:
 Tuez maintenant le processus **randomfile** : Tuez maintenant le processus **randomfile** :
  
-  # kill -9 PID [Entrée]+<code> 
 +^C# kill -9 909 
 +#  
 +</code>
  
 Supprimez le fichier **/users/user1/randomfile**: Supprimez le fichier **/users/user1/randomfile**:
Ligne 309: Ligne 342:
 <code> <code>
 # rm -rf /users/user1/randomfile # rm -rf /users/user1/randomfile
-1658 Tué+909 Killed
 </code> </code>
  
 ====Le Mise en Place d'un Quota pour un Utilisateur==== ====Le Mise en Place d'un Quota pour un Utilisateur====
  
-Afin de mettre en palce un quota pour un utilisateur, vous devez utiliser la sous-commande **set** de la commande **zpool** :+Afin de mettre en place un quota pour un utilisateur, vous devez utiliser la sous-commande **set** de la commande **zpool** :
  
 <code> <code>
 # zfs set quota=50M mypool/home/user1 # zfs set quota=50M mypool/home/user1
-# zfs get quota mypool 
-NAME    PROPERTY  VALUE  SOURCE 
-mypool  quota     none   default 
 # zfs list # zfs list
-NAME                USED  AVAIL  REFER  MOUNTPOINT +NAME               USED  AVAIL  REFER  MOUNTPOINT 
-mypool              784K   154M    31K  /mypool +mypool             390K   210M    31K  /mypool 
-mypool/home          63K   154M    32K  /users +mypool/home         63K   210M    32K  /users 
-mypool/home/user1    31K  50,0M    31K  /users/user1+mypool/home/user1   31K  50.0M    31K  /users/user1
 </code> </code>
  
-<WRAP center round important 60%> +Créez maintenant un fichier de données aléatoires :
-Notez la mise en place du quota de 50Mo sur /mypool/home/user1. +
-</WRAP> +
- +
-Créez maintenant un fichier de donnnées aléatoires :+
  
 <code> <code>
 # cat /dev/urandom > /users/user1/testfile # cat /dev/urandom > /users/user1/testfile
-cat : erreur en sortie (0 caractères sur 1040 ont été écrits+cat: output error (0/1040 characters written
-Quota disque dépassé+Disc quota exceeded
 </code> </code>
- 
-<WRAP center round important 60%> 
-Notez la phrase **Quota disque dépassé**. 
-</WRAP> 
  
 Constatez que l'espace disque disponible dans /users/user1 est de 0 : Constatez que l'espace disque disponible dans /users/user1 est de 0 :
Ligne 349: Ligne 371:
 # zfs list mypool/home/user1 # zfs list mypool/home/user1
 NAME                USED  AVAIL  REFER  MOUNTPOINT NAME                USED  AVAIL  REFER  MOUNTPOINT
-mypool/home/user1  50,1M      0  50,1M  /users/user1+mypool/home/user1  50.1M      0  50.1M  /users/user1
 </code> </code>
  
Ligne 382: Ligne 404:
  
 <code> <code>
-# zfs snapshot mypool/home/user1@Dec13+# zfs snapshot mypool/home/user1@snapshot1
 </code> </code>
  
Ligne 390: Ligne 412:
 # ls -l /users/user1/.zfs/snapshot # ls -l /users/user1/.zfs/snapshot
 total 3 total 3
-drwxr-xr-x   2 root     root           juin  18:59 Dec13+drwxr-xr-x   2 root     root           Dec  17:30 snapshot1
 </code> </code>
  
Ligne 396: Ligne 418:
  
 <code> <code>
-# ls -l /users/user1/.zfs/snapshot/Dec13/+# ls -l /users/user1/.zfs/snapshot/snapshot1/
 total 2 total 2
--rw-r--r--   1 root     root          43 juin  18:59 snapshot1+-rw-r--r--   1 root     root          43 Dec  17:30 snapshot1
 </code> </code>
  
-Il est important à noter que le répertoire .zfs ne peut pas être lister par la commande ls, même en utilisant l'option **-a** :+Il est important à noter que le répertoire .zfs ne peut pas être listé par la commande ls, même en utilisant l'option **-a** :
  
 <code> <code>
Ligne 407: Ligne 429:
 /users/user1: /users/user1:
 total 8 total 8
-drwxr-xr-x   2 root     root           juin  18:59 +drwxr-xr-x   2 root     root           Dec  17:30 
-drwxr-xr-x   3 root     root           juin  18:48 .. +drwxr-xr-x   3 root     root           Dec  15:26 .. 
--rw-r--r--   1 root     root          43 juin  18:59 snapshot1+-rw-r--r--   1 root     root          43 Dec  17:30 snapshot1
 </code> </code>
  
Ligne 415: Ligne 437:
  
 <code> <code>
-# zfs snapshot -r mypool@Dec13-1+# zfs snapshot -r mypool@snapshot2
 </code> </code>
  
Ligne 422: Ligne 444:
 <code> <code>
 # ls /users/.zfs/snapshot # ls /users/.zfs/snapshot
-Dec13-1+snapshot2
 # ls /users/user1/.zfs/snapshot # ls /users/user1/.zfs/snapshot
-Dec13    Dec13-1+snapshot1  snapshot2
 </code> </code>
  
Ligne 431: Ligne 453:
 <code> <code>
 # zfs list -t snapshot -r mypool # zfs list -t snapshot -r mypool
-NAME                        USED  AVAIL  REFER  MOUNTPOINT +NAME                         USED  AVAIL  REFER  MOUNTPOINT 
-mypool@Dec13-1                 0      -    31K  - +mypool@snapshot2                0      -    31K  - 
-mypool/home@Dec13-1            0      -    32K  - +mypool/home@snapshot2           0      -    32K  - 
-mypool/home/user1@Dec13        0      -  31,5K  - +mypool/home/user1@snapshot1     0      -  31.5K  - 
-mypool/home/user1@Dec13-1      0      -  31,5K  -+mypool/home/user1@snapshot2     0      -  31.5K  -
 </code> </code>
  
Ligne 444: Ligne 466:
 # ls -l /users/user1 # ls -l /users/user1
 total 3 total 3
--rw-r--r--   1 root     root          43 juin  18:59 snapshot1 +-rw-r--r--   1 root     root          43 Dec  17:30 snapshot1 
--rw-r--r--   1 root     root          44 juin  19:07 snapshot2+-rw-r--r--   1 root     root          44 Dec  17:36 snapshot2
 </code> </code>
  
Ligne 451: Ligne 473:
  
 <code> <code>
-# zfs snapshot -r mypool@Dec13-2+# zfs snapshot -r mypool@snapshot3
 # zfs list -t snapshot -r mypool # zfs list -t snapshot -r mypool
-NAME                        USED  AVAIL  REFER  MOUNTPOINT +NAME                         USED  AVAIL  REFER  MOUNTPOINT 
-mypool@Dec13-1                 0      -    31K  - +mypool@snapshot2                0      -    31K  - 
-mypool@Dec13-2                 0      -    31K  - +mypool@snapshot3                0      -    31K  - 
-mypool/home@Dec13-1            0      -    32K  - +mypool/home@snapshot2           0      -    32K  - 
-mypool/home@Dec13-2            0      -    32K  - +mypool/home@snapshot3           0      -    32K  - 
-mypool/home/user1@Dec13        0      -  31,5K  - +mypool/home/user1@snapshot1     0      -  31.5K  - 
-mypool/home/user1@Dec13-1      0      -  31,5K  - +mypool/home/user1@snapshot2     0      -  31.5K  - 
-mypool/home/user1@Dec13-2      0      -    32K  -+mypool/home/user1@snapshot3     0      -    32K  -
 </code> </code>
  
Ligne 466: Ligne 488:
  
 <code> <code>
-# zfs diff mypool/home/user1@Dec13-1 mypool/home/user1@Dec13-2+# zfs diff mypool/home/user1@snapshot2 mypool/home/user1@snapshot3
 M       /users/user1/ M       /users/user1/
 +       /users/user1/snapshot2 +       /users/user1/snapshot2
Ligne 483: Ligne 505:
 | - | Supprimé | | - | Supprimé |
  
-NOtez que vous ne pouvez pas comparer les snapshots dans l'ordre inverse :+Notez que vous ne pouvez pas comparer les snapshots dans l'ordre inverse :
  
 <code> <code>
-# zfs diff mypool/home/user1@Dec13-2 mypool/home/user1@Dec13-1 +# zfs diff mypool/home/user1@snapshot2 mypool/home/user1@snapshot1 
-Unable to obtain diffs: +Unable to obtain diffs: mypool/home/user1@snapshot1 is not a descendant dataset of mypool/home/user1@snapshot2
-   Not an earlier snapshot from the same fs+
 </code> </code>
  
Ligne 497: Ligne 518:
 <code> <code>
 # zfs list -t snapshot -r mypool # zfs list -t snapshot -r mypool
-NAME                        USED  AVAIL  REFER  MOUNTPOINT +NAME                         USED  AVAIL  REFER  MOUNTPOINT 
-mypool@Dec13-1                 0      -    31K  - +mypool@snapshot2                0      -    31K  - 
-mypool@Dec13-2                 0      -    31K  - +mypool@snapshot3                0      -    31K  - 
-mypool/home@Dec13-1            0      -    32K  - +mypool/home@snapshot2           0      -    32K  - 
-mypool/home@Dec13-2            0      -    32K  - +mypool/home@snapshot3           0      -    32K  - 
-mypool/home/user1@Dec13        0      -  31,5K  - +mypool/home/user1@snapshot1     0      -  31.5K  - 
-mypool/home/user1@Dec13-1      0      -  31,5K  - +mypool/home/user1@snapshot2     0      -  31.5K  - 
-mypool/home/user1@Dec13-2      0      -    32K  - +mypool/home/user1@snapshot3     0      -    32K  - 
-# zfs rollback mypool/home/user1@Dec13-1 +# zfs rollback mypool/home/user1@snapshot2 
-impossible de restaurer vers 'mypool/home/user1@Dec13-1' : il existe des instantanés plus récents +cannot rollback to 'mypool/home/user1@snapshot2': more recent snapshots exist 
-utilisez '-r' pour forcer la suppression des instantanés suivants +use '-r' to force deletion of the following snapshots
-mypool/home/user1@Dec13-2+mypool/home/user1@snapshot3
 </code> </code>
  
-Supprimez donc le snapshot **Dec13-2** :+Supprimez donc le snapshot **snapshot3** :
  
 <code> <code>
-# zfs destroy mypool/home/user1@Dec13-2+# zfs destroy mypool/home/user1@snapshot3
 # zfs list -t snapshot -r mypool # zfs list -t snapshot -r mypool
-NAME                        USED  AVAIL  REFER  MOUNTPOINT +NAME                         USED  AVAIL  REFER  MOUNTPOINT 
-mypool@Dec13-1                 0      -    31K  - +mypool@snapshot2                0      -    31K  - 
-mypool@Dec13-2                 0      -    31K  - +mypool@snapshot3                0      -    31K  - 
-mypool/home@Dec13-1            0      -    32K  - +mypool/home@snapshot2           0      -    32K  - 
-mypool/home@Dec13-2            0      -    32K  - +mypool/home@snapshot3           0      -    32K  - 
-mypool/home/user1@Dec13        0      -  31,5K  - +mypool/home/user1@snapshot1     0      -  31.5K  - 
-mypool/home/user1@Dec13-1      0      -  31,5K  -+mypool/home/user1@snapshot2     0      -  31.5K  -
 </code> </code>
  
-Maintenant fair un RollBack vers le snapshot **Dec13-1** :+Maintenant fair un RollBack vers le snapshot **snapshot2** :
  
 <code> <code>
-# zfs rollback mypool/home/user1@Dec13-1+# zfs rollback mypool/home/user1@snapshot2
 # ls -l /users/user1 # ls -l /users/user1
 total 2 total 2
--rw-r--r--   1 root     root          43 juin  18:59 snapshot1+-rw-r--r--   1 root     root          43 Dec  17:30 snapshot1
 </code> </code>
  
 <WRAP center round important 60%> <WRAP center round important 60%>
-Notez l'abscence du fichier **snapshot2**.+Notez l’absence du fichier **snapshot2**.
 </WRAP>  </WRAP> 
  
Ligne 543: Ligne 564:
  
 <code> <code>
-# zfs clone mypool/home/user1@Dec13-1 mypool/home/user3+# zfs clone mypool/home/user1@snapshot2 mypool/home/user3
 # zfs list # zfs list
-NAME                        USED  AVAIL  REFER  MOUNTPOINT +NAME                          USED  AVAIL  REFER  MOUNTPOINT 
-mypool                     25,5M   129M    31K  /mypool +mypool                       25.7M   184M    31K  /mypool 
-mypool@Dec13-1                 0      -    31K  - +mypool@snapshot2                 0      -    31K  - 
-mypool@Dec13-2                 0      -    31K  - +mypool@snapshot3                 0      -    31K  - 
-mypool/home                25,0M   129M    32K  /users +mypool/home                  25.0M   184M    32K  /users 
-mypool/home@Dec13-1                 -    32K  - +mypool/home@snapshot2                 -    32K  - 
-mypool/home@Dec13-2                 -    32K  - +mypool/home@snapshot3                 -    32K  - 
-mypool/home/user1          32,5K  50,0M  31,5K  /users/user1 +mypool/home/user1            32.5K  50.0M  31.5K  /users/user1 
-mypool/home/user1@Dec13        0      -  31,5K  - +mypool/home/user1@snapshot1      0      -  31.5K  - 
-mypool/home/user1@Dec13-1           -  31,5K  - +mypool/home/user1@snapshot2           -  31.5K  - 
-mypool/home/user3             1K   129M  31,5K  /users/user3+mypool/home/user3               1K   184M  31.5K  /users/user3
 </code> </code>
  
Ligne 563: Ligne 584:
 # ls -l /users/user3 # ls -l /users/user3
 total 2 total 2
--rw-r--r--   1 root     root          43 juin  18:59 snapshot1+-rw-r--r--   1 root     root          43 Dec  17:30 snapshot1
 </code> </code>
  
Ligne 583: Ligne 604:
 <code> <code>
 # zpool status mypool # zpool status mypool
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: aucun requis + scan: none requested 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 593: Ligne 614:
             c0t2d0  ONLINE               0             c0t2d0  ONLINE               0
             c0t3d0  ONLINE               0             c0t3d0  ONLINE               0
-        éléments de rechange +        spares 
-          c0t5d0    AVAIL+          c0t5d0    AVAIL    
 + 
 +errors: No known data errors
  
-erreurs : aucune erreur de données connue 
 # zpool replace mypool c0t2d0 c0t4d0 # zpool replace mypool c0t2d0 c0t4d0
 </code> </code>
Ligne 604: Ligne 626:
 <code> <code>
 # zpool status mypool # zpool status mypool
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: resilvered 766K in 0h0m with 0 errors on Sun Jun  21:13:08 2013 + scan: resilvered 646K in 0h0m with 0 errors on Mon Dec  17:51:36 2019 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 614: Ligne 636:
             c0t4d0  ONLINE               0             c0t4d0  ONLINE               0
             c0t3d0  ONLINE               0             c0t3d0  ONLINE               0
-        éléments de rechange +        spares 
-          c0t5d0    AVAIL+          c0t5d0    AVAIL   
  
-erreurs aucune erreur de données connue+errorsNo known data errors
 </code> </code>
  
Ligne 624: Ligne 646:
 </WRAP>  </WRAP> 
  
-====La Déstruction d'un Pool====+====La Destruction d'un Pool====
  
-La déscrution d'un pool est obtenue en utilisant la sous-commande **destroy** de la commande **zpool** :+La destruction d'un pool est obtenue en utilisant la sous-commande **destroy** de la commande **zpool** :
  
 <code> <code>
 # zpool destroy mypool # zpool destroy mypool
-</code> 
- 
-Notez que cette opération détruit aussi les snapshots !! : 
- 
-<code> 
 # zfs list # zfs list
-aucun jeu de données disponible+no datasets available
 </code> </code>
 +
 +<WRAP center round important 60%>
 +Notez que cette opération détruit aussi les snapshots !!
 +</WRAP> 
  
 ====La Création d'un Pool en RAID-5==== ====La Création d'un Pool en RAID-5====
Ligne 646: Ligne 667:
 # zpool create mypool raidz c0t2d0 c0t3d0 c0t4d0 spare c0t5d0 # zpool create mypool raidz c0t2d0 c0t3d0 c0t4d0 spare c0t5d0
 # zpool status mypool # zpool status mypool
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: aucun requis + scan: none requested 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 657: Ligne 678:
             c0t3d0  ONLINE               0             c0t3d0  ONLINE               0
             c0t4d0  ONLINE               0             c0t4d0  ONLINE               0
-        éléments de rechange +        spares 
-          c0t5d0    AVAIL+          c0t5d0    AVAIL   
  
-erreurs aucune erreur de données connue+errorsNo known data errors
 </code> </code>
  
Ligne 668: Ligne 689:
 # zpool destroy mypool # zpool destroy mypool
 </code> </code>
 +
 ====La Création d'un Pool en RAID-6==== ====La Création d'un Pool en RAID-6====
  
Ligne 675: Ligne 697:
 # zpool create mypool raidz2 c0t2d0 c0t3d0 c0t4d0 c0t5d0 spare c0t6d0 # zpool create mypool raidz2 c0t2d0 c0t3d0 c0t4d0 c0t5d0 spare c0t6d0
 # zpool status mypool # zpool status mypool
-  pool : mypool +  pool: mypool 
- état : ONLINE + state: ONLINE 
- scan: aucun requis + scan: none requested 
-configuration :+config:
  
         NAME        STATE     READ WRITE CKSUM         NAME        STATE     READ WRITE CKSUM
Ligne 687: Ligne 709:
             c0t4d0  ONLINE               0             c0t4d0  ONLINE               0
             c0t5d0  ONLINE               0             c0t5d0  ONLINE               0
-        éléments de rechange +        spares 
-          c0t6d0    AVAIL+          c0t6d0    AVAIL   
  
-erreurs aucune erreur de données connue+errorsNo known data errors
 </code> </code>
  
Ligne 699: Ligne 721:
 </code> </code>
  
-====Conculter l'Historique Zpool====+====Consulter l'Historique Zpool====
  
 La sous-commande **history** de la command **zpool** permet de consulter l'historique des actions sur un pool : La sous-commande **history** de la command **zpool** permet de consulter l'historique des actions sur un pool :
Ligne 705: Ligne 727:
 <code> <code>
 # zpool history # zpool history
-Historique de 'mypool': +no pools available
-2013-06-02.21:33:33 zpool create mypool raidz2 c0t2d0 c0t3d0 c0t4d0 c0t5d0 spare c0t6d0+
 </code> </code>
  
Ligne 716: Ligne 737:
 <html> <html>
 <center> <center>
-Copyright © 2019 Hugh Norris.+Copyright © 2020 Hugh Norris.
 </center> </center>
 </html> </html>
Menu