Vous êtes sur la page 1sur 44

21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.

html

Documentation Home > Guide d'administration Oracle Solaris ZFS > Chapitre 4 Gestion des pools de stockage Oracle
Solaris ZFS

Guide d'administration Oracle Solaris ZFS

Précédent : Chapitre 3 Différences entre Oracle Solaris ZFS et le système de fichiers traditionnel
Next : Chapitre 5 Installation et initialisation d'un système de fichiers racine Oracle Solaris ZFS

Chapitre 4 Gestion des pools de stockage Oracle Solaris


ZFS
Ce chapitre explique comment créer et administrer des pools de stockage dans Oracle Solaris ZFS.

Les sections suivantes sont fournies dans ce chapitre:

Composants d'un pool de stockage ZFS

Fonctionnalités de réplication d'un pool de stockage ZFS

Création et destruction de pools de stockage ZFS

Gestion des périphériques dans les pools de stockage ZFS

Gestion des propriétés du pool de stockage ZFS

Interrogation de l'état du pool de stockage ZFS

Migration des pools de stockage ZFS

Mise à niveau des pools de stockage ZFS

Composants d'un pool de stockage ZFS


Les sections suivantes fournissent des informations détaillées sur les composants de pool de stockage suivants:

Utilisation de disques dans un pool de stockage ZFS

Utilisation de tranches dans un pool de stockage ZFS

Utilisation de fichiers dans un pool de stockage ZFS

Utilisation de disques dans un pool de stockage ZFS


L'élément le plus fondamental d'un pool de stockage est le stockage physique. Le stockage physique peut être n’importe
quel périphérique bloc d’au moins 128 Mo. En général, ce périphérique est un disque dur visible par le système dans le
/dev/dskrépertoire.

Un périphérique de stockage peut être un disque entier ( c1t0d0) ou une tranche individuelle ( c0t0d0s7). Le mode de
fonctionnement recommandé consiste à utiliser un disque entier. Dans ce cas, le disque ne nécessite pas de formatage
spécial. ZFS formate le disque en utilisant une étiquette EFI pour contenir une seule et grande tranche. Utilisé de cette
manière, la table de partition affichée par la formatcommande apparaît comme suit:

Table de partition actuelle (originale):


Nombre de secteurs de disque disponibles: 286722878 + 16384 (secteurs réservés)

Part Tag Flag Premier secteur Taille Dernier secteur


0 usr wm 34 136.72GB 286722911
1 non affecté wm 0 0 0
2 non affecté wm 0 0 0
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 1/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
3 non affecté wm 0 0 0
4 non affecté wm 0 0 0
5 non affectés wm 0 0 0
6 non affectés wm 0 0 0
8 réservé wm 286722912 8.00MB 286739295

Pour utiliser un disque entier, le disque doit être nommé en utilisant la /dev/dsk/cNtNdNconvention de dénomination.
Certains pilotes tiers utilisent une convention de dénomination différente ou placent des disques dans un emplacement
autre que le /dev/dskrépertoire. Pour utiliser ces disques, vous devez étiqueter manuellement le disque et fournir une
tranche à ZFS.

ZFS applique une étiquette EFI lorsque vous créez un pool de stockage avec des disques entiers. Pour plus d'informations
sur les étiquettes EFI, voir Étiquette de disque EFI dans le document Guide d'administration système: Périphériques et
systèmes de fichiers .

Un disque destiné à un pool racine ZFS doit être créé avec une étiquette SMI, pas une étiquette EFI. Vous pouvez ré-
étiqueter un disque avec une étiquette SMI en utilisant la format -ecommande.

Les disques peuvent être spécifiés à l'aide du chemin d'accès complet, tel que /dev/dsk/c1t0d0, ou d'un nom abrégé
comprenant le nom du périphérique dans le /dev/dskrépertoire, tel que c1t0d0. Par exemple, les noms de disques valides
sont les suivants:

c1t0d0

/dev/dsk/c1t0d0

/dev/foo/disk

L'utilisation de disques physiques entiers est le moyen le plus simple de créer des pools de stockage ZFS. Les
configurations ZFS deviennent de plus en plus complexes, du point de vue de la gestion, de la fiabilité et des
performances, lorsque vous créez des pools à partir de tranches de disque, de LUN dans des matrices RAID matérielles ou
de volumes présentés par des gestionnaires de volumes logiciels. Les considérations suivantes peuvent vous aider à
déterminer comment configurer ZFS avec d'autres solutions de stockage matériel ou logiciel:

Si vous construisez une configuration ZFS au-dessus des LUN à partir de matrices RAID matérielles, vous devez
comprendre la relation entre les fonctionnalités de redondance ZFS et les fonctionnalités de redondance offertes par
la matrice. Certaines configurations peuvent fournir une redondance et des performances adéquates, mais d'autres
non.

Vous pouvez créer des périphériques logiques pour ZFS à l'aide de volumes présentés par des gestionnaires de
volumes logiciels, tels que Solaris Volume Manager (SVM) ou Veritas Volume Manager (VxVM). Cependant, ces
configurations ne sont pas recommandées. Bien que ZFS fonctionne correctement sur ces périphériques, il peut en
résulter des performances médiocres.

Pour plus d'informations sur les recommandations relatives aux pools de stockage, consultez le site des meilleures
pratiques ZFS:

http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide

Les disques sont identifiés à la fois par leur chemin et par leur ID de périphérique, le cas échéant. Sur les systèmes où les
informations d'identification de périphérique sont disponibles, cette méthode d'identification permet de reconfigurer les
périphériques sans mettre à jour ZFS. La génération et la gestion des ID de périphérique pouvant varier selon les systèmes,
exportez d'abord le pool avant de déplacer des périphériques, par exemple en déplaçant un disque d'un contrôleur à un
autre. Un événement système, tel qu'une mise à jour de microprogramme ou une autre modification matérielle, peut
modifier les ID de périphérique de votre pool de stockage ZFS, ce qui peut entraîner l'indisponibilité des périphériques.

Utilisation de tranches dans un pool de stockage ZFS


Les disques peuvent être étiquetés avec une étiquette SMI (Solaris VTOC) traditionnelle lorsque vous créez un pool de
stockage avec une tranche de disque.

Pour un pool racine ZFS amorçable, les disques du pool doivent contenir des tranches et les disques doivent être étiquetés
avec une étiquette SMI. La configuration la plus simple consisterait à placer la capacité totale du disque dans la tranche 0
et à utiliser cette tranche pour le pool racine.

Sur un système SPARC, un disque de 72 Go dispose de 68 Go d'espace utilisable situé dans la tranche 0, comme indiqué
dans la formatsortie suivante :
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 2/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

# format
.
.
.
Spécifiez le disque (entrez son numéro): 4
sélectionner c1t1d0
partition> p
Table de partition actuelle (originale):
Nombre total de cylindres de disque disponibles: 14087 + 2 (cylindres réservés)

Pièce Tag Drapeau Cylindres Taille Blocs


0 racine wm 0 - 14086 68,35GB (14087/0/0) 143349312
1 non affecté wm 0 0 (0/0/0) 0
2 sauvegarde wm 0 - 14086 68,35 Go (14087/0/0) 143349312
3 non affecté wm 0 0 (0/0/0) 0
4 non affecté wm 0 0 (0/0/0) 0
5 non affecté wm 0 0 (0/0/0) 0
6 non affecté wm 0 0 (0/0/0) 0
7 non affecté wm 0 0 (0/0/0) 0

Sur un système x86, un disque de 72 Go dispose de 68 Go d’espace disque utilisable situé dans la tranche 0, comme
indiqué dans la formatsortie suivante . Une petite quantité d’informations d’amorçage est contenue dans la tranche 8. La
tranche 8 ne nécessite aucune administration et ne peut pas être modifiée.

# format
.
.
.
sélectionner c1t0d0
partition> p
Table de partition actuelle (originale):
Nombre total de cylindres de disque disponibles: 49779 + 2 (cylindres réservés)

Pièce Tag Drapeau Cylindres Taille Blocs


0 racine wm 1 - 49778 68,36 Go (49778/0/0) 143360640
1 non affecté wu 0 0 (0/0/0) 0
2 sauvegarde wm 0 - 49778 68,36 Go (49779/0/0) 143363520
3 non attribué wu 0 0 (0/0/0) 0
4 non affectés wu 0 0 (0/0/0) 0
5 non affectés wu 0 0 (0/0/0) 0
6 non affectés wu 0 0 (0/0/0) 0
7 non attribués wu 0 0 (0/0/0) 0
8 démarrage wu 0 - 0 1,41MB (1/0/0) 2880
9 non attribués wu 0 0 (0/0/0) 0

Utilisation de fichiers dans un pool de stockage ZFS


ZFS vous permet également d'utiliser des fichiers UFS en tant que périphériques virtuels dans votre pool de stockage.
Cette fonctionnalité vise principalement à tester et à permettre une expérimentation simple, mais pas pour une utilisation
en production. La raison en est que toute utilisation de fichiers dépend du système de fichiers sous-jacent pour la
cohérence . Si vous créez un pool ZFS sauvegardé par des fichiers sur un système de fichiers UFS, vous vous fiez
implicitement à UFS pour garantir l'exactitude et la sémantique synchrone.

Toutefois, les fichiers peuvent s'avérer très utiles lorsque vous testez ZFS pour la première fois ou que vous expérimentez
des configurations plus complexes lorsque le nombre de périphériques physiques est insuffisant. Tous les fichiers doivent
être spécifiés comme chemins complets et doivent avoir une taille minimale de 64 Mo.

Fonctionnalités de réplication d'un pool de stockage ZFS


ZFS fournit la redondance des données, ainsi que des propriétés d'auto-restauration, dans les configurations en miroir et
RAID-Z.

Configuration du pool de stockage mis en miroir

Configuration du pool de stockage RAID-Z


Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 3/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Données d'auto-guérison dans une configuration redondante

Répartition dynamique dans un pool de stockage

Pool de stockage hybride ZFS

Configuration du pool de stockage mis en miroir


Une configuration de pool de stockage mis en miroir nécessite au moins deux disques, de préférence sur des contrôleurs
distincts. De nombreux disques peuvent être utilisés dans une configuration en miroir. En outre, vous pouvez créer
plusieurs miroirs dans chaque pool. Conceptuellement, une configuration de base en miroir ressemblerait à ce qui suit:

miroir c1t0d0 c2t0d0

Conceptuellement, une configuration en miroir plus complexe ressemblerait à ce qui suit:

miroir c1t0d0 c2t0d0 c3t0d0 miroir c4t0d0 c5t0d0 c6t0d0

Pour plus d'informations sur la création d'un pool de stockage en miroir, voir Création d'un pool de stockage en miroir .

Configuration du pool de stockage RAID-Z


Outre la configuration d'un pool de stockage mis en miroir, ZFS fournit une configuration RAID-Z avec une tolérance de
panne à une, deux ou trois parités. RAID-Z à parité unique ( raidz ou raidz1 ) est similaire à RAID-5. La double parité
RAID-Z ( raidz2 ) est similaire à RAID-6.

Pour plus d'informations sur RAIDZ-3 ( raidz3 ), consultez le blog suivant:


http://blogs.sun.com/ahl/entry/triple_parity_raid_z

Tous les algorithmes de type RAID-5 traditionnels (RAID-4, RAID-6, RDP et EVEN-ODD, par exemple) peuvent
rencontrer un problème appelé «trou d’écriture RAID-5». Si seulement une partie d’un RAID-5 la bande est écrite et la
puissance est perdue avant que tous les blocs aient été écrits sur le disque; la parité restera non synchronisée avec les
données, et donc à jamais inutile (sauf si une écriture en bande complète ultérieure la remplace). Dans RAID-Z, ZFS utilise
des bandes RAID de largeur variable, de sorte que toutes les écritures sont des écritures de bande complète. Cette
conception est uniquement possible car ZFS intègre la gestion des systèmes de fichiers et des périphériques de manière à
ce que les métadonnées du système de fichiers disposent d'informations suffisantes sur le modèle de redondance des
données sous-jacent pour gérer les bandes RAID de largeur variable. RAID-Z est la première solution au monde
uniquement logicielle au trou d’écriture RAID-5.

Une configuration RAID-Z avec N disques de taille X avec P disques de parité peut contenir environ (NP) * X octets et
résister aux défaillances de P périphériques avant que l'intégrité des données ne soit compromise. Vous avez besoin d'au
moins deux disques pour une configuration RAID-Z à parité unique et d'au moins trois disques pour une configuration
RAID-Z à double parité. Par exemple, si vous avez trois disques dans une configuration RAID-Z à parité unique, les
données de parité occupent un espace disque égal à l'un des trois disques. Sinon, aucun matériel spécial n'est requis pour
créer une configuration RAID-Z.

Conceptuellement, une configuration RAID-Z avec trois disques ressemblerait à ce qui suit:

raidz c1t0d0 c2t0d0 c3t0d0

Conceptuellement, une configuration RAID-Z plus complexe ressemblerait à ce qui suit:

raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0 c6t0d0 c7t0d0 c3t0d0 raidz c8t0d0 c9t0d0 c10t0d0 c11t0d0
c12t0d0 c13t0d0 c14t0d0

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 4/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Si vous créez une configuration RAID-Z avec plusieurs disques, envisagez de scinder les disques en plusieurs groupes. Par
exemple, une configuration RAID-Z avec 14 disques est mieux divisée en deux groupes de 7 disques. Les configurations
RAID-Z avec des groupes de disques à un chiffre devraient mieux fonctionner.

Pour plus d'informations sur la création d'un pool de stockage RAID-Z, voir Création d'un pool de stockage RAID-Z .

Pour plus d'informations sur le choix entre une configuration en miroir ou une configuration RAID-Z en fonction de
considérations de performances et d'espace disque, voir l'entrée de blog suivante:

http://blogs.sun.com/roch/entry/when_to_and_not_to

Pour plus d'informations sur les recommandations de pool de stockage RAID-Z, consultez le site des meilleures pratiques
ZFS:
http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide

Pool de stockage hybride ZFS


Le pool de stockage hybride ZFS, disponible dans la gamme de produits Sun Storage 7000 d’Oracle, est un pool de
stockage spécial qui combine DRAM, SSD et disques durs, afin d’améliorer les performances et d’augmenter la capacité,
tout en réduisant la consommation d’énergie. Avec l'interface de gestion de ce produit, vous pouvez sélectionner la
configuration de redondance ZFS du pool de stockage et gérer facilement d'autres options de configuration.

Pour plus d'informations sur ce produit, reportez-vous au Guide d'administration de Sun Storage Unified Storage .

Données d'auto-guérison dans une configuration redondante


ZFS fournit des données à réparation automatique dans une configuration en miroir ou RAID-Z.

Lorsqu'un bloc de données incorrect est détecté, non seulement ZFS récupère les données correctes d'une autre copie
redondante, mais il répare également les données incorrectes en les remplaçant par la copie correcte.

Répartition dynamique dans un pool de stockage


ZFS répartit de manière dynamique les données sur tous les périphériques virtuels de niveau supérieur. Le choix de
l'emplacement des données est effectué au moment de l'écriture. Aucune bande de largeur fixe n'est donc créée au moment
de l'attribution.

Lorsque de nouveaux périphériques virtuels sont ajoutés à un pool, ZFS alloue progressivement des données au nouveau
périphérique afin de maintenir les stratégies de performance et d'allocation d'espace disque. Chaque périphérique virtuel
peut également être un miroir ou un périphérique RAID-Z contenant d'autres périphériques de disque ou fichiers. Cette
configuration vous permet de contrôler les caractéristiques d'erreur de votre pool. Par exemple, vous pouvez créer les
configurations suivantes sur quatre disques:

Quatre disques utilisant la répartition dynamique

Une configuration RAID-Z à quatre voies

Deux miroirs bidirectionnels utilisant la répartition dynamique

Bien que ZFS prenne en charge la combinaison de différents types de périphériques virtuels dans le même pool, évitez
cette pratique. Par exemple, vous pouvez créer un pool avec un miroir bidirectionnel et une configuration RAID-Z à trois
voies. Cependant, votre tolérance aux pannes est aussi bonne que votre pire périphérique virtuel, RAID-Z dans ce cas. Une
meilleure pratique consiste à utiliser des périphériques virtuels de niveau supérieur du même type avec le même niveau de
redondance dans chaque périphérique.

Création et destruction de pools de stockage ZFS


Les sections suivantes décrivent différents scénarios de création et de destruction de pools de stockage ZFS:

Création d'un pool de stockage ZFS

Affichage des informations sur le périphérique virtuel du pool de stockage

Gestion des erreurs de création de pool de stockage ZFS


Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 5/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Détruire des pools de stockage ZFS

Créer et détruire des piscines est rapide et facile. Cependant, soyez prudent lorsque vous effectuez ces opérations. Bien que
des vérifications soient effectuées pour empêcher l'utilisation de périphériques dont l'utilisation est connue dans un
nouveau pool, ZFS ne peut pas toujours savoir quand un périphérique est déjà utilisé. Détruire une piscine est plus facile
que d'en créer une. Utilisez zpool destroyavec prudence. Cette simple commande a des conséquences importantes.

Création d'un pool de stockage ZFS


Pour créer un pool de stockage, utilisez la zpool createcommande. Cette commande prend un nom de pool et un nombre
quelconque de périphériques virtuels comme arguments. Le nom du pool doit satisfaire aux exigences de dénomination
décrites dans Exigences de dénomination de composant ZFS .

Création d'un pool de stockage de base


La commande suivante crée un nouveau pool nommé tankcomprenant les disques c1t0d0et c1t1d0:

# zpool create tank c1t0d0 c1t1d0

Les noms de périphériques représentant l'intégralité des disques se trouvent dans le /dev/dskrépertoire et sont étiquetés de
manière appropriée par ZFS pour contenir une seule et grande tranche. Les données sont réparties dynamiquement sur les
deux disques.

Création d'un pool de stockage en miroir

Pour créer un pool en miroir, utilisez le mot-clé mirror , suivi du nombre de périphériques de stockage compris dans le
miroir. Plusieurs miroirs peuvent être spécifiés en répétant le mot clé mirror sur la ligne de commande. La commande
suivante crée un pool avec deux miroirs bidirectionnels:

# zpool create tank mirror c1d0 c2d0 mirror c3d0 c4d0

Le deuxième mot-clé miroir indique qu'un nouveau périphérique virtuel de niveau supérieur est spécifié. Les données sont
réparties de manière dynamique sur les deux miroirs, les données étant redondantes entre chaque disque.

Pour plus d'informations sur les configurations en miroir recommandées, consultez le site suivant:

http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide

Actuellement, les opérations suivantes sont prises en charge dans une configuration en miroir ZFS:

Ajout d'un autre ensemble de disques pour un périphérique virtuel de niveau supérieur (vdev) supplémentaire à une
configuration en miroir existante. Pour plus d'informations, voir Ajout de périphériques à un pool de stockage .

Connexion de disques supplémentaires à une configuration en miroir existante. Vous pouvez également connecter
des disques supplémentaires à une configuration non répliquée pour créer une configuration en miroir. Pour plus
d'informations, voir Connexion et déconnexion de périphériques dans un pool de stockage .

Remplacement d'un ou de plusieurs disques dans une configuration en miroir existante, à condition que les disques
de remplacement soient supérieurs ou égaux à la taille du périphérique à remplacer. Pour plus d'informations, voir
Remplacement de périphériques dans un pool de stockage .

Détacher un disque dans une configuration en miroir tant que les périphériques restants offrent une redondance
adéquate pour la configuration. Pour plus d'informations, voir Connexion et déconnexion de périphériques dans un
pool de stockage .

Fractionnement d'une configuration en miroir en détachant l'un des disques pour créer un nouveau pool identique.
Pour plus d'informations, voir Création d'un nouveau pool en scindant un pool de stockage ZFS en miroir .

Vous ne pouvez pas supprimer directement un périphérique autre qu'un journal ou un périphérique de cache d'un pool de
stockage mis en miroir. Un RFE est déposé pour cette fonctionnalité.
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 6/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Création d'un pool racine ZFS

Vous pouvez installer et démarrer à partir d'un système de fichiers racine ZFS. Consultez les informations de configuration
du pool racine suivantes:

Les disques utilisés pour le pool racine doivent porter une étiquette VTOC (SMI) et le pool doit être créé avec des
tranches de disque.

Le pool racine doit être créé en tant que configuration en miroir ou en tant que configuration à disque unique. Vous
ne pouvez pas ajouter de disques supplémentaires pour créer plusieurs périphériques virtuels de niveau supérieur mis
en miroir à l'aide de la zpool addcommande, mais vous pouvez développer un périphérique virtuel en miroir à l'aide
de la zpool attachcommande.

Une configuration RAID-Z ou par bandes n'est pas prise en charge.

Le pool racine ne peut pas avoir un périphérique de journal distinct.

Si vous essayez d'utiliser une configuration non prise en charge pour un pool racine, des messages semblables à
ceux-ci s'affichent:

ERREUR: le pool ZFS <nom-pool> ne prend pas en charge les environnements d'initialisation

# zpool add -f rpool log c0t6d0s0


ne peut pas ajouter à 'rpool': le pool racine ne peut pas avoir plusieurs vdevs ou journaux séparés

Pour plus d'informations sur l'installation et le démarrage d'un système de fichiers racine ZFS, reportez-vous au Chapitre 5,
Installation et initialisation d'un système de fichiers racine Oracle Solaris ZFS .

Création d'un pool de stockage RAID-Z

La création d'un pool RAID-Z à parité unique est identique à la création d'un pool en miroir, à la différence que le mot-clé
raidz ou raidz1 est utilisé à la place de miroir . L'exemple suivant montre comment créer un pool avec un seul
périphérique RAID-Z composé de cinq disques:

# zpool create tank raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 /dev/dsk/c5t0d0

Cet exemple montre que les disques peuvent être spécifiés à l'aide de leurs noms de périphérique abrégés ou de leurs noms
de périphérique complets. Les deux /dev/dsk/c5t0d0et c5t0d0font référence au même disque.

Vous pouvez créer une configuration RAID-Z à double parité ou à triple parité à l'aide du mot clé raidz2 ou raidz3 lors de
la création du pool. Par exemple:

# zpool create tank raidz2 c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0


#zpool status -v tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
raidz2-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c2t0d0 EN LIGNE 0 0 0
c3t0d0 EN LIGNE 0 0 0
c4t0d0 EN LIGNE 0 0 0
c5t0d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 7/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

# zpool create tank raidz3 c0t0d0 c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0 c6t0d0 c7t0d0
#zpool status -v tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
raidz3-0 EN LIGNE 0 0 0
c0t0d0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c2t0d0 EN LIGNE 0 0 0
c3t0d0 EN LIGNE 0 0 0
c4t0d0 EN LIGNE 0 0 0
c5t0d0 EN LIGNE 0 0 0
c6t0d0 EN LIGNE 0 0 0
c7t0d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Actuellement, les opérations suivantes sont prises en charge dans une configuration ZFS RAID-Z:

Ajout d'un autre jeu de disques pour un périphérique virtuel de niveau supérieur supplémentaire à une configuration
RAID-Z existante. Pour plus d'informations, voir Ajout de périphériques à un pool de stockage .

Remplacement d'un ou de plusieurs disques dans une configuration RAID-Z existante, à condition que les disques de
remplacement soient supérieurs ou égaux à la taille du périphérique à remplacer. Pour plus d'informations, voir
Remplacement de périphériques dans un pool de stockage .

Actuellement, les opérations suivantes ne sont pas prises en charge dans une configuration RAID-Z:

Connexion d’un disque supplémentaire à une configuration RAID-Z existante.

Détachement d'un disque d'une configuration RAID-Z, sauf lorsque vous détachez un disque remplacé par un disque
de rechange.

Vous ne pouvez pas supprimer directement un périphérique qui n'est pas un journal ou un périphérique de cache
d'une configuration RAID-Z. Un RFE est déposé pour cette fonctionnalité.

Pour plus d'informations sur une configuration RAID-Z, voir Configuration du pool de stockage RAID-Z .

Création d'un pool de stockage ZFS avec des périphériques de journal

Par défaut, le ZIL est alloué à partir de blocs du pool principal. Toutefois, de meilleures performances pourraient être
possibles en utilisant des unités de journal d'intention distinctes, telles que la NVRAM ou un disque dédié. Pour plus
d'informations sur les périphériques de journal ZFS, voir Configuration de périphériques de journal ZFS distincts .

Vous pouvez configurer un périphérique de journal ZFS lors de la création du pool de stockage ou après la création du
pool.

L'exemple suivant montre comment créer un pool de stockage mis en miroir avec des périphériques de journal mis en
miroir:

# zpool create datap mirror c1t1d0 c1t2d0 mirror c1t3d0 c1t4d0 log mirror c1t5d0 c1t8d0
#zpool status datap
piscine: datap
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


datap EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
mirror-1 ONLINE 0 0 0
c1t3d0 EN LIGNE 0 0 0
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 8/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
c1t4d0 EN LIGNE 0 0 0
les journaux
mirror-2 EN LIGNE 0 0 0
c1t5d0 EN LIGNE 0 0 0
c1t8d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Pour plus d'informations sur la récupération après une défaillance d'un périphérique de journal, voir Exemple 11–2 .

Création d'un pool de stockage ZFS avec des périphériques de cache

Vous pouvez créer un pool de stockage avec des périphériques de cache pour mettre en cache les données du pool de
stockage. Par exemple:

# zpool create tank mirror c2t0d0 c2t1d0 c2t3d0 cache c2t5d0 c2t8d0
#zpool status tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c2t0d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0
cache
c2t5d0 EN LIGNE 0 0 0
c2t8d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Prenez en compte les points suivants lors de la détermination de la création d'un pool de stockage ZFS avec des
périphériques de cache:

L'utilisation de périphériques de cache offre les améliorations les plus importantes en termes de performances pour
les charges de travail à lecture aléatoire composées principalement de contenu statique.

La capacité et les lectures peuvent être contrôlées à l'aide de la zpool iostatcommande.

Un ou plusieurs périphériques de cache peuvent être ajoutés lors de la création du pool. Ils peuvent également être
ajoutés et supprimés une fois le pool créé. Pour plus d'informations, voir Exemple 4–4 .

Les périphériques de cache ne peuvent pas être mis en miroir ou faire partie d'une configuration RAID-Z.

Si une erreur de lecture est rencontrée sur un périphérique de cache, cette E / S de lecture est réémise vers le
périphérique de pool de stockage d'origine, qui peut faire partie d'une configuration en miroir ou RAID-Z. Le
contenu des périphériques de cache est considéré comme volatile, similaire aux autres caches système.

Affichage des informations sur le périphérique virtuel du pool de stockage


Chaque pool de stockage contient un ou plusieurs périphériques virtuels. Un périphérique virtuel est une représentation
interne du pool de stockage décrivant la structure du stockage physique et les caractéristiques d'erreur du pool de stockage.
En tant que tel, un périphérique virtuel représente les périphériques de disque ou les fichiers utilisés pour créer le pool de
stockage. Un pool peut avoir un nombre quelconque de périphériques virtuels en haut de la configuration, appelé vdev de
niveau supérieur .

Si le périphérique virtuel de niveau supérieur contient deux périphériques physiques ou plus, la configuration permet la
redondance des données en tant que périphériques virtuels en miroir ou RAID-Z. Ces périphériques virtuels sont constitués
de disques, de tranches de disque ou de fichiers. Un disque de secours est un outil virtuel spécial qui suit les disques de
secours disponibles pour un pool.

L'exemple suivant montre comment créer un pool composé de deux périphériques virtuels de niveau supérieur, chacun
représentant un miroir de deux disques:
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 9/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

# zpool create tank mirror c1d0 c2d0 mirror c3d0 c4d0

L'exemple suivant montre comment créer un pool constitué d'un périphérique virtuel de niveau supérieur sur quatre
disques:

# zpool create mypool raidz2 c1d0 c2d0 c3d0 c4d0

Vous pouvez ajouter un autre périphérique virtuel de niveau supérieur à ce pool à l'aide de la zpool addcommande. Par
exemple:

# zpool add mypool raidz2 c2d1 c3d1 c4d1 c5d1

Les disques, les tranches de disque ou les fichiers utilisés dans des pools non redondants fonctionnent comme des
périphériques virtuels de niveau supérieur. Les pools de stockage contiennent généralement plusieurs périphériques virtuels
de niveau supérieur. ZFS répartit de manière dynamique les données entre tous les périphériques virtuels de niveau
supérieur d'un pool.

Les périphériques virtuels et les périphériques physiques contenus dans un pool de stockage ZFS sont affichés avec la
zpool statuscommande. Par exemple:

# zpool status tank


piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
mirror-1 ONLINE 0 0 0
c0t2d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
mirror-2 EN LIGNE 0 0 0
c0t3d0 EN LIGNE 0 0 0
c1t3d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Gestion des erreurs de création de pool de stockage ZFS


Des erreurs de création de pool peuvent se produire pour plusieurs raisons. Certaines raisons sont évidentes, par exemple
lorsqu'un périphérique spécifié n'existe pas, alors que d'autres sont plus subtiles.

Détecter les périphériques en cours d'utilisation

Avant de formater un périphérique, ZFS détermine d’abord si le disque est utilisé par ZFS ou par une autre partie du
système d’exploitation. Si le disque est en cours d'utilisation, des erreurs telles que les suivantes peuvent s'afficher:

# zpool create tank c1t0d0 c1t1d0


spécification vdev invalide
utilisez '-f' pour remplacer les erreurs suivantes:
/ dev / dsk / c1t0d0s0 est actuellement monté sur /. S'il vous plaît voir umount (1M).
/ dev / dsk / c1t0d0s1 est actuellement monté sur swap. S'il vous plaît voir swap (1M).
/ dev / dsk / c1t1d0s0 fait partie du zeepool du pool ZFS actif. S'il vous plaît voir zpool (1M).

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 10/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Certaines erreurs peuvent être remplacées à l'aide de l' -foption, mais la plupart des erreurs ne le peuvent pas. Les
conditions suivantes ne peuvent pas être remplacées à l'aide de l' -foption et vous devez les corriger manuellement:

Système de fichiers monté

Le disque ou l'une de ses tranches contient un système de fichiers actuellement monté. Pour corriger cette erreur,
utilisez la umountcommande.

Système de fichiers dans / etc / vfstab

Le disque contient un système de fichiers répertorié dans le /etc/vfstabfichier, mais le système de fichiers n'est pas
actuellement monté. Pour corriger cette erreur, supprimez ou commentez la ligne dans le /etc/vfstabfichier.

Dispositif de vidage dédié

Le disque est utilisé en tant que périphérique de vidage dédié pour le système. Pour corriger cette erreur, utilisez la
dumpadmcommande.

Partie d'un pool ZFS

Le disque ou le fichier fait partie d'un pool de stockage ZFS actif. Pour corriger cette erreur, utilisez la zpool
destroycommande pour détruire l’autre pool, si cela n’est plus nécessaire. Ou utilisez la zpool detachcommande
pour détacher le disque de l'autre pool. Vous pouvez uniquement détacher un disque d'un pool de stockage en miroir.

Les vérifications en cours d'utilisation suivantes constituent des avertissements utiles et peuvent être remplacées à l'aide de
l' -foption permettant de créer le pool:

Contient un système de fichiers

Le disque contient un système de fichiers connu, même s'il n'est pas monté et ne semble pas être utilisé.

Partie de volume

Le disque fait partie d'un volume Solaris Volume Manager.

Mise à jour en direct

Le disque est utilisé comme environnement de démarrage alternatif pour Oracle Solaris Live Upgrade.

Partie du pool ZFS exporté

Le disque fait partie d'un pool de stockage qui a été exporté ou supprimé manuellement d'un système. Dans ce
dernier cas, le pool est signalé comme potentiellement actif , car le disque peut être ou non un lecteur connecté au
réseau utilisé par un autre système. Soyez prudent lorsque vous surchargez un pool potentiellement actif.

L'exemple suivant montre comment l' -foption est utilisée:

# zpool create tank c1t0d0


spécification vdev invalide
utilisez '-f' pour remplacer les erreurs suivantes:
/ dev / dsk / c1t0d0s0 contient un système de fichiers ufs.
# zpool create -f tank c1t0d0

Idéalement, corrigez les erreurs plutôt que d’utiliser l’ -foption pour les remplacer.

Niveaux de réplication incompatibles


La création de pools avec des périphériques virtuels de différents niveaux de réplication n'est pas recommandée. La
zpoolcommande tente de vous empêcher de créer accidentellement un pool avec des niveaux de redondance incompatibles.
Si vous essayez de créer un pool avec une telle configuration, vous verrez des erreurs similaires à celles-ci:

# zpool create tank c1t0d0 mirror c2t0d0 c3t0d0


spécification vdev invalide
utilisez '-f' pour remplacer les erreurs suivantes:
niveau de réplication incompatible: les disques vdev et les disques miroirs sont présents
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 11/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
# zpool create tank mirror c1t0d0 c2t0d0 mirror c3t0d0 c4t0d0 c5t0d0
spécification vdev invalide
utilisez '-f' pour remplacer les erreurs suivantes:
Niveau de réplication incompatible: vdevs miroir à deux et miroir à trois voies sont présents

Vous pouvez remplacer ces erreurs avec l' -foption, mais vous devriez éviter cette pratique. La commande vous avertit
également de la création d'un pool en miroir ou RAID-Z à l'aide de périphériques de tailles différentes. Bien que cette
configuration soit autorisée, des niveaux de redondance incompatibles entraînent un espace disque inutilisé sur le
périphérique plus grand. L' -foption est requise pour ignorer l'avertissement.

Création d'un groupe de stockage à sec

Les tentatives de création d'un pool peuvent échouer de manière inattendue de différentes manières et le formatage des
disques est une action potentiellement dommageable. Pour ces raisons, la zpool createcommande comporte une option
supplémentaire -n, qui simule la création du pool sans écrire réellement sur le périphérique. Cette option d' exécution à sec
effectue la vérification en cours d'utilisation du périphérique et la validation au niveau de la réplication, et signale les
erreurs éventuelles du processus. Si aucune erreur n'est trouvée, vous obtenez une sortie semblable à celle-ci:

# zpool create -n tank mirror c1t0d0 c1t1d0


créerait 'tank' avec la disposition suivante:

réservoir
miroir
c1t0d0
c1t1d0

Certaines erreurs ne peuvent pas être détectées sans créer réellement le pool. L'exemple le plus courant consiste à spécifier
deux fois le même périphérique dans la même configuration. Cette erreur ne peut pas être détectée de manière fiable sans
écrire réellement les données. La zpool create -ncommande peut ainsi signaler la réussite sans parvenir à créer le pool
lorsque la commande est exécutée sans cette option.

Point de montage par défaut pour les pools de stockage


Lors de la création d'un pool, le point de montage par défaut de l'ensemble de données de niveau supérieur est / pool-name
. Ce répertoire ne doit pas exister ou être vide. Si le répertoire n'existe pas, il est créé automatiquement. Si le répertoire est
vide, le jeu de données racine est monté au-dessus du répertoire existant. Pour créer un pool avec un point de montage par
défaut différent, utilisez l' -moption de la zpool createcommande. Par exemple:

# zpool create home c1t0d0


le point de montage par défaut '/ home' existe et n'est pas vide
utilisez l'option '-m' pour fournir une valeur par défaut différente
# zpool create -m /export/zfs home c1t0d0

Cette commande crée la nouvelle piscine à la maison et la maison ensemble de données avec un point de montage
/export/zfs.

Pour plus d'informations sur les points de montage, voir Gestion des points de montage ZFS .

Détruire des pools de stockage ZFS


Les pools sont détruits à l'aide de la zpool destroycommande. Cette commande détruit le pool même s'il contient des jeux
de données montés.

# zpool destroy tank

Mise en garde -

Soyez très prudent lorsque vous détruisez une piscine. Assurez-vous de détruire le bon pool et de toujours disposer de
copies de vos données. Si vous détruisez Préférences
accidentellement le |mauvais
de cookies Choix despool, vous pouvez tenter de le récupérer. Pour plus
annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 12/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

d'informations, voir Récupération de pools de stockage ZFS détruits .

Détruire un pool avec des périphériques défaillants


La destruction d’un pool nécessite l’écriture de données sur le disque pour indiquer que le pool n’est plus valide. Ces
informations d'état empêchent les périphériques de s'afficher en tant que pool potentiel lorsque vous effectuez une
importation. Si un ou plusieurs périphériques sont indisponibles, le pool peut toujours être détruit. Cependant, les
informations d'état nécessaires ne seront pas écrites sur ces périphériques indisponibles.

Lorsqu'ils sont réparés, ces périphériques sont signalés comme potentiellement actifs lorsque vous créez un nouveau pool.
Ils apparaissent comme des périphériques valides lorsque vous recherchez des pools à importer. Si un pool contient
suffisamment de périphériques défaillants, de sorte que le pool lui-même est défaillant (ce qui signifie qu'un périphérique
virtuel de niveau supérieur est défaillant), la commande affiche un avertissement et ne peut pas se terminer sans l' -foption.
Cette option est nécessaire car le pool ne peut pas être ouvert. Par conséquent, le stockage des données est inconnu. Par
exemple:

# zpool destroy tank


ne peut pas détruire 'tank': la piscine est mise en cause
utilisez '-f' pour forcer la destruction quand même
# zpool destroy -f tank

Pour plus d'informations sur l'intégrité des pools et des périphériques, voir Détermination de l'état d'intégrité des pools de
stockage ZFS .

Pour plus d'informations sur l'importation de pools, voir Importation de pools de stockage ZFS .

Gestion des périphériques dans les pools de stockage ZFS


La plupart des informations de base concernant les périphériques sont traitées dans Composants d'un pool de stockage ZFS
. Une fois le pool créé, vous pouvez effectuer plusieurs tâches pour gérer les périphériques physiques du pool.

Ajout de périphériques à un pool de stockage

Connexion et déconnexion de périphériques dans un pool de stockage

Création d'un nouveau pool en fractionnant un pool de stockage ZFS en miroir

Online et offline des périphériques dans un pool de stockage

Effacement des erreurs de périphérique de pool de stockage

Remplacement de périphériques dans un pool de stockage

Désignation des disques de rechange dans votre pool de stockage

Ajout de périphériques à un pool de stockage


Vous pouvez ajouter dynamiquement de l'espace disque à un pool en ajoutant un nouveau périphérique virtuel de niveau
supérieur. Cet espace disque est immédiatement disponible pour tous les jeux de données du pool. Pour ajouter un nouveau
périphérique virtuel à un pool, utilisez la zpool addcommande. Par exemple:

# zpool add zeepool mirror c2t1d0 c2t2d0

Le format de spécification des périphériques virtuels est identique à celui de la zpool createcommande. Les périphériques
sont vérifiés pour déterminer s'ils sont en cours d'utilisation et la commande ne peut pas modifier le niveau de redondance
sans l' -foption. La commande prend également en charge l’ -noption afin que vous puissiez effectuer un essai à blanc. Par
exemple:

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 13/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
# zpool add -n zeepool mirror c3t1d0 c3t2d0
mettrait à jour 'zeepool' avec la configuration suivante:
zeepool
miroir
c1t0d0
c1t1d0
miroir
c2t1d0
c2t2d0
miroir
c3t1d0
c3t2d0

Cette syntaxe de commande ajouterait les périphériques en miroir c3t1d0 et c3t2d0 à la zeepoolconfiguration existante du
pool.

Pour plus d'informations sur la manière dont la validation de périphérique virtuel est effectuée, reportez-vous à la section
Détection de périphériques en cours d'utilisation .

Exemple 4–1 Ajout de disques à une configuration ZFS en miroir

Dans l'exemple suivant, un autre miroir est ajouté à une configuration ZFS en miroir existante sur le système Sun Fire
x4500 d'Oracle.

# zpool status tank


piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
mirror-1 ONLINE 0 0 0
c0t2d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool add tank mirror c0t3d0 c1t3d0
#zpool status tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
mirror-1 ONLINE 0 0 0
c0t2d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
mirror-2 EN LIGNE 0 0 0
c0t3d0 EN LIGNE 0 0 0
c1t3d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Exemple 4–2 Ajout de disques à une configuration RAID-Z

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 14/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Des disques supplémentaires peuvent être ajoutés de manière similaire à une configuration RAID-Z. L'exemple suivant
montre comment convertir un pool de stockage avec un périphérique RAID-Z contenant trois disques en un pool de
stockage avec deux périphériques RAID-Z contenant chacun trois disques.

# zpool status rzpool


piscine: rzpool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


rzpool EN LIGNE 0 0 0
raidz1-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c1t3d0 EN LIGNE 0 0 0
c1t4d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool add rzpool raidz c2t2d0 c2t3d0 c2t4d0
#zpool status rzpool
piscine: rzpool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


rzpool EN LIGNE 0 0 0
raidz1-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c1t3d0 EN LIGNE 0 0 0
raidz1-1 EN LIGNE 0 0 0
c2t2d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0
c2t4d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Exemple 4–3 Ajout et suppression d'un périphérique de journal mis en miroir

L'exemple suivant montre comment ajouter un périphérique de journal mis en miroir au pool de stockage mis en
miroir.Pour plus d'informations sur l'utilisation des périphériques de journal dans votre pool de stockage, reportez-vous à la
section Configuration de périphériques de journal ZFS distincts .

# zpool status newpool


piscine: newpool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


newpool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t4d0 EN LIGNE 0 0 0
c0t5d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool add newpool log mirror c0t6d0 c0t7d0
#zpool status newpool
piscine: newpool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


newpool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t4d0 EN LIGNE 0 0 0 Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 15/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
c0t5d0 EN LIGNE 0 0 0
les journaux
mirror-1 ONLINE 0 0 0
c0t6d0 EN LIGNE 0 0 0
c0t7d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Vous pouvez connecter un périphérique de journal à un périphérique de journal existant pour créer un périphérique de
journal mis en miroir. Cette opération est identique à la connexion d'un périphérique à un pool de stockage non mis en
miroir.

Les périphériques de journal peuvent être supprimés à l'aide de la commande zpool remove . Le périphérique de journal
mis en miroir dans l'exemple précédent peut être supprimé en spécifiant l' argument miroir-1 . Par exemple:

# zpool remove newpool mirror-1


#zpool status newpool
piscine: newpool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


newpool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t4d0 EN LIGNE 0 0 0
c0t5d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Si votre configuration de pool ne contient qu'un seul périphérique de journal, vous devez supprimer le périphérique de
journal en spécifiant le nom du périphérique. Par exemple:

# zpool status pool


piscine: piscine
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


piscine EN LIGNE 0 0 0
raidz1-0 EN LIGNE 0 0 0
c0t8d0 EN LIGNE 0 0 0
c0t9d0 EN LIGNE 0 0 0
les journaux
c0t10d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool remove pool c0t10d0

Exemple 4–4 Ajout et suppression de périphériques de cache

Vous pouvez ajouter à votre pool de stockage ZFS et les supprimer s'ils ne sont plus nécessaires.

Utilisez la zpool addcommande pour ajouter des périphériques de cache. Par exemple:

# zpool add tank cache c2t5d0 c2t8d0


#zpool status tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 16/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c2t0d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0
cache
c2t5d0 EN LIGNE 0 0 0
c2t8d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Les périphériques de cache ne peuvent pas être mis en miroir ou faire partie d'une configuration RAID-Z.

Utilisez la zpool removecommande pour supprimer les périphériques de cache. Par exemple:

# zpool remove tank c2t5d0 c2t8d0


#zpool status tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c2t0d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Actuellement, la zpool removecommande ne prend en charge que la suppression des disques de secours, des périphériques
de journalisation et des périphériques de cache. Les périphériques qui font partie de la configuration du pool mis en miroir
principal peuvent être supprimés à l'aide de la zpool detachcommande. Les périphériques non redondants et RAID-Z ne
peuvent pas être supprimés d'un pool.

Pour plus d'informations sur l'utilisation de périphériques de cache dans un pool de stockage ZFS, voir Création d'un pool
de stockage ZFS avec des périphériques de cache .

Connexion et déconnexion de périphériques dans un pool de stockage


En plus de la zpool addcommande, vous pouvez utiliser cette zpool attachcommande pour ajouter un nouveau
périphérique à un périphérique existant en miroir ou non en miroir.

Si vous connectez un disque pour créer un pool racine en miroir, reportez-vous à la section Création d'un pool racine en
miroir (post-installation) .

Si vous remplacez un disque dans un pool racine ZFS, voir Procédure de remplacement d'un disque dans le pool racine
ZFS .

Exemple 4–5 Conversion d'un pool de stockage mis en miroir bidirectionnel en un pool de stockage mis en miroir tridirectionnel

Dans cet exemple, zeepool est un miroir bidirectionnel existant qui est converti en miroir tridirectionnel en reliant
c2t1d0 , le nouveau périphérique, au périphérique existant, c1t1d0 .

# zpool status zeepool


piscine: zeepool
état: EN LIGNE
gommage: aucun demandé
config: Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 17/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool attach zeepool c1t1d0 c2t1d0
#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le vendredi 8 janvier à 12:59:20 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0 592K sursis

erreurs: aucune erreur de données connue

Si le périphérique existant fait partie d'un miroir à trois voies, la connexion du nouveau périphérique crée un miroir à
quatre voies, etc. Quoi qu'il en soit, le nouvel appareil commence immédiatement à fonctionner.

Exemple 4–6 Conversion d'un pool de stockage ZFS non redondant en un pool de stockage ZFS mis en miroir

En outre, vous pouvez convertir un pool de stockage non redondant en un pool de stockage redondant à l'aide de la zpool
attachcommande. Par exemple:

# zpool create tank c0t1d0


#zpool status tank
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:
NOM ÉTAT LIRE ECRIRE CKSUM
réservoir EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool attach tank c0t1d0 c1t1d0
#zpool status tank
piscine: réservoir
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le vendredi 8 janvier à 14:28:23 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c0t1d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0 73.5K sursis

erreurs: aucune erreur de données connue

Vous pouvez utiliser la zpool detachcommande pour détacher un périphérique d'un pool de stockage en miroir. Par
exemple:

# zpool detach zeepool c2t1d0

Cependant, cette opération échoue si aucune autre réplique valide des données n'existe. Par exemple:
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 18/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

# zpool detach newpool c1t2d0


ne peut pas détacher c1t2d0: uniquement applicable au miroir et au remplacement de vdevs

Création d'un nouveau pool en fractionnant un pool de stockage ZFS en


miroir
Un pool de stockage ZFS en miroir peut être rapidement cloné en tant que pool de sauvegarde à l'aide de la zpool
splitcommande.

Actuellement, cette fonctionnalité ne peut pas être utilisée pour fractionner un pool racine en miroir.

Vous pouvez utiliser la zpool splitcommande pour détacher des disques d'un pool de stockage ZFS en miroir afin de créer
un nouveau pool avec l'un des disques détachés. Le nouveau pool aura un contenu identique à celui du pool de stockage
ZFS en miroir d'origine.

Par défaut, une opération de fractionnement zpool sur un pool mis en miroir détache le dernier disque du pool
nouvellement créé. Après l'opération de fractionnement, importez le nouveau pool. Par exemple:

# zpool status tank


piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool split tank tank2
# zpool import tank2
#zpool status tank tank2
piscine: réservoir
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

piscine: tank2
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


tank2 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Vous pouvez identifier le disque à utiliser pour le pool nouvellement créé en le spécifiant avec la zpool splitcommande.
Par exemple:

# zpool split tank tank2 c1t0d0

Avant que l'opération de fractionnement ne se produise, les données en mémoire sont vidées sur les disques en miroir. Une
fois les données vidées, le disque est détaché du pool et se voit attribuer un nouveau GUID de pool. Un nouveau GUID de
pool est généré afin que le pool puisse être importé de
Préférences surcookies
le même système
| Choix que celui sur lequel il a été scindé.
des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 19/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Si le pool à fractionner a des points de montage autres que ceux par défaut et que le nouveau pool est créé sur le même
système, vous devrez utiliser cette zpool split -Roption pour identifier un autre répertoire racine pour le nouveau pool, de
sorte que les points de montage existants ne le soient pas. conflit. Par exemple:

# zpool split -R /tank2 tank tank2

Si vous n'utilisez pas l' zpool split -Roption et que vous pouvez constater des conflits de points de montage lorsque vous
tentez d'importer le nouveau pool, importez-le avec l' -Roption. Si le nouveau pool est créé sur un autre système, la
spécification d'un autre répertoire racine ne devrait pas être nécessaire sauf en cas de conflit de point de montage.

Passez en revue les considérations suivantes avant d'utiliser la zpool splitfonctionnalité:

Cette fonctionnalité n'est pas disponible pour une configuration RAIDZ ou un pool non redondant de plusieurs
disques.

Les opérations de données et d'application doivent être mises au repos avant toute tentative d' zpool splitopération.

Avoir des disques respectant, plutôt qu'ignorer, la commande de vidage du cache en écriture du disque est important.

Un pool ne peut pas être divisé si une opération de resurvalisation est en cours.

La scission d'un pool mis en miroir est optimale lorsqu'elle est composée de deux à trois disques, le dernier disque
du pool d'origine étant utilisé pour le pool nouvellement créé. Ensuite, vous pouvez utiliser la zpool
attachcommande pour recréer votre pool de stockage mis en miroir d'origine ou convertir votre pool nouvellement
créé en un pool de stockage mis en miroir. Il n'existe actuellement aucun moyen de créer un nouveau pool mis en
miroir à partir d'un pool mis en miroir existant à l'aide de cette fonctionnalité.

Si le pool existant est un miroir à trois voies, le nouveau pool contiendra un disque après l'opération de
fractionnement. Si le pool existant est un miroir bidirectionnel de deux disques, il en résulte deux pools de deux
disques non redondants. Vous devrez connecter deux disques supplémentaires pour convertir les pools non
redondants en pools mis en miroir.

Un bon moyen de garder vos données redondantes au cours d'une opération de fractionnement consiste à fractionner
un pool de stockage en miroir composé de trois disques, de sorte que le pool d'origine se compose de deux disques
en miroir après l'opération de fractionnement.

Exemple 4–7 Fractionnement d'un pool ZFS en miroir

Dans l'exemple suivant, un pool de stockage mis en miroir appelé trinity , avec trois disques, c1t0d0 , c1t2d0 et c1t3d0,
est fractionné. Les deux pools résultants sont la trinité de pool en miroir , avec les disques c1t0d0 et c1t2d0 , et le
nouveau pool, neo , avec le disque c1t3d0 . Chaque pool a un contenu identique.

# zpool status trinity


piscine: trinité
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


trinity EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c1t3d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool split trinity neo
# zpool import neo
#zpool status trinity neo
piscine: néo
état: EN LIGNE
gommage: aucun demandé
config:
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 20/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

NOM ÉTAT LIRE ECRIRE CKSUM


neo ONLINE 0 0 0
c1t3d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

piscine: trinité
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


trinity EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue

Online et offline des périphériques dans un pool de stockage


ZFS permet aux appareils individuels d'être mis hors ligne ou mis en ligne. Lorsque le matériel n'est pas fiable ou ne
fonctionne pas correctement, ZFS continue à lire ou à écrire des données sur le périphérique, en supposant que la condition
n'est que temporaire. Si la condition n'est pas temporaire, vous pouvez indiquer à ZFS d'ignorer le périphérique en le
mettant hors ligne. ZFS n'envoie aucune demande à un périphérique hors ligne.

Remarque -

Il n'est pas nécessaire de mettre les appareils hors ligne pour les remplacer.

Vous pouvez utiliser la zpool offlinecommande lorsque vous devez déconnecter temporairement le stockage. Par
exemple, si vous devez déconnecter physiquement un module RAID d'un ensemble de commutateurs Fibre Channel et le
connecter à un ensemble différent, vous pouvez déconnecter les LUN du module RAID utilisé dans les pools de stockage
ZFS. Une fois le module RAID reconnecté et opérationnel sur le nouvel ensemble de commutateurs, vous pouvez mettre
les mêmes LUN en ligne. Les données qui avaient été ajoutées aux pools de stockage alors que les LUN étaient hors ligne
résistent aux LUN après leur remise en ligne.

Ce scénario est possible en supposant que les systèmes en question peuvent détecter le stockage une fois connecté aux
nouveaux commutateurs, éventuellement via des contrôleurs différents, et que vos pools sont configurés en tant que
configurations RAID-Z ou en miroir.

Mettre un appareil hors ligne

Vous pouvez mettre un appareil hors ligne à l'aide de la zpool offlinecommande. Le périphérique peut être spécifié par
chemin ou nom abrégé, s'il s'agit d'un disque. Par exemple:

# zpool offline tank c1t0d0


mettre le périphérique c1t0d0 hors ligne

Tenez compte des points suivants lorsque vous mettez un appareil hors ligne:

Vous ne pouvez pas mettre un pool hors ligne au point de devenir défaillant. Par exemple, vous ne pouvez pas mettre
hors ligne deux périphériques dans une configuration raidz1 , ni mettre hors ligne un périphérique virtuel de niveau
supérieur.

# zpool offline tank c1t0d0


ne peut pas déconnecter c1t0d0: pas de répliques valides

Par défaut, l' état OFFLINE est persistant. L'appareil reste hors ligne au redémarrage du système.
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 21/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Pour mettre temporairement un appareil hors ligne, utilisez l' zpool offline -toption. Par exemple:

# zpool offline -t tank c1t0d0


apportant le périphérique 'c1t0d0' hors ligne

Lorsque le système est redémarré, ce périphérique est automatiquement remis à l' état ONLINE .

Lorsqu'un périphérique est mis hors ligne, il n'est pas détaché du pool de stockage. Si vous essayez d'utiliser le
périphérique hors ligne dans un autre pool, même après la destruction du pool d'origine, un message similaire à
celui-ci s'affiche:

Le périphérique fait partie du pool ZFS exporté ou potentiellement actif . S'il vous plaît voir zpool (1M)

Si vous souhaitez utiliser le périphérique hors ligne dans un autre pool de stockage après avoir détruit le pool de
stockage d'origine, mettez d'abord le périphérique en ligne, puis détruisez le pool de stockage d'origine.

Another way to use a device from another storage pool, while keeping the original storage pool, is to replace the
existing device in the original storage pool with another comparable device. For information about replacing
devices, see Replacing Devices in a Storage Pool.

Offline devices are in the OFFLINE state when you query pool status. For information about querying pool status, see
Querying ZFS Storage Pool Status.

For more information on device health, see Determining the Health Status of ZFS Storage Pools.

Bringing a Device Online


After a device is taken offline, it can be brought online again by using the zpool online command. For example:

# zpool online tank c1t0d0


bringing device c1t0d0 online

Lorsqu'un périphérique est mis en ligne, toutes les données écrites dans le pool sont resynchronisées avec le nouveau
périphérique disponible. Notez que vous ne pouvez pas utiliser un périphérique en ligne pour remplacer un disque. Si vous
mettez un périphérique hors ligne, remplacez-le et essayez de le mettre en ligne, il reste en état de panne.

Si vous essayez de mettre en ligne un périphérique défaillant, un message semblable au suivant s'affiche:

# zpool online tank c1t0d0


avertissement: le périphérique 'c1t0d0' est en ligne, mais reste en état d'erreur
utilisez 'zpool replace' pour remplacer les périphériques qui ne sont plus présents

Vous pouvez également voir le message de disque défectueux affiché sur la console ou écrit dans le
/var/adm/messagesfichier. Par exemple:

SUNW-MSG-ID: ZFS-8000-D3, TYPE: Défaut, VER: 1, GRAVITÉ: Majeure


TEMPS D'ÉVÉNEMENT: mer. 30 juin 14:53:39 MDT 2010
PLATE-FORME: SUNW, Sun-Fire-880, CSN: -, HOSTNAME: neo
SOURCE: zfs-diagnostic, REV: 1.0
ID ÉVÉNEMENT: 504a1188-b270-4ab0-af4e-8a77680576b8
DESC: un périphérique ZFS a échoué. Reportez-vous à http://sun.com/msg/ZFS-8000-D3 pour plus d'informations.
RÉPONSE AUTOMATIQUE: Aucune réponse automatisée ne se produira.
IMPACT: La tolérance aux pannes du pool peut être compromise.
REC-ACTION: Exécutez 'zpool status -x' et remplacez le mauvais périphérique.

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 22/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Pour plus d'informations sur le remplacement d'un périphérique défaillant, reportez-vous à la section Résolution d'un
périphérique manquant .

Vous pouvez utiliser la zpool online -ecommande pour développer la taille du pool lorsqu'un disque plus petit est
remplacé par un disque plus grand. Par défaut, la taille du pool n'est pas développée à sa taille maximale , sauf si la
propriété autoexpand pool est activée. Vous pouvez développer automatiquement la taille du pool lorsqu'un disque plus
petit est remplacé par un disque plus volumineux à l'aide de la zpool online -ecommande, même si le disque est déjà en
ligne ou actuellement hors ligne. Par exemple:

# zpool online -e tank c1t13d0

Effacement des erreurs de périphérique de pool de stockage


Si un périphérique est mis hors ligne en raison d'une défaillance entraînant la liste des erreurs dans la zpool statussortie,
vous pouvez effacer le nombre d'erreurs à l'aide de la zpool clearcommande.

Si elle est spécifiée sans argument, cette commande efface toutes les erreurs de périphérique dans le pool. Par exemple:

# zpool clear tank

Si un ou plusieurs périphériques sont spécifiés, cette commande nettoie que les erreurs associées aux périphériques
spécifiés. Par exemple:

# zpool clear tank c1t0d0

Pour plus d'informations sur la suppression des zpoolerreurs, voir Suppression des erreurs transitoires .

Remplacement de périphériques dans un pool de stockage


Vous pouvez remplacer un périphérique dans un pool de stockage en utilisant la zpool replacecommande.

Si vous remplacez physiquement un périphérique par un autre au même emplacement d'un pool redondant, il vous suffira
peut-être d'identifier le périphérique remplacé. ZFS reconnaît que le périphérique est un disque différent au même
emplacement sur certains matériels. Par exemple, pour remplacer un disque défectueux ( c1t1d0 ) en le retirant et en le
replaçant au même emplacement, utilisez la syntaxe suivante:

# zpool replace tank c1t1d0

Si vous remplacez un périphérique dans un pool de stockage par un disque situé dans un emplacement physique différent,
vous devrez spécifier les deux périphériques. Par exemple:

# zpool replace tank c1t1d0 c1t2d0

Si vous remplacez un disque du pool racine ZFS, reportez-vous à la section Procédure de remplacement d'un disque du
pool racine ZFS .

Voici les étapes de base pour remplacer un disque:

Déconnectez le disque, si nécessaire, avec la zpool offlinecommande.

Retirez le disque à remplacer.

Insérez le disque de remplacement.Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 23/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Exécutez la zpool replacecommande. Par exemple:

# zpool replace tank c1t1d0

Mettez le disque en ligne avec la zpool onlinecommande.

Sur certains systèmes, tels que Sun Fire x4500, vous devez déconfigurer un disque avant de pouvoir le mettre hors ligne. Si
vous remplacez un disque dans le même emplacement sur ce système, vous pouvez simplement exécuter la zpool
replacecommande comme décrit dans le premier exemple de cette section.

Pour obtenir un exemple de remplacement d'un disque sur un système Sun Fire X4500, consultez Exemple 11–1 .

Tenez compte des éléments suivants lors du remplacement de périphériques dans un pool de stockage ZFS:

Si vous définissez la propriété de pool de substitution automatique sur , tous les nouveaux périphériques trouvés
au même emplacement physique qu'un périphérique ayant précédemment appartenu au pool sont automatiquement
formatés et remplacés. Vous n'êtes pas obligé d'utiliser la zpool replacecommande lorsque cette propriété est
activée. Cette fonctionnalité peut ne pas être disponible sur tous les types de matériel.

La taille du périphérique de remplacement doit être égale ou supérieure au plus petit disque d'une configuration en
miroir ou RAID-Z.

Lorsqu'un périphérique de remplacement dont la taille est supérieure à celle du périphérique qu'il remplace est ajouté
à un pool, sa taille n'est pas automatiquement étendue. La valeur de la propriété autoexpand pool détermine si un
pool est développé à sa taille maximale lorsque le disque est ajouté au pool. Par défaut, la propriété autoexpand est
désactivée. Vous pouvez activer cette propriété pour développer la taille d'un pool avant ou après l'ajout du disque le
plus grand au pool.

Dans l'exemple suivant, deux disques de 16 Go d'un pool mis en miroir sont remplacés par deux disques de 72 Go.
La propriété autoexpand est activée après les remplacements de disque pour développer toutes les tailles de disque.

# zpool create pool mirror c1t16d0 c1t17d0


#zpool status
piscine: piscine
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


piscine EN LIGNE 0 0 0
miroir ONLINE 0 0 0
c1t16d0 EN LIGNE 0 0 0
c1t17d0 EN LIGNE 0 0 0

zpool list pool


NOM TAILLE ALLOC GRATUIT CAP SANTÉ ALTROOT
Piscine 16.8G 76.5K 16.7G 0% ONLINE -
# zpool replace pool c1t16d0 c1t1d0
# zpool replace pool c1t17d0 c1t2d0
#zpool list pool
NOM TAILLE ALLOC GRATUIT CAP SANTÉ ALTROOT
Piscine 16.8G 88.5K 16.7G 0% ONLINE -
# zpool set autoexpand=on pool
#zpool list pool
NOM TAILLE ALLOC GRATUIT CAP SANTÉ ALTROOT
Piscine 68.2G 117K 68.2G 0% ONLINE -

Le remplacement de nombreux disques dans un grand pool prend beaucoup de temps en raison de la redistribution
des données sur les nouveaux disques. En outre, vous pouvez envisager d'exécuter la zpool scrubcommande entre
les remplacements de disque pour vous assurer que les périphériques de remplacement sont opérationnels et que les
données sont écrites correctement.

Si un disque défectueux a été automatiquement remplacé par un disque de secours, vous devrez peut-être détacher le
disque de secours une fois le disque défectueux remplacé. Pour plus d'informations sur le détachement d'un disque
de secours, voir Activation et désactivation des disques de secours dans votre pool de stockage .
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 24/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Pour plus d'informations sur le remplacement de périphériques, voir Résolution d'un périphérique manquant et
Remplacement ou réparation d'un périphérique endommagé .

Désignation des disques de rechange dans votre pool de stockage


La fonction de disques de rechange vous permet d'identifier les disques pouvant être utilisés pour remplacer un
périphérique défaillant ou défaillant dans un ou plusieurs pools de stockage. Désigner un périphérique en tant que disque
de secours signifie qu'il n'est pas un périphérique actif dans le pool, mais qu'en cas de défaillance d'un périphérique actif
dans le pool, le disque de secours remplace automatiquement le périphérique défaillant.

Les périphériques peuvent être désignés comme disques de secours des manières suivantes:

Lorsque le pool est créé avec la zpool createcommande.

Une fois le pool créé avec la zpool addcommande.

L'exemple suivant montre comment désigner des périphériques comme disques de secours lors de la création du pool:

# zpool create trinity mirror c1t1d0 c2t1d0 spare c1t2d0 c2t2d0


#zpool status trinity
piscine: trinité
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


trinity EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
pièces de rechange
c1t2d0 disponible
c2t2d0 disponible

erreurs: aucune erreur de données connue

L'exemple suivant montre comment désigner les disques de rechange en les ajoutant à un pool après sa création:

# zpool add neo spare c5t3d0 c6t3d0


#zpool status neo
piscine: néo
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


neo ONLINE 0 0 0
miroir-0 EN LIGNE 0 0 0
c3t3d0 EN LIGNE 0 0 0
c4t3d0 EN LIGNE 0 0 0
pièces de rechange
c5t3d0 disponible
c6t3d0 disponible

erreurs: aucune erreur de données connue

Les disques de secours peuvent être supprimés d'un pool de stockage à l'aide de la zpool removecommande. Par exemple:

# zpool remove zeepool c2t3d0


#zpool status zeepool
piscine: zeepool
état: EN LIGNE
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 25/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
pièces de rechange
c1t3d0 disponible

erreurs: aucune erreur de données connue

Un disque de secours ne peut pas être supprimé s'il est actuellement utilisé par un pool de stockage.

Tenez compte des points suivants lorsque vous utilisez des disques de secours ZFS:

Actuellement, cette zpool removecommande ne peut être utilisée que pour supprimer des disques de secours, des
périphériques de cache et des périphériques de journalisation.

Pour ajouter un disque en tant que disque de secours, celui-ci doit être égal ou supérieur à la taille du disque le plus
volumineux du pool. L'ajout d'un disque plus petit en tant que disque de secours à un pool est autorisé. Toutefois,
lorsque le disque de secours plus petit est activé, automatiquement ou à l'aide de la zpool replacecommande,
l'opération échoue avec une erreur similaire à celle-ci:

ne peut pas remplacer disk3 par disk4 : le périphérique est trop petit

Activation et désactivation des disques de secours dans votre pool de stockage


Les disques de secours sont activés des manières suivantes:

Remplacement manuel - Vous remplacez un périphérique défaillant dans un pool de stockage par un disque de
secours à l'aide de la zpool replacecommande.

Remplacement automatique - Lorsqu'un incident est détecté, un agent FMA examine le pool pour déterminer s'il
dispose de disques de secours. Si tel est le cas, il remplace le périphérique défaillant par un disque de secours
disponible.

Si un disque de secours en cours d'utilisation échoue, l'agent FMA détache le disque de secours et annule ainsi le
remplacement. L'agent tente ensuite de remplacer le périphérique par un autre disque de secours, le cas échéant.
Cette fonctionnalité est actuellement limitée par le fait que le moteur de diagnostic ZFS ne génère des erreurs que
lorsqu'un périphérique disparaît du système.

Si vous remplacez physiquement un périphérique défaillant par un disque de secours actif, vous pouvez le réactiver
en utilisant la zpool detachcommande permettant de détacher le disque de secours. Si vous définissez la propriété de
pool de remplacement automatique sur , le disque de secours est automatiquement détaché et renvoyé au pool de
secours lorsque le nouveau périphérique est inséré et que l'opération en ligne est terminée.

Vous pouvez remplacer manuellement un périphérique par un disque de secours à l'aide de la zpool replacecommande.
Voir Exemple 4–8 .

Un périphérique défaillant est automatiquement remplacé si un disque de secours est disponible. Par exemple:

# zpool status -x
piscine: zeepool
état: DÉGRADÉ
statut: un ou plusieurs périphériques n'ont pas pu être ouverts. Il existe suffisamment de répliques pour
la piscine pour continuer à fonctionner dans un état dégradé.
action: attachez le périphérique manquant et connectez-le en ligne à l'aide de 'zpool online'.
voir: http://www.sun.com/msg/ZFS-8000-2Q
scrub: résilience terminée après 0h0m avec 0 erreurs le lun. 11 janv. 10:20:35 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool DEGRADED 0 0 0
miroir-0 DÉGRADÉ 0 0 0
c1t2d0 EN LIGNE 0 0 0
spare-1 DEGRADED 0 0 0
c2t1d0 UNAVAIL 0 0 0 impossible d'ouvrir
c2t3d0 EN LIGNE 0 0 0 88.5K sursis
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 26/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
pièces de rechange
c2t3d0 INUSE en cours d'utilisation

erreurs: aucune erreur de données connue

Actuellement, vous pouvez désactiver un disque de secours des manières suivantes:

En retirant le disque de secours du pool de stockage.

En détachant un disque de secours après le remplacement physique d’un disque défectueux. Voir Exemple 4–9 .

En permutant temporairement ou définitivement le disque de secours. Voir Exemple 4–10 .

Exemple 4–8 Remplacement manuel d'un disque avec un disque de secours

Dans cet exemple, la zpool replacecommande est utilisée pour remplacer le disque c2t1d0 par le disque de secours c2t3d0
.

# zpool replace zeepool c2t1d0 c2t3d0


#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 10:00:50 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
spare-1 ONLINE 0 0 0
c2t1d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0 90K sur réseau
pièces de rechange
c2t3d0 INUSE en cours d'utilisation

erreurs: aucune erreur de données connue

Ensuite, détachez le disque c2t1d0 .

# zpool detach zeepool c2t1d0


# zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 10:00:50 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0 90K sur réseau

erreurs: aucune erreur de données connue

Exemple 4–9 Détachement d'un disque de secours après le remplacement du disque défectueux

Dans cet exemple, le disque défectueux ( c2t1d0 ) est remplacé physiquement et ZFS est averti à l'aide de la zpool
replacecommande.

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 27/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

# zpool replace zeepool c2t1d0


#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 10:08:44 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
spare-1 ONLINE 0 0 0
c2t3d0 EN LIGNE 0 0 0 90K sur réseau
c2t1d0 EN LIGNE 0 0 0
pièces de rechange
c2t3d0 INUSE en cours d'utilisation

erreurs: aucune erreur de données connue

Ensuite, vous pouvez utiliser la zpool detachcommande pour renvoyer le disque de secours dans le pool de secours. Par
exemple:

# zpool detach zeepool c2t3d0


#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilver terminé avec 0 erreurs le mer. 20 janv. 10:08:44 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir ONLINE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c2t1d0 EN LIGNE 0 0 0
pièces de rechange
c2t3d0 disponible

erreurs: aucune erreur de données connue

Exemple 4–10 Détachement d'un disque en panne et utilisation du disque de secours

Si vous souhaitez remplacer un disque en panne par un basculement temporaire ou permanent du disque de secours
actuellement en cours de remplacement, détachez le disque d'origine (en panne). Si le disque défaillant est finalement
remplacé, vous pouvez le rajouter au pool de stockage en tant que disque de secours. Par exemple:

# zpool status zeepool


piscine: zeepool
état: DÉGRADÉ
statut: un ou plusieurs périphériques n'ont pas pu être ouverts. Il existe suffisamment de répliques pour
la piscine pour continuer à fonctionner dans un état dégradé.
action: attachez le périphérique manquant et connectez-le en ligne à l'aide de 'zpool online'.
voir: http://www.sun.com/msg/ZFS-8000-2Q
scrub: résilience en cours pour 0h0m, 70,47% terminé, 0h0m
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool DEGRADED 0 0 0
miroir-0 DÉGRADÉ 0 0 0
c1t2d0 EN LIGNE 0 0 0
spare-1 DEGRADED 0 0 0
c2t1d0 UNAVAIL 0 0 0 impossible d'ouvrir
c2t3d0 EN LIGNE 0 0 0 70.5M en réseau
pièces de rechange
c2t3d0 INUSE en cours d'utilisation
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 28/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
erreurs: aucune erreur de données connue
# zpool detach zeepool c2t1d0
#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 13:46:46 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0 70.5M en réseau

erreurs: aucune erreur de données connue


(Le disque d'origine en panne c2t1d0 est physiquement remplacé)
# zpool add zeepool spare c2t1d0
#zpool status zeepool
piscine: zeepool
état: EN LIGNE
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 13:48:46 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


zeepool EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t2d0 EN LIGNE 0 0 0
c2t3d0 EN LIGNE 0 0 0 70.5M en réseau
pièces de rechange
c2t1d0 disponible

erreurs: aucune erreur de données connue

Gestion des propriétés du pool de stockage ZFS


Vous pouvez utiliser la zpool getcommande pour afficher les informations sur les propriétés du pool. Par exemple:

# zpool get all mpool


NOM PROPRIÉTÉ VALEUR SOURCE
taille de la piscine 68G -
capacité de la piscine 0% -
pool altroot - valeur par défaut
piscine santé EN LIGNE -
piscine guid 601891032394735745 par défaut
pool version 22 par défaut
pool bootfs - valeur par défaut
délégation de pool en défaut
remplacement automatique de la piscine par défaut
pool cachefile - valeur par défaut
pool failmode wait default
pool listsnapshots sur défaut
pool autoexpand off par défaut
piscine libre 68.0G -
pool alloué 76.5K -

Les propriétés du pool de stockage peuvent être définies avec la zpool setcommande. Par exemple:

# zpool set autoreplace=on mpool


#zpool get autoreplace mpool
NOM PROPRIÉTÉ VALEUR SOURCE
mpool autoreplace on default

Tableau 4–1 Description des propriétés du pool ZFS

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 29/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Nom de la Type Valeur La description


propriété par
défaut

alloué Chaîne N/A Valeur en lecture seule qui identifie la quantité d'espace de stockage dans
le pool qui a été physiquement alloué.

altroot Chaîne de Identifie un autre répertoire racine. Si défini, ce répertoire est préfixé à
tous les points de montage du pool. Cette propriété peut être utilisée
lorsque vous examinez un pool inconnu, si les points de montage ne
peuvent pas être approuvés, ou dans un autre environnement
d'initialisation, où les chemins d'accès types ne sont pas valides.

remplacement Booléen de Contrôle le remplacement automatique de l'appareil. Si cette option est


automatique désactivée , le remplacement de périphérique doit être lancé à l'aide de la
zpool replacecommande. Si la valeur sur , tout nouveau périphérique
trouvé dans le même emplacement physique qu'un périphérique qui
appartenait à la piscine est automatiquement formaté et
remplacé.L'abréviation de la propriété est replace .

bootfs Booléen N/A Identifie le jeu de données de démarrage par défaut pour le pool racine.
Cette propriété est généralement définie par les programmes d'installation
et de mise à niveau.

cachefile Chaîne N/A Contrôle l'endroit où les informations de configuration du pool sont mises
en cache. Tous les pools du cache sont automatiquement importés au
démarrage du système. Cependant, les environnements d'installation et de
clustering peuvent nécessiter la mise en cache de ces informations dans un
emplacement différent afin que les pools ne soient pas importés
automatiquement. Vous pouvez définir cette propriété pour mettre en
cache les informations de configuration du pool à un emplacement
différent. Ces informations peuvent être importées ultérieurement à l'aide
de la zpool import -ccommande. Pour la plupart des configurations ZFS,
cette propriété n'est pas utilisée.

capacité Nombre N/A Valeur en lecture seule qui identifie le pourcentage d'espace de pool utilisé.

L'abréviation de la propriété est cap .

délégation Booléen sur Contrôle si un utilisateur non privilégié peut recevoir les autorisations
d'accès définies pour un jeu de données. Pour plus d'informations,
reportez-vous au Chapitre 9, Administration déléguée Oracle Solaris ZFS .

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 30/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Nom de la Type Valeur La description


propriété par
défaut

mode d'échec Chaîne attendez Contrôle le comportement du système en cas de défaillance grave du pool.
Cette condition résulte généralement d'une perte de connectivité avec le ou
les périphériques de stockage sous-jacents ou d'une défaillance de tous les
périphériques du pool. Le comportement d'un tel événement est déterminé
par l'une des valeurs suivantes:

wait - Bloque toutes les demandes d'E / S adressées au pool jusqu'à


ce que la connectivité du périphérique soit restaurée et que les
erreurs soient effacées à l'aide de la zpool clearcommande. Dans
cet état, les opérations d'E / S sur le pool sont bloquées, mais les
opérations de lecture risquent de réussir. Un pool reste dans l' état d'
attente jusqu'à ce que le problème de périphérique soit résolu.

continue - Renvoie une erreur EIO pour toute nouvelle demande d'E
/ S d'écriture, mais autorise les lectures sur l'un des périphériques en
bon état. Toutes les demandes d'écriture qui doivent encore être
validées sur le disque sont bloquées. Une fois le périphérique
reconnecté ou remplacé, les erreurs doivent être effacées avec la
zpool clearcommande.

panic - Imprime un message sur la console et génère un vidage sur


incident du système.

libre Chaîne N/A Valeur en lecture seule qui identifie le nombre de blocs dans le pool qui ne
sont pas alloués.

guid Chaîne N/A Propriété en lecture seule qui identifie l'identificateur unique du pool.

santé Chaîne N/A Propriété en lecture seule qui identifie la santé actuelle du pool, comme
suit: ONLINE, DÉGRADÉ, FAULTED, OFFLINE, REMOVED ou
UNAVAIL.

listesnapshots Chaîne sur Contrôle si les informations de capture instantanée associées à ce pool sont
affichées avec la zfs listcommande. Si cette propriété est désactivée, les
informations relatives à l'instantané peuvent être affichées avec la zfs
list -t snapshotcommande.

Taille Nombre N/A Propriété en lecture seule qui identifie la taille totale du pool de stockage.

version Nombre N/A Identifie la version actuelle sur disque du pool. La méthode recommandée
pour mettre à jour les pools consiste à zpool upgradeutiliser la commande,
bien que cette propriété puisse être utilisée lorsqu'une version spécifique
est requise pour assurer la compatibilité avec les versions antérieures.
Cette propriété peut être définie sur un nombre compris entre 1 et la
version actuelle indiquée par la zpool upgrade -vcommande.

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 31/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Interrogation de l'état du pool de stockage ZFS


La zpool listcommande fournit plusieurs manières de demander des informations sur l'état du pool. Les informations
disponibles se divisent généralement en trois catégories: informations d'utilisation de base, statistiques d'E / S et statut
d'intégrité. Les trois types d’informations sur les pools de stockage sont traités dans cette section.

Affichage d'informations sur les pools de stockage ZFS

Affichage des statistiques d'E / S pour les pools de stockage ZFS

Détermination de l'état d'intégrité des pools de stockage ZFS

Affichage d'informations sur les pools de stockage ZFS


Vous pouvez utiliser la zpool listcommande pour afficher des informations de base sur les pools.

Informations de liste sur tous les pools de stockage ou un pool spécifique

Sans argument, la zpool listcommande affiche les informations suivantes pour tous les pools du système:

# zpool list
NOM TAILLE ALLOC GRATUIT CAP SANTÉ ALTROOT
tank 80.0G 22.3G 47.7G 28% ONLINE -
bouteur 1.2T 384G 816G 32% ONLINE -

Le résultat de cette commande affiche les informations suivantes:

NOM

Le nom de la piscine
TAILLE

La taille totale du pool, égale à la somme des tailles de tous les périphériques virtuels de niveau supérieur.
ALLOC

Quantité d'espace physique allouée à tous les jeux de données et métadonnées internes. Notez que cette quantité
diffère de la quantité d'espace disque signalée au niveau du système de fichiers.

Pour plus d'informations sur la détermination de l'espace disponible dans le système de fichiers, voir
Comptabilisation de l'espace disque ZFS .

LIBRE

La quantité d'espace non alloué dans la piscine.

CAP ( CAPACITÉ )

Quantité d'espace disque utilisée, exprimée en pourcentage de l'espace disque total.

SANTÉ

L'état d'intégrité actuel du pool.

Pour plus d'informations sur l'intégrité des pools, reportez-vous à la section Détermination de l'état d'intégrité des
pools de stockage ZFS .
ALTROOT

La racine alternative du pool, s'il en existe une.

Pour plus d'informations sur les autres pools racine, reportez-vous à la section Utilisation de pools racine ZFS
alternatifs .
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 32/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Vous pouvez également collecter des statistiques pour un pool spécifique en spécifiant le nom du pool. Par exemple:

# zpool list tank


NOM TAILLE ALLOC GRATUIT CAP SANTÉ ALTROOT
tank 80.0G 22.3G 47.7G 28% ONLINE -

Liste des statistiques de pool de stockage spécifiques


Des statistiques spécifiques peuvent être demandées en utilisant l' -ooption. Cette option fournit des rapports personnalisés
ou un moyen rapide de répertorier les informations pertinentes. Par exemple, pour répertorier uniquement le nom et la
taille de chaque pool, utilisez la syntaxe suivante:

# zpool list -o name,size


NOM TAILLE
réservoir 80.0G
bulldozer 1.2T

Les noms de colonne correspondent aux propriétés répertoriées dans la liste Informations sur tous les pools de stockage ou
un pool spécifique .

Script de sortie du pool de stockage ZFS

La sortie par défaut de la zpool listcommande est conçue pour la lisibilité et n'est pas facile à utiliser dans le cadre d'un
script shell. Pour faciliter les utilisations programmatiques de la commande, l' -Hoption peut être utilisée pour supprimer
les en-têtes de colonne et les champs séparés par des tabulations plutôt que par des espaces. Par exemple, pour demander
une liste de tous les noms de pool sur le système, utilisez la syntaxe suivante:

# zpool list -Ho name


réservoir
bulldozer

Voici un autre exemple:

# zpool list -H -o name,size


réservoir 80.0G
bulldozer 1.2T

Affichage de l'historique de commande du pool de stockage ZFS


ZFS enregistre automatiquement les transactions réussies zfset les zpoolcommandes modifiant les informations d'état du
pool. Cette information peut être affichée en utilisant la zpool historycommande.

Par exemple, la syntaxe suivante affiche le résultat de la commande pour le pool racine:

# zpool history
Historique de 'rpool':
2010-05-11.10: 18: 54 zpool create -f -o failmode = continue -R / a -m legacy -o
cachefile = / tmp / root / etc / zfs / zpool.cache miroir rpool c1t0d0s0 c1t1d0s0
2010-05-11.10: 18: 55 zfs set canmount = noauto rpool
2010-05-11.10: 18: 55 zfs set mountpoint = / rpool rpool
2010-05-11.10: 18: 56 zfs create -o point de montage = hérité rpool / ROOT
2010-05-11.10: 18: 57 zfs create -b 8192 -V 2048m rpool / swap
2010-05-11.10: 18: 58 zfs create -b 131072 -V 1536m rpool / dump
2010-05-11.10: 19: 01 zfs create -o canmount = noauto rpool / ROOT / zfsBE
2010-05-11.10: 19: 02 zpool set bootfs = rpool / ROOT / zfsBE rpool
2010-05-11.10: 19: 02 zfs set point de montage = / rpool / ROOT / zfsBE
2010-05-11.10: 19: 03 zfs set canmount = sur rpool
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 33/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
2010-05-11.10: 19: 04 zfs create -o point de montage = / export rpool / export
2010-05-11.10: 19: 05 zfs crée rpool / export / home
2010-05-11.11: 11: 10 zpool set bootfs = rpool rpool
2010-05-11.11: 11: 10 zpool set bootfs = rpool / ROOT / zfsBE rpool

Vous pouvez utiliser une sortie similaire sur votre système pour identifier les commandes ZFS réelles qui ont été exécutées
pour résoudre une condition d'erreur.

Les fonctionnalités du journal d'historique sont les suivantes:

Le journal ne peut pas être désactivé.

Le journal est enregistré en permanence sur le disque, ce qui signifie qu'il est enregistré lors des redémarrages du
système.

Le journal est implémenté en tant que tampon circulaire. La taille minimale est de 128 Ko. La taille maximale est de
32 Mo.

Pour les pools plus petits, la taille maximale est limitée à 1% de la taille du pool, la taille étant déterminée au
moment de la création du pool.

Le journal ne nécessite aucune administration, ce qui signifie qu'il n'est pas nécessaire de régler la taille du journal
ou de changer son emplacement.

Pour identifier l'historique des commandes d'un pool de stockage spécifique, utilisez une syntaxe similaire à celle-ci:

# zpool history tank


Historique de 'tank':
2010-05-13.14: 13: 15 zpool crée un miroir de réservoir c1t2d0 c1t3d0
2010-05-13.14: 21: 19 zfs créer un réservoir / des clichés
2010-05-14.08: 10: 29 zfs create tank / ws01
2010-05-14.08: 10: 54 réservoir de zfs snapshot / ws01 @ maintenant
2010-05-14.08: 11: 05 zfs clone tank / ws01 @ now tank / ws01bugfix

Utilisez l' -loption pour afficher un format long comprenant le nom d'utilisateur, le nom d'hôte et la zone dans laquelle
l'opération a été effectuée. Par exemple:

# zpool history -l tank


Historique de 'tank':
2010-05-13.14: 13: 15 zpool crée un miroir de réservoir c1t2d0 c1t3d0 [utilisateur root sur neo]
2010-05-13.14: 21: 19 zfs create tank / snaps [utilisateur root sur neo]
2010-05-14.08: 10: 29 zfs create tank / ws01 [utilisateur root sur neo]
2010-05-14.08: 10: 54 réservoir de capture d'écran zfs / ws01 @ maintenant [utilisateur root sur neo]
2010-05-14.08: 11: 05 réservoir clone zfs / ws01 @ maintenant réservoir / ws01bugfix [utilisateur root sur neo]

Utilisez l' -ioption pour afficher les informations d'événement internes pouvant être utilisées à des fins de diagnostic. Par
exemple:

# zpool history -i tank


2010-05-13.14: 13: 15 zpool create -f réservoir miroir c1t2d0 c1t23d0
2010-05-13.14: 13: 45 [piscine interne créer txg: 6] piscine spa 19; zfs spa 19; zpl 4; ...
2010-05-13.14: 21: 19 zfs créer un réservoir / des clichés
2010-05-13.14: 22: 02 [ensemble de données interne replay_inc_sync txg: 20451] = 41
2010-05-13.14: 25: 25 [capture instantanée interne txg: 20480] dataset = 52
2010-05-13.14: 25: 25 [internal destroy_begin_sync txg: 20481] dataset = 41
2010-05-13.14: 25: 26 [internal destroy txg: 20488] ensemble de données = 41
2010-05-13.14: 25: 26 [ensemble de réservation interne txg: 20488] 0 jeu de données = 0
2010-05-14.08: 10: 29 zfs create tank / ws01
2010-05-14.08: 10: 54 [instantané interne txg: 53992] ensemble de données = 42
2010-05-14.08: 10: 54 réservoir de zfs snapshot / ws01 @ maintenant
2010-05-14.08: 11: 04 [internal create txg: 53994] dataset = 58
2010-05-14.08: 11: 05 zfs clone tank / ws01 @ now tank / ws01bugfix

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 34/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Affichage des statistiques d'E / S pour les pools de stockage ZFS


Pour demander des statistiques d'E / S pour un pool ou des périphériques virtuels spécifiques, utilisez la zpool
iostatcommande. Semblable à la iostatcommande, cette commande peut afficher un instantané statique de toutes les
activités d'E / S, ainsi que des statistiques mises à jour pour chaque intervalle spécifié. Les statistiques suivantes sont
rapportées:

allouer la capacité

La quantité de données actuellement stockées dans le pool ou le périphérique. Cette quantité diffère de la quantité
d'espace disque disponible pour les systèmes de fichiers réels par une petite marge en raison de détails
d'implémentation internes.

Pour plus d'informations sur les différences entre l'espace de pool et l'espace de jeu de données, voir
Comptabilisation d'espace disque ZFS .

capacité libre

Quantité d'espace disque disponible dans le pool ou le périphérique. Comme avec la statistique utilisée , cette
quantité diffère de la quantité d'espace disque disponible pour les jeux de données par une petite marge.

lire les opérations

Nombre d'opérations d'E / S de lecture envoyées au pool ou au périphérique, y compris les demandes de
métadonnées.
écrire des opérations

Nombre d'opérations d'E / S d'écriture envoyées au pool ou au périphérique.

lire la bande passante

La bande passante de toutes les opérations de lecture (y compris les métadonnées), exprimée en unités par seconde.
écrire de la bande passante

La bande passante de toutes les opérations d'écriture, exprimée en unités par seconde.

Liste des statistiques d'E / S du pool


En l'absence d'options, la zpool iostatcommande affiche les statistiques accumulées depuis le démarrage pour tous les
pools du système. Par exemple:

# zpool iostat
capacité opérations bande passante
pool alloc libre lecture lecture lecture écriture
---------- ----- ----- ----- ----- ----- -----
piscine 6.05G 61.9G 0 0 786 107
réservoir 31.3G 36.7G 4 1 296K 86.1K
---------- ----- ----- ----- ----- ----- -----

Comme ces statistiques sont cumulatives depuis l’amorçage, la bande passante peut sembler faible si le pool est
relativement inactif. Vous pouvez demander une vue plus précise de l'utilisation actuelle de la bande passante en spécifiant
un intervalle. Par exemple:

# zpool iostat tank 2


capacité opérations bande passante
pool alloc libre lecture lecture lecture écriture
---------- ----- ----- ----- ----- ----- -----
réservoir 18.5G 49.5G 0 187 0 23.3M
réservoir 18.5G 49.5G 0 464 0 57.7M
réservoir 18.5G 49.5G 0 457 0 56.6M
réservoir 18.8G 49.2G 0 435 0 51.3M

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 35/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Dans cet exemple, la commande affiche les statistiques d'utilisation du réservoir de pool toutes les deux secondes jusqu'à
la saisie de Control-C. Vous pouvez également spécifier un argument de compte supplémentaire , ce qui entraîne l'arrêt de
la commande après le nombre d'itérations spécifié. Par exemple, vous zpool iostat 2 3imprimeriez un résumé toutes les
deux secondes pour trois itérations, pour un total de six secondes. S'il n'y a qu'un seul pool, les statistiques sont affichées
sur des lignes consécutives. S'il existe plusieurs pools, une ligne en pointillé supplémentaire délimite chaque itération pour
fournir une séparation visuelle.

Liste des statistiques d'E / S de périphérique virtuel


Outre les statistiques d'E / S sur l'ensemble du pool, la zpool iostatcommande peut afficher des statistiques d'E / S pour
les périphériques virtuels. Cette commande peut être utilisée pour identifier des périphériques anormalement lents ou pour
observer la distribution des E / S générées par ZFS. Pour demander la structure complète du périphérique virtuel ainsi que
toutes les statistiques d'E / S, utilisez la zpool iostat -vcommande. Par exemple:

# zpool iostat -v
capacité opérations bande passante
pool alloc libre lecture lecture lecture écriture
---------- ----- ----- ----- ----- ----- -----
piscine 6.05G 61.9G 0 0 785 107
miroir 6.05G 61.9G 0 0 785 107
c1t0d0s0 - - 0 0 578 109
c1t1d0s0 - - 0 0 595 109
---------- ----- ----- ----- ----- ----- -----
réservoir 36.5G 31.5G 4 1 295K 146K
miroir 36.5G 31.5G 126 45 8.13M 4.01M
c1t2d0 - - 0 3 100K 386K
c1t3d0 - - 0 3 104K 386K
---------- ----- ----- ----- ----- ----- -----

Notez deux points importants lors de l'affichage des statistiques d'E / S pour les périphériques virtuels:

Premièrement, les statistiques d'utilisation de l'espace disque ne sont disponibles que pour les périphériques virtuels
de niveau supérieur. La manière dont l'espace disque est alloué entre les périphériques virtuels en miroir et RAID-Z
est particulière à la mise en œuvre et n'est pas facilement exprimée sous la forme d'un nombre unique.

Deuxièmement, les chiffres peuvent ne pas correspondre exactement comme vous le souhaiteriez. En particulier, les
opérations sur les périphériques RAID-Z et en miroir ne seront pas exactement identiques. Cette différence est
particulièrement perceptible immédiatement après la création d’un pool, puisqu’une quantité importante d’E / S est
effectuée directement sur les disques dans le cadre de la création du pool, ce qui n’est pas comptabilisé au niveau du
miroir. Au fil du temps, ces chiffres s’égalisent progressivement. Cependant, les périphériques hors service,
déconnectés ou hors connexion peuvent également affecter cette symétrie.

Vous pouvez utiliser le même ensemble d'options (intervalle et nombre) lors de l'examen des statistiques de périphérique
virtuel.

Détermination de l'état d'intégrité des pools de stockage ZFS


ZFS fournit une méthode intégrée d’examen de la santé des pools et des périphériques. La santé d'un pool est déterminée
par l'état de tous ses périphériques. Cette information d'état est affichée à l'aide de la zpool statuscommande. En outre, les
défaillances potentielles de pools et de périphériques sont signalées par fmd, affichées sur la console système et consignées
dans le /var/adm/messagesfichier.

Cette section explique comment déterminer l’intégrité des pools et des périphériques. Ce chapitre n’explique pas comment
réparer ou récupérer des pools malsains. Pour plus d'informations sur le dépannage et la récupération de données, reportez-
vous au Chapitre 11, Dépannage et récupération de pool pour Oracle Solaris ZFS .

Chaque appareil peut tomber dans l’un des états suivants:

En ligne

Le périphérique ou le périphérique virtuel est en état de fonctionnement normal. Bien que certaines erreurs
transitoires puissent encore se produire, le périphérique est par ailleurs en état de fonctionnement.

DÉGRADÉ

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 36/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Le périphérique virtuel a rencontré une défaillance mais peut toujours fonctionner. Cet état est plus courant lorsqu'un
périphérique en miroir ou RAID-Z a perdu un ou plusieurs périphériques. La tolérance de panne du pool peut être
compromise, puisqu'un défaut ultérieur sur un autre périphérique peut être irrécupérable.

PAULTED

Le périphérique ou le périphérique virtuel est complètement inaccessible. Cet état indique généralement une
défaillance totale du périphérique, de telle sorte que ZFS est incapable de lui envoyer ou de recevoir des données. Si
un périphérique virtuel de niveau supérieur est dans cet état, le pool est complètement inaccessible.
HORS LIGNE

L'appareil a été explicitement mis hors ligne par l'administrateur.


UNAVAIL

Le périphérique ou le périphérique virtuel ne peut pas être ouvert. Dans certains cas, les pools avec des périphériques
UNAVAIL apparaissent en mode DEGRADED . Si UNAVAIL est un périphérique virtuel de niveau supérieur , rien dans le
pool n’est accessible.

Enlevé

Le périphérique a été physiquement retiré pendant le fonctionnement du système. La détection de suppression de


périphérique dépend du matériel et peut ne pas être prise en charge sur toutes les plateformes.

L'intégrité d'un pool est déterminée à partir de l'intégrité de tous ses périphériques virtuels de niveau supérieur. Si tous les
périphériques virtuels sont en ligne , le pool est également en ligne . Si l'un des périphériques virtuels est DEGRADED ou
UNAVAIL , le pool est également DEGRADED . Si un périphérique virtuel de niveau supérieur est FAULTED ou OFFLINE , le pool
est également FAULTED . Un pool dans l' état FAULTED est complètement inaccessible. Aucune donnée ne peut être récupérée
tant que les périphériques nécessaires ne sont pas connectés ou réparés. Une piscine dans le DÉGRADÉ state continue de
s'exécuter, mais vous risquez de ne pas atteindre le même niveau de redondance des données ou de débit de données que si
le pool était en ligne.

État d'intégrité du pool de stockage de base


Vous pouvez rapidement vérifier l’état de santé du pool en utilisant la zpool statuscommande comme suit:

# zpool status -x
toutes les piscines sont en bonne santé

Des pools spécifiques peuvent être examinés en spécifiant un nom de pool dans la syntaxe de la commande. Tout pool qui
ne se trouve pas dans l' état ONLINE doit faire l'objet d'une recherche de problèmes potentiels, comme décrit dans la section
suivante.

État de santé détaillé

Vous pouvez demander un statut de résumé d'intégrité plus détaillé en utilisant l' -voption. Par exemple:

# zpool status -v tank


piscine: réservoir
état: DÉGRADÉ
statut: un ou plusieurs périphériques n'ont pas pu être ouverts. Il existe suffisamment de répliques pour
la piscine pour continuer à fonctionner dans un état dégradé.
action: attachez le périphérique manquant et connectez-le en ligne à l'aide de 'zpool online'.
voir: http://www.sun.com/msg/ZFS-8000-2Q
scrub: nettoyage terminé après 0h0m avec 0 erreurs le mer. 20 janv. 15:13:59 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir DÉGRADÉ 0 0 0
miroir-0 DÉGRADÉ 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t1d0 UNAVAIL 0 0 0 impossible d'ouvrir

erreurs: aucune erreur de données connue


Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 37/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Cette sortie affiche une description complète des raisons pour lesquelles le pool se trouve dans son état actuel, y compris
une description lisible du problème et un lien vers un article de la base de connaissances pour plus d'informations. Chaque
article de base fournit des informations à jour sur le meilleur moyen de remédier à votre problème actuel. En utilisant les
informations de configuration détaillées, vous pouvez déterminer quel périphérique est endommagé et comment réparer le
pool.

Dans l'exemple précédent, le périphérique défaillant doit être remplacé. Une fois le périphérique remplacé, utilisez la zpool
onlinecommande pour le mettre en ligne. Par exemple:

# zpool online tank c1t0d0


Mise en ligne du dispositif c1t0d0
# zpool status -x
toutes les piscines sont en bonne santé

Si la propriété de remplacement automatique est activée , il se peut que vous n'ayez pas à mettre en ligne le périphérique
remplacé.

Si un pool a un périphérique hors ligne, le résultat de la commande identifie le pool posant problème. Par exemple:

# zpool status -x
piscine: réservoir
état: DÉGRADÉ
statut: un ou plusieurs appareils ont été mis hors ligne par l'administrateur.
Il existe suffisamment de réplicas pour que le pool continue à fonctionner dans un
état dégradé.
action: connectez le périphérique en ligne à l'aide de 'zpool online' ou remplacez-le par
'zpool remplacer'.
scrub: résilience terminée après 0h0m avec 0 erreurs le mer. 20 janv. 15:15:09 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir DÉGRADÉ 0 0 0
miroir-0 DÉGRADÉ 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t1d0 HORS LIGNE 0 0 0 48K sur réseau

erreurs: aucune erreur de données connue

Les colonnes READ et WRITE fournissent un nombre d'erreurs d'E / S survenues sur le périphérique, tandis que la colonne
CKSUM fournit un nombre d'erreurs de somme de contrôle non corrigibles survenues sur le périphérique. Les deux
comptages d'erreurs indiquent une défaillance potentielle du périphérique et des actions correctives sont nécessaires. Si des
erreurs non nulles sont signalées pour un périphérique virtuel de niveau supérieur, certaines parties de vos données sont
devenues inaccessibles.

Le champ errors: identifie les erreurs de données connues.

Dans l'exemple de sortie précédent, le périphérique hors ligne ne provoque pas d'erreurs de données.

Pour plus d'informations sur le diagnostic et la réparation des pools et des données défaillants, reportez-vous au Chapitre
11, Dépannage et récupération de pool Oracle Solaris ZFS .

Migration des pools de stockage ZFS


Il peut parfois être nécessaire de déplacer un pool de stockage entre des systèmes. Pour ce faire, les périphériques de
stockage doivent être déconnectés du système d'origine et reconnectés au système de destination. Cette tâche peut être
accomplie en reconfigurant physiquement les périphériques ou en utilisant des périphériques multiports tels que les
périphériques d'un réseau de stockage. ZFS vous permet d'exporter le pool d'une machine et de l'importer sur le système de
destination, même si le système possède une architecture différente. Pour plus d'informations sur la réplication ou la
migration de systèmes de fichiers entre différents pools de stockage, susceptibles de résider sur des ordinateurs différents,
voir Envoi et réception de données ZFS .

Préparation à la migration du pool de stockage ZFS

Exportation d'un pool de stockage ZFS


Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 38/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html

Détermination des pools de stockage disponibles à importer

Importation de pools de stockage ZFS à partir d'autres répertoires

Importation de pools de stockage ZFS

Récupération des pools de stockage ZFS détruits

Préparation à la migration du pool de stockage ZFS


Les pools de stockage doivent être explicitement exportés pour indiquer qu'ils sont prêts à être migrés. Cette opération
supprime toutes les données non écrites sur le disque, les écrit sur le disque en indiquant que l'exportation a été effectuée et
supprime toutes les informations relatives au pool du système.

Si vous n'exportez pas explicitement le pool, mais supprimez les disques manuellement, vous pouvez toujours importer le
pool résultant sur un autre système. Toutefois, vous risquez de perdre les dernières secondes de transactions de données et
le pool apparaîtra comme défaillant sur le système d'origine car les périphériques ne sont plus présents. Par défaut, le
système de destination ne peut pas importer un pool qui n'a pas été explicitement exporté. Cette condition est nécessaire
pour vous empêcher d'importer accidentellement un pool actif constitué d'un stockage connecté au réseau qui est toujours
utilisé sur un autre système.

Exportation d'un pool de stockage ZFS


Pour exporter un pool, utilisez la zpool exportcommande. Par exemple:

# zpool export tank

La commande tente de démonter tout système de fichiers monté dans le pool avant de continuer. Si l'un des systèmes de
fichiers ne parvient pas à se démonter, vous pouvez le démonter de manière forcée à l'aide de l' -foption. Par exemple:

# zpool export tank


impossible de démonter '/ export / home / eschrock': périphérique occupé
# zpool export -f tank

Une fois cette commande exécutée, le réservoir de pool n'est plus visible sur le système.

Si les périphériques ne sont pas disponibles au moment de l'exportation, ils ne peuvent pas être identifiés comme exportés
correctement. Si l'un de ces périphériques est ultérieurement connecté à un système sans aucun des périphériques
opérationnels, il apparaît comme «potentiellement actif».

Si des volumes ZFS sont utilisés dans le pool, celui-ci ne peut pas être exporté, même avec l' -foption. Pour exporter un
pool avec un volume ZFS, commencez par vous assurer que tous les consommateurs du volume ne sont plus actifs.

Pour plus d'informations sur les volumes ZFS, voir Volumes ZFS .

Détermination des pools de stockage disponibles à importer


Une fois le pool supprimé du système (via une exportation explicite ou en supprimant de manière forcée les périphériques),
vous pouvez attacher les périphériques au système cible. ZFS peut gérer certaines situations dans lesquelles seuls certains
des périphériques sont disponibles, mais une migration de pool réussie dépend de la santé globale des périphériques. De
plus, les périphériques ne doivent pas nécessairement être associés sous le même nom. ZFS détecte les périphériques
déplacés ou renommés et ajuste la configuration en conséquence. Pour découvrir les pools disponibles, exécutez la zpool
importcommande sans options. Par exemple:

# zpool import
piscine: réservoir
id: 11809215114195894163
état: EN LIGNE
action: Le pool peut être importé sous son nom ou son identifiant numérique.
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 39/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
config:

réservoir en ligne
mirror-0 EN LIGNE
c1t0d0 EN LIGNE
c1t1d0 EN LIGNE

Dans cet exemple, le réservoir de pool peut être importé sur le système cible. Chaque pool est identifié par un nom ainsi
que par un identifiant numérique unique. Si plusieurs pools avec le même nom sont disponibles à l'importation, vous
pouvez utiliser l'identificateur numérique pour les distinguer.

Semblable à la zpool statussortie de la commande, la zpool importsortie inclut un lien vers un article de base de
connaissances contenant les informations les plus récentes sur les procédures de réparation du problème empêchant
l'importation d'un pool. Dans ce cas, l'utilisateur peut forcer l'importation du pool. Toutefois, l'importation d'un pool en
cours d'utilisation par un autre système sur un réseau de stockage peut entraîner une corruption des données et une panique
lorsque les deux systèmes tentent d'écrire sur le même stockage. Si certains périphériques du pool ne sont pas disponibles
mais qu'il existe suffisamment de données redondantes pour fournir un pool utilisable, le pool apparaît à l' état DÉGRADÉ .
Par exemple:

# zpool import
piscine: réservoir
id: 11809215114195894163
état: DÉGRADÉ
statut: un ou plusieurs périphériques sont absents du système.
action: Le pool peut être importé malgré des périphériques manquants ou endommagés. le
la tolérance aux pannes du pool peut être compromise si elle est importée.
voir: http://www.sun.com/msg/ZFS-8000-2Q
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir DÉGRADÉ 0 0 0
miroir-0 DÉGRADÉ 0 0 0
c1t0d0 UNAVAIL 0 0 0 impossible d'ouvrir
c1t3d0 EN LIGNE 0 0 0

Dans cet exemple, le premier disque est endommagé ou manquant, même si vous pouvez toujours importer le pool car les
données en miroir sont toujours accessibles. Si trop de périphériques défectueux ou manquants sont présents, le pool ne
peut pas être importé. Par exemple:

# zpool import
piscine: bulldozer
id: 9784486589352144634
état: PAULTED
action: le pool ne peut pas être importé. Joindre le manquant
appareils et essayez à nouveau.
voir: http://www.sun.com/msg/ZFS-8000-6X
config:
raidz1-0 PAULTED
c1t0d0 EN LIGNE
c1t1d0 PAULTED
c1t2d0 EN LIGNE
c1t3d0 PAULTED

Dans cet exemple, deux disques sont absents d'un périphérique virtuel RAID-Z, ce qui signifie que suffisamment de
données redondantes ne sont pas disponibles pour reconstruire le pool. Dans certains cas, le nombre de périphériques
présents est insuffisant pour déterminer la configuration complète. Dans ce cas, ZFS ne peut pas déterminer quels autres
périphériques faisaient partie du pool, bien que ZFS rapporte autant d'informations que possible sur la situation. Par
exemple:

# zpool import
piscine: bulldozer
id: 9784486589352144634
état: PAULTED
statut: un ou plusieurs périphériques sont absents du système.
action: le pool ne peut pas être importé. Joindre le manquant
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 40/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
appareils et essayez à nouveau.
voir: http://www.sun.com/msg/ZFS-8000-6X
config:
bulldozer FAULTED dispositif manquant
raidz1-0 EN LIGNE
c1t0d0 EN LIGNE
c1t1d0 EN LIGNE
c1t2d0 EN LIGNE
c1t3d0 EN LIGNE
Des périphériques supplémentaires sont connus pour faire partie de ce pool, bien que leurs
la configuration exacte ne peut pas être déterminée.

Importation de pools de stockage ZFS à partir d'autres répertoires


Par défaut, la zpool importcommande ne recherche que les périphériques du /dev/dskrépertoire. Si des périphériques
existent dans un autre répertoire ou si vous utilisez des pools sauvegardés sur des fichiers, vous devez utiliser l' -doption
pour rechercher d'autres répertoires. Par exemple:

# zpool create dozer mirror /file/a /file/b


# zpool export dozer
#zpool import -d /file
piscine: bulldozer
id: 7318163511366751416
état: EN LIGNE
action: Le pool peut être importé sous son nom ou son identifiant numérique.
config:

bulldozer EN LIGNE
mirror-0 EN LIGNE
/ file / a ONLINE
/ file / b ONLINE
# zpool import -d /file dozer

Si des périphériques existent dans plusieurs répertoires, vous pouvez spécifier plusieurs -doptions.

Importation de pools de stockage ZFS


Une fois qu'un pool a été identifié pour importation, vous pouvez l'importer en spécifiant le nom du pool ou son
identificateur numérique en tant qu'argument de la zpool importcommande. Par exemple:

# zpool import tank

Si plusieurs pools disponibles portent le même nom, vous devez spécifier le pool à importer à l'aide de l'identificateur
numérique. Par exemple:

# zpool import
piscine: bulldozer
id: 2704475622193776801
état: EN LIGNE
action: Le pool peut être importé sous son nom ou son identifiant numérique.
config:

bulldozer EN LIGNE
c1t9d0 EN LIGNE

piscine: bulldozer
id: 6223921996155991199
état: EN LIGNE
action: Le pool peut être importé sous son nom ou son identifiant numérique.
config:

bulldozer EN LIGNE
c1t8d0 EN LIGNE
# zpool import dozer
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 41/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
ne peut pas importer 'dozer': plus d'un pool correspondant
importer par ID numérique à la place
# zpool import 6223921996155991199

Si le nom du pool entre en conflit avec un nom de pool existant, vous pouvez importer le pool sous un nom différent. Par
exemple:

# zpool import dozer zeepool

Cette commande importe la piscine exporté dozer en utilisant le nouveau nom zeepool .

Si le pool n'a pas été correctement exporté, ZFS requiert l' -findicateur pour empêcher les utilisateurs d'importer
accidentellement un pool toujours en cours d'utilisation sur un autre système. Par exemple:

# zpool import dozer


ne peut pas importer 'dozer': le pool peut être utilisé sur un autre système
utilisez '-f' pour importer quand même
# zpool import -f dozer

Remarque -

N'essayez pas d'importer un pool actif d'un système à un autre. ZFS n'est pas un cluster natif, un système de fichiers
distribué ou parallèle et ne peut pas fournir un accès simultané à partir de plusieurs hôtes différents.

Les pools peuvent également être importés sous une autre racine à l'aide de l' -Roption. Pour plus d'informations sur les
autres pools racine, reportez-vous à la section Utilisation de pools racine ZFS alternatifs .

Récupération des pools de stockage ZFS détruits


Vous pouvez utiliser la zpool import -Dcommande pour récupérer un pool de stockage détruit. Par exemple:

# zpool destroy tank


#zpool import -D
piscine: réservoir
id: 5154272182900538157
état: en ligne (détruit)
action: Le pool peut être importé sous son nom ou son identifiant numérique.
config:

réservoir en ligne
mirror-0 EN LIGNE
c1t0d0 EN LIGNE
c1t1d0 EN LIGNE

Dans cette zpool importsortie, vous pouvez identifier le pool de réservoirs en tant que pool détruit en raison des
informations d'état suivantes:

état: en ligne (détruit)

Pour récupérer le pool détruit, réexécutez la zpool import -Dcommande avec le pool à récupérer. Par exemple:

# zpool import -D tank


#zpool status tank
piscine: réservoir
état: EN LIGNE
Préférences de cookies | Choix des annonces
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 42/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
gommage: aucun demandé
config:

NOM ÉTAT LIRE ECRIRE CKSUM


réservoir en ligne
mirror-0 EN LIGNE
c1t0d0 EN LIGNE
c1t1d0 EN LIGNE

erreurs: aucune erreur de données connue

Si l'un des périphériques du pool détruit est défaillant ou indisponible, vous pourrez quand même récupérer le pool détruit
en incluant l' -foption. Dans ce scénario, vous importeriez le pool dégradé, puis tenteriez de résoudre le problème. Par
exemple:

# zpool destroy dozer


#zpool import -D
piscine: bulldozer
id: 13643595538644303788
état: DÉGRADÉ (détruit)
statut: un ou plusieurs périphériques n'ont pas pu être ouverts. Il existe suffisamment de répliques pour
la piscine pour continuer à fonctionner dans un état dégradé.
action: attachez le périphérique manquant et connectez-le en ligne à l'aide de 'zpool online'.
voir: http://www.sun.com/msg/ZFS-8000-2Q
config:

NOM ÉTAT LIRE ECRIRE CKSUM


bulldozer DEGRADÉ 0 0 0
raidz2-0 DEGRADED 0 0 0
c2t8d0 EN LIGNE 0 0 0
c2t9d0 EN LIGNE 0 0 0
c2t10d0 EN LIGNE 0 0 0
c2t11d0 UNAVAIL 0 35 1 impossible d'ouvrir
c2t12d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool import -Df dozer
#zpool status -x
piscine: bulldozer
état: DÉGRADÉ
statut: un ou plusieurs périphériques n'ont pas pu être ouverts. Il existe suffisamment de répliques pour
la piscine pour continuer à fonctionner dans un état dégradé.
action: attachez le périphérique manquant et connectez-le en ligne à l'aide de 'zpool online'.
voir: http://www.sun.com/msg/ZFS-8000-2Q
scrub: nettoyage terminé après 0h0m avec 0 erreurs le jeu. 21 janv. 15:38:48 2010
config:

NOM ÉTAT LIRE ECRIRE CKSUM


bulldozer DEGRADÉ 0 0 0
raidz2-0 DEGRADED 0 0 0
c2t8d0 EN LIGNE 0 0 0
c2t9d0 EN LIGNE 0 0 0
c2t10d0 EN LIGNE 0 0 0
c2t11d0 UNAVAIL 0 37 0 impossible d'ouvrir
c2t12d0 EN LIGNE 0 0 0

erreurs: aucune erreur de données connue


# zpool online dozer c2t11d0
Mise en ligne du dispositif c2t11d0
# zpool status -x
toutes les piscines sont en bonne santé

Mise à niveau des pools de stockage ZFS


Si vous avez des pools de stockage ZFS d'une version antérieure de Solaris, telle que la version Solaris 10 10/09, vous
pouvez mettre à niveau vos pools avec la zpool upgradecommande pour tirer parti des fonctionnalités de pool de la version
actuelle. En outre, la zpool statuscommande a été modifiée pour vous avertir lorsque vos pools exécutent des versions
plus anciennes. Par exemple:

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 43/44
21/11/2019 https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html
# zpool status
piscine: réservoir
état: EN LIGNE
status: le pool est formaté en utilisant un format plus ancien sur disque. La piscine peut
toujours être utilisé, mais certaines fonctionnalités ne sont pas disponibles.
action: mettez à niveau le pool à l'aide de 'zpool upgrade'. Une fois que cela est fait, le
le pool ne sera plus accessible sur les anciennes versions du logiciel.
gommage: aucun demandé
config:
NOM ÉTAT LIRE ECRIRE CKSUM
réservoir EN LIGNE 0 0 0
miroir-0 EN LIGNE 0 0 0
c1t0d0 EN LIGNE 0 0 0
c1t1d0 EN LIGNE 0 0 0
erreurs: aucune erreur de données connue

Vous pouvez utiliser la syntaxe suivante pour identifier des informations supplémentaires sur une version particulière et les
versions prises en charge:

# zpool upgrade -v
Ce système exécute actuellement la version 22 du pool ZFS.

Les versions suivantes sont supportées:

VER DESCRIPTION
--- ----------------------------------------------- ---------
1 version initiale de ZFS
2 blocs Idem (métadonnées répliquées)
3 disques de secours et double parité RAID-Z
4 histoire de zpool
5 Compression utilisant l'algorithme gzip
6 propriétés de piscine bootfs
7 périphériques de journal d'intention distincts
8 Administration déléguée
9 propriétés de réfaction et de restauration
10 périphériques de cache
11 Performance de nettoyage améliorée
12 propriétés de l'instantané
13 propriété snapused
14 passthrough-x aclinherit
15 comptabilité d'espace utilisateur / groupe
16 soutien de propriété stmf
17 RAID-Z à triple parité
18 utilisateur de l'instantané détient
19 Suppression du périphérique de journalisation
20 Compression utilisant zle (codage de longueur nulle)
21 réservé
22 biens reçus

Pour plus d'informations sur une version particulière, y compris les versions prises en charge,
reportez-vous au Guide d’administration ZFS.

Ensuite, vous pouvez exécuter la zpool upgradecommande pour mettre à niveau tous vos pools. Par exemple:

# zpool upgrade -a

Remarque -

Si vous mettez à niveau votre pool vers une version ZFS ultérieure, le pool ne sera pas accessible sur un système exécutant
une version ZFS plus ancienne.

Précédent : Chapitre 3 Différences entre Oracle Solaris ZFS et le système de fichiers traditionnel
Next : Chapitre 5 Installation et initialisation d'un système de fichiers racine Oracle Solaris ZFS

© 2010, Oracle Corporation et / ou ses filiales

Préférences de cookies | Choix des annonces


https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6qug/index.html 44/44

Vous aimerez peut-être aussi