Configuration du logiciel Solaris Volume Manager. Oracle Solaris Cluster 3.3
Vous trouverez ci-dessous de brèves informations sur Solaris Cluster. Ce guide fournit des instructions pour installer le logiciel Solaris Cluster, établissant un nouveau cluster global ou un nouveau nœud de cluster global, en configurant Solaris Volume Manager et en créant des systèmes de fichiers de cluster.
4
4
Configuration du logiciel Solaris Volume
Manager
Configurez vos disques locaux et multihôtes pour le logiciel Solaris Volume Manager en suivant les procédures décrites dans ce chapitre et les informations de planification fournies à la section
“Planification de la gestion des volumes” à la page 49 . Reportez-vous à la documentation de
Solaris Volume Manager pour plus d'informations.
Remarque –
Le module de stockage amélioré de Solaris Management Console n'est pas compatible avec le logiciel Oracle Solaris Cluster. Tirez parti de l'interface de ligne de commande ou des utilitaires Oracle Solaris Cluster pour configurer le logiciel Solaris Volume
Manager.
Ce chapitre inclut les sections suivantes :
■
■
■
“Configuration du logiciel Solaris Volume Manager” à la page 165
“Création d'ensembles de disques dans un cluster” à la page 178
“Configuration d'hôtes médiateurs” à la page 187
Configuration du logiciel Solaris Volume Manager
Le tableau suivant répertorie les tâches à effectuer pour configurer le logiciel Solaris Volume
Manager pour les configurations Oracle Solaris Cluster. Effectuez les procédures dans l'ordre dans lequel elles sont indiquées.
TABLEAU 4–1
Liste des tâches : configuration du logiciel Solaris Volume Manager
Tâche
Planification de l'organisation de votre configuration
Solaris Volume Manager.
Instructions
“Planification de la gestion des volumes” à la page 49
165
Configuration du logiciel Solaris Volume Manager
TABLEAU 4–1
Tâche
Liste des tâches : configuration du logiciel Solaris Volume Manager
Instructions
(Suite)
Création de répliques de la base de données d'état sur les disques locaux.
“Création de répliques de la base de données d'état”
(Facultatif) Mise en miroir des systèmes de fichiers sur le disque root.
“Mise en miroir du disque root” à la page 167
166
▼
Création de répliques de la base de données d'état
Suivez cette procédure sur chaque noeud du cluster global.
1
Connectez-vous en tant que superutilisateur.
2
Créez des répliques de la base de données d'état sur un ou plusieurs périphériques locaux, pour chaque noeud de cluster.
Utilisez le nom physique (cNt XdY sZ), et non le nom d'ID de périphérique ( dN), pour spécifier les tranches à utiliser.
phys-schost# metadb -af
slice-1 slice-2 slice-3
Astuce –
Pour protéger vos données d'état, nécessaires à l'exécution du logiciel Solaris Volume
Manager, créez au moins trois répliques pour chaque noeud. Pour plus de sûreté, vous pouvez
également créer des répliques sur plusieurs périphériques qui vous serviront en cas de panne de l'un des périphériques.
Reportez-vous à la page de manuel metadb
(1M) et à la section “Creating State Database
Replicas” du manuel Solaris Volume Manager Administration Guide pour plus de détails.
3
Vérifiez les répliques.
phys-schost# metadb
La commande metadb affiche la liste des répliques.
Exemple 4–1
Création de répliques de la base de données d'état
L'exemple suivant représente trois répliques de la base de données d'état, toutes trois créées sur un périphérique différent.
phys-schost# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 phys-schost# metadb flags first blk block count a a a u u u
16
16
16
8192
8192
8192
/dev/dsk/c0t0d0s7
/dev/dsk/c0t1d0s7
/dev/dsk/c1t0d0s7
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager
Étapes suivantes
Pour mettre en miroir des systèmes de fichiers sur le disque root, accédez à la section
“Mise en miroir du disque root” à la page 167 .
Autrement, passez à la section
“Création d'ensembles de disques dans un cluster” à la page 178
pour créer des ensembles de disques Solaris Volume Manager.
Mise en miroir du disque root
La mise en miroir du disque root évite au noeud de cluster lui-même de s'arrêter en raison d'une panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque root. Chaque type de système de fichiers est mis en miroir en utilisant une méthode différente.
Suivez les procédures ci-après pour mettre en miroir chaque type de système de fichiers.
■
■
■
■
“Mise en miroir du système de fichiers root (/)” à la page 167
“Mise en miroir de l'espace de noms des périphériques globaux sur une partition dédiée”
“Mise en miroir de systèmes de fichiers pouvant être démontés” à la page 175
Caution –
Pour la mise en miroir du disque local, n'utilisez pas /dev/global comme chemin lorsque vous spécifiez le nom du disque. Si vous indiquez ce chemin pour tout élément différent d'un système de fichiers de cluster, le système ne peut pas s'initialiser.
▼
Mise en miroir du système de fichiers root (/)
Cette procédure vous permet de mettre en miroir le système de fichiers root (/).
Remarque –
Si l'espace de noms des périphériques globaux est sur un fichier créé par lofi, cette procédure inclut la mise en miroir de l'espace de noms des périphériques globaux.
1
Connectez-vous en tant que superutilisateur.
2
Placez la tranche root dans une concaténation à une tranche (unidirectionnelle).
Indiquez le nom de disque physique de la tranche de disque root (cN tXdY sZ).
phys-schost# metainit -f
submirror1 1 1 root-disk-slice
3
Créez une deuxième concaténation.
phys-schost# metainit
submirror2 1 1 submirror-disk-slice
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 167
Configuration du logiciel Solaris Volume Manager
168
4
Créez un miroir unidirectionnel avec un sous-miroir.
phys-schost# metainit
mirror -m submirror1
Remarque –
S'il s'agit d'un périphérique local à utiliser pour monter un système de fichiers de périphériques globaux (/global/.devices/node@ nodeid), le nom de volume du miroir doit
être unique dans l'ensemble du cluster.
5
Configurez les fichiers système pour le répertoire root (/).
phys-schost# metaroot
mirror
Cette commande modifie les fichiers /etc/vfstab et /etc/system afin de pouvoir initialiser le système avec le système de fichiers root (/) sur un métapériphérique ou un volume. Pour plus d'informations, reportez-vous à la page de manuel metaroot
(1M) .
6
Videz tous les systèmes de fichiers.
phys-schost# lockfs -fa
Cette commande vide toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés. Pour plus d'informations, reportez-vous à la page de manuel lockfs
(1M) .
7
Déplacez tout groupe de ressources ou de périphériques du noeud.
phys-schost# clnode evacuate
from-node from-node
Indique le nom du noeud à partir duquel évacuer les groupes de ressources et de périphériques.
8
Réinitialisez le noeud.
Cette commande remonte le nouveau système de fichiers root (/) mis en miroir.
phys-schost# shutdown -g0 -y -i6
9
Rattachez le deuxième sous-miroir au miroir.
phys-schost# metattach
mirror submirror2
Pour plus d'informations, reportez-vous à la page de manuel metattach
(1M) .
10
Si le disque utilisé pour mettre en miroir le disque root est physiquement connecté à plusieurs noeuds (multihébergé), désactivez la séparation pour ce disque.
La désactivation de la séparation pour le périphérique empêche toute séparation involontaire d'un noeud et de son périphérique d'initialisation si ce périphérique est connecté à plusieurs noeuds.
phys-schost# cldevice set -p default_fencing=nofencing
submirror-disk
-p
Indique une propriété du groupe de périphériques.
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager default_fencing=nofencing
Désactive la séparation pour le périphérique spécifié.
Pour plus d'informations sur la propriété default_fencing, reportez-vous à la page de manuel cldevice
(1CL) .
11
Enregistrez le chemin d'initialisation alternatif en vue d'une possible utilisation ultérieure.
Si le périphérique d'initialisation principal subit une défaillance, vous pouvez initialiser le système à partir du périphérique d'initialisation alternatif. Pour plus d'informations sur les périphériques d'initialisation alternatifs, reportez-vous à la section “Creating a RAID-1
Volume” du manuel Solaris Volume Manager Administration Guide .
phys-schost# ls -l /dev/rdsk/
root-disk-slice
12
Répétez la procédure de l' Étape 1
sur chaque noeud restant du cluster.
Assurez-vous que chaque nom de volume d'un miroir sur lequel un système de fichiers de périphériques globaux (/global/.devices/node@ nodeid) doit être monté est unique dans l'ensemble du cluster.
Exemple 4–2
Mise en miroir du système de fichiers root (/)
L'exemple suivant illustre la création du miroir d0 sur le noeud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le périphérique c2t2d0 étant un disque multihôte, la séparation est désactivée. Cet exemple affiche
également le chemin d'initialisation alternatif pour l'enregistrement.
phys-schost# metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup phys-schost# metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup phys-schost# metainit d0 -m d10 d10: Mirror is setup phys-schost# metaroot d0 phys-schost# lockfs -fa phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 phys-schost# metattach d0 d20 d0: Submirror d20 is attachedphys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw
Étapes suivantes
Pour mettre en miroir un espace de noms des périphériques globaux configuré sur une partition dédiée (/global/.devices/node@ nodeid), reportez-vous à la section
Pour mettre en miroir des systèmes de fichiers qui ne peuvent pas être démontés, reportez-vous
à la section
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 169
Configuration du logiciel Solaris Volume Manager
170
Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la section
“Mise en miroir de systèmes de fichiers pouvant être démontés” à la page 175 .
Autrement, passez à la section
“Création d'ensembles de disques dans un cluster” à la page 178
pour créer un ensemble de disques.
Erreurs fréquentes
Certaines étapes de la procédure de mise en miroir peuvent générer un message d'erreur semblable au suivant : metainit: dg-schost-1: d1s0: not a metadevice. Un tel message d'erreur est anodin et peut être ignoré.
▼
Mise en miroir de l'espace de noms des périphériques globaux sur une partition dédiée
Si vous avez configuré une partition dédiée pour l'espace de noms des périphériques globaux, suivez cette procédure pour mettre en miroir l'espace de noms /global/.devices/node@
nodeid/.
Remarque –
Ne suivez pas cette procédure si l'espace de noms des périphériques globaux est sur un fichier basé sur lofi. Reportez-vous plutôt à la section
“Mise en miroir du système de fichiers root (/)” à la page 167 .
1
Connectez-vous en tant que superutilisateur.
2
Placez la tranche de l'espace de noms de périphériques globaux dans une concaténation à tranche unique (unidirectionnelle).
Utilisez le nom de disque physique de la tranche (cN tXdY sZ).
phys-schost# metainit -f
submirror1 1 1 diskslice
3
Créez une deuxième concaténation.
phys-schost# metainit
submirror2 1 1 submirror-diskslice
4
Créez un miroir unidirectionnel avec un sous-miroir.
phys-schost# metainit
mirror -m submirror1
Remarque –
Le nom de volume pour un miroir sur lequel il faut monter un système de fichiers de périphériques globaux (/global/.devices/node@nodeid) doit être unique dans l'ensemble du cluster.
5
Rattachez le deuxième sous-miroir au miroir.
Cette connexion lance la synchronisation des sous-miroirs.
phys-schost# metattach
mirror submirror2
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager
6
Modifiez l'entrée du fichier /etc/vfstab pour le système de fichiers
/global/.devices/node@
nodeid.
Remplacez le nom des colonnes device to mount et device to fsck par le nom du miroir.
phys-schost# vi /etc/vfstab
#device
#to mount device to fsck mount point
FS type fsck pass mount at boot mount options
#
/dev/md/dsk/
mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global
7
Répétez la procédure de l' Étape 1
sur chaque noeud restant du cluster.
8
Attendez la fin de la synchronisation des miroirs entamée à l' Étape 5 .
Exécutez la commande metastat
(1M) pour visualiser l'état du miroir et vérifier que la synchronisation du miroir est terminée.
phys-schost# metastat
mirror
9
Si le disque utilisé pour la mise en miroir de l'espace de noms des périphériques globaux est physiquement connecté à plusieurs noeuds (multihébergé), désactivez la séparation pour ce disque.
La désactivation de la séparation pour le périphérique empêche toute séparation involontaire d'un noeud et de son périphérique d'initialisation si ce périphérique est connecté à plusieurs noeuds.
phys-schost# cldevice set -p default_fencing=nofencing
submirror-disk
-p
Indique une propriété du groupe de périphériques.
default_fencing=nofencing
Désactive la séparation pour le périphérique spécifié.
Pour plus d'informations sur la propriété default_fencing, reportez-vous à la page de manuel cldevice
(1CL) .
Exemple 4–3
Mise en miroir d'un espace de noms des périphériques globaux configuré sur une partition dédiée
L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée du fichier
/etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101
. Le périphérique c2t2d0 étant un disque multihôte, la séparation est désactivée.
phys-schost# metainit -f d111 1 1 c0t0d0s3 d111: Concat/Stripe is setup phys-schost# metainit d121 1 1 c2t2d0s3 d121: Concat/Stripe is setup phys-schost# metainit d101 -m d111 d101: Mirror is setup
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 171
Configuration du logiciel Solaris Volume Manager phys-schost# metattach d101 d121 d101: Submirror d121 is attached phys-schost# vi /etc/vfstab
#device device
#to mount
# to fsck mount point
FS type fsck pass mount at boot mount options
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global phys-schost# metastat d101 d101: Mirror
Submirror 0: d111
State: Okay
Submirror 1: d121
State: Resyncing
Resync in progress: 15 % done
...
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
=== DID Device Instances ===
DID Device Name:
Full Device Path:
Full Device Path:
...
/dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c2t2d0 phys-schost-3:/dev/rdsk/c2t2d0 phys-schost# cldevicegroup show | grep dsk/d2
Device Group Name: dsk/d2
...
Node List: phys-schost-1, phys-schost-3
...
localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c2t2d0
Étapes suivantes
Pour mettre en miroir des systèmes de fichiers différents de root (/) qui ne peuvent pas être démontés, reportez-vous à la section
“Mise en miroir de systèmes de fichiers différents de root
(/) qui ne peuvent pas être démontés” à la page 173 .
Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, passez à la section
“Mise en miroir de systèmes de fichiers pouvant être démontés” à la page 175 .
Autrement, passez à la section
“Création d'ensembles de disques dans un cluster” à la page 178
pour créer un ensemble de disques.
Erreurs fréquentes
Certaines étapes de la procédure de mise en miroir peuvent générer un message d'erreur semblable au suivant : metainit: dg-schost-1: d1s0: not a metadevice. Un tel message d'erreur est anodin et peut être ignoré.
172 Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager
▼
Mise en miroir de systèmes de fichiers différents de root (/) qui ne peuvent pas être démontés
Cette procédure vous permet de mettre en miroir des systèmes de fichiers différents de root ( /) qui ne peuvent pas être démontés dans des conditions normales d'utilisation du système, tels que /usr, /opt ou swap.
1
Connectez-vous en tant que superutilisateur.
2
Placez la tranche sur laquelle réside un système de fichiers dont le montage est impossible dans une concaténation à tranche unique (unidirectionnelle).
Spécifiez le nom de disque physique de la tranche (cN tXdY sZ).
phys-schost# metainit -f
submirror1 1 1 diskslice
3
Créez une deuxième concaténation.
phys-schost# metainit
submirror2 1 1 submirror-diskslice
4
Créez un miroir unidirectionnel avec un sous-miroir.
phys-schost# metainit
mirror -m submirror1
Remarque –
Le nom de volume de ce miroir ne doit pas forcément être unique dans l'ensemble du cluster.
5
Répétez la procédure de l' Étape 1 à l' Étape 4
pour chaque système de fichiers restant à mettre en miroir.
6
Sur chaque noeud, modifiez l'entrée du fichier /etc/vfstab pour chaque système de fichiers dont le montage est impossible et que vous avez mis en miroir.
Remplacez le nom des colonnes device to mount et device to fsck par le nom du miroir.
phys-schost# vi /etc/vfstab
#device
#to mount device to fsck mount point
FS type fsck pass mount at boot mount options
#
/dev/md/dsk/
mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
7
Déplacez tout groupe de ressources ou de périphériques du noeud.
phys-schost# clnode evacuate
from-node from-node
Indique le nom de noeud duquel doivent être évacués les groupes de ressources et de périphériques.
8
Réinitialisez le noeud.
phys-schost# shutdown -g0 -y -i6
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 173
Configuration du logiciel Solaris Volume Manager
174
9
Rattachez le deuxième sous-miroir à chaque miroir.
Cette connexion lance la synchronisation des sous-miroirs.
phys-schost# metattach
mirror submirror2
10
Attendez la fin de la synchronisation des miroirs entamée à l' Étape 9 .
Exécutez la commande metastat
(1M) pour visualiser l'état du miroir et vérifier que la synchronisation du miroir est terminée.
phys-schost# metastat
mirror
11
Si le disque utilisé pour mettre en miroir le système de fichiers dont le montage est impossible est physiquement connecté à plusieurs noeuds (multihébergé), désactivez la séparation pour ce disque.
La désactivation de la séparation pour le périphérique empêche toute séparation involontaire d'un noeud et de son périphérique d'initialisation si ce périphérique est connecté à plusieurs noeuds.
phys-schost# cldevice set -p default_fencing=nofencing
submirror-disk
-p
Indique une propriété du groupe de périphériques.
default_fencing=nofencing
Désactive la séparation pour le périphérique spécifié.
Pour plus d'informations sur la propriété default_fencing, reportez-vous à la page de manuel cldevice
(1CL) .
Exemple 4–4
Mise en miroir de systèmes de fichiers qui ne peuvent pas être démontés
L'exemple suivant illustre la création du miroir d1 sur le noeud phys-schost-1 pour mettre en miroir /usr, qui réside sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée du fichier
/etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le périphérique c2t2d0
étant un disque multihôte, la séparation est désactivée.
phys-schost# metainit -f d11 1 1 c0t0d0s1 d11: Concat/Stripe is setup phys-schost# metainit d21 1 1 c2t2d0s1 d21: Concat/Stripe is setup phys-schost# metainit d1 -m d11 d1: Mirror is setup phys-schost# vi /etc/vfstab
#device
#to mount
# device to fsck mount point
FS fsck type pass
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs 2
...
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 mount mount at boot options no global
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager phys-schost# metattach d1 d21 d1: Submirror d21 is attached phys-schost# metastat d1 d1: Mirror
Submirror 0: d11
State: Okay
Submirror 1: d21
State: Resyncing
Resync in progress: 15 % done
...
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
...
/dev/did/rdsk/d2 DID Device Name: phys-schost# cldevicegroup show dsk/d2
Device Group Name:
...
Node List:
...
dsk/d2 phys-schost-1, phys-schost-3 localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c2t2d0
Étapes suivantes
Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la section
“Mise en miroir de systèmes de fichiers pouvant être démontés” à la page 175 .
Autrement, passez à la section
“Création d'ensembles de disques dans un cluster” à la page 178
pour créer un ensemble de disques.
Erreurs fréquentes
Certaines étapes de la procédure de mise en miroir peuvent générer un message d'erreur semblable au suivant : metainit: dg-schost-1: d1s0: not a metadevice. Un tel message d'erreur est anodin et peut être ignoré.
▼
Mise en miroir de systèmes de fichiers pouvant être démontés
Suivez cette procédure pour mettre en miroir des systèmes de fichiers définis par l'utilisateur pouvant être démontés. Dans cette procédure, les noeuds ne doivent pas nécessairement être réinitialisés.
1
Connectez-vous en tant que superutilisateur.
2
Démontez le système de fichiers à mettre en miroir.
Vérifiez qu'aucun processus ne s'exécute sur le système de fichiers.
phys-schost# umount /
mount-point
Pour plus d'informations, reportez-vous à la page de manuel umount
(1M) et à la section
“Mounting and Unmounting Oracle Solaris File Systems” du manuel System Administration
Guide: Devices and File Systems
.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 175
Configuration du logiciel Solaris Volume Manager
176
3
Placez la tranche qui contient un système de fichiers défini par l'utilisateur pouvant être démonté dans une concaténation à tranche unique (unidirectionnelle).
Spécifiez le nom de disque physique de la tranche (cNt X dY sZ).
phys-schost# metainit -f
submirror1 1 1 diskslice
4
Créez une deuxième concaténation.
phys-schost# metainit
submirror2 1 1 submirror-diskslice
5
Créez un miroir unidirectionnel avec un sous-miroir.
phys-schost# metainit
mirror -m submirror1
Remarque –
Le nom de volume de ce miroir ne doit pas forcément être unique dans l'ensemble du cluster.
6
Répétez la procédure de l' Étape 1
pour chaque système de fichiers pouvant être monté à mettre en miroir.
7
Sur chaque noeud, modifiez l'entrée du fichier /etc/vfstab pour chaque système de fichiers que vous avez mis en miroir.
Remplacez le nom des colonnes device to mount et device to fsck par le nom du miroir.
phys-schost# vi /etc/vfstab
#device
#to mount device to fsck mount point
FS type fsck pass mount at boot mount options
#
/dev/md/dsk/
mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
8
Rattachez le deuxième sous-miroir au miroir.
Cette connexion lance la synchronisation des sous-miroirs.
phys-schost# metattach
mirror submirror2
9
Attendez la fin de la synchronisation des miroirs entamée à l' Étape 8 .
Exécutez la commande metastat
(1M) pour visualiser l'état du miroir.
phys-schost# metastat
mirror
10
Si le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est physiquement connecté à plusieurs noeuds (multihébergé), désactivez la séparation pour ce disque.
La désactivation de la séparation pour le périphérique empêche toute séparation involontaire d'un noeud et de son périphérique d'initialisation si ce périphérique est connecté à plusieurs noeuds.
phys-schost# cldevice set -p default_fencing=nofencing
submirror-disk
-p
Indique une propriété du groupe de périphériques.
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration du logiciel Solaris Volume Manager default_fencing=nofencing
Désactive la séparation pour le périphérique spécifié.
Pour plus d'informations sur la propriété default_fencing, reportez-vous à la page de manuel cldevice
(1CL) .
11
Montez le système de fichiers en miroir.
phys-schost# mount
/mount-point
Pour plus d'informations, reportez-vous à la page de manuel mount
(1M) et à la section
“Mounting and Unmounting Oracle Solaris File Systems” du manuel System Administration
Guide: Devices and File Systems
.
Exemple 4–5
Mise en miroir de systèmes de fichiers pouvant être démontés
L'exemple suivant illustre la création du miroir d4 pour mettre en miroir /export, qui réside sur c0t0d0s4
. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partitionc2t2d0s4. L'entrée du fichier /etc/vfstab pour /export est mise à jour pour utiliser le nom de miroir d4. Le périphérique c2t2d0 étant un disque multihôte, la séparation est désactivée.
phys-schost# umount /export phys-schost# metainit -f d14 1 1 c0t0d0s4 d14: Concat/Stripe is setup phys-schost# metainit d24 1 1 c2t2d0s4 d24: Concat/Stripe is setup phys-schost# metainit d4 -m d14 d4: Mirror is setup phys-schost# vi /etc/vfstab
#device
#to mount
# device to fsck mount point
FS fsck type pass mount at boot mount options
# /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no phys-schost# metattach d4 d24 d4: Submirror d24 is attached phys-schost# metastat d4 d4: Mirror
Submirror 0: d14 global
State: Okay
Submirror 1: d24
State: Resyncing
Resync in progress: 15 % done
...
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
...
/dev/did/rdsk/d2 DID Device Name: phys-schost# cldevicegroup show dsk/d2
Device Group Name: dsk/d2
...
Node List:
...
phys-schost-1, phys-schost-2 localonly: false phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 177
Création d'ensembles de disques dans un cluster phys-schost# cldevice set -p default_fencing=nofencing c2t2d0 phys-schost# mount /export
Étapes suivantes
Passez à la section
“Création d'ensembles de disques dans un cluster” à la page 178
pour créer un ensemble de disques. Si vous avez l'intention de créer un ensemble de disques multipropriétaire pour une utilisation par Oracle Real Application Clusters, vous pouvez également passer à la section “Création d’un ensemble de disques multipropriétaire dans Solaris Volume Manager pour Sun Cluster pour la base de données Oracle RAC” du manuel Guide du service de données
Oracle Solaris Cluster pour Oracle Real Application Clusters
.
Si vous avez suffisamment d'ensembles de disques pour répondre à vos besoins, passez à l'une des sections suivantes :
■
■
Si votre cluster contient des ensembles de disques configurés avec exactement deux boîtiers de disques et deux noeuds, vous devez ajouter des médiateurs à deux chaînes. Passez à la section
“Configuration d'hôtes médiateurs” à la page 187 .
Si votre cluster ne nécessite pas de médiateurs à deux chaînes, accédez à la section
“Création de systèmes de fichiers de cluster” à la page 193 .
Erreurs fréquentes
Certaines étapes de la procédure de mise en miroir peuvent générer un message d'erreur semblable au suivant : metainit: dg-schost-1: d1s0: not a metadevice. Un tel message d'erreur est anodin et peut être ignoré.
Création d'ensembles de disques dans un cluster
Cette section décrit la procédure de création d'ensembles de disques pour une configuration en cluster. Lorsque vous créez un ensemble de disques Solaris Volume Manager dans un environnement Oracle Solaris Cluster, l'ensemble de disques est enregistré automatiquement sur le logiciel Oracle Solaris Cluster en tant que groupe de périphériques de type svm. Pour créer ou supprimer un groupe de périphériques svm, vous devez exécuter les commandes et utilitaires
Solaris Volume Manager pour créer ou supprimer l'ensemble de disques sous-jacent du groupe de périphériques.
Le tableau suivant répertorie les tâches à effectuer pour créer des ensembles de disques.
Effectuez les procédures dans l'ordre dans lequel elles sont indiquées.
TABLEAU 4–2
Liste des tâches : installation et configuration du logiciel Solaris Volume Manager
Tâche
Création d'ensembles de disques avec la commande metaset
.
Ajout d'unités aux ensembles de disques.
Instructions
“Création d'un ensemble de disques” à la page 179
“Ajout d'unités à un ensemble de disques”
178 Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Création d'ensembles de disques dans un cluster
TABLEAU 4–2
Tâche
Liste des tâches : installation et configuration du logiciel Solaris Volume Manager
Instructions
(Facultatif) Repartitionnement des unités dans un ensemble de disques pour allouer de l'espace à différentes tranches.
Création de la liste des mappages des pseudopilotes
DID et définition des volumes dans les fichiers
/etc/lvm/md.tab
.
Initialisation des fichiers md.tab.
“Création d'un fichier md.tab” à la page 184
“Activation de volumes” à la page 185
(Suite)
“Repartitionnement d'unités dans un ensemble de disques” à la page 183
▼
Création d'un ensemble de disques
Suivez cette procédure pour créer des ensembles de disques.
Avant de commencer
L'ensemble de disques que vous voulez créer doit répondre à l'un des critères suivants :
■
■
Si l'ensemble de disques est configuré exactement sur deux chaînes de disques, ce dernier doit être connecté à exactement deux noeuds et utiliser deux ou trois hôtes médiateurs. Ces derniers doivent inclure les deux hôtes reliés aux boîtiers contenant l'ensemble de disques.
Pour plus d'informations sur la configuration d'hôtes médiateurs, reportez-vous à la section
“Configuration d'hôtes médiateurs” à la page 187 .
Si l'ensemble de disques est configuré avec plus de deux chaînes de disques, assurez-vous que, pour deux chaînes de disques S1 et S2, le nombre total d'unités sur ces chaînes n'excède pas le nombre total d'unités sur la troisième chaîne S3. Autrement dit, vous devez respecter la formule suivante : total(S1) + total(S2) > total(S3)
1
Sur chaque noeud du cluster, exécutez la commande devfsadm
(1M) .
Vous pouvez exécuter cette commande sur tous les noeuds du cluster à la fois.
2
A partir d'un noeud du cluster, mettez à jour l'espace de noms des périphériques globaux.
phys-schost# cldevice populate
Pour plus d'informations, reportez-vous à la page de manuel cldevice
(1CL) .
3
Sur chaque noeud, vérifiez que la commande s'est complètement exécutée avant d'essayer de créer un ensemble de disques.
La commande s'applique à distance sur tous les noeuds, même si elle est exécutée à partir d'un seul noeud. Pour savoir si la commande a terminé le traitement, exécutez la commande suivante sur chaque noeud du cluster.
phys-schost# ps -ef | grep scgdevs
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 179
Création d'ensembles de disques dans un cluster
4
Vérifiez que les répliques locales de la base de données d'état existent.
Pour des instructions, reportez-vous à la section
“Création de répliques de la base de données d'état” à la page 166 .
5
Connectez-vous en tant que superutilisateur au noeud de cluster qui contrôlera l'ensemble de disques.
6
Créez l'ensemble de disques.
La commande suivante permet de créer l'ensemble de disques et de l'enregistrer en tant que groupe de périphériques Oracle Solaris Cluster.
phys-schost# metaset -s
setname -a -h node1 node2
-s setname
Spécifie le nom de l'ensemble de disques.
-a
Ajoute (crée) l'ensemble de disques.
-h
node1
Indique le nom du noeud principal qui contrôlera l'ensemble de disques.
node2
Indique le nom du noeud secondaire qui contrôlera l'ensemble de disques.
180
Remarque –
Lorsque vous exécutez la commande metaset pour configurer un groupe de périphériques Solaris Volume Manager sur un cluster, celle-ci désigne un noeud secondaire par défaut. Après la création du groupe de périphériques, vous pouvez modifier le nombre de noeuds secondaires souhaité dans ce groupe à l'aide de l'utilitaire clsetup. Pour plus d'informations sur la modification de la propriété “Administration des groupes de périphériques” du manuel Guide d’administration système d’Oracle Solaris Cluster Oracle Solaris
Cluster System Administration Guide.
7
Si vous configurez un groupe de périphériques Solaris Volume Manager répliqué, définissez la propriété de réplication de ce groupe.
phys-schost# cldevicegroup sync
device-group-name
Pour plus d'informations sur la réplication de données, reportez-vous au Chapitre 4, “Méthodes de réplication de données” du manuel Guide d’administration système d’Oracle Solaris Cluster .
8
Vérifiez le statut du nouvel ensemble de disques.
phys-schost# metaset -s
setname
9
Définissez les propriétés requises pour les groupes de périphériques.
phys-schost# cldevicegroup set -p
name=value devicegroup
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Création d'ensembles de disques dans un cluster
-p
Indique une propriété du groupe de périphériques.
name
Indique le nom d'une propriété.
value
Indique la valeur ou le paramètre de la propriété.
devicegroup
Indique le nom du groupe de périphériques. Le nom du groupe de périphériques correspond au nom de l'ensemble de disques.
Pour plus d'informations sur les propriétés des groupes de périphériques, reportez-vous à la page de manuel cldevicegroup
(1CL) .
Exemple 4–6
Création d'un ensemble de disques
La commande suivante crée deux ensembles de disques, dg-schost-1 et dg-schost-2, dont les noeuds phys-schost-1 et phys-schost-2 constituent les noeuds principaux.
phys-schost# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 phys-schost# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2
Étapes suivantes
Ajoutez des unités à l'ensemble de disques. Passez à la section
“Ajout d'unités à un ensemble de disques” à la page 181 .
Ajout d'unités à un ensemble de disques
■
■
Lorsque vous ajoutez une unité à un ensemble de disques, le logiciel de gestion de volumes repartitionne cette unité de la manière suivante, de sorte qu'elle puisse héberger la base de données d'état de l'ensemble de disques.
■
■
Une petite portion de chaque unité est réservée au fonctionnement du logiciel Solaris
Volume Manager. Dans les périphériques étiquetés VTOC (VTOC), il s'agit de la tranche 7.
Dans les périphériques étiquetés Interface de microprogramme extensible (EFI), il s'agit de la tranche 6. L'espace restant sur chaque unité est placé dans la tranche 0.
Les unités sont repartitionnées lors de leur ajout à l'ensemble de disques, uniquement si la tranche cible n'est pas configurée correctement.
Le repartitionnement provoque la perte des données existant sur les unités.
Si la tranche cible démarre au cylindre 0 et si la partition de l'unité est suffisamment grande pour contenir une réplique de la base de données d'état, l'unité n'est pas repartitionnée.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 181
Création d'ensembles de disques dans un cluster
▼
Avant de commencer
Ajout d'unités à un ensemble de disques
Vérifiez que l'ensemble de disques a été créé. Pour obtenir des instructions, reportez-vous à la section
“Création d'un ensemble de disques” à la page 179 .
1
Connectez-vous en tant que superutilisateur.
2
Répertoriez les mappages DID.
phys-schost# cldevice show | grep Device
■
■
Choisissez des unités partagées par les noeuds du cluster qui administreront ou seront susceptibles d'administrer l'ensemble de disques.
Lors de l'ajout d'une unité à l'ensemble de disques, utilisez le nom complet de périphérique
DID dont le format est /dev/did/rdsk/dN.
Dans l'exemple ci-dessous, les entrées du périphérique DID /dev/did/rdsk/d3 indiquent que l'unité est partagée par phys-schost-1 et phys-schost-2.
=== DID Device Instances ===
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
Full Device Path:
...
/dev/did/rdsk/d1 phys-schost-1:/dev/rdsk/c0t0d0
/dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c0t6d0
/dev/did/rdsk/d3 phys-schost-1:/dev/rdsk/c1t1d0 phys-schost-2:/dev/rdsk/c1t1d0
3
Devenez propriétaire de l'ensemble de disques.
phys-schost# cldevicegroup switch -n
node devicegroup
-n
node
Indique le noeud qui deviendra propriétaire du groupe de périphériques.
devicegroup
Indique le nom du groupe de périphériques, identique à celui de l'ensemble de disques.
4
Ajoutez les unités à l'ensemble de disques.
Utilisez le nom de chemin DID complet.
phys-schost# metaset -s
setname -a /dev/did/rdsk/dN
-s
setname
Spécifie le nom de l'ensemble de disques, qui correspond à celui du groupe de périphériques.
-a
Ajoute l'unité à l'ensemble de disques.
182 Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Création d'ensembles de disques dans un cluster
Remarque –
N'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lorsque vous ajoutez une unité à un ensemble de disques. Etant local et non unique à l'échelle du cluster, le nom de périphérique de niveau inférieur risque d'empêcher la commutation de metaset.
5
Vérifiez l'état de l'ensemble de disques et des unités.
phys-schost# metaset -s
setname
Exemple 4–7
Ajout d'unités à un ensemble de disques
La commande metaset ajoute les unités /dev/did/rdsk/d1 et /dev/did/rdsk/d2 à l'ensemble de disques dg-schost-1.
phys-schost# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2
Étapes suivantes
Pour repartitionner des unités à utiliser dans des volumes, passez à la section
“Repartitionnement d'unités dans un ensemble de disques” à la page 183 .
Autrement, passez à la section
“Création d'un fichier md.tab” à la page 184
pour définir des métapériphériques ou des volumes à l'aide du fichier md.tab.
▼
Repartitionnement d'unités dans un ensemble de disques
La commande metaset
(1M) repartitionne des unités dans un ensemble de disques de manière à réserver une petite portion de chaque unité au fonctionnement du logiciel Solaris Volume
Manager. Dans les périphériques étiquetés VTOC (VTOC), il s'agit de la tranche 7. Dans les périphériques étiquetés Interface de microprogramme extensible (EFI), il s'agit de la tranche 6.
L'espace restant sur chaque unité est placé dans la tranche 0. Pour une utilisation plus efficace de l'unité, suivez cette procédure afin de modifier l'organisation des disques. Si vous allouez de l'espace aux tranches VTOC 1 à 6 ou aux tranches EFI 1 à 5, vous pouvez utiliser ces tranches lorsque vous configurez des volumes Solaris Volume Manager.
1
Connectez-vous en tant que superutilisateur.
2
Utilisez la commande format pour modifier le partitionnement de disque pour chaque unité de l'ensemble de disques.
Lorsque vous repartitionnez une unité, il faut réunir les conditions suivantes pour empêcher la commande metaset
(1M) de repartitionner l'unité.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 183
Création d'ensembles de disques dans un cluster
■
■
■
Créez la tranche 7 pour VTOC ou la tranche 6 pour EFI à partir du cylindre 0. Il faut qu'elle soit suffisamment grande pour contenir une réplique de base de données d'état. Pour déterminer la taille de la réplique de base de données d'état correspondant à votre version du logiciel de gestion du volume, reportez-vous au Guide d'administration de Solaris Volume
Manager.
Dans la tranche cible, définissez le champ Flag sur wu (lecture-écriture, montage impossible). Ne la définissez pas en lecture seule.
N'autorisez pas le chevauchement de la tranche cible par une autre tranche de l'unité.
Pour plus d'informations, reportez-vous à la page de manuel format
(1M) .
Étapes suivantes
Définissez des volumes à l'aide d'un fichier md.tab. Passez à la section
184
▼
Création d'un fichier md.tab
Créez un fichier /etc/lvm/md.tab sur chaque noeud du cluster. Utilisez le fichier md.tab pour définir les volumes Solaris Volume Manager pour les ensembles de disques que vous avez créés.
Remarque –
Si vous utilisez des volumes locaux, vérifiez que leurs noms sont différents des ID de périphérique qui constituent les ensembles de disques. Par exemple, si l'ID de périphérique
/dev/did/dsk/d3 sert à un ensemble de disques, n'attribuez pas le nom /dev/md/dsk/d3 à un volume local. Cette exigence ne concerne pas les volumes partagés, qui respectent la convention de nommage /dev/md/setname/{r}dsk/d#.
1
Connectez-vous en tant que superutilisateur.
2
Répertoriez les mappages DID pour pouvoir vous y référer à tout moment lorsque vous créez le fichier md.tab.
Utilisez les noms de périphérique DID dans le fichier md.tab au lieu des noms de périphérique de niveau inférieur (cN tXdY). Le nom de périphérique DID prend la forme suivante :
/dev/did/rdsk/d
N.
phys-schost# cldevice show | grep Device
=== DID Device Instances ===
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
Full Device Path:
...
/dev/did/rdsk/d1 phys-schost-1:/dev/rdsk/c0t0d0
/dev/did/rdsk/d2 phys-schost-1:/dev/rdsk/c0t6d0
/dev/did/rdsk/d3 phys-schost-1:/dev/rdsk/c1t1d0 phys-schost-2:/dev/rdsk/c1t1d0
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Création d'ensembles de disques dans un cluster
3
Créez un fichier /etc/lvm/md.tab et modifiez-le dans l'éditeur de texte de votre choix.
Remarque –
Si des données existent sur les unités devant servir pour les sous-miroirs, sauvegardez-les avant de configurer les volumes. Ensuite, restaurez les données sur le miroir.
Dans un environnement de cluster, pour éviter toute confusion entre les volumes locaux des différents noeuds, utilisez un schéma de nommage dans lequel chaque nom de volume local présent sur le cluster possède un nom unique. Par exemple, pour le noeud 1, choisissez des noms compris entre d100 et d199. Pour le noeud 2, utilisez des noms compris entre d200 et d299
.
Pour plus d'informations sur la création d'un fichier md.tab, reportez-vous à la documentation de votre logiciel Solaris Volume Manager ainsi qu'à la page de manuel md.tab(4).
Exemple 4–8
Exemple de fichier md.tab
L'exemple de fichier md.tab suivant définit l'ensemble de disques nommé dg-schost-1. L'ordre des lignes dans le fichier md.tab n'est pas important.
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
Cet exemple de fichier md.tab est construit comme suit.
1. La première ligne définit le périphérique d0 en tant que miroir des volumes d10 et d20. La lettre -m signifie qu'il s'agit d'un périphérique miroir.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
2. La seconde ligne définit le volume d10, premier sous-miroir de d0, comme bande unidirectionnelle.
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
3. La troisième ligne définit le volume d20, second sous-miroir de d0, comme bande unidirectionnelle.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
Étapes suivantes
Activez les volumes définis dans les fichiers md.tab. Passez à la section
▼
Activation de volumes
Effectuez cette procédure pour activer les volumes Solaris Volume Manager définis dans des fichiers md.tab.
1
Connectez-vous en tant que superutilisateur.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 185
Création d'ensembles de disques dans un cluster
186
2
Assurez-vous que les fichiers md.tab sont situés dans le répertoire /etc/lvm.
3
Vérifiez que vous êtes propriétaire de l'ensemble de disques situé sur le noeud sur lequel la commande doit s'exécuter.
4
Devenez propriétaire de l'ensemble de disques.
phys-schost# cldevicegroup switch -n
node devicegroup
-n
node
Indique le noeud qui deviendra propriétaire.
devicegroup
Spécifie le nom de l'ensemble de disques.
5
Activez les volumes de l'ensemble de disques définis dans le fichier md.tab.
phys-schost# metainit -s
setname -a
-s
setname
Spécifie le nom de l'ensemble de disques.
-a
Active tous les volumes définis dans le fichier md.tab.
6
Répétez la procédure de l' Étape 3 à l' Étape 5
pour chaque ensemble de disques du cluster.
Au besoin, exécutez la commande metainit
(1M) à partir d'un autre noeud connecté aux unités.
Cette étape est requise dans les topologies de paires de cluster, où les unités ne sont pas accessibles par tous les noeuds.
7
Vérifiez le statut des volumes.
phys-schost# metastat -s
setname
Pour plus d'informations, reportez-vous à la page de manuel metastat
(1M) .
8
(Facultatif) Faites un cliché des informations de partitionnement de disque pour pouvoir vous y référer ultérieurement.
phys-schost# prtvtoc /dev/rdsk/c
NtXdYsZ > filename
Stockez ce fichier en dehors du cluster. Si vous modifiez la configuration des disques, exécutez de nouveau cette commande pour capturer la nouvelle configuration. Si un disque tombe en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition de disque. Pour plus d'informations, reportez-vous à la page de manuel prtvtoc
(1M) .
9
(Facultatif) Effectuez une sauvegarde de votre configuration en cluster.
Une sauvegarde archivée de votre configuration en cluster facilite la récupération de celle-ci.
Pour plus d'informations, reportez-vous à la section “Sauvegarde de la configuration du cluster” du manuel Guide d’administration système d’Oracle Solaris Cluster .
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration d'hôtes médiateurs
Exemple 4–9
Activation des volumes définis dans le fichier md.tab
Dans l'exemple suivant, tous les volumes définis dans le fichier md.tab de l'ensemble de disques dg-schost-1 sont activés.
phys-schost# metainit -s dg-schost-1 -a
Étapes suivantes
Si votre cluster contient des ensembles de disques configurés avec exactement deux boîtiers de disques et deux noeuds, ajoutez des hôtes médiateurs. Passez à la section
“Configuration d'hôtes médiateurs” à la page 187 .
Autrement, passez à la section
“Création de systèmes de fichiers de cluster” à la page 193
pour créer un système de fichiers de cluster.
Configuration d'hôtes médiateurs
Cette section fournit les informations et procédures nécessaires à la configuration d'hôtes médiateurs.
Une chaîne de disques unique se compose d'un boîtier de disques, de ses disques physiques, de câbles reliant le boîtier au(x) noeud(s) et d'adaptateurs d'interface. Un ensemble de disques à deux chaînes comprend des disques se trouvant dans deux chaînes de disques et se trouve relié à exactement deux noeuds. En cas de défaillance d'une chaîne de disques unique dans un ensemble de disques à deux chaînes de sorte que la moitié des répliques Solaris Volume
Manager exactement reste disponible, l'ensemble de disques cesse de fonctionner. Par conséquent, les médiateurs à deux chaînes sont obligatoires pour tous les ensembles de disques
à deux chaînes Solaris Volume Manager. L'utilisation d'hôtes médiateurs permet au logiciel
Oracle Solaris Cluster de toujours afficher des données à jour en cas de panne d'une chaîne dans une configuration à deux chaînes.
Un hôte médiateur, ou médiateur à deux chaînes, est un noeud de cluster stockant des données du médiateur. Les données du médiateur fournissent des informations sur l'emplacement d'autres médiateurs et contiennent un total de validation identique à celui qui figure dans les répliques de la base de données. Ce total de validation permet de confirmer que les données du médiateur sont synchronisées avec celles des répliques de la base de données.
Le tableau suivant répertorie les tâches à effectuer pour configurer des hôtes médiateurs.
Effectuez les procédures dans l'ordre dans lequel elles sont indiquées.
TABLEAU 4–3
Liste des tâches : installation et configuration du logiciel Solaris Volume Manager
Tâche
Configuration d'hôtes médiateurs à deux chaînes.
Instructions
“Exigences des hôtes médiateurs” à la page 188
“Ajout d'hôtes médiateurs” à la page 188
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 187
Configuration d'hôtes médiateurs
TABLEAU 4–3
Tâche
Liste des tâches : installation et configuration du logiciel Solaris Volume Manager
Instructions
Vérification du statut des données du médiateur.
Au besoin, rectification des données de médiateur incorrectes.
(Suite)
“Vérification du statut des données de médiateur”
“Correction des données de médiateur incorrectes”
Exigences des hôtes médiateurs
Les règles suivantes s'appliquent aux configurations à deux chaînes utilisant des médiateurs.
■
■
Les ensembles de disques doivent être configurés avec deux ou trois hôtes médiateurs. Deux de ces hôtes médiateurs doivent correspondre aux deux noeuds de cluster utilisés pour l'ensemble de disques. Le troisième peut représenter un autre noeud du cluster ou un hôte ne faisant pas partie du cluster sur le réseau public de ce dernier, tel qu'un serveur de quorum.
Les médiateurs ne peuvent pas être configurés pour des ensembles de disques ne remplissant pas les conditions requises (deux chaînes et deux hôtes).
Ces règles ne nécessitent pas que l'ensemble du cluster soit composé uniquement de deux noeuds. Un cluster N+1 et de nombreuses autres topologies sont possibles en respectant ces règles.
188
▼
Avant de commencer
■
■
■
Ajout d'hôtes médiateurs
Suivez cette procédure si votre configuration nécessite des médiateurs à deux chaînes.
Si vous utilisez un troisième hôte médiateur pour un ensemble de disques à deux chaînes, et si les ensembles de disques de cet hôte ne sont pas déjà configurés, effectuez les opérations suivantes :
Ajoutez l'entrée root au groupe sysadmin dans le fichier /etc/group
Créez un ensemble de disques fictif à l'aide de la commande : phys-schost-3# metaset -s
dummy-diskset-name -a -h hostname
1
Connectez-vous en tant que superutilisateur au noeud actuellement maître de l'ensemble de disques auquel vous souhaitez ajouter des hôtes médiateurs.
2
Ajoutez chaque noeud connecté à l'ensemble de disques comme hôte médiateur pour cet ensemble.
phys-schost# metaset -s
setname -a -m mediator-host-list
-s
setname
Spécifie le nom de l'ensemble de disques.
Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration d'hôtes médiateurs
-a
Ajoute le noeud à l'ensemble de disques.
-m
mediator-host-list
Indique le nom du noeud à ajouter en tant qu'hôte médiateur pour l'ensemble de disques.
Reportez-vous à la page de manuel mediator
(7D) pour plus d'informations sur les options spécifiques aux médiateurs utilisables avec la commande metaset.
Exemple 4–10
Ajout d'hôtes médiateurs
L'exemple suivant ajoute les noeuds phys-schost-1 et phys-schost-2 en tant qu'hôtes médiateurs de l'ensemble de disques dg-schost-1. Répétez la commande une troisième fois pour un troisième hôte médiateur, le cas échéant. Toutes les commandes sont exécutées à partir du noeud contrôlant l'ensemble de disques auquel vous allez ajouter les hôtes médiateurs. Il s'agit dans ce cas du noeud phys-schost-1.
phys-schost# metaset -s dg-schost-1 -a -m phys-schost-1 phys-schost# metaset -s dg-schost-1 -a -m phys-schost-2 phys-schost# metaset -s dg-schost-1 -a -m phys-schost-3
Étapes suivantes
Vérifiez le statut des données du médiateur. Passez à la section
“Vérification du statut des données de médiateur” à la page 189 .
▼
Vérification du statut des données de médiateur
Avant de commencer
Vérifiez que vous avez bien ajouté les hôtes médiateurs selon la procédure décrite à la section
“Ajout d'hôtes médiateurs” à la page 188 .
1
Affichez le statut des données du médiateur.
phys-schost# medstat -s
setname
-s
setname
Spécifie le nom de l'ensemble de disques.
Pour plus d'informations, reportez-vous à la page de manuel medstat
(1M) .
2
Si la valeur est Bad dans le champ de statut de la sortie medstat, réparez l'hôte de médiateur concerné.
Passez à la section
“Correction des données de médiateur incorrectes” à la page 190 .
Étapes suivantes
Passez à la section
“Création de systèmes de fichiers de cluster” à la page 193
pour créer un système de fichiers de cluster.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 189
Configuration d'hôtes médiateurs
▼
Correction des données de médiateur incorrectes
Suivez cette procédure pour corriger les données incorrectes du médiateur.
1
Identifiez tous les hôtes médiateurs possédant des données de médiateur incorrectes.
Reportez-vous à la section
“Vérification du statut des données de médiateur” à la page 189 .
2
Connectez-vous en tant que superutilisateur au noeud propriétaire de l'ensemble de disques concerné.
3
Supprimez tous les hôtes médiateurs comportant des données de médiateur incorrectes de tous les ensembles de disques affectés.
phys-schost# metaset -s
setname -d -m mediator-host-list
-s
setname
Spécifie le nom de l'ensemble de disques.
-d
Supprime dans l'ensemble de disques.
-m
mediator-host-list
Indique le nom du noeud actuellement hôte médiateur à supprimer de l'ensemble de disques.
4
Restaurez chaque hôte médiateur supprimé à l' Étape 3 .
phys-schost# metaset -s
setname -a -m mediator-host-list
-a
Ajoute le noeud à l'ensemble de disques.
-m
mediator-host-list
Indique le nom du noeud à ajouter en tant qu'hôte médiateur pour l'ensemble de disques.
Reportez-vous à la page de manuel mediator
(7D) pour plus d'informations sur les options spécifiques aux médiateurs utilisables avec la commande metaset.
Étapes suivantes
A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.
■
■
Si vous souhaitez créer des systèmes de fichiers de cluster, passez à la section
“Création de systèmes de fichiers de cluster” à la page 193 .
Pour créer des zones non globales sur un noeud, passez à la section
“Création d'une zone non globale sur un noeud de cluster global” à la page 211 .
190 Guide d'installation du logiciel Oracle Solaris Cluster • Septembre 2013, E39389–03
Configuration d'hôtes médiateurs
■
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données. Pour plus d'informations, reportez-vous à la documentation fournie avec le logiciel de l'application et au
Oracle Solaris Cluster Data
Services Planning and Administration Guide
.
Chapitre 4 • Configuration du logiciel Solaris Volume Manager 191
192

Lien public mis à jour
Le lien public vers votre chat a été mis à jour.
Caractéristiques clés
- Installation et configuration du logiciel Oracle Solaris Cluster
- Création d'un nouveau cluster global
- Configuration du logiciel Solaris Volume Manager
- Création de systèmes de fichiers de cluster
- Configuration des zones non globales
- Prise en charge des clusters de zones.