Dell PowerEdge R710
Note
La première version date de 2012, donc, les informations présentées ici sont outdated. On purpose.
Précédent : ZFS on Linux - 2 | Suivant : ZFS on Linux - 4
3.1 - Description du matériel : Dell PowerEdge R710
- 2x "Hexa Core Intel Xeon X5650" @ 2,66 Ghz (HT actif, 24 processeurs logiques)
- 24 Go RAM
- 8x 900 Go SAS 10kt/m (1x PERC H200, mode JBOD)
- 4x Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet
Mise en service 2011. Debian 7 Squeeze jusqu'à Debian 9 Stretch.
3.2 - Configuration des disques
La configuration matérielle présentée ici est particulière : Ce sont des partitions (primaires) qui sont disponible pour ZFS, pas des disques complets. C'est une mauvaise pratique, mais y'avait que ça pour jouer.
- zdev.conf
1 2 3 4 5 6 7 8 9 10 11 | # R710 - zdev.conf, les deux disques système seront en spare
A1 scsi-35000c50043868dd3-part3
A2 scsi-35000c500438690c3-part3
A3 scsi-35000c5004387f6b7-part3
A4 scsi-35000c500438753a3-part3
A5 scsi-35000c50043881547-part3
A6 scsi-35000c50043882917-part3
# spares:
A7 scsi-35000c5004389a5c7-part3
A8 scsi-35000c500438751a7-part3
|
Ne pas oublier udevadm trigger /etc/zfs/zdev.conf pour que ce soit pris en compte.
3.3 - Création d'un pool
Créons un pool raidz2 sur [6 partitions + 2 partitions hotspare] :
1 2 | zpool create -o autoreplace=on -m /data data raidz2 A1 A2 A3 A4 A5 A6 \
spare A7 A8
|
Vérification :
1 2 3 4 | zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
data 4,72T 270K 4,72T 0% 1.00x ONLINE -
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | zpool status -L data
pool: data
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
sdc3 ONLINE 0 0 0
sdd3 ONLINE 0 0 0
sde3 ONLINE 0 0 0
sdf3 ONLINE 0 0 0
sdg3 ONLINE 0 0 0
sdh3 ONLINE 0 0 0
spares
sda3 AVAIL
sdb3 AVAIL
errors: No known data errors
|
À l'usage, cette configuration sur partitions n'a posé que des problèmes. Exemple : Un reboot sur deux, le pool était considéré comme DEGRADED, voire absent. Certes, un simple zpool export / zpool import suffisait à récupérer le pool. Mais ça fout la trouille®©. Aujourd'hui (en 2019), la configuration adoptée est la même que sur les SunFire X4150 (voir la partie 4).
Précédent : ZFS on Linux - 2 | Suivant : ZFS on Linux - 4
ZFS on Linux - Footnotes
date: | 2019-03-25 |
---|---|
category: | HPC |
tags: | ZFS |
(notes de bas de page des articles ZFS on Linux, pasque DRY)
CBP : Centre Blaise Pascal
CDDL : Common Development and Distribution License
CLI : Command Line Interface (interface en ligne de commande)
COW : Copy On Write (copie sur écriture)
CPU : Central Processing Unit (Processeur Central)
DAS : Direct_Attached_Storage
DIY : Do It Yourself : *Fais-le toi-même.*
DRY : Don't Repeat Yourself : *Ne te repête pas.*
GUID : Global Unique Identifier
HBA : Host Bus Adapter
HT : HyperThreading
JBOD : Just a Bunch Of Disks
LLNL : Laurence Livermore National Laboratory
LVM : Logical Volume Manager ou Gestion par Volumes Logiques
NFS : Network File System
OS : Operating System, ou Système d'Exploitation
PSMN : Pôle Scientifique de Modélisation Numérique (là où je passe l'essentiel de mes journées)
RAID : Redundant Array of Inexpensive Disks
RAM : Random Access Memory, ou Mémoire Vive
SAS : Serial Attached SCSI
SATA : Serial Advanced Technology Attachment
SPL : Solaris Porting Layer, see github
SSD : Solid State Drive
ZFS :
SPDX-License-Identifier : CC-BY-4.0