Le projet ZFS sur Linux est une implémentation de OpenZFS conçue pour fonctionner dans un environnement Linux. OpenZFS est une plate-forme de stockage exceptionnelle qui englobe les fonctionnalités des systèmes de fichiers traditionnels, des gestionnaires de volumes, etc. avec une fiabilité, des fonctionnalités et des performances constantes dans toutes les distributions. Des informations supplémentaires sur OpenZFS peuvent être trouvées dans l'article OpenZFS wikipedia.Exigences matériellesParce que ZFS a été initialement conçu pour Sun Solaris, il a longtemps été considéré comme un système de fichiers pour les gros serveurs et pour les entreprises qui pouvaient se permettre le matériel le meilleur et le plus puissant disponible. Mais depuis le portage de ZFS vers de nombreuses plateformes OpenSource (les BSD, Illumos et Linux - sous l'organisation faîtière "OpenZFS"), ces exigences ont été abaissées.Les exigences matérielles suggérées sont les suivantes:
Mémoire ECC. Ce n'est pas vraiment une exigence, mais c'est fortement recommandé.
8 Go de mémoire pour les meilleures performances. Il est parfaitement possible de fonctionner avec 2 Go ou moins (et les utilisateurs le font), mais vous en aurez besoin plus si vous utilisez la déduplication.Dois-je utiliser la mémoire ECC pour ZFS?L'utilisation de la mémoire ECC pour OpenZFS est fortement recommandée pour les environnements d'entreprise où les garanties d'intégrité des données les plus fortes sont requises. Sans mémoire ECC, de rares flips de bits aléatoires causés par des rayons cosmiques ou par une mémoire défectueuse peuvent ne pas être détectés. Si cela devait arriver, OpenZFS (ou tout autre système de fichiers) écrirait les données endommagées sur le disque et serait incapable de détecter automatiquement la corruption.Malheureusement, la mémoire ECC n'est pas toujours prise en charge par le matériel grand public. Et même quand c'est ECC, la mémoire sera plus chère. Pour les utilisateurs à domicile, la sécurité supplémentaire apportée par la mémoire ECC peut ne pas justifier le coût. C'est à vous de déterminer le niveau de protection requis pour vos données.InstallationZFS sous Linux est disponible pour toutes les principales distributions Linux. Reportez-vous à la section de démarrage du wiki pour les liens vers les instructions d'installation pour de nombreuses distributions populaires. Si votre distribution n'est pas répertoriée, vous pouvez toujours créer ZFS sous Linux à partir de la dernière archive officielle.Architectures supportéesZFS sous Linux est régulièrement compilé pour les architectures suivantes: x86_64, x86, aarch64, arm, ppc64, ppc.Noyaux pris en chargeLes notes pour une version donnée de ZFS sur Linux incluront une série de noyaux supportés. Les versions ponctuelles seront marquées comme nécessaire afin de supporter le noyau stable disponible sur kernel.org. Le noyau supporté le plus ancien est 2.6.32 en raison de sa prédominance dans les distributions Enterprise Linux.Systèmes 32 bits et 64 bitsNous vous encourageons fortement à utiliser un noyau 64 bits. ZFS sur Linux va générer des noyaux 32 bits mais vous pouvez rencontrer des problèmes de stabilité.ZFS a été développé à l'origine pour le noyau Solaris qui diffère du noyau Linux de plusieurs manières significatives. Peut-être plus important pour ZFS, il est courant dans le noyau Solaris de faire un usage intensif de l'espace d'adressage virtuel. Cependant, l'utilisation de l'espace d'adressage virtuel est fortement déconseillée dans le noyau Linux. Ceci est particulièrement vrai sur les architectures 32 bits où l'espace d'adressage virtuel est limité à 100M par défaut. L'utilisation de l'espace d'adressage virtuel sur les noyaux Linux 64 bits est également déconseillée, mais l'espace d'adressage est tellement plus grand que la mémoire physique, c'est moins un problème.Si vous vous heurtez à la limite de la mémoire virtuelle sur un système 32 bits, le message suivant s'affiche dans les journaux système. Vous pouvez augmenter la taille de l'adresse virtuelle avec l'option de démarrage vmalloc = 512M.L'allocation de vmap pour la taille 4198400 a échoué: utilisez vmalloc =
Démarrer depuis ZFS
Démarrer à partir de ZFS sous Linux est possible et beaucoup de gens le font. Il y a d'excellentes promenades disponibles pour Debian, Ubuntu et Gentoo.Sélection de noms / dev / lors de la création d'un pool
Il existe différents noms / dev / qui peuvent être utilisés lors de la création d'un pool ZFS. Chaque option a des avantages et des inconvénients, le bon choix pour votre pool ZFS dépend vraiment de vos besoins. Pour le développement et les tests en utilisant / dev / sdX, le nommage est rapide et facile. Un serveur domestique typique peut préférer / dev / disk / by-id / nommer pour plus de simplicité et de lisibilité. Bien que de très grandes configurations avec plusieurs contrôleurs, boîtiers et commutateurs préfèrent probablement le nommage / dev / disk / by-vdev pour un contrôle maximal. Mais à la fin, la façon dont vous choisissez d'identifier vos disques dépend de vous.
/ dev / sdX, / dev / hdX: meilleur pour les pools de développement / test
Résumé: Le niveau supérieur / dev / names est la valeur par défaut pour la cohérence avec les autres implémentations ZFS. Ils sont disponibles sous toutes les distributions Linux et sont couramment utilisés. Cependant, comme ils ne sont pas persistants, ils ne doivent être utilisés qu'avec ZFS pour les pools de développement / test.
Avantages: Cette méthode est facile pour un test rapide, les noms sont courts, et ils seront disponibles sur toutes les distributions Linux.
Inconvénients: Les noms ne sont pas persistants et changeront en fonction de l'ordre dans lequel ils sont détectés. L'ajout ou le retrait de matériel pour votre système peut facilement entraîner une modification des noms. Vous devez ensuite supprimer le fichier zpool.cache et réimporter le pool en utilisant les nouveaux noms.
Exemple: zpool créer un réservoir sda sdb
/ dev / disk / by-id /: Meilleur pour les petits pools (moins de 10 disques)
Résumé: Ce répertoire contient des identifiants de disque avec plus de noms lisibles par l'homme. L'identificateur de disque comprend généralement le type d'interface, le nom du fournisseur, le numéro de modèle, le numéro de série du périphérique et le numéro de partition. Cette approche est plus conviviale car elle simplifie l'identification d'un disque spécifique.
Avantages: Bien pour les petits systèmes avec un seul contrôleur de disque. Parce que les noms sont persistants et garantis de ne pas changer, peu importe comment les disques sont attachés au système. Vous pouvez les sortir tous, les mélanger au hasard sur le bureau, les remettre n'importe où dans le système et votre piscine sera automatiquement importée correctement.
Inconvénients: La configuration des groupes de redondance en fonction de l'emplacement physique devient difficile et sujette aux erreurs.
Exemple: zpool créer un réservoir scsi-SATA_Hitachi_HTS7220071201DP1D10DGG6HMRP
/ dev / disk / by-path /: Bon pour les grands pools (plus de 10 disques)
Résumé: Cette approche consiste à utiliser des noms de périphériques qui incluent la disposition de câble physique dans le système, ce qui signifie qu'un disque particulier est lié à un emplacement spécifique. Le nom décrit le numéro de bus PCI, ainsi que les noms de boîtier et les numéros de port. Ceci permet le plus de contrôle lors de la configuration d'un grand pool.
Avantages: L'encodage de la topologie de stockage dans le nom n'est pas seulement utile pour localiser un disque dans les grandes installations. Mais cela vous permet également de configurer explicitement vos groupes de redondance sur plusieurs adaptateurs ou boîtiers.
Inconvénients: Ces noms sont longs, encombrants et difficiles à gérer pour un être humain.
Exemple: zpool créer un réservoir pci-0000: 00: 1f.2-scsi-0: 0: 0: 0 pci-0000: 00: 1f.2-scsi-1: 0: 0: 0
/ dev / disk / by-vdev /: Meilleur pour les grands pools (plus de 10 disques)
Résumé: Cette approche fournit un contrôle administratif sur la dénomination des périphériques à l'aide du fichier de configuration /etc/zfs/vdev_id.conf. Les noms des disques dans les JBOD peuvent être générés automatiquement pour refléter leur emplacement physique par des ID de boîtier et des numéros d'emplacement. Les noms peuvent également être attribués manuellement en fonction des liens de périphériques udev existants, y compris ceux dans / dev / disk / by-path ou / dev / disk / by-id. Cela vous permet de choisir vos propres noms significatifs pour les disques. Ces noms seront affichés par tous les utilitaires zfs afin de pouvoir clarifier l'administration d'un grand pool complexe. Voir les pages de manuel vdev_id et vdev_id.conf pour plus de détails.
Avantages: Le principal avantage de cette approche est qu'elle vous permet de choisir des noms significatifs lisibles par l'homme. Au-delà de cela, les avantages dépendent de la méthode de nommage utilisée. Si les noms sont dérivés du chemin physique, les avantages de / dev / disk / by-path sont réalisés. D'un autre côté, l'aliasing des noms basés sur les identifiants de lecteurs ou les WWN présente les mêmes avantages que l'utilisation de / dev / disk / by-id.
Inconvénients: Cette méthode repose sur la configuration d'un fichier /etc/zfs/vdev_id.conf correctement configuré pour votre système. Pour configurer ce fichier, veuillez vous référer à la section Configurer le fichier /etc/zfs/vdev_id.conf. Comme pour les avantages, les inconvénients de / dev / disk / by-id ou / dev / disk / by-path peuvent s'appliquer selon la méthode de nommage utilisée.
Exemple: zpool créer un miroir de réservoir A1 B1 miroir A2 B2
Aucun commentaire:
Enregistrer un commentaire