Version : 2020.01

Dernière mise-à-jour : 2020/03/15 09:37

LRF500 - Gestion de la Haute Disponibilité avec Red Hat Cluster Suite-Red Hat High-Availability Cluster

Présentation

Type d'Action (Article L. 6313-1) : Action d'acquisition, d'entretien ou de perfectionnement des connaissances.
Objectif : Maîtriser la haute disponibilité avec Red Hat Cluster Suite-Red Hat High-Availability Cluster.
Public : Utilisateurs Linux, Techniciens et Administrateurs d'autre systèmes d'exploitation.
Pré requis : Avoir réussi la certification CompTIA Linux+ Powered by LPI ou la certification LPIC-1 ou la certification SUSE CLA ou posséder les compétences équivalentes.
Méthode d'apprentissage : Alternance entre un scénario pédagogique clair et précis et des travaux pratiques basés sur des cas et exemples concrets.
Validation des acquis : Évaluations à l'aide de tests auto-correctifs.
Durée : 5 jours (35h).
Formateur : Certifié LPI.

Support de Cours

L'accès au supports de cours ainsi que les LABS et les validations des acquis se fait grâce à un abonnement annuel par stagiaire à une plateforme de cours sur Internet. Cette abonnement est facturé 35 € HT par stagiaire et par session.

L'utilisation de cette plateforme permet :

  • de mesurer le niveau du stagiaire avant la formation et celui atteint en fin de formation grâce aux tests de validations des acquis,
  • de suivre du travail de chaque participant en termes de temps passé dans chaque module grâce à un reporting détaillé.

L'abonnement permet aux stagiaires :

  • de télécharger des supports de cours et des LABS au format PDF le dernier jour de la formation,
  • de refaire les LABS en mode autonome en cas de missions décalées en relation avec le contenu de la formation initiale,
  • de rester en contact avec le formateur en cas de problèmes en production liés au contenu du cours,
  • de consulter les mises à jour du contenu des supports de cours pendant la période de l'abonnement,
  • d'échanger avec les autres participants de votre session ainsi qu'avec les anciens stagiaires.

Prérequis

Matériel

  • Un poste 64 bits (MacOS, Linux, Windows™ ou Solaris™),
  • Dans le cas de Windows™, seulement la version 7 ou 10 avec Hyper-V désinstallé,
  • Le mot de passe du compte administrateur du système,
  • Clavier AZERTY FR ou QWERTY US,
  • 16 Go de RAM minimum,
  • Processeur 4 cœurs minimum,
  • 16 Go d'espace disque disponible,
  • Un casque ou des écouteurs (si MOOC ou FAD),
  • Un micro (optionnel).

Logiciels

  • Oracle VirtualBox v 6.0 ou plus (MacOS, Linux, Windows™ ou Solaris™),
  • Si Windows™ - Putty et WinSCP.

Machines Virtuelles

A télécharger avant la formation : CentOS_6 et CentOs_7.

Internet

Programme

  • Gestion de la Haute Disponibilité avec Red Hat Cluster Suite-Red Hat High-Availability Cluster,
    • Introduction,
      • Red Hat GFS,
      • Cluster Logical Volume Manager,
      • Global Network Block Device,
    • Les Composants de RHCS,
      • Serveur Virtuel Linux,
      • Gestionnaire de l'Infrastructure du Cluster,
        • Gestionnaire du Cluster,
        • Le Disque Quorum,
        • Gestionnaire du Verrouillage,
        • Fencing,
        • Gestionnaire de la Configuration du Cluster,
      • Gestionnaire des Services à Haute Disponibilité,
      • Outils d'administration du cluster,
        • Conga,
        • En Ligne de Commande,
    • Installation du Matériel,
    • Installer le Logiciel du Module Red Hat High Availability,
      • Démarrer l'Agent ricci,
    • Pré-Configurer les Noeuds,
      • Considérations Générales,
      • Préparation des Machines Virtuelles,
        • Instructions Particulières,
      • Ethernet Channel Bonding,
        • Configuration du node1,
          • Ouverture des Ports,
        • Configuration du node2,
          • Ouverture des Ports,
        • Configuration du node3,
          • Ouverture des Ports,
        • Tester les Serveurs,
        • Démarrer le Service ricci si nécessaire,
    • Configurer un Cluster avec Conga,
      • Introduction,
      • LAB #1 - L'Installation et le Démarrage de luci sur un Noeud,
        • Installer luci sur node1.fenestros.loc,
        • Configurer Luci,
      • LAB #2 - La Création d'Utilisateurs et des Permissions,
      • LAB #3 - La Création d'un Cluster,
      • La Configuration des Propriétés Générales du Cluster,
      • La Configuration du Daemon Fenced,
      • La Configuration du Réseau,
      • LAB #4 - La Configuration des Périphériques Fence,
        • Configurer un Périphérique Fence pour un Noeud,
        • Configurer un Périphérique Fence de Secours pour un Noeud,
        • Configurer un Noeud avec une Alimentation Redondante,
      • LAB #5 - La Configuration des Domaines de Basculement,
      • LAB #6 - La Création de Ressources Globales,
      • LAB #7 - La Création des Services en Cluster,
      • LAB #8 - Redémarrer un Noeud,
      • LAB #9 - Sauvegarder et Restaurer la Configuration de luci,
        • Sauvegarder la Configuration de luci,
        • Restaurer la Configuration de luci sur node2.fenestros.loc,
      • Gérer les Services de Haute Disponibilité,
      • LAB #10 - Gérer les Noeuds d'un Cluster,
        • Causer un Noeud de Quitter ou de Joindre un Cluster,
        • Supprimer un Membre d'un Cluster,
        • Ajouter un Membre à un Cluster en Cours d’Exécution,
      • Ajouter un Cluster Existant à luci,
    • Configurer et Gérer un Cluster avec La Commande ccs
      • Introduction
      • LAB #11 - Préparation de tous les nœuds
        • node1.fenestros.loc
          • Installer et Configurer ricci
          • Installer Cluster Configuration System
          • Modifiez /etc/hosts
        • node2.fenestros.loc
          • Installer et Configurer ricci
          • Modifiez /etc/hosts
        • node3.fenestros.loc
          • Installer et Configurer ricci
          • Modifiez /etc/hosts
      • LAB #12 - Création d'un Cluster
        • Configurez les Services Cluster
      • LAB #13 - Configuration du Daemon Fenced
      • LAB #14 - Configuration des Périphériques Fence
      • LAB #15 - La Configuration des Domaines de Basculement
      • LAB #16 - La Création de Ressources Globales
      • LAB #17 - La Création des Services en Cluster
        • Supprimer des Services et Ressources en Cluster
      • LAB #18 - Configuration des Propriétés Générales du Cluster
        • Version de la Configuration du Cluster
        • Adresse de la multidiffusion
        • Cluster à Deux Nœuds
        • Journalisation
      • LAB #19 - Gérer un Cluster avec La Commande ccs
        • Causer à un Nœud de Quitter un Cluster
        • Causer à un Nœud de Joindre un Cluster
        • Arrêter un cluster
        • Démarrer un cluster
        • Diagnostiquer des Problèmes de Configuration
    • Configurer et Gérer un Cluster avec des Outils de Ligne de Commande
      • Introduction
      • LAB #20 - Préparation de tous les nœuds
        • node1.fenestros.loc
          • Installer et Configurer ricci
          • Modifiez /etc/hosts
        • node2.fenestros.loc
          • Installer et Configurer ricci
          • Modifiez /etc/hosts
        • node3.fenestros.loc
          • Installer et Configurer ricci
          • Modifiez /etc/hosts
      • LAB #21 - Création d'un Cluster
        • Configurez les Services Cluster
      • LAB #22 - Configuration du Daemon Fenced
      • LAB #23 - Configuration des Périphériques Fence
      • LAB #23 - La Configuration des Domaines de Basculement
      • LAB #24 - La Création de Ressources Globales
      • LAB #25 - La Création des Services en Cluster
      • LAB #26 - Propagation du Fichier de Configuration
        • Arrêter et Démarrer le Cluster
      • LAB #27 - Supprimer un Noeud
      • LAB #28 - Ajouter un Noeud
      • LAB #29 - Gérer les Services avec la Commande clusvcadm
      • LAB #30 - CLVM et GFS2
      • LAB #31 - Utilisation d'un Disque Quorum
    • Red Hat High Availability Cluster sous CentOS 7
      • Red Hat High Availability Cluster versus Red Hat Cluster Suite
        • Installer le Logiciel du Module Red Hat High Availability
        • Firewalld
        • hacluster
        • Démarrer le daemon pcsd
        • Préparation des Machines Virtuelles
        • Ethernet Channel Bonding
          • Configuration du node1.i2tch.loc
          • Configuration du node2.i2tch.loc
          • Tester les Serveurs
          • Démarrer le Service pcsd si nécessaire
      • LAB #32 - L'Authentification de l'utilisateur pcs hacluster
      • LAB #33 - Création du cluster my_cluster
      • LAB #34 - Activer les services cluster sur chaque noeud
      • LAB #35 - Mise en place d'une clôture
      • LAB #36 - Mise en place d'un Serveur Apache Actif/Passif
        • Création du Stockage Partagé
        • Création des Ressources du Cluster

Copyright © 2020 Hugh Norris

Document non-contractuel. Les prix, les conditions et le programme peuvent être modifiés sans préavis.

Menu