eviden-logo

Evidian > Produits > Logiciel de haute disponibilité - Zéro surcoût matériel > Architecture HA 3-tiers : clustering avec load balancing et mirroring

Architecture HA 3-tiers : clustering avec load balancing et mirroring

Evidian SafeKit

Haute disponibilité et scalabilité des applications web et bases de données critiques avec le logiciel de clustering SafeKit

Load balancing, mirroring et basculement sur panne

Logiciel de clustering avec load balancing et mirroring

Exemple avec le logiciel de clustering SafeKit

Par exemple, avec le logiciel de clustering SafeKit, vous pouvez implémenter le load balancing IIS et le mirroring de Microsoft SQL Server.

Pour cela, vous devez déployer un module ferme pour IIS et un module miroir pour Microsoft SQL Server. Chaque module ferme et miroir est configuré avec sa propre adresse IP virtuelle et ses propres scripts de redémarrage.

Les modules miroir et ferme peuvent être déployés sur un seul cluster de deux serveurs. IIS et Microsoft SQL Server fonctionneront sur ces deux serveurs. Ou, les deux modules peuvent être déployés sur deux clusters avec des serveurs différents.

Avec le logiciel de clustering SafeKit, il n'y a aucune différence entre un déploiement sur les mêmes serveurs ou sur des serveurs différents.

Solution de haute disponibilité et de scalabilité

Le logiciel de clustering SafeKit fournit une solution simple de haute disponibilité et de scalabilité pour les applications Web et les bases de données critiques.

Ainsi, le load balancing réseau, le mirroring des données en temps réel et le basculement des applications sont gérés de manière cohérente dans un même produit.

Lorsque vous comparez le logiciel de clustering SafeKit avec le clustering matériel, vous n'avez pas besoin de disque partagé, de SAN répliqué, de load balancers, d'éditions entreprise du système d'exploitation ou des base de données.

Comment fonctionne le cluster miroir de SafeKit avec Windows ou Linux ?

Etape 1. Réplication en temps réel

Le serveur 1 (PRIM) exécute l'application Windows ou Linux. Les utilisateurs sont connectés à une adresse IP virtuelle. Seules les modifications faites par l'application à l'intérieur des fichiers sont répliquées en continue à travers le réseau.

Réplication de données temps réel reprise sur panne avec Windows ou Linux

La réplication est synchrone sans perte de données en cas de panne contrairement à une réplication asynchrone.

Il vous suffit de configurer les noms des répertoires à répliquer dans SafeKit. Il n'y a pas de pré-requis sur l'organisation du disque. Les répertoires peuvent se trouver sur le disque système.

Etape 2. Basculement automatique

Lorsque le serveur 1 est défaillant, SafeKit bascule l'adresse IP virtuelle sur le serveur 2 et redémarre automatiquement l'application Windows ou Linux. L'application retrouve les fichiers répliqués à jour sur le serveur 2.

L'application poursuit son exécution sur le serveur 2 en modifiant localement ses fichiers qui ne sont plus répliqués vers le serveur 1.

Basculement automatique de Windows ou Linux dans un cluster miroir

Le temps de basculement est égal au temps de détection de la panne (30 secondes par défaut) et au temps de relance de l'application.

Etape 3. Réintégration après panne

A la reprise après panne du serveur 1 (réintégration du serveur 1), SafeKit resynchronise automatiquement les fichiers de ce serveur à partir de l'autre serveur.

Seuls les fichiers modifiés sur le serveur 2 pendant l'inactivité du serveur 1 sont resynchronisés.

Réintégration après panne de Windows ou Linux dans un cluster miroir

La réintégration du serveur 1 se fait sans arrêter l'exécution de l'application Windows ou Linux sur le serveur 2.

Etape 4. Retour à la normale

Après la réintégration, les fichiers sont à nouveau en mode miroir comme à l'étape 1. Le système est en haute disponibilité avec l'application Windows ou Linux qui s'exécute sur le serveur 2 et avec réplication temps réel des modifications vers le serveur 1.

Retour à la normale d'un cluster Windows ou Linux actif-passif

Si l'administrateur souhaite que son application s'exécute en priorité sur le serveur 1, il peut exécuter une commande de basculement, soit manuellement à un moment opportun, soit automatiquement par configuration.

Comment fonctionne le cluster ferme de SafeKit avec Windows ou Linux ?

Adresse IP virtuelle dans un cluster feme

Equilibrage de charge et haute disponibilité avec Windows ou Linux

Sur la figure précédente, l'application Windows ou Linux tourne sur les 3 serveurs (3 est un exemple, il peut y en avoir 2 ou plus). Les utilisateurs sont connectés à une adresse IP virtuelle.

L'adresse IP virtuelle est configurée localement sur chaque serveur de la ferme.

Le trafic du réseau à destination de l'adresse IP virtuelle est reçu par l'ensemble des serveurs. Puis ce trafic est distribué entre les serveurs grâce à un filtre réseau chargé dans le noyau du système d'exploitation de chaque serveur.

SafeKit détecte les pannes matérielles et logicielles, reconfigure les filtres réseau en cas de panne et offre des checkers et des scripts de reprise applicatifs configurables.

Partage de charge dans un filtre réseau

L'algorithme de load balancing dans le filtre réseau est basé sur l'identité des paquets client (adresse IP client, port TCP client). Suivant l'identité du paquet client en entrée, seul un filtre dans un serveur accepte le paquet ; les autres filtres dans les autres serveurs le rejettent.

Une fois un paquet accepté par le filtre sur un serveur, seuls le CPU et la mémoire de ce serveur sont utilisés par l'application Windows ou Linux qui répond à la requête du client. Les messages de retour de l'application sont envoyés directement du serveur vers le client.

Lorsqu'un serveur est défaillant, le protocole de gestion du groupe des serveurs en vie reconfigure les filtres pour redistribuer le trafic vers les serveurs disponibles.

Applications à état et sans état

Avec une application Windows ou Linux à état, il y a affinité de session. Le même client doit être connecté sur le même serveur sur plusieurs sessions TCP pour retrouver son contexte sur le serveur. Dans ce cas, la règle de load balancing SafeKit est configurée sur l'adresse IP des clients. Ainsi, le même client est toujours connecté sur le même serveur sur plusieurs sessions TCP. Et différents clients sont répartis sur les différents serveurs de la ferme.

Avec une application Windows ou Linux sans état, il n'y a pas d'affinité de session. Le même client peut être connecté sur des serveurs différents dans la ferme lors de sessions TCP successives. Dans ce cas, la règle de load balancing SafeKit est configurée sur l'identité de la session TCP du client. Cette configuration est celle qui répartit le mieux les sessions entre les serveurs mais elle requiert un service TCP sans affinité de session.

SafeKit Quick Installation Guides

New application (real-time replication and failover)


New application (network load balancing and failover)


Database (real-time replication and failover)


Web (network load balancing and failover)


Full VM or container real-time replication and failover


Amazon AWS


Google GCP


Microsoft Azure


Other clouds


Physical security (real-time replication and failover)


Siemens (real-time replication and failover)


Différentiateurs de la solution de haute disponibilité SafeKit