samedi 16 janvier 2010

Sauvegardes des données dans des environnements virtuels

Orange Business dans son blog a publié en 3 partie une intéressante analyse du nouveau challenge de la sauvegarde en environnement virtuel. Nous reprenons ci-après ces informations :

La virtualisation d'une architecture est une excellente occasion de refondre la sauvegarde et donc de repenser la philosophie en profitant de la flexibilité des outils de l'écosytème virtuel.
Dans une architecture physique traditionnelle, nous sommes confrontés aux acteurs traditionnels du monde de la sauvegarde (que la décence m'interdit de nommer ici comme disait l'autre). Lorsque l'on aborde une plateforme virtuelle, on doit approcher différement le sujet de la sauvegarde.
 La virtualisation d'une plateforme inclut nécessairement la mise en place d'un stockage centralisé. L'introduction de cette composante est l'occasion de repenser la sauvegarde en intégrant une solution "disk to disk to tape" (D2D2T).
Le propos d'une telle solution est de raccourcir les fenêtres de sauvegarde en effectuant une sauvegarde au niveau du stockage centralisé entre les catégories 1 (production) et 2 (sauvegarde). Une fois la partie D2D effectuée, on peut alors externaliser les données avec une étape D2T sans contrainte horaire puisque l'on adresse uniquement des données de sauvegardes et non celles de la production.
Le stockage doit alors être dimensionné selon le niveau de rétension souhaité. On complète alors en externalisant selon la politique d'archivage souhaitée.

Aujourd'hui : La plupart des entreprises ont investi beaucoup de temps (donc d'argent) et d'énergie dans la mise en place d'une solution de sauvegarde globale industrialisée, parfois couplée à des ordonnanceurs afin de pouvoir gérer la sauvegarde de leurs infrastructures.
Dans les discussions avec les équipes en charge de ce périmètre, le constat est assez étonnant: la virtualisation n'a engendré aucune remise en question de la solution, de la stratégie associée ni même de la philosophie qui a poussé l'entreprise vers cette solution au moment de son choix.
Le résultat ? Des plateformes virtualisées sauvegardées avec des solutions pour plateformes physiques, une politique d'agent sur chaque VM etc. le tout gentiment envoyé sur bande par l'intermédiaire d'une infrastructure aussi couteuse que généralement peu adaptée.

Demain: La virtualisation d'une plateforme implique de repenser l'ensemble des services qui y sont associés (sauvegarde, restauration, supervision, déploiement). La généralisation du D2D2T ( voir part1 ) est assez prévisible grâce à la flexibilité et des performances qui caractérisent cette solution.
Le développement de l'écosystème virtuel a engendré la naissance de nouvelles solutions adressant les services mentionnés plus haut. ces solutions sont radicalement différentes de leurs prédécesseurs en environnement physique. La distinction la plus majeure (en dehors de la dé duplication native des données) réside dans le fait de traiter les VMs pour ce qu'elles sont: un ensemble de fichiers à plat. On abandonne ainsi la philosophie de sauvegarde d'une système d'exploitation au profit de la sauvegarde d'un jeu de fichiers à plats dont on assure la consistance avant sauvegarde en s'appuyant généralement sur la technologie des snapshots bien connue dans l'environement virtuel. Cette méthode permet la restauration de tout ou partie d'une VM (avec une granularité différente selon l'éditeur) et parfois d'un fichier même au sein de l'OS guest.
La rapidité et la fléxibilité de restauration en D2D est sans comparaison avec la gestion de bandes même si l'externalisation reste à priori assurée par les média de ce type (la réplication de baies SAN intersite pourrait toutefois changer la donne assez rapidement sauf pour ce qui est de la partie archivage).
Enfin le D2D permet aux équipes de production de la plateforme virtuelle, d'acquérir une indépendance et donc de la réactivité pour des restaurations récentes sans pour autant impacter le périmètre de la sauvegarde sur bande traditionnelle gérée par une équipe dédiée la plupart du temps.
Il est possible d'ajuster le niveau de haute disponibilité d'un service au sein d'une infrastructure virtuelle en optimisant l'ensemble des mécanismes existants afin d'obtenir le meilleur équilibre "cout / haute disponibilité" pour une brique donnée.

Actuellement les plateformes virtualisées rendent possible la redondance et la haute disponibilité sur l'ensemble des maillons de l'infrastructure (stockage, hyperviseur, réseau). Cette haute disponibilité a un coût. Cette logique de redondance est aujourd'hui prolongé au sein de la gestion des VMs elles-mêmes. Des fonctionnalités comme HA sont désormais complétées par le "fault tolerance", la réplication de VMs. Il devient ainsi possible de palier à n'importe quelle défaillance hardware en assurant une continuité de service de manière automatisée ou d'un simple clic.

Cette souplesse et ce niveau de haute disponibilité ont naturellement un coût. L'attribution de ressources physiques en doublon dans un cas, l'allocation d'un espace de stockage double dans l'autre.
Ces fonctionnalités ne sont, bien entendu, pas généralisables à l'ensemble d'une plateforme (sauf absence totale de limite budgétaire, mais les années 90 sont bien terminées ...).
En revanche, elles permettent d'adapter le niveau de haute disponibilité de chaque VM selon son niveau de criticité, les contraintes financières et de gestion des ressources ... et cela de manière évolutive tout au long de la vie de la plateforme.



Aucun commentaire:

Enregistrer un commentaire