MAXIMISER LE ROI AU TRAVERS DE LA VIRTUALISATION ET DE LA CONSOLIDATION DU CENTRE DE DONNÉES
Livre blanc
| Livre blanc |

MAXIMISER LE RSI AVEC
LA VIRTUALISATION DU CENTRE DE DONNÉES ET
LA CONSOLIDATION EN GÉRANT
LES PERFORMANCES DE L'UTILISATEUR FINAL
-->

MAXIMISER LE RSI AVEC LA CONSOLIDATION ET LA VITUALISATION DU CENTRE DE DONNÉES EN GÉRANT LES PERFORMANCES DE L'UTILISATEUR FINAL

L'analyse de la rentabilisation pour la consolidation des centres de données est incontestable alors que les réseaux, les applications et les services deviennent plus complexes, les utilisateurs deviennent de plus en plus mobiles et les entreprises ont besoin de réduire les coûts sans compromettre les performances. Toutefois, pour obtenir ces avantages, les entreprises ont besoin de gérer l’architecture consolidée en étroite relation avec les indicateurs de performances. Les outils de gestion des performances existants nécessitent plusieurs plates-formes et n'ont pas la portée nécessaire, les mêmes perspectives et le niveau de synchronisation approprié pour être à même de gérer un environnement consolidé. Des difficultés supplémentaires surviennent lorsque des applications sont virtualisées, ne facilitant pas la mesure des performances du point de vue de l’utilisateur final.

Une gestion continuelle et efficace du centre de données consolidé est la clé permettant de débloquer et d'optimiser le retour sur investissement du projet. Les entreprises ont besoin d’une solution qui permet de gérer les performances du point de vue de tous les intervenants (unités commerciales, services informatiques et utilisateurs finaux) pour garantir que le projet de consolidation délivre le retour sur investissement requis.

Leviers de la consolidation du centre de données

Les centres de données évoluent de manière importante d’une infrastructure traditionnelle et distribuée vers une structure consolidée et orientée service. Les avantages sont irrésistibles. Les infrastructures réseau, les applications et les services deviennent de plus en plus complexes, tandis que les utilisateurs sont de plus en plus mobiles et exigeants, espérant des performances du réseau qui leur permettront d’améliorer leur productivité dans toute tâche, quelle que soit leur localisation.

Dans le même temps, le climat économique difficile conduit les entreprises à réduire les coûts d’investissement et d’exploitation sans pour autant sacrifier la qualité. Les ingénieurs doivent obtenir le meilleur de chaque commutateur, routeur, serveur et hyperviseur. La consolidation du centre de données permet aux entreprises de mettre en œuvre des protocoles et stratégies de gestion plus avancés pour maximiser l’utilisation de la bande passante et les performances des applications tout comme des réseaux. Elle rend également possible la mise en œuvre de la virtualisation des applications (en séparant les applications des serveurs physiques), entraînant ainsi des avantages supplémentaires.

Ces avantages supplémentaires de la consolidation du centre de données comprennent :
  • l’amélioration de la sécurité grâce à la réduction du nombre de sites et d’équipements à gérer et à l’établissement de stratégies d’atténuation des risques plus sophistiquées ;
  • l’amélioration de la conformité grâce à la promotion de l’automatisation et de l’encouragement vers la mise en œuvre d’une capacité d’évaluation complète ;
  • la réduction des besoins en matériels et logiciels, de la consommation d’énergie, des besoins en installations et transport, réduisant ainsi les coûts d’investissement et d’exploitation et l’empreinte carbone de l’entreprise.
Pour atteindre ces objectifs, des serveurs sont virtualisés et des liaisons 40 Gigabit sont installées pour favoriser la consolidation des applications gourmandes en bande passante, provoquant l’augmentation du coût des interfaces réseau et des demandes en infrastructure de câblage.

Planification de la consolidation pour maximiser les avantages

En dépit des avantages potentiels de la consolidation du centre de données, les entreprises nécessitent une évaluation et une planification appropriées afin de pouvoir réaliser le potentiel retour sur investissement. Les modifications doivent être effectuées en toute transparence, avec un minimum d’interruption des applications de production d’entreprise, et le centre de données consolidé doit offrir de meilleures performances pour justifier le temps et l’investissement nécessaires à la mise en œuvre du projet.

Le coût des temps d'arrêt
Coût moyen d’une interruption d’un centre de données par minute 5 600 $
Temps d’arrêt moyen déclaré 90 minutes
Coût moyen de l’incident : 505 000 $
Coût d’une coupure totale du centre de données, avec un temps moyen de rétablissement de 134 minutes Environ 680 000 $
Pour une coupure partielle du centre de données, soit environ 59 minutes, le coût est évalué à environ 258 000 $

Source : Ponemon Institute 20111.

Pour bénéficier pleinement des avantages de la consolidation et éviter une interruption coûteuse, les entreprises doivent suivre un processus précis :

  • connaître en profondeur leur réseau, applications et services existants et évaluer les performances ;
  • définir des mesures pour les performances souhaitées pour le centre de données consolidé ;
  • planifier la transition ;
  • mettre en œuvre la transition vers le nouvel environnement d’exploitation avec un minimum d’interruptions ;
  • surveiller et gérer l’architecture mise à jour afin de s’assurer qu’elle atteint les mesures requises.

Selon une enquête menée par les analystes de Forrester Research, les projets de consolidation durent généralement entre 18 et 24 mois2. Pendant ce temps, les entreprises doivent consacrer des ressources et du budget pour fournir au personnel le matériel et les logiciels permettant d’évaluer les environnements d’exploitation existants, de planifier la migration, de mettre en ligne la nouvelle architecture et de gérer les performances.

Les évaluations précises sont vitales. Sans mesures en amont et en aval des performances de consolidation, les entreprises ne peuvent pas mesurer le retour sur investissement. Elles doivent analyser les impacts sur tous les intervenants : propriétaires d’unités commerciales, services informatiques et des opérations, direction de l’entreprise et utilisateurs finaux. Si des applications sont virtualisées, la mesure des performances du point de vue de l’utilisateur final devient plus difficile.

Quelles sont donc les principales zones à évaluer ? Forrester a demandé à 147 entreprises américaines ayant achevé ou étant activement en train de mettre en œuvre un projet de consolidation du centre de données quelles étaient les cinq premières mesures qu’elles utilisaient pour en évaluer le succès. 52 % d’entre elles ont cité les coûts d’exploitation, suivis de près par le coût total de propriété (44 %), le pourcentage de budget économisé (38 %), les performances d’application par rapport aux coûts de l’infrastructure (35 %) et les performances par cœur de processeur (34 %).

Pour réaliser (et démontrer) le retour sur investissement d’un projet de consolidation, les entreprises doivent prendre en compte trois domaines : la génération de rapports, la gestion des performances et le personnel. Dans la suite de ce livre blanc, nous mettrons l’accent sur deux de ces domaines : la génération de rapports et la gestion des performances, qui sont étroitement liées.

Défis liés à la mise en œuvre

1. Rapports
Avec la consolidation du centre de données, les ressources qui étaient auparavant réparties dans toute l’entreprise sont désormais rassemblées dans un groupe commun. Par conséquent, les unités commerciales qui géraient et maintenaient autrefois leurs propres réseaux, applications et services ont dû transférer le contrôle à une équipe centrale.

En effet, les unités commerciales deviennent désormais des clients internes du centre de données consolidé. Pour que les unités commerciales continuent à soutenir cette démarche, il faut leur garantir que leurs applications critiques se situent aux mêmes niveaux ou à des niveaux supérieurs qu’au moment où elles étaient contrôlées par elles-mêmes. Cela signifie qu’il faut établir des accords de niveau de service internes entre le centre de données et les unités commerciales. Des mesures comme la disponibilité des applications et le temps de réponse des utilisateurs finaux concernant les transactions entre le poste de travail et le centre de données doivent être compilées, suivies et rapportées régulièrement afin de fournir les preuves nécessaires pour retenir les propriétaires d’unités commerciales.

Pourquoi les unités commerciales s’intéressent-elles aux performances réseau ?

  • Les performances du système POS retiennent-elles les clients ou les font-elles fuir ? Quarante pour cent des clients abandonneront un site Web après une ou deux mauvaises expériences.
  • Dans une salle des marchés de New York, Londres ou Hong Kong, une milliseconde de latence au niveau du délai du réseau peut entraîner une différence d’un million de dollars pour chaque transaction.
Des mesures des niveaux de service sont également requises pour l’utilisation et la facturation. Les propriétaires d’unités commerciales accepteront naturellement de payer pour les ressources qu’ils utilisent, plutôt que de subventionner d’autres unités commerciales en payant une part uniformément répartie des coûts du centre de données. La génération de rapports devrait donc inclure l’évaluation de l’utilisation et la rétrofacturation correspondante pour tous les réseaux, applications et services consommés par chaque unité commerciale.

2. Gestion des performances
Alors que la consolidation du centre de données et la virtualisation des applications qui l’accompagne généralement peuvent rationaliser l’architecture de l’entreprise, elles introduisent également une difficulté de gestion. Puisque davantage de services sont virtualisés, il devient de plus en plus difficile de fournir une vue unique de l’utilisation des applications depuis le centre de données jusqu’au poste de travail, car un seul serveur physique peut alimenter plusieurs machines. Avec les serveurs de base de données, les serveurs d’applications, les serveurs de messagerie, les serveurs d’impression et les serveurs de fichiers qui partagent tous potentiellement le même matériel, suivre les performances du réseau, des applications et des services devient beaucoup plus difficile.

Trouver le ou les bons outils de gestion est un autre défi. La plupart des anciens outils de gestion des performances fonctionnent mieux dans un environnement cloisonné car ils se concentrent sur une application, un service ou un élément géographique ou logique spécifiques au réseau. Cette approche peut être acceptable dans une architecture distribuée (bien que des problèmes peuvent se cacher entre un NMS sans informations complètes et des outils de capture de paquets complexes), mais elle provoque des problèmes dans un centre de données consolidé, où le nombre de cloisons augmentera avec l’ajout d’outils de gestion de la virtualisation des applications qui n’ont pas encore été intégrés aux anciens outils de gestion des performances.

Dans ce genre de situation, les ingénieurs réseau doivent s’appuyer sur un ensemble d’outils disparates, chacun avec ses propres capacités et interface utilisateur. Ils doivent utiliser leur expérience et leur expertise collective pour corréler manuellement les informations afin d’identifier, isoler et résoudre les problèmes.

Dans le meilleur des cas, la gestion des performances est réalisée de manière similaire à l’environnement distribué, en mettant de côté la possibilité de capitaliser les informations et les ressources allouées. Dans le pire des cas, ils rejettent la responsabilité sur les équipes des opérations ou les équipes informatiques, réduisant l’efficacité de la résolution d’anomalie et entraînant des problèmes à la fois pour les utilisateurs finaux et la direction.

Pour faire face à ces problèmes et tirer parti de l’ensemble du potentiel de la consolidation, les entreprises doivent trouver une meilleure façon de gérer les performances et de générer les rapports.

Gestion des performances consolidées

Une solution de gestion des performances consolidées fournira des informations sur tous les aspects du réseau à toutes les parties. Cela contribuera à la résolution efficace des problèmes sans rejet de responsabilité et en fournissant un accès aux données permettant de calculer les mesures des rapports et de gestion tels que les performances SLA, l’utilisation et la facturation.

Toutefois, la gestion des performances est l’étape la plus difficile du processus de consolidation. Les anciens outils de gestion des performances ont été conçus pour un environnement distribué et ne peuvent pas gérer les complexités d’une architecture consolidée et virtualisée. Des outils tels que la surveillance du débit de l’application, les affichages transactionnels, les analyses de paquets, l’interrogation SNMP et l’archivage débit vers disque (S2D) nécessitent plusieurs plates-formes. Ceci atténue donc potentiellement les avantages de la consolidation.

Les entreprises ont besoin d’une solution de bout en bout offrant l’évolutivité, la largeur et la profondeur nécessaires pour acquérir, intégrer, présenter et conserver les informations qui reflètent réellement les performances des réseaux, des applications et des services du point de vue de l’unité commerciale, du service informatique et surtout de l’utilisateur final. Pour être efficace, trois caractéristiques sont essentielles : portée, point de vue et synchronisation.

OneTouch ou Frame
Les outils de gestion des performances traditionnels peuvent être divisés en deux catégories. Certains adoptent une approche de haut niveau et survolent la collecte et l’évaluation des données. Ils génèrent des tableaux de bord qui peuvent être partagés avec la direction générale pour suivre les performances globales, mais ne donnent pas suffisamment de visibilité sur des domaines spécifiques ou n’aident pas à résoudre les problèmes. Les alternatives adoptent une part beaucoup plus étroite et profonde, en mettant l’accent sur un segment spécifique du réseau et en capturant des paquets, examinant les transactions individuelles et offrant des analyses détaillées en temps réel.

Idéalement, les équipes informatiques ont besoin d’une combinaison des deux approches. Les données de débit, de transaction et SNMP leur permettent d’examiner l’expérience globale, tandis que l’analyse des paquets et les capacités S2D facilitent le dépannage et la conformité. Elles ont besoin à la fois de l’ampleur et de la profondeur de l’analyse, mais sans l’effort manuel et les délais associés aux produits.

Point de vue
Les anciens outils de gestion des performances sont limités à la fois par les informations qu’ils fournissent et la façon dont ils les présentent.

Les points de vue réseau et application permettent d’identifier la cause principale d’un problème et de le résoudre, mais ne sont pas toujours suffisants, en particulier dans un centre de données consolidé où les propriétaires d’unités commerciales exigent des mesures de niveau de service.

Par exemple, lorsqu’un client interne ou externe signale des temps de réponse excessivement lents pour une application, la meilleure façon pour l’ingénieur réseau de confirmer la situation et de diagnostiquer le problème est de voir le réseau du point de vue de l’utilisateur. Cela n’est possible que si la solution de gestion des performances possède l’ampleur et la profondeur d’analyse examinées ci-dessus.

Temporisation
Dans un monde idéal, lorsque des problèmes de performance apparaissent, la cause principale est rapidement identifiée et la situation rapidement résolue. Toutefois, cela devient plus difficile dans l’environnement plus complexe d’un centre de données consolidé, en particulier si les performances se dégradent lentement dans le temps ou si les problèmes sont intermittents.

L’ingénieur réseau doit rassembler des informations détaillées vis-à-vis des performances à partir de toutes les sources de données, et ce sur l’ensemble du réseau au cours d’une longue période de temps. Il doit ensuite présenter ces informations depuis le point de vue de l’utilisateur final. Cela permet aux services informatiques et des opérations d’effectuer une analyse en temps réel et historique en revenant vers des points distincts afin d’évaluer et de mettre en corrélation les environnements associés aux rapports d’erreurs intermittentes. Ils prennent également en charge le développement à court, moyen et long terme des performances de base, permettant aux déviations d’être identifiées et abordées le plus tôt possible.

Une solution de gestion des performances de bout en bout devrait aborder les trois problèmes à la fois. Cette solution doit collecter, agréger, corréler et soumettre à la médiation toutes les données, concernant notamment le flux, les données SNMP et des informations recueillies à partir d’autres périphériques, avec une précision atteignant jusqu’à une milliseconde. Ces données doivent être affichées sur un seul tableau de bord configurable par l’utilisateur. Cela permettra de mesurer les performances, d’identifier et de résoudre les problèmes rapidement, et de fournir la visibilité nécessaire à la prise en charge de l’optimisation du réseau. En mettant en œuvre une solution de gestion des performances appropriée avant la consolidation du centre de données, l’équipe informatique peut s’assurer que les performances sont au moins maintenues et idéalement améliorées à la suite du projet de consolidation.

La virtualisation contribue à la complexité de la gestion des performances

La couche supplémentaire d’abstraction inhérente à la virtualisation des applications rend la gestion des performances plus difficile, car il existe généralement moins de preuves physiques disponibles que dans un environnement traditionnel où les serveurs et les applications sont étroitement couplés.

La migration vers une infrastructure réseau virtuelle oblige les ingénieurs réseau à adopter de nouvelles méthodes de configuration et de surveillance, puisqu’il y a moins de commutateurs physiques et de routeurs à prendre en charge. Il existe également un débat sur la question de savoir si la virtualisation augmente ou diminue la sécurité du système. Si un système est compromis dans l'environnement virtuel, est-ce que ceci donnera l'accès à tous les autres ? En plus, l'augmentation du trafic physique vers une plate-forme matérielle aura un plus grand impact sur l'infrastructure de câblage. Cette infrastructure doit être testée et certifiée avant de déployer une virtualisation des services.

La visibilité et la sécurité au sein de l’environnement virtuel sont des notions très préoccupantes. Avant, pendant et après la migration, il est essentiel d’utiliser des « taps » virtuels, SNMP et NetFlow pour surveiller la santé, la connectivité et l’utilisation de ces systèmes désormais virtuels. Dans certaines plates-formes, les serveurs peuvent être automatiquement déplacés et transférés afin d'utiliser plus efficacement des ressources de matériel. Pour ces raisons, l'inventaire et l'emplacement du serveur devraient être suivis de près.

A l’aide d’un « tap » virtuel ou un port de dédoublement du trafic, le trafic de l’application doit être surveillé et analysé pour détecter les temps de réponse du serveur et les comportements irréguliers. Étant donné que la virtualisation est quelque sorte une nouveauté comparée à d'autres systèmes au sein de l'organisation informatique, on l'accuse généralement au début quand un problème survient. C’est pourquoi des outils de surveillance devraient être mis en place 24h/24, 7j/7, permettant ainsi d’isoler rapidement un problème sur le réseau physique ou dans l’environnement virtuel.

Il existe des défis spécifiques à la gestion de l’expérience utilisateur lors de l’accès aux applications situées dans un environnement Citrix virtualisé. En raison de la complexité de cet environnement, l’ensemble de la transaction, de l’utilisateur aux multiples niveaux de structure de l’application, doit être surveillé, référencé et géré. Cette opération nécessite une compréhension de la façon dont Citrix modifie l’architecture de l’application.

Lorsqu’un utilisateur ouvre une session dans une infrastructure de bureau virtuel (VDI) session, il est engagé avec le ou les serveurs XenDesktop ou XenApp de Citrix, qui hébergent des sessions virtuelles avec un accès configuré à des services spécifiques défini et configuré par l’administrateur. Ces droits sont généralement liés à une interaction externe avec Active Directory, une transaction distincte où la passerelle d’accès de Citrix (par le biais du serveur Web de contrôle d’accès avancé) devient le client d’une requête distincte. C’est à ce moment-là que l’utilisateur accède à une session avec sa solution Citrix. Les données de cette session sont des « données capturées à l’écran », soit la couche d’émulation du trafic.

Au sein des données utiles, il est possible de mieux comprendre comment l’utilisateur final interagit avec son bureau virtuel. Ces interactions génèrent d’autres transactions dans les niveaux d’application suivants avec le serveur Citrix, agissant comme client d’une interaction d’application d’un niveau donné plus standard au sein de l’architecture de service établie.

Puisque les transactions de l’utilisateur sont transmises, la corrélation des transactions de bout en bout peut être difficile, en raison de la nature approximative de l’architecture d’application. Les informations concernant l’utilisateur et les actions de l’utilisateur sont contenues dans le trafic ICA sur les serveurs Citrix XenApp, mais sont imbriquées dans les données utiles. Une fois que Citrix génère des sessions pour les infrastructures d’application finales, le seul véritable moyen de réaliser une corrélation est en étudiant la durée et les applications auxquelles on a eu accès.

Cela signifie que lorsqu’un utilisateur contacte le centre d’assistance pour indiquer une possible panne du réseau, il fait peut-être l’expérience de retards avec une application hébergée par Citrix. Il peut s’écouler jusqu’à une heure avant que l’ingénieur ne comprenne ce qui se passe réellement. Le seul moyen de comprendre ce qui peut avoir un impact sur l’expérience de l’utilisateur final est de mettre en œuvre une surveillance des performances de ces applications depuis le point de vue du réseau. Dans un environnement consolidé, il s’agit du transport entre l’utilisateur final et le centre de données.

Des solutions telles que celles de VMware fournissent des outils pour surveiller l’environnement virtualisé et les serveurs, mais non pas l’expérience de l’utilisateur final et le réseau. En revanche, NETSCOUT a développé des solutions qui permettent d’effectuer des mesures depuis l’utilisateur final jusqu’au centre de données, permettant aux utilisateurs de comprendre ce qui se passe sur le réseau du point de vue de l’utilisateur final et donc d’identifier et de résoudre les problèmes plus rapidement.

Ces solutions fournissent une visibilité des performances de ce premier niveau, puisqu’elles sont regroupées par site avec des comparaisons utilisateur. Elles fournissent également des visualisations des interactions de l’utilisateur au sein de sa session, ainsi que des mesures de performances pour les applications publiées. Elles sont ensuite mises en corrélation avec les transactions générées par l’environnement Citrix selon les architectures standard d’application à un niveau donné. Elles permettent de gagner du temps lors de la résolution de problèmes et aident les ingénieurs à devenir proactifs dans la gestion des performances au sein de ce scénario de déploiement d’application.

Références ;
1 Comprendre le coût des temps d’indisponibilité du centre de données - Emerson Network Power & Ponemon Institute

2Une analyse des coûts et des mesures permettent d’assurer le succès de la consolidation - Forrester Research, janvier 2009.

 
 
Powered By OneLink