Livre blanc : Consolidation du centre de données | NETSCOUT

Livre blanc : Assurer le succès de la consolidation des centres de données

L'analyse de rentabilité de la consolidation des centres de données est attrayante, et pas seulement pour les grandes multinationales. Les petites et moyennes entreprises sont également devenues d'excellentes candidates à la consolidation des centres de données. Plusieurs facteurs sont responsables de cet intérêt accru envers la consolidation. Les infrastructures réseau, les applications et les services deviennent de plus en plus complexes. Les utilisateurs deviennent de plus en plus mobiles et exigeants ; ils s'attendent à un niveau de performance qui améliorera leur productivité, sans considération pour la tâche actuelle et l'emplacement depuis lequel ils essayent de l'accomplir. Et le climat économique mondial exige que les sociétés déterminent des manières de réduire leur capital et leurs dépenses de fonctionnement sans sacrifier le niveau de qualité.

    TABLE DES MATIÈRES
  • Résumé
  • Pourquoi s'atteler à un projet de consolidation de centre de données ?
  • Obstacles à surmonter.
  • Éléments essentiels des outils de gestion des performances
  • Équipement TruView™, une vraie plateforme unifiée
  • Surveillance des données de l’infrastructure.
  • Parvenir à la réussite de la consolidation du centre de données et la mesurer.

Résumé

Bien que les clients potentiels et les avantages accompagnant la consolidation d'un centre de données semblent intéressants, les entreprises ne peuvent pas se permettre de se lancer dans cette initiative la tête la première. Plusieurs défis pouvant faire échouer le projet de consolidation les attendent sur le chemin de la réussite. En outre, les entreprises doivent aborder la consolidation avec une perspective stratégique et à long terme. Dans le cas contraire, les gains à court terme s'avéreront n'être qu'un faux lustre. Pouvoir disposer d'une perspective à long terme requiert une compréhension en profondeur des performances actuelles du réseau, de l'application et des services ; une planification et une exécution de la transition menant vers un nouvel environnement opératoire ; et enfin, une surveillance et une gestion agressive de l'architecture mise à jour afin d'assurer un respect des standards et des métriques nécessaires pour les succès présents et futurs.

Une gestion continuelle et efficace du centre de données consolidé est la clé permettant de débloquer et optimiser le retour sur investissement pour cet effort. Malheureusement, c'est également l'étape la plus difficile du processus, parce que les outils de gestion des performances existants, tels que la surveillance du flux d'application, les affichages des transactions, l'analyse des paquets, les invitations à émettre des protocoles SNMP et l'archivage de type flux vers disque (S2D) requièrent plusieurs plateformes et corrigent les avantages disponibles en tant que résultat de la consolidation. Ce dont les entreprises ont besoin est une solution disposant de l'extensibilité, de l'ampleur et de la profondeur nécessaires pour acquérir, intégrer, conserver et présenter des informations qui reflètent (du point de vue des opérations, du service informatique et de l'utilisateur final) les performances des réseaux, applications et services fonctionnant au sein du centre de données consolidé.

Coûts

L'encombrement réduit associé à la consolidation des centres de données incite les sociétés à réduire leurs coûts, vis-à-vis des dépenses en capital et de fonctionnement. Du côté capital de l'équation, un environnement consolidé signifie une plus petite infrastructure réseau et applications. En conséquence, les entreprises ont besoin de moins de matériel, donc moins de serveurs, commutateurs, routeurs et autres. Une réduction du nombre de serveurs se traduit probablement par une baisse du total des applications logicielles, permettant ainsi aux entreprises de réduire encore un peu plus leurs budgets d'équipement.

Avec la prolifération des options Saas basées sur le nuage, la consolidation des centres de données présente un bon nombre d'opportunités de réduire les dépenses de fonctionnement. Les installations à distance peuvent être supprimées ou réduites à un fragment de leur taille originelle, générant ainsi des économies en frais de location. La connectivité avec ces installations peut également être diminuée, minimisant ainsi les frais de transport, tout en ouvrant la voie vers un suivi amélioré des relations et des performances du fournisseur de services. L'infrastructure consolidée consomme moins de puissance et est plus facile à refroidir, réduisant ainsi les factures d'électricité et préparant le terrain pour les initiatives écologiques qui évoluent rapidement. Peut-être le point le plus significatif : la consolidation facilite la tâche du personnel des opérations et du service informatique. Dès lors que l'activité des installations à distance diminue, les exigences en matière de gestion et de communications pour ces derniers sont réduites de manière drastique. En conséquence, les employés des opérations et du service informatique ont la possibilité d'isoler et de résoudre les problèmes de manière plus rapide et à moindre coût, libérant ainsi ces ressources afin de se charger de tâches plus prioritaires et essentielles aux activités.

Optimisation

À une époque où les réseaux, les applications et les services deviennent de plus en plus complexes et que les utilisateurs s'attendent à faire usage de communications unifiées sans compromettre le niveau de fonctionnement ou de performance, l'infrastructure existante distribuée d'une entreprise doit lutter pour suivre la cadence. Ajoutons à cela une éventuelle fusion ou acquisition venant agrandir l'entreprise et augmenter la disparité entre le réseau et les applications, et la situation devient ingérable.


Figure 1 : La consolidation du centre de données est nécessaire non seulement afin de simplifier l'infrastructure, mais également pour l'optimiser et assurer que la qualité du service puisse être maintenue et, à terme, améliorée

La consolidation favorise plus possibilités d'optimisation. L'une d'entre elles est le transport mentionné plus haut. Grâce une approche plus centralisée, il y a moins de canaux de communication à surveiller, l'architecture est plus directe et plus facile à gérer, et les habitudes de transmission et les volumes sont plus visibles et clairement définis. Cet environnement offre l'option d'implémenter des protocoles plus avancés et stratégies de gestion qui maximisent l'utilisation de la bande passante et les performances du réseau global et de ses applications.

La consolidation du centre de traitement des données va également de pair avec la virtualisation des applications. L'objectif de la virtualisation des applications est d'isoler les applications vis-à-vis des serveurs. Au lieu de s'exécuter sur un serveur physique auquel elle serait liée, une application se lance sur un serveur virtuel pouvant être situé partout dans l'entreprise, par exemple dans le centre de données consolidé. Au final, moins de serveurs physiques sont nécessaires, puisque chacun d'eux prend en charge un nombre conséquent d'applications, et ces dernières s'exécutent comme si le serveur leur était dédié. Une fois correctement prévue et tenue à jour, l'adoption des services partagés est transparente pour les utilisateurs finaux des applications, tout en fournissant une qualité de service plus gérable. Les avantages de la virtualisation d'application sont si irrésistibles qu'une étude par l'entreprise d'experts-conseils EMA estime que presque trois quarts de toutes les entreprises utilisent la virtualisation pour certaines de leurs applications de production.

Grâce à la consolidation des centres de traitement des données, l'automatisation des processus et des systèmes cruciaux à l'entreprise est une option réaliste. Par exemple, les solutions d'automatisation dans le centre de traitement de données peuvent relancer des applications en échec, attribuer de manière dynamique de nouveaux serveurs, effectuer des sauvegardes programmées et gérer la configuration de l'environnement d'exploitation. L'automatisation apporte un certain nombre d'avantages, y compris l'uniformité des processus et l'application des règlements et régulations de l'entreprise, l'exécution de processus accélérés et la minimisation de l'erreur humaine. Elle permet également une adaptation plus efficace aux conditions changeantes, et elle augmente la productivité du service informatique et des équipes d'opérations pour lesquels l'entrée manuelle et l'assistance des processus et des systèmes automatisés ne sont plus nécessaires.


Sécurité

Plus l'empreinte des réseaux, des applications et des services est répandue, plus elle est susceptible et vulnérable aux failles de sécurité. La consolidation des centres de traitement de données fournit un renforcement immédiat tout en établissant la base pour la mise en œuvre de stratégies d'atténuation continues et plus sophistiquées.

La consolidation signifie que quelques sites seront entièrement éliminés, et d'autres verront des réductions de taille et de portée. Avec moins de sites et de biens à contrôler, la tâche de physiquement sécuriser l'entreprise devient bien plus facile, moins coûteuse et exige moins de ressources. De même, une architecture d'entreprise plus compacte dépend de moins de connexions entre installations. La simplification de la connectivité au niveau du transport accentue l'attention sur et l'efficacité de la protection des données. L'amélioration de la sécurité électronique pour le transport est essentielle, parce que la prolifération des technologies telles que la commutation multiprotocole par étiquette et la convergence de voix, de données et de vidéos transforment le rôle du transport. Il ne s'agit plus d'une simple connexion entre une paire de points au transfert des informations ; c'est devenu une partie intégrée d'une infrastructure centrée sur les applications qui est cruciale pour accomplir la promesse d'améliorer le niveau de service sans sacrifier la sécurité.

Dans l'économie globale concurrentielle d'aujourd'hui, le succès de l'entreprise est directement lié à la disponibilité et au temps de réponse des réseaux, des applications et des services. Quand l'un d'entre eux est compromis, que ce soit en raison d'une faille de sécurité ou d'un autre événement, il est essentiel de restaurer le fonctionnement aussi rapidement que possible, en dépit de la sévérité et de l'incidence du problème. Par conséquent, la reprise sur sinistre devient une haute priorité pour des entreprises. Avec la consolidation du centre de traitement des données, la planification, la mise en œuvre et l'exécution des solutions de reprise sur sinistre deviennent des défis moins redoutables parce que tous les composants essentiels sont co-implantés, facilitant ainsi la réplication et réduisant la durée de la panne.

Conformité

Quelle que soit l'industrie dans laquelle une entreprise fonctionne, la conformité prend de plus en plus d'importance. Les unités commerciales et les employés doivent démontrer qu'ils respectent les politiques et procédures de l'entreprise. Les sociétés doivent prouver qu'elles sont conformes aux réglementations gouvernementales telles que le Sarbanes-Oxley ; elles doivent également se conformer aux règlements du secteur privé, comme ceux émis par l'industrie de carte de paiement (PSI-DSS), pour gagner de nouveaux contrats, pour pouvoir utiliser des services ou pour garder leurs portes ouvertes. Le personnel informatique doit prouver que le matériel et les composants logiciels achetés ou développés en interne sont conformes aux normes de l'industrie telles que l'ITIL. Le personnel informatique et opérationnel doit pouvoir suivre la conformité aux contrats de service, à la fois intérieurement avec les intervenants de l'entreprise et extérieurement avec les partenaires et clients.

La consolidation des centres de traitement des données facilite la conformité sur au moins deux fronts. Premièrement, elle favorise l'automatisation des processus et du système, ce qui supprime le facteur humain de la boucle et encapsule les procédures et les fonctions à exécuter pour qu'elles restent dans le respect scrupuleux des politiques, règlements, normes et qualité appropriés des métriques du service. Deuxièmement, elle encourage la mise en place d'une capacité complète d'audit qui permet la démonstration concluante de la conformité opérationnelle à un moment précis ou sur une plage horaire plus importante.

Catégorie de conformité Définition Exemple Impact/avantage de la consolidation
Pouvoirs publics Règlements fédéraux, d'état et locaux que les sociétés doivent suivre afin d'acquérir et de retenir des clients Sarbanes-Oxley, représentations et certifications Une empreinte matérielle/logicielle réduite facilite le processus d'audit et la gestion d'inventaire.
Industrie Les règlements émis dans et à travers les secteurs de marché verticaux qui ont incidence sur l'accès aux services et la prestation de services   Une empreinte matérielle/logicielle réduite fournit une meilleure sécurité physique et protection de données, aussi bien que le suivi d'audit et d'exécution amélioré.
Entreprise Politiques et procédures venant des sociétés visant à promouvoir l'efficacité et la déontologie commerciale. Accès au site Web ; utilisation du courriel La virtualisation des applications prépare le chemin pour la surveillance de toutes les transactions au sein de l'entreprise
Technologie Mise en place du matériel et du logiciel, déploiement et meilleures pratiques et normes d'exécution ITIL Une infrastructure et des opérations de matériel/logiciel centralisées permettent au service informatique d'adopter et d'adhérer aux normes
Contrats de niveau de service Garanties de performances et qualité de service venant de partenaires tiers et de fournisseurs Disponibilité de largeur de bande passante, VoIP (voix par le protocole de l'internet) se traduit par des scores d'opinion Une empreinte de transport réduite facilite le suivi des performances en temps réel et dans le temps
Métriques du niveau de service Garanties de performance et qualité de service internes livrées aux unités d'entreprise Disponibilité de l'application, temps de réponse de l'application La virtualisation des applications favorise le recueil des données de transaction pour le suivi des performances et l'estimation de l'utilisation

Le tableau 1 met en valeur les catégories principales de conformité et les incidences de la consolidation des centres de traitement de données.


Obstacles à surmonter

Les avantages de la consolidation des centres de traitement de données sont clairs et attrayants. Avant de s'engager dans effort de consolidation, cependant, les entreprises doivent comprendre que la transition ne sera pas facile. Selon l'enquête de Forrester, les projets de consolidation sont typiquement complétés en entre 18 et 24 mois.² Pendant ce temps, les entreprises devront affecter des ressources et les fonds budgétaires nécessaires pour fournir au personnel les composants logiciels et matériels dont ils auront besoin pour évaluer le système d'exploitation actuel, pour prévoir la migration et pour mettre la nouvelle architecture en ligne. Au cours du processus et même après le déploiement, les entreprises doivent être préparées à adresser une série d'obstacles qui peuvent menacer le succès de la consolidation. Ces défis peuvent de manière générale être classés dans une des trois catégories suivantes : personnel, reportage et outils.

Personnel

Un des points importants de la consolidation des centres de traitement de données est de réunir en un seul emplacement un maximum de réseaux, d'applications et d'infrastructures de services. Par conséquent, les équipes informatiques et des opérations qui étaient précédemment distribuées et fonctionnaient dans leurs propres domaines, ont désormais de grandes chances de travailler côte à côte. Dans ce scénario, on exigera au minimum une diplomatie à travers les domaines pour assurer le bon fonctionnement dans des conditions nominales, et la résolution efficace des problèmes quand les anomalies surgissent. Pour pleinement profiter des avantages de la consolidation, la diplomatie n'est pas suffisante. La compétence à travers les domaines permet aux entreprises de capitaliser sur la consolidation en engageant des équipes à parties interchangeables, ce qui optimisent les opérations et la productivité du personnel dans toutes les conditions. En raison des restrictions de l'architecture traditionnelle, l'expertise sur l'ensemble du domaines est sûrement absente, et doit être cultivée en tant qu'un élément de l'effort de migration.

La consolidation des centres de traitement de données signifie également que le rôle du gestionnaire du centre de traitement des données changera, et que les entreprises doivent expliquer ce fait pendant qu'elles prévoient la transition. Dans la plupart des entreprises distribuées, la fonction étroitement visée du centre de traitement des données exige un gestionnaire focalisé sur la technologie. Dans un monde consolidé, la portée du centre de traitement des données est bien plus large, touchant à beaucoup plus domaines de l'entreprise. Le gestionnaire du centre de traitement des données doit avoir les compétences relatives à cette réalité. Pour réunir toutes les parties efficacement, le gestionnaire doit être un diplomate qui possède non seulement des prouesses techniques, mais également une expérience en marketing, gestion financière et planification des opérations. Trouver un individu avec ces compétences est essentiel, mais difficile, car peu de personnes ont une telle large gamme de qualifications.

Rapports

Avec la consolidation des centres de traitement de données, des ressources qui par le passé travaillaient à travers l'ensemble de l'entreprise sont regroupées dans un seul groupe. En conséquence, les unités commerciales qui géraient et entretenaient leurs propres réseaux, applications et services peuvent plus ne pouvoir faire ainsi. En échange d'abandonner le contrôle, ces groupes exigeront plus que les avantages courants associés avec la consolidation. Ils vont s'attendre à une visibilité profonde dans le fonctionnement du centre de traitement de données, et par conséquent exiger une robustesse dans le reportage qui est souvent absente.

Les unités commerciales sont essentiellement les clients internes du centre de traitement de données consolidé. Pour que les propriétaires d'unités commerciales continuent à soutenir l'opération, ils doivent être assurés que leurs applications critiques s'exécutent au moins au niveau qu'elles avaient quand l'unité commerciale les géraient. En d'autres termes, les accords de contrat de services internes ou les métriques du niveau de service doivent être définis et établis entre le centre de traitement de données consolidé et les unités commerciales. Ces métriques, telles que la disponibilité de l'application et le temps de réponse de l'utilisateur pour des transactions entre l'ordinateur et le centre de traitement de données, une fois compilées, dépistées, et régulièrement enregistrées, fournissent les preuves nécessaires pour garder les propriétaires des unités commerciales.

Les métriques des niveaux de service sont seulement un aspect important des rapports. Un autre est lié à l'utilisation et à la facturation. Les propriétaires des unités commerciales vont uniquement vouloir payer les ressources dont ils se servent ; ils ne souhaiteront pas subventionner les activités d'autres unités commerciales en payant une part également repartie des coûts du centre de traitement de données consolidé. La fonctionnalité des rapports doit être ainsi améliorée pour inclure une estimation de l'utilisation et la rétrofacturation correspondante pour tous les réseaux, applications et services utilisés par chaque unité commerciale.

Outils

La consolidation du centre de traitement de données et la virtualisation d'application qui est susceptible de l'accompagner peuvent simplifier l'architecture de l'entreprise, mais peuvent également introduire une complexité accrue de sa gestion. Alors que davantage de services deviennent virtualisés, il est de plus en plus difficile de fournir une vue simple de l'utilisation des applications du centre de données à l'ordinateur, parce qu'un seul serveur réel peut actionner plusieurs machines virtuelles. Avec des serveurs de base de données, des serveurs d'application, des serveurs d'email, des serveurs d'impression, et des serveurs d'archivage qui partagent tous potentiellement le même matériel, le suivi des performances du réseau, de l'application, et du service est un challenge important. La couche supplémentaire de l'abstraction inhérente de la virtualisation de l'application ajoute au défi parce qu'il y a habituellement moins d'indices physiques disponibles que dans des environnements traditionnels dans lesquels les serveurs et les applications sont étroitement liés.


Les entreprises font face à des obstacles supplémentaires quand il s'agit de la surveillance et de la gestion effective des performances du réseau, de l'application et du service dans un monde consolidé et virtualisé, au-delà de ceux liés directement à l'architecture. La grande majorité des outils traditionnels d'exécution et de gestion fonctionnent mieux quand elles sont dans un silo, se concentrant sur une application ou un service spécifique, ou une partie géographique ou logique du réseau. Une telle approche peut être acceptable dans une architecture distribuée, mais c'est une recette pour le désastre dans un centre de traitement de données consolidé, où le nombre de silos se développera avec l'inclusion des outils de gestion de virtualisation d'application qui n'ont pas encore été intégrés avec les outils de gestion des performances traditionnels.

Le résultat est un scénario dans lequel le personnel des opérations doit utiliser une approche flexible, se basant sur un ensemble varié d'outils (chacun ayant des capacités et interface utilisateur propers)et leur expérience et expertise collectives pour corréler manuellement l'information afin d'dentifier, isoler et résoudre les problèmes. Dans le meilleur des cas, la gestion des performances est exécutée de la même manière qu'elle l'était dans l'environnement distribué, en contournant l'occasion de capitaliser sur l'information et le personnel coïmplantés. Dans le pire des cas, les diverses factions des équipes d'opération et de la technologie de l'information ne coexistent pas paisiblement au sein du centre de traitement de données consolidé, haussant ainsi la fréquence et l'intensité des accusations, tout en diminuant l'efficacité de la résolution des anomalies, à la contrariété des constituants internes et externes et de la gestion d'entreprise.

Éléments essentiels des outils de gestion des performances

Clairement, le status quo en ce qui concerne les outils d'exécution et de gestion ne peut pas rester tel quel si les entreprises s'attendent à profiter de tous les avantages associés à la consolidation des centres de données tels que le coût, l'optimisation, la sécurité et la conformité. Les outils de gestion des performances traditionnels n'ont pas été conçus pour l'environnement consolidé et ne prennent pas en compte les nuances et les complexités qui l'accompagnent, telles que la virtualisation des applications. Ce dont les entreprises ont besoin, c'est une solution de deuxième génération en matière de gestion des performances qui s'adresse non seulement aux points faibles de ses prédécesseurs, mais aide également à neutraliser tout autre défi lié à la consolidation, y compris des problèmes de personnel et de rapports. Les outils de la deuxième génération doivent tenir compte des trois caractéristiques critiques suivantes : portée, point de vue, et synchronisation.

OneTouch ou Frame

Les outils de gestion de performance traditionnels sont catégorisés de deux manières quand il s'agit de leurs capacités et de leur portée. Une classe d'outils prend une approche élevée et plus large qui parcourt la surface dans son rassemblement et estimation de données, en vue de fournir des tableaux de bord exécutifs qui peuvent être partagés avec l'administration supérieure pour dépister la performance globale. L'autre ensemble d'outils prend une approche plus étroite et plus profonde qui se concentre sur un segment particulier de l'entreprise, capturant des paquets, examinant des transactions individuelles, et livrant des analytiques détaillées en temps réel.

Dans le meilleur des cas, les équipes informatiques ont besoin d'une perspective multidimensionnelle pour avoir un point de vue complet. Les données de flux, transactionnelles et de SNMP examinent l'expérience globale tandis que l'analyse des paquets et des capacités S2D assiste dans le dépannage et la conformité. Les organisations informatiques ont besoin d'une analyse en profondeur, mais n'ont pas forcément le temps ni l'effort liés aux produits de point disjoints.

Point de vue

Des outils de gestion des performances traditionnels sont limités non seulement par l'information qu'ils rendent disponible, mais également par la façon dont ils la présentent. Disposer d'un point de vue à partir du réseau et des applications est nécessaire afin d'identifier la cause principale d'un problème et le résoudre, mais ce n'est pas toujours suffisant, en particulier dans un centre de données consolidé dans lequel les propriétaires d'unités commerciales gardent un œil attentif sur les métriques relatives au niveau de service. Malheureusement, les outils existants n'offrent habituellement pas d'alternatives supplémentaires de point de vue, et cela réduit la vitesse ainsi que la précision du processus d'identification, d'isolation et de résolution.

Lorsqu'un utilisateur commercial interne ou un client externe signale des temps de réponse excessivement lents, par exemple, la méthode idéale pour confirmer le problème et en faire le diagnostic est de partager cette expérience. Les solutions de gestion des performances de nouvelle génération doivent permettre au personnel des opérations et du service informatique de voir les choses du point de vue de l'utilisateur final, une possibilité qui ne peut devenir réelle qu'avec l'exigence de portée étendue mentionnée précédemment.

Temporisation

Dans un monde parfait, la gestion des performances est directe. Lorsque les problèmes surgissent, ils sont facilement détectés, la source de l'anomalie est évidente, et le souci est rapidement rectifié, pour ne jamais réapparaître. Le centre de données consolidé n'est cependant pas un monde utopique, et la surveillance/gestion des performances des réseaux, des applications, et des services n'est pas aussi simple. Dans bien des cas, les performances se dégradent doucement au fil du temps, ou les problèmes vont et viennent.

La collecte des informations relatives aux performances provenant de toutes les sources de données au sein de l'entreprise, ainsi que la présentation de ces informations du point de vue de l'utilisateur final permettent d'ouvrir la voie vers une meilleure prise en charge des anomalies, seulement si toutes les informations restent disponibles à des fins d'analyse pour une période de temps prolongée. Les outils de gestion des performances existants ne permettent pas de rassembler toutes les informations nécessaires, ou alors ils se débarrassent des informations de manière trop rapide.


Les solutions de gestion des performances de nouvelle génération doivent être capables d'obtenir et de stocker les informations les plus détaillées pour une durée prolongée et significative. Ceci permet aux employés des opérations et du service informatique de mener des analyses en temps réel, ainsi que de revenir sur des points passés inaperçus afin d'évaluer et mettre en relation les environnements associés avec les rapports de défectuosité intermittents. Ceci favorise également le développement des lignes de référence des performances nominales sur le court, moyen et long terme, afin de pouvoir déterminer et prendre en charger les écarts le plus tôt possible, à une époque où les métriques passent par une liste conséquente de seuils de dégradation.

TruView : Une plateforme réellement unifiée

La bonne nouvelle pour les entreprises qui ont achevé (ou sont sur le point d'achever, ou réfléchissent à) des projets de consolidation de centre de données est que la solution de gestion des performances de nouvelle génération n'est pas qu'une simple utopie. Une réponse à la pointe de la technologie vous est disponible dès aujourd'hui : TruView de NETSCOUT. TruView est une plateforme à 100 % basée sur le Web, totalement contrôlable par URL, dont les composants, les affichages et les rapports peuvent être intégrés et personnalisés afin de satisfaire aux exigences précises d'une organisation.


Figure 2 : Le tableau de bord des performances de l’application TruView vous permet d’identifier rapidement les applications, serveurs et sites les moins performants

Le serveur TruView intégré est le cœur de la plateforme unifiée. Le serveur héberge une plateforme commune où les définitions des modèles de service et de données peuvent être rationalisées. La plateforme est composée d'un moteur d'analyse et d'éléments de configuration, de notification, d'alerte et de planification, qui constituent la base de la solution. Avec cette architecture de serveur, toutes les fonctionnalités, informations et affichages, indépendamment de la source, peuvent être entremêlés de façon homogène, encourageant les interactions entre les domaines et une corrélation rapide des données à des fins d'identification, d'isolation et de résolution des problèmes.

Le flux de travail breveté IntelliTrace améliore l'analyse et le dépannage en fournissant une identification facile du domaine du problème et une analyse des causes principales en quelques clics. TruView propose une plateforme simple disposant du moteur de collecte de données, d'analyse et de présentation le plus robuste.


Un accès, des commandes et des affichages tous personnalisés/communs sont disponibles en amont de la plateforme. Cette couche de l'architecture de TruView peut être utilisée pour communiquer avec les composants de produit qui collectent et conservent les données de performance de façon étendue et approfondie à travers l'entreprise. Quatre types de composants sont préinstallés dans la solution : des appareils de flux de réseau, qui offrent des affichages d'utilisation et de performance du réseau ; des appareils de performance des applications, fournissant des données entrantes concernant les affichages des performances des applications ; des sondes des éléments du service d'analyse (ou ASE), qui prennent en charge des affichages VoIP et réseau sur tout le réseau, et un matériel S2D qui peut capturer 100 % des paquets à une vitesse allant jusqu'à 10 Go/s. Grâce à la conception basée sur le Web de TruView, les entreprises ont également l'option d'intégrer certains (ou la totalité) de leurs outils existants au sein de l'architecture afin de rentabiliser leurs investissements antérieurs.

Surveillance des données de l’infrastructure

Figure 3 : Les rapports en temps réel et historiques de TruView


Les capacités des appareils de flux de réseau de TruView interagissent avec l'infrastructure existante des routeurs et des commutateurs pour obtenir des informations basées sur le flux dans tout format, sans se limiter à IPFIX et à NetFlow de Cisco. Ces capacités basées sur le flux acquièrent toutes les informations à partir de tous les flux, conservant des données en temps réel avec une résolution en une milliseconde, de manière infinie. Étant donné que la solution ne fait pas appel à une utilisation de moyenne de données, ni à une élimination des données, elle n'est pas limitée aux évaluations qui se concentrent exclusivement sur les statistiques principales, qui peuvent ne pas offrir la précision nécessaire afin de prendre en charge des capacités importantes telles que la découverte d'utilisateurs non-autorisés, la visibilité multidiffusion et l'analyse pair à pair.

Les employés des opérations et du service informatique peuvent ajuster la rétention des données de l'appareil, ainsi que les variables de précision, afin de convenir au mieux à leurs besoins particuliers. Combinée la couverture étendue de flux offerte par les appareils de flux de réseau, celle-ci permet aux utilisateurs de TruView de basculer entre les affichages de synthèse de haut niveau aux perspectives des flux individuels. Ces analyses, affichages et rapports à plein débit (en temps réel, et au fil du temps) permettent aux employés des opérations et du service informatique de prendre en charge et planifier des scénarios pertinents dans un centre de données consolidé, incluant notamment une optimisation du chemin et de la session, une validation des exigences de bande passante, ainsi qu'une gestion des performances du réseau MPLS et de classe de service.

Gestion des performances des applications

Figure 4 : Grâce à l’affichage du temps de réponse de l’utilisateur final sur les composants de l’application, du réseau et du serveur à la minute près, une équipe infrastructure peut rapidement localiser le domaine problématique, éliminant ainsi les rejets de responsabilités entre les équipes


L'utilisation d'un tap ou d'un port miroir afin de communiquer avec un serveur virtuel ou physique, les appareils de performance des applications de TruView peuvent accéder aux données en ligne ou fractionnées associées à chaque transaction basée sur l'application, même pour les applications déjà virtualisées. L'appareil de performance des applications est équipé d'une technologie propriétaire brevetée qui permet à toutes les informations d'être capturées, filtrées (éliminant les paquets doubles ou non pertinents) et stockées. Les informations récapitulative sont envoyées vers le serveur TruView Manager toutes les 60 secondes, afin d'étayer les affichages de performance des applications de haut niveau. L'appareil envoie (à la demande) des données de plus en plus détaillées, au fur et à mesure que les utilisateurs de la solution entreprennent des activités de diagnostic, en direction des transactions individuelles, pour les événements et les transactions en temps réel ayant survenu à un moment ou un segment antérieur.

Sondes matérielles de collecte dédiées facultatives

Figure 5 : Résumé des performances réseau de TruView

Les ASE de TruView sont des appareils pouvant être placés soit au sein du centre de données consolidé, ou soit dans un emplacement à distance situé sur le réseau global de l'entreprise, pour offrir l'étendue d'informations désirée. Les ASE individuels sont conçus pour capturer et renvoyer au serveur TruView une profondeur d'informations couvrant les couches 1 à 7 du modèle de réseau, de la couche physique à la couche d'application.

Les éléments du service d'analyse sont idéaux pour les situations dans lesquelles une visibilité plus rigoureuse et des critères de performance sont en jeu, comme par exemple la détection d'une erreur de couche physique et le fait que les ANS soient liés à la disponibilité du réseau, du serveur ou de l'application. Ils sont également parfaits pour les environnements de type centres de données consolidés, où les entreprises souhaitent profiter au maximum de la convergence de la voix, des données et de la vidéo sur un même mode de transport, afin de réduire les coûts et optimiser la bande passante sans compromettre le niveau de performance. Les déploiements de VoIP réussis, par exemple, requièrent une excellente compréhension et projection du type de trafic et de distribution de service avant, pendant et après la transition à partir de la liaison par circuits traditionnelle. Les éléments de service d'analyse transfèrent les informations qui alimentent les affichages et les rapports qui étayent les évaluations VoIP, la surveillance active ou passive des performances, la mesure de la qualité par appel, et le dépannage en temps réel et dans le temps.


Transfert robuste en flux continu sur le disque

Le serveur TruView propose une collecte des paquets à vitesse filaire allant jusqu'à 10 Go/s, ce qui assure au service informatique de ne jamais pouvoir manquer un événement important. Trop souvent, il est beaucoup plus difficile résoudre des problèmes intermittents en raison de données limitées ou manquantes, mais le S2D de TruView veille à ce que vous disposiez de tous les éléments nécessaires. En capturant toutes les données à vitesse maximale, il n'y a plus de lacune au sein des informations.

Au lieu de faire des suppositions ou d'enregistrer de petits groupes de données, les capacités du S2D de TruView permettent d'enregistrer tous les flux, transactions et paquets sans limite, ni compromis. Le S2D est utile afin de dépanner les problèmes de manière plus rapide, tout en réduisant le temps requis pour les vérifications et les exigences de conformité. La plateforme TruView corrélée offre un accès facile aux informations exactes au moment où survient le problème, que les équipes du service informatique soient chargées de dépanner les problèmes en temps réel ou qu'elles essayent d'identifier la source d'un problème intermittent ayant survenu quelques heures ou quelques jours auparavant.

Parvenir à la réussite de la consolidation du centre de données et la mesurer

Le verdict sur le succès ou l'échec d'un projet de consolidation de centre de données ne devrait pas être basé sur une estimation à court terme, subjective ou qualitative faite par différents intervenants. Les sociétés doivent plutôt se baser sur des statistiques et des métriques quantitatives calculées sur le long terme, qui expliquent les incidences à toutes les parties prenantes : propriétaires d'unité d'entreprise, personnel informatique et des opérations, personnel de gestion d'entreprise, et clients.

L'étude menée par Forrester Research portant sur 147 entreprises américaines ayant achevé (ou ayant démarré) un projet de consolidation de centre de données inclut notamment des questions concernant les cinq meilleures métriques utilisées pour mesurer le succès d'une consolidation. 52 % des entreprises interrogées ont cité les frais opérationnels dans cette liste, suivis par le coût total de la propriété (44 %), le pourcentage du budget du service informatique économisé (38 %), les performances des applications comparées aux coûts des infrastructures (35 %) et les performances par noyau d'unité centrale (34 %).3

Le déploiement d'un outil de gestion des performances n'est pas uniquement utile afin de recueillir ces statistiques : il a également un impact direct sur leur valeur. La solution de gestion des performances idéale permet aux petites, moyennes et grandes entreprises à obtenir les avantages en termes de coûts, d'optimisation, de sécurité et de conformité des centres de données consolidés à leur meilleur niveau. Une telle solution protège également les sociétés des soucis allant souvent de pair avec la consolidation, notamment en rapport avec le personnel, le rapport et les outils.

Les outils de gestion des performances existants ne sont simplement pas à la hauteur de la tâche étant donné leur manque de visibilité, de perspective, et de timing nécessaire pour travailler dans un environnement consolidé. Trop de pression repose sur la consolidation des centres de données : impossible d'ignorer les fonctions de gestion des performances ou de les confier à un ensemble d'outils disparates et non-adéquats qui ne peuvent satisfaire aux exigences de performances des réseaux, applications et services. Les entreprises ont besoin d'une solution de gestion des performances de nouvelle génération comportant l'architecture, l'étendue, la profondeur, l'évolutivité, la fonctionnalité et le modèle de données commun permettant le succès du projet de consolidation, aujourd'hui et demain. Seul un produit permet d'offrir les éléments essentiels de la gestion des performances de nouvelle génération : TruView de NETSCOUT.

1 L'analyse et la détermination des frais aident à assurer le succès d'une consolidation, Forrester Research, Janvier 2009.

2 L'analyse et la détermination des frais aident à assurer le succès d'une consolidation, Forrester Research, Janvier 2009.

3 L'analyse et la détermination des frais aident à assurer le succès d'une consolidation. Forrester Research, Janvier 2009.

 
 
Powered By OneLink