Rubriques des solutions | NETSCOUT

Rubriques des solutions

La technologie 802.11ac permet de relever les défis auxquels est confronté le Wi-Fi et qui exercent de fortes pressions sur celui-ci, dont notamment les environnements à haute densité, la prolifération des environnements BYOD et les utilisations nécessitant des débits en matière de bande passante élevés (telles que le streaming vidéo). Le tout, grâce à des vitesses de plusieurs Gigabits par seconde. Ceci est rendu possible par l’utilisation de technologies du Wi-Fi 802.11ac telles que le MIMO, la formation de faisceaux, l’agrégation de canaux et bien d’autres déjà introduites à l’époque du 802.11n.

Pour les organisations dont les utilisateurs finaux comptent sur la fluidité des flux d’informations numériques, la promesse d’une plus grande mobilité est la bienvenue. Le fait est que pour les services informatiques dans ces « entreprises sans frontières », leur manque de visibilité sur l’ensemble du réseau (sur site, dans le cloud et au sein des environnements sans fil) éclipse rapidement les avantages commerciaux quand des problèmes se produisent.

La forte popularité des terminaux grand public ne présente aucun signe de ralentissement. En 2013, les smartphones devraient être le principal terminal de connexion à Internet du grand public. D'ici 2015, la connectivité des tablettes électroniques devrait supplanter celle des ordinateurs portables. Il n'est donc pas surprenant de constater que les employés apportent de plus en plus souvent leurs appareils sur leur lieu de travail et les utilisent pour effectuer des tâches d'ordre professionnel, mais aussi d'ordre privé. En effet, les employés gardent constamment sur eux entre 2 et 4 terminaux mobiles, nécessitant pour la plupart une connexion sans fil, et ce nombre est en constante augmentation. Parallèlement à la refonte et à l'amélioration de l'infrastructure sans fil pour prendre en charge ces dispositifs, certaines entreprises ont commencé à déployer des applications destinées aux employés et des catalogues d'applications personnalisés.

Les centres de traitement des données d'aujourd'hui passent d'une infrastructure traditionnelle et distribuée à une structure consolidée et orientée vers les services. Qu'ils grandissent pour supporter des services haut débit ou qu'ils rétrécissent et centralisent les systèmes, les centres de traitement des données sont modifiés en permanence. Dans les centres de données qui se développent de plus en plus, des serveurs sont virtualisés et 40 des liaisons gigabit sont installées pour prendre en charge la consolidation d’applications gourmandes en bande passante, ce qui accroît le coût des interfaces réseau et augmente les exigences imposées aux infrastructures de câblage.

Les budgets informatiques sont de plus en plus serrés, mettant ainsi la pression sur les ingénieurs qui doivent obtenir le maximum de chaque commutateur, routeur serveur, ou gestionnaire de machine virtuelle existant, tout en consolidant les ressources et en réduisant la consommation électrique. Dans certains cas, certains services sont externalisés à des fournisseurs sur le nuage qui fournissent une assistance essentielle aux utilisateurs du monde entier. Ces changements doivent être faits de façon homogène avec un temps d'interruption des applications de production de l'entreprise le plus faible possible et doivent avoir comme conséquence l'augmentation des performances de l'ensemble du système.

La disponibilité du réseau ne signifie pas toujours de hautes performances des applications. Les ingénieurs réseau ont accès à plus de sources de données pour surveiller leurs réseaux que jamais auparavant. Ils ont la capacité d’analyser l’intégrité de l’appareil, son niveau d’utilisation, les rejets de paquet et les flux de trafic, de rassembler ces données au sein d’outils de gestion de réseaux. Pourtant, malgré cette visibilité, ils luttent toujours pour devancer les applications lentes. La clé permettant de résoudre et de devancer ces tendances s’appuie sur la visibilité fournie par l’analyse des temps de réponse de l’utilisateur final.

Les gestionnaires de réseau d'aujourd'hui doivent équilibrer deux exigences contradictoires : le désir de bénéficier d'une plus grande vitesse de réponse et de performances optimales pour l'utilisateur final et la nécessité de réduire les coûts d'exploitation. Le trafic (des entreprises et particuliers) sur le réseau a tendance à augmenter pour remplir la largeur de la bande passante disponible, dégradant les performances sur les liaisons les plus encombrées. Les gestionnaires de réseaux ne peuvent pas tout simplement venir augmenter toujours plus la bande passante pour régler les problèmes, ils doivent démontrer qu’une liaison subit des congestions au cours d’une période de temps importante en raison d’une utilisation commerciale légitime avant de pouvoir ajouter des capacités réseau supplémentaires. Rompre avec l’approche traditionnelle en comprenant les nouveaux principes de planification efficace des capacités réseau.

 

La demande en matière de solutions Wi-Fi résidentielles est en train d’exploser, alimentée par les services de vidéo. La vidéo Wi-Fi offre des avantages qui octroient aux fournisseurs de services une avance sur le marché du triple play défini par une concurrence intense et des prix standardisés. Les avantages du Wi-Fi résidentiel entraînent des coûts : une architecture à domicile et environnement d’exploitation qui diffèrent de leurs homologues filaires et ainsi présentent des défis permanents lors de l’installation et en matière de performances. Les fournisseurs de services doivent comprendre ces défis et s’armer des bons outils pour y remédier et maximiser les avantages du Wi-Fi résidentiel.

Ce n'est un secret pour personne que la virtualisation est économique et bien développée, ou qu'il existe une multitude de fournisseurs de qualité au choix sur le marché. Elle est ici pour y demeurer, et si elle n'y est pas déjà, elle viendra bientôt élire domicile en permanence dans le centre de données.

Les commutateurs, les routeurs, et autres dispositifs d'infrastructure sont consolidés et virtualisés, créant des environnements d'infrastructures réseau entiers sur une seule plate-forme matérielle. Il existe plusieurs impacts et des considérations clés liés à la virtualisation de serveurs et d'infrastructures, mais la plupart des services informatiques estiment que l'avantage en terme de coût et d'efficacité justifie amplement un tel passage.

Les réseaux sans fil étaient simplement pour des raisons de commodité, mais grâce aux entreprises informatiques d’aujourd’hui, ils peuvent conduire des applications de haute performance cruciales aux entreprises, ou dans le cas des équipements médicaux, ils peuvent fournir des informations de sauvetage aux médecins, aux infirmières, et aux applications de soins de santé. La croissance exponentielle des tablettes, des Netbooks, et autres appareils mobiles a augmenté encore plus la demande du Wi-Fi puisque les BYOD (apporter vos propres appareils) sont emportés dans les lieux de travail et s'attendent au service.

Avant, le réseau sans fil était seulement utilisé dans des zones précises pour quelques applications centrées sur les données. Aujourd'hui, ces appareils exigent des services vocaux, vidéos, et de données : en évolution. Pour satisfaire ces exigences, certains environnements sans fil doivent faire l’objet de révisions complètes pour être à même de distribuer une couverture du signal sans fil approfondie et une connectivité de haute qualité à des débits élevés, sans sacrifier la sécurité. Avant, pour prendre en charge les nouveaux utilisateurs, il fallait simplement ajouter de nouveaux points d'accès. Ce n'est plus le cas. Puisque les utilisateurs du réseau sans fil d’aujourd’hui nécessitent une plus large bande passante pour une bonne performance, les applications essentielles pour l’entreprise, en plus des applications vocales et vidéo, la qualité du signal ainsi qu’une couverture complète sont cruciales.

 
 
Powered By OneLink