Livre blanc sur les meilleures pratiques pour l’analyse de l’environnement sans fil | NETSCOUT
Livre blanc

Meilleures pratiques en matière d’analyse de site

Introduction

Pourquoi effectuer une analyse

Avant de discuter de la meilleure façon d’effectuer une analyse de l’environnement (et des éléments à prendre en considération), il est important de comprendre pourquoi une telle analyse doit d’abord être effectuée. A la base, une analyse de l’environnement est réalisée afin de recueillir des données empiriques de RF sur un site. Cela peut ensuite être utilisé pour conduire une analyse fiable de la couverture du réseau sans fil et de ses performances. Que l’enquête soit menée avant ou après le déploiement, cet objectif s’applique toujours - les données de l’analyse seront utilisées pour comprendre l’emplacement des radiofréquences.

En tirant parti des données obtenues à partir d’une analyse, vous pourrez prendre des mesures concrètes pour corriger les lacunes du réseau ou avoir l’assurance que le réseau fonctionne au mieux de ses capacités. Une analyse de l’environnement a un avantage clé que la planification n’a pas, il s’agit de données mesurées prises à l’emplacement du réseau. La planification aide à minimiser le repositionnement répété des points d’accès, mais seule une analyse nous permet d’affirmer avec certitude que les résultats du plan sont corrects, que l’installation s’est déroulée conformément au plan et que les utilisateurs du réseau disposeront d’une connectivité sans fil fiable.

Quand effectuer une analyse

Une analyse de l’environnement peut être effectuée en tout temps, mais les objectifs et la valeur d’une analyse varient selon le moment où elle a été effectuée. Les trois échéanciers généraux pour la réalisation d’une analyse de l’environnement sont : avant (prédéploiement), après (post déploiement) et à mi-déploiement.

A.

Prédéploiement

Une analyse de pré-déploiement est effectuée pour comprendre les caractéristiques d’un site avant le déploiement. Il se peut qu’un réseau existant déjà en place soit remplacé ou mis à niveau, par exemple, de sorte que la collecte des données d’analyse actuelles sur un réseau existant aidera à comprendre les performances qui doivent être améliorées avec le nouveau plan de réseau. Lorsqu’il n’ y a pas de réseau en place, la nature RF d’un site (et de tout réseau voisin) peut être saisie par une analyse de site pour comprendre quels problèmes devront être traités dans le prochain cycle de déploiement et de planification.

Il existe une méthode particulière d’enquête préalable au déploiement qui mérite une mention spéciale, à savoir l’analyse avec un point d’accès témoin.

 

• 

Analyse avec un point d’accès témoin

Une analyse avec un point d’accès témoin est un type spécifique d’analyse de pré-déploiement dans laquelle un seul point d’accès de « test » est apporté sur le site et utilisé pour imiter la couverture des points d’accès. Ce point d’accès témoin est généralement monté sur un trépied à un endroit prévu pour l’installation du PA, et l’arpenteur parcourra la zone autour de ce PA pour comprendre les limites des facteurs de couverture et d’atténuation à l’intérieur du bâtiment qui ont un impact sur la RF dans cette zone. Le PA peut alors être déplacé vers un nouvel emplacement et les étapes répétées. Une fois que plusieurs emplacements ont été parcourus et cartographiés, les résultats peuvent être fusionnés pour créer une carte thermique virtuelle semblable à ce à quoi on pourrait s’attendre si le réseau avait vraiment plusieurs PA en place. Un grand avantage de la méthodologie Analyse avec un point d’accès témoin est que le modèle AP prévu pour l’installation peut être utilisé, donc une représentation très précise de l’AP, antennes et caractéristiques de transmission/réception peuvent être obtenus dans l’environnement de conception spécifique.

B.

Après le déploiement

Une analyse après le déploiement, également appelée analyse de vérification, est ce à quoi la plupart des gens pensent lorsqu’une personne mentionne la réalisation d’une analyse de l’environnement. Une fois la nouvelle conception du site terminée et les points d’accès installés (souvent par des entrepreneurs), une analyse de l’environnement est effectuée pour confirmer que le réseau fonctionne comme prévu. Il y a un certain nombre de problèmes de réseau qui peuvent être interceptés à ce stade. Si un PA a été mal configuré, mal installé ou mal aligné, il peut être détecté car les cartes de couverture seront différentes de celles prévues dans le plan. Une analyse post-déploiement peut également aider à détecter des situations environnementales qui ne peuvent pas être déterminées à partir d’un plan d’étage. Les points d’accès voisins, le mobilier de bureau, ainsi que des équipements perturbateurs peuvent tous causer des problèmes de réseau, mais ne seraient pas nécessairement connus pendant la phase de planification. Une analyse post-déploiement est réussie lorsqu’elle confirme que les performances répondent aux attentes de conception ou qu’elle identifie et corrige les facteurs qui ont empêché au réseau de répondre aux attentes.

C.

Milieu du déploiement

Bien qu’elle soit souvent négligée comme outil de diagnostic, une analyse de l’environnement peut également être effectuée pendant le fonctionnement normal d’un réseau pour comprendre les limites ou recueillir des données sur les problèmes systémiques rencontrés sur l’ensemble d’un site. Une telle analyse vise à recueillir des informations pour aider à déterminer ce qui a pu changer sur un site en comparant celle-ci à des données reconnues comme étant valides (comme une enquête de validation après le déploiement) ou pour repousser les limites du réseau d’une manière qui n’avait pas été envisagée auparavant.

Une note sur la planification

La nécessité d’effectuer des analyses de l’environnement ne doit pas être considérée comme une indication que la planification est moins importante ou inutile. Une analyse de l’environnement améliore la planification de façon positive, qu’il s’agisse d’une étude de pré-déploiement effectuée pour caractériser l’environnement ou d’une étude post-déploiement pour s’assurer que l’installation a été effectuée correctement. Les coûts d’un déploiement seraient beaucoup plus élevés si l’étape de planification était ignorée. Aucune mesure d’arpentage n’éliminera le besoin d’une planification solide, tout comme il n’y a aucune mesure de planification qui éliminera complètement le besoin d’un arpentage fiable du site.

Les différents types d’analyse

Voici plusieurs types d’analyses qui sont pris en charge dans la plupart des outils d’analyse de l’environnement :

A.

Analyse passive

Vous ne pouvez pas comprendre avec exactitude un environnement RF sans savoir tout ce qui se passe sur le temps d’antenne. Une analyse passive permet à l’utilisateur de comprendre l’utilisation du point d’accès et du canal à un endroit donné afin que vous puissiez ajuster le réseau de manière optimale.

 

• 

Ce qu’il est

Une enquête passive capture toutes les informations constatées dans l’environnement sans fil (c’est-à-dire les points d’accès qui pourraient appartenir au site, les points d’accès voisins, toute information). Les canaux et la force du signal pour tous les points d’accès constatés sont collectés et affichés pour le site.

 

• 

Quand elle est utilisée

Une enquête passive est généralement effectuée avant et après le déploiement. Les interférences sur le même canal et sur les canaux adjacents peuvent être responsables de faibles débits et de performances médiocres de l’application. Dans le cas d’une analyse passive de pré-déploiement, les données peuvent être utilisées pour mieux planifier la sélection du canal pour les nouveaux points d’accès afin d’éviter les interférences dans le même canal avec les points d’accès voisins existants. Dans le cas d’un post-déploiement, une étude passive aidera à vérifier qu’il n’y a pas de brouillage dans le même canal avec la conception proprement dite.

B.

Analyse active

Une analyse active permet à l’utilisateur de cartographier la couverture réseau effective d’un déploiement existant.

 

• 

Ce qu’il est

Une analyse active s’attache à un réseau au niveau du point d’accès ou du SSID et permet de cartographier la couverture du point d’accès ou du SSID en question. Des critères d’itinérance peuvent être définis pour l’adaptateur afin de déterminer à quel moment l’appareil d’analyse passera au prochain point d’accès.

 

 

  • Association active

    Une analyse d’association active se joindra au réseau et gardera cette association active pendant que le client parcourt le réseau. L’analyse est spécifique au point d’accès ou au SSID d’intérêt, ce qui permet de s’assurer que les données vues sont pertinentes pour le réseau analysé.

 

 

  • IPerf actif

    Une analyse iPerf active permet à l’utilisateur d’évaluer les performances de l’application dans un réseau sans fil. En exécutant un test de débit réel, le réseau est validé comme étant capable de maintenir le débit nécessaire à la prise en charge des principales applications métiers. L’analyse est spécifique au point d’accès ou au SSID d’intérêt, ce qui permet de s’assurer que les données vues sont pertinentes pour le réseau analysé.

 

• 

Quand elle est utilisée

Une analyse active peut être effectuée à la fois avant et après le déploiement, mais le plus souvent, elle est faite après le déploiement. Dans le cas d’une analyse active préalable au déploiement, les données peuvent être utilisées pour mieux planifier les emplacements des points d’accès par rapport aux emplacements actuels pour s’assurer que les performances nécessaires sont fournies. En cas de post-déploiement, une analyse active confirmera que le réseau répond aux objectifs de conception de l’application en termes de débit et de disponibilité.

Une analyse active peut également être menée en milieu de déploiement lorsque de nouvelles applications sont déployées sur le réseau et qu’elles ont des besoins de débit et de performance pour lesquels le réseau n’a pas été validé. Selon les résultats obtenus, cela pourrait donner lieu à de légers ajustements au réseau actuel ou bien cette analyse pourrait s’avérer être une enquête de pré-déploiement signifiant d’importants changements au réseau.

C.

Spectre

Les sources d’interférences qui ne proviennent pas du Wi-Fi peuvent venir augmenter le seuil de bruit global et peuvent rendre certains canaux pratiquement inutilisables si l’on recherche des performances de réseau fiables. Ces dispositifs sont partout, et dans certains cas, les dispositifs qui interfèrent peuvent faire partie intégrante d’autres solutions déployées sur un site. Comprendre non seulement quel élément est responsable des interférences, mais aussi à quel endroit sur le plan d’implantation ces interférences se situent est considéré comme étant essentiel à l’analyse et à la validation des performances du réseau.

L’analyse du brouillage est un élément clé de la validation d’un site, bien que cela ne soit pas aussi regardé que la force du signal ou les lectures SNR lors d’une analyse sur site. Les meilleures pratiques pour la validation d’un déploiement devraient toujours inclurent des cartes d’interférences intégrées et une analyse pour garantir des performances réseau optimales.

 

• 

Ce qu’il est

Une analyse spectrale s’appuie sur un analyseur de spectre pour cartographier des données spectrales clés sur un plan d’étage au cours d’une analyse de l’environnement. Ceci est indépendant de la signalisation Wi-Fi et vient analyser le spectre RF directement.

 

• 

Quand elle est utilisée

Une analyse du spectre est souvent effectuée avant ou après le déploiement, mais si elle est effectuée à un de ces moments là, elle ne sera pas nécessairement nécessaire dans les deux cas. Dans le cas d’une analyse préalable au déploiement, les données des interférences spectrales peuvent être utilisées pour mieux planifier l’emplacement des canaux de point d’accès. Dans le cas du post-déploiement, les données spectrales peuvent être utilisées pour comprendre les impacts possibles et les faibles performances observées pendant la collecte simultanée de données d’analyse active.

D.

Voix/itinérance

Avec l’augmentation des applications de mobilité et des appareils vocaux, une analyse axée sur l’itinérance et la qualité des connexions entre ces points d’itinérance est précieuse.

 

• 

Ce qu’il est

Une analyse VoFi suit une conversation téléphonique VoWLAN pour vérifier la qualité des appels et les événements d’itinérance. Une enquête VoFi fournit des détails sur l’appel actif tels que le score WiMOS, la fréquence d’itinérance et l’intensité du signal.

 

• 

Quand elle est utilisée

Une analyse VoFi est souvent effectuée après le déploiement. Les données d’itinérance peuvent être utilisées pour comprendre dans quelle mesure la conception permet de répondre aux besoins vocaux anticipés.

Une analyse VoFi peut également être effectuée en milieu de déploiement pour déterminer si un site est prêt à prendre en charge la voix ou si des changements sont nécessaires.

Préparation d’une analyse

Adaptateurs

Le Wi-Fi est devenu si omniprésent que la plupart du temps, nous ne prêtons aucune attention aux caractéristiques d’un adaptateur sans fil au-delà de la génération de technologie qu’il s’agit (802.11a par rapport au 802.11n et 802.11ac) parce que l’utilisation commune du réseau exposera rarement les différences de conception entre les chipsets ou les adaptateurs. Ce n’est pas le cas lorsque le même adaptateur est utilisé pour une analyse de l’environnement pour la collecte de données car tous les adaptateurs ne sont pas égaux, donc savoir de quel adaptateur il est question devient essentiel.

 

A.

Connaître votre adaptateur

Lors de la réalisation d’une analyse de l’environnement, diverses données peuvent être recueillies par l’application selon le type d’analyse : intensité du signal, lectures SNR, informations sur les balises ou débit. Toutes ces informations dépendent de données précises transmises par la carte réseau en cours d’utilisation. Si la sensibilité radio ou la conception générale de l’adaptateur est mauvaise, les lectures de la puissance du signal peuvent être fausses, non linéaires ou asymétriques, ce qui peut entraîner des cartes de couverture peu fiables. Si l’adaptateur ne dispose pas de la puissance nécessaire pour maintenir des débits de données élevés ou s’il souffre d’un nombre excessif de paquets perdus, le débit mesuré peut être artificiellement faible sur l’ensemble d’un site. Parmi les principales mesures de données pour lesquelles vous comptez sur votre adaptateur, seules les moins précieuses (informations contenues dans les balises) sont relativement à l’abri des caractéristiques de l’adaptateur.

La plupart des outils devraient pouvoir fonctionner avec n’importe quel adaptateur, car ils sont tous avant tout des adaptateurs réseau. Toutefois, si vous cherchez à faire du travail de classe entreprise et d’analyse, il est essentiel que vous utilisiez un adaptateur de confiance. De façon réaliste, peu d’entre nous ont le temps de tester un adaptateur directement pour déterminer ses caractéristiques, mais nous comptons sur notre fournisseur d’outils pour nous indiquer les adaptateurs qu’ils ont testés et sur lesquels nous pouvons compter par rapport à d’autres. Ce n’est qu’en utilisant un adaptateur recommandé de qualité que nous pouvons obtenir des résultats fiables.

Même avec un adaptateur recommandé, il est important que vous ayez une bonne compréhension des caractéristiques de cet adaptateur. Cela vous aidera à interpréter les résultats que vous obtiendrez de manière efficace. Si vous savez que votre adaptateur a une sensibilité de réception très élevée, vous pouvez choisir d’annuler ces lectures lorsque vous interprétez la façon dont un téléphone fonctionnera dans le même environnement. Si vous savez que l’adaptateur a un débit médiocre, vous savez que dans les endroits où un débit plus élevé a été enregistré, les autres adaptateurs peuvent être encore plus performants.

 

B.

Utilisation de plusieurs adaptateurs

La plupart des produits d’analyse permettent à l’utilisateur d’utiliser plusieurs adaptateurs en même temps. Il peut s’agir d’une technique très précieuse qui permet de gagner du temps au lieu d’essayer de mener plusieurs analyses l’une après l’autre. Si vous devez effectuer une analyse active et passive [Voir la section sur les différents types d’analyse] sur un site, l’utilisation de deux adaptateurs permettra de réaliser simultanément les deux analyses. L’utilisation de multiples adaptateurs présente un avantage supplémentaire par rapport au simple gain de temps.

Les RF varient en fonction des milieux, donc d’autres appareils et d’autres sources atténuantes (comme les personnes) peuvent modifier les lectures que vous pourriez obtenir. En recueillant toutes les données en même temps au cours d’une même analyse, vous pouvez être sûr de constater que toute anomalie ou performance médiocre observée lors d’une même analyse peut être comparée de façon fiable aux données recueillies avec d’autres adaptateurs puisqu’ils étaient soumis aux mêmes conditions. Ceci est plus fiable que d’essayer de corréler les données de l’analyse prises à des moments différents, car vous ne pouvez pas être sûr que les deux analyses reflètent les mêmes conditions RF.

Préparation de votre plan de site

 

A.

Importation de votre plan d’implantation

La plupart des outils permettent d’importer un plan d’implantation dans différents formats. L’une des considérations à prendre en compte lors du choix de votre plan d’implantation est de réduire au minimum l’espace blanc inutile autour de l’extérieur de votre plan d’implantation, car un espace blanc excessif peut occuper l’écran et nécessiter un agrandissement juste pour voir la zone applicable. De plus, assurez-vous que votre plan d’implantation a une résolution suffisante pour saisir tous les détails clés que vous devrez voir lors de la réalisation d’une analyse.

 

B.

Étalonnage du plan d’implantation

Une fois importé, il faudra étalonner le plan d’implantation. L’étalonnage des dimensions de votre site garantit que les estimations de propagation et l’interpolation des pertes de signal sont calculées avec précision. Lors de l’étalonnage, il est préférable de choisir une dimension plus grande (si connue) telle que la largeur du bâtiment ou la longueur d’un long couloir. De petites erreurs dans une grande mesure ont moins d’impact sur vos résultats que de petites erreurs sur une petite mesure (comme une porte).

Sélection du chemin

Le chemin que vous choisissez de prendre sur le site influencera les données que vous recevrez et la fiabilité de vos résultats. Il est important de s’assurer que le chemin est bien choisi et exécuté.

 

A.

Où arpenter

Une erreur facile à faire est d’arpenter le site en utilisant vos connaissances des endroits où les points d’accès sont situés et où vous vous attendez à obtenir une couverture. Il est préférable de choisir le chemin en pensant aux utilisateurs, à la façon dont ils utiliseront le réseau et à l’endroit où vous vous attendez à ce que vos utilisateurs aient besoin de cet accès au réseau, puis d’élaborer des plans pour un chemin qui vous donnera l’assurance que votre réseau répond à ces attentes. Cela peut se traduire par un temps supplémentaire consacré à la collecte de données dans les zones à forte utilisation et une concentration moindre sur les autres, l’objectif étant d’obtenir les données nécessaires pour prendre des décisions critiques en matière de réseau.

Quelques règles générales lors de l’arpentage d’un site incluent :

  • Autant que possible, marcher des deux côtés des obstacles
    • Cela permet aux propriétés d’atténuation RF de ces obstacles d’être correctement reflétées dans la carte thermique qui en résulte.
  • Marcher sur les bords
    • Ceci s’applique aussi bien aux salles qu’à l’ensemble du site. Si vous ne vérifiez que le milieu d’une pièce, alors vous n’avez aucune idée de ce qui se passe aux extrémités, vous feriez confiance à la propagation de votre signal pour couvrir ces zones. C’est bien mieux de marcher dans les coins et le long des bords pour collecter les données nécessaires.

Modèle de balayage

Le modèle de balayage utilisé par le logiciel d’analyse fait référence à la méthode, au moment et au choix de la façon dont les données sont recueillies parmi la grande variété de canaux sans fil disponibles. Il y a de nombreux aspects à prendre en compte et il n’y a pas de réponse unique, mais cette section passe en revue les considérations importantes pour vous aider à faire le bon choix pour vos besoins en matière d’analyse.

 

A.

Choisir ses canaux

La plupart des logiciels d’analyse sur site vous permettent de choisir sur quels canaux vous souhaitez effectuer l’analyse. Cela limitera la collecte de données de votre adaptateur uniquement aux canaux que vous choisissez. Les deux écoles de pensée les plus évidentes sont « tous les canaux qui existent » et « seuls les canaux sur lesquelles se trouvent mes points d’accès ». Les deux choix ont leurs avantages et leurs inconvénients.

 

• 

Analyse de tous les canaux

L’avantage réel du balayage de tous les canaux est que vous disposez d’informations complètes, car cela permettra de détecter les points d’accès inattendus (ceux qui se trouvent sur des canaux sur lesquels vous ne pensiez pas que des points d’accès étaient installés) et d’identifier les points d’accès interférant avec les canaux adjacents. Si des changements de configuration sont nécessaires, les informations sont maintenant disponibles pour d’autres canaux afin de faciliter les décisions relatives aux nouvelles assignations de canaux.

 

• 

Analyse uniquement des canaux sélectionnés

La numérisation de canaux sélectionnés permet de faire gagner du temps, à savoir la durée de chaque analyse de données et garantit l’affichage des données et des cartes thermiques par rapport aux canaux spécifiques sur lesquels le réseau est déployé. Cela peut faire gagner du temps lors de l’analyse de l’environnement.

 

1.

Comment décider de ce qui vous conviendrait le mieux

Il n’y a pas de réponse simple, mais certaines des questions que vous devriez vous poser lors de la configuration des canaux à numériser sont les suivantes :

  • Suis-je sûr de savoir quels canaux sont équipés de points d’accès et lesquels ?
  • Est-ce qu’il y a un grand nombre de réseaux voisins, qu’il est donc important de comprendre les données des canaux adjacents ?
  • Dois-je croire que j’aurai besoin de reconfigurer mon plan pour les canaux à la suite de mon analyse ?

Si les données sur les canaux sur lesquels vos points d’accès réseau ne sont pas installés n’ajoutent aucune information utile à votre analyse, il est alors judicieux de limiter le modèle de balayage. Si vous envisagez de tirer parti des données d’analyse d’une manière qui vous permettra de tirer parti des informations supplémentaires sur les canaux ou si vous n’êtes pas sûr des réponses à ces questions, il est préférable d’investir plus de temps et de collecter toutes les données.

 

2.

Implications de la décision

Plus le nombre de canaux que vous choisissez d’analyser est élevé, plus il faudra de temps pour recueillir un ensemble complet de données, ce qui augmentera le temps nécessaire à la réalisation d’une analyse sur le site. Alors que quelques secondes ici ou là peuvent sembler peu, si vous avez un grand bâtiment avec plusieurs milliers de points de collecte de données, quelques secondes peuvent rapidement ajouter jusqu’à une heure ou plus de temps supplémentaire sur le site.

Plus vous disposez de données, plus vous devez être prêt à affronter des imprévus. Vous ne savez pas toujours ce qui peut s’avérer important et sans importance quand vous commencez une analyse. Le fait d’avoir des données d’analyse pour tous les canaux peut permettre de gagner du temps sur le long terme si l’on peut tirer des enseignements précieux des informations contenues sur ces canaux.

 

B.

Choisir son temps de tenue

Le temps de tenue est le temps que votre adaptateur sans fil passe sur un canal donné à collecter des données avant de passer au canal suivant. C’est particulièrement important dans les enquêtes passives où des données sont recueillies pour les balises qui sont entendues. Comme l’intervalle des balises est variable dans la plupart des configurations de point d’accès d’entreprise, il est souvent utile de modifier le temps de tenue de votre adaptateur en conséquence.

 

1.

Comment décider de ce qui vous conviendrait le mieux

Plusieurs facteurs peuvent influer sur le temps de tenue que vous choisissez. Le plus évident serait l’intervalle de la balise de l’infrastructure installée (le cas échéant) à l’emplacement. Si vous savez que l’intervalle des balises a été ajusté pour être plus long que la valeur par défaut habituelle de 100 ms, vous voudrez vous assurer que le temps de tenue sur votre outil d’analyse de l’environnement est également ajusté ou la collecte de données pourrait manquer des balises (et donc manquer des points de données) au cours d’une analyse.

En plus de la configuration, la quantité de trafic sur un canal peut aussi avoir un impact sur la régularité des balises. En tant que support partagé, les balises d’un point d’accès donné ne seront souvent pas parfaitement espacées de 100 ms, même si elles sont configurées de cette façon. Le chevauchement de BSS ou le bruit sur le canal peut retarder la balise de quelques minutes. Dans l’ensemble, cela ne devrait pas faire en sorte que les balises soient manquées trop régulièrement, mais dans un environnement où de nombreuses RF sont présentes, ce manque de régularité des balises pourrait causer des ratés et serait une bonne raison d’ajuster le temps de tenue pour compenser et s’assurer que toutes les balises sont reçues.

 

2.

Implications de la décision

Il peut sembler qu’il n’y a aucun inconvénient à augmenter le temps de tenue, mais ce n’est pas le cas. Comme le temps de tenue détermine la durée pendant laquelle l’adaptateur reste sur un canal avant de passer au canal suivant, cela a un impact direct sur le temps qu’il faudra à un adaptateur pour collecter un balayage complet de données sur tous les canaux configurés. Si votre réseau requiert un temps de tenue plus long, il est important d’en tenir compte lors de la collecte des données et de s’assurer que soit la vitesse de marche (pour l’échantillonnage automatique) soit le « temps de tenue » (du clic à l’échantillon)[Voir Collecte des points de données] est ajusté pour compenser le nouveau temps de tenue.

Habituellement, une seule balise manquée à un point de collecte de données ne viendra pas invalider les cartes thermiques résultantes si de bonnes pratiques de collecte de données ont été suivies dans cette zone (beaucoup d’autres points de données à proximité) car la balise sera récupérée à l’un des autres points de collecte, mais il est préférable de ne pas compter sur un coup de chance pour sauver votre analyse. Compte tenu du temps qu’il faut investir pour parcourir un site, il est préférable de régler intelligemment le temps de tenue dès le début pour s’assurer que des données fiables sont saisies.

Réglage de la propagation correcte du signal

La valeur de propagation du signal détermine jusqu’à quel point votre logiciel d’analyse de l’environnement supposera qu’une lecture donnée est applicable. Comme vous ne pouvez pas parcourir chaque centimètre carré d’un site, le logiciel devra effectuer une certaine interpolation pour créer une carte thermique. Si cette valeur est trop petite, vous n’aurez pas de carte thermique mais une série de points colorés le long de votre chemin, alors que si cette valeur est trop grande, vous commencerez à afficher la force du signal et les valeurs dans des endroits que vous n’avez pas analysé et que vous ne pouvez pas prédire avec précision.

Choisir la bonne valeur de propagation signifie comprendre la nature du site. Un centre de congrès ou un aréna ouvert peut permettre une plus grande valeur de propagation car il y a peu d’obstacles dans l’environnement (bien qu’il faille faire attention dans les environnements très denses pour compenser ce qui se passe quand l’endroit est plein de gens). Une installation comportant un grand nombre de parois et d’obstacles serait mieux desservie avec une valeur de propagation plus faible pour éviter de donner une fausse impression de signal mesuré de l’autre côté d’un obstacle. (Veuillez noter que cela peut également être atténué par un bon choix de chemin.)

Idéalement, la valeur de propagation du signal devrait être choisie avant que l’analyse ne soit effectuée en tenant compte du site, car cela permet d’éviter que les partis pris humains n’influent sur le choix après coup lorsqu’on examine les cartes thermiques qui en résultent.

Réalisation de l’analyse

Comment arpenter/recueillir

Tout aussi important que l’endroit où arpenter est comment effectuer cette démarche [c’est particulièrement vrai dans le cas d’une analyse par échantillonnage automatique (voir la section Échantillonnage automatique)]. La marche devrait se faire à un rythme régulier et les parties communes du bâtiment devraient être effectuées relativement en même temps. Bien que la méthode du clic pour collecter un échantillon donne une certaine liberté pour ne pas avoir à maintenir un rythme de marche régulier, il est important de s’assurer que les données sont recueillies dans une zone au cours d’une période de temps similaire. Cela empêchera aux événements temporels d’impacter seulement un petit sous-ensemble de données collectées dans une zone. Assurez-vous que le dispositif de collecte se trouve à une hauteur relative à laquelle la plupart des clients s’attendent car le placer trop bas ou trop haut ne modélise pas avec précision l’expérience dont pourront bénéficier les utilisateurs.

Collecte des points de données

Lorsqu’on parcourt un site et qu’on recueille des points de données au cours d’une analyse, il existe deux méthodes de base : (1) l’auto-échantillonnage, qui balaie en continu les canaux sélectionnés et écrit automatiquement les résultats le long de la trajectoire de marche à des points uniformément répartis entre les clics de l’utilisateur et (2) la méthode du clic pour recueillir un échantillon, qui écrit le résultat de balayage le plus récent au point sélectionné sur la trajectoire de marche lorsque l’utilisateur clique. Les deux méthodes peuvent être utilisées pour mener à bien une analyse de l’environnement, mais il y a des compromis à prendre en considération pour chacune d’entre elles.

 

1.

Clic pour recueillir un échantillon

Le clic pour collecter un échantillon est souvent considéré comme la plus souple des deux méthodes, car les données ne sont consignées que lorsque l’utilisateur clique, ce qui, de par sa nature, peut entraîner des retards, des interruptions et d’autres distractions qui peuvent survenir au cours d’une analyse. Le dernier jeu de données de numérisation enregistré est alors écrit au niveau de l’emplacement sur lequel l’utilisateur a cliqué.

Pour des résultats optimaux avec cette méthode, l’utilisateur doit s’assurer de prévoir suffisamment de temps pour effectuer un balayage complet entre les clics sur la carte, et doit s’assurer que suffisamment de points de clics sont enregistrés pour permettre une extrapolation raisonnable de la carte thermique. Si vous passez trop vite d’un clic à l’autre ou si vous recueillez trop peu de points de données, les cartes thermiques ne sont pas fiables ou dignes de confiance.

Cette méthode se prête bien aux environnements achalandés ou sensibles dans lesquels l’arpenteur devra souvent s’arrêter ou attendre l’accès à un secteur ou se rendre dans une pièce.

 

2.

Auto-échantillonnage

L’auto-échantillonnage est souvent considéré comme la plus facile des deux méthodes, car l’utilisateur a besoin d’effectuer moins de clics. Lors de l’exécution d’une analyse par autoéchantillonnage, l’utilisateur doit uniquement cliquer lorsqu’il change de direction de marche. Toutes les données échantillonnées qui ont été capturées entre le dernier clic et le clic actuel sont ensuite réparties uniformément sur une ligne droite entre ces deux points.

Pour obtenir des résultats optimaux avec l’auto-échantillonnage, l’utilisateur doit s’assurer de marcher à un rythme constant et doit régler la période d’auto-enregistrement des données en vue d’obtenir une durée raisonnable. De grands changements dans la vitesse de marche feront que les données seront biaisées (et donc inexactes) sur les cartes thermiques qui en résulteront.

L’auto-échantillonnage se prête bien à de longs couloirs ou des environnements ouverts dans lesquels l’utilisateur pourra marcher sur son chemin avec peu ou pas d’interruption.

Laquelle est la plus appropriée ?

Aucune des deux méthodes n’est plus appropriée que l’autre et de bonnes (et mauvaises) analyses peuvent être réalisées avec l’une ou l’autre méthode. Une recommandation générale à l’intention des utilisateurs serait de procéder par défaut à une enquête par autoéchantillonnage à une vitesse de marche lente et constante, à moins que la nature de l’installation ou de l’environnement ne nécessite l’utilisation de la méthode du clic pour la collecte d’un échantillon.

Comment savoir si l’ensemble des tâches a été effectué ?

L’un des défis que beaucoup de gens ont à relever est de savoir quand suffisamment de données ont été recueillies pour s’assurer d’une analyse fiable. Comme pour beaucoup de choses, il n’ y a pas de règles qui permettent de définir cela rapidement, mais il y a certains éléments à prendre en compte.

Comment sait-on quand le travail est terminé ?

Une façon de répondre à cette question est de comparer le nombre de points de données recueillis par rapport à la taille globale de l’espace étudié. Assurez-vous également que toutes les zones sont couvertes en regardant la carte thermique que vous avez obtenue. Rappelez-vous que la propagation du signal joue un rôle ici, mais modifier cette composante après coup pour créer une bonne carte thermique n’est pas une bonne pratique. Vous auriez dû prendre en compte et paramétrer la propagation de votre signal avant de commencer l’analyse de l’environnement, à moins qu’une erreur ne se produise au niveau de la valeur choisie, afin d’éviter de la modifier pour créer une meilleure image thermique. Ce faisant, vous utilisez l’outil pour « dissimuler » un manque d’information plutôt que de disposer des données nécessaires pour tirer des conclusions importantes. Des lacunes dans la couverture de la carte thermique ou des zones qui sont principalement déterminées comme étant couvertes en raison du rayon de propagation du signal, sont des endroits qui devraient faire l’objet d’une attention particulière. Si de tels emplacements se situent dans des zones clés du site, des données supplémentaires doivent être collectées dans ces emplacements pour s’assurer qu’une représentation précise de la disponibilité et des performances du réseau est disponible.

Analyse des résultats

Fusionner les analyses

Comparaison des résultats des analyses

Comme détaillé ci-dessus, chaque analyse a sa place et donne un aperçu des différentes pièces de l’ensemble du puzzle RF. En menant plusieurs analyses différentes en même temps, nous avons maintenant la capacité de regarder à travers différents types de données pour essayer de comprendre les résultats inattendus/mauvais résultats que nous obtenons dans une zone. Le fait de disposer de toutes ces informations permet de procéder à une comparaison en venant rapprocher les résultats d’une analyse aux données recueillies dans une autre analyse pour voir si elle peut expliquer ce qui a été constaté. Par exemple, si j’ai lancé une enquête Active iPerf sur mon WLAN et que je collecte des données de débit sur mon site, il se peut que je trouve une zone avec des valeurs de débit étonnamment basses. Étant donné que seules les données d’enquête active sont disponibles, je n’ai peut-être pas assez d’information pour savoir avec certitude pourquoi cette partie de mon bâtiment affiche de mauvaises performances. Si de dispose de données passives et spectrales, je peux faire plus d’analyses. En regardant mes données d’analyse passives, je peux commencer à comprendre s’il y a de nombreux points d’accès voisins dans cette zone, tous sur le même canal. Si c’est le cas, j’ai peut-être l’impression que les mauvaises performances sont causées par de grandes quantités d’interférences sur le même canal dans la zone. Par ailleurs, je pourrais constater en regardant mon étude du spectre qu’il y avait une grande quantité d’interférences qui ne sont pas de type Wi-Fi dans la zone à cet instant-là (peut-être une caméra sans fil ou un système ZigBee). Si aucune de mes autres sources de données d’analyse collectées ne montre un coupable ou une raison évidente de la présence de ces mauvaises performances, je voudrais peut-être envisager d’autres problèmes qui sont peut-être liés au réseautage comme la configuration du point d’accès ou même la connexion filaire par laquelle le réseau est alimenté. Le fait de disposer de divers types de données, de comparer et de contraster les ensembles de données permet d’obtenir de meilleures conclusions et une compréhension plus approfondie de chacun de mes résultats.

Filtrage de la collecte des données

Beaucoup de données sont collectées au cours d’une analyse de l’environnement, les données étant importantes, mais pas toutes. Lors de l’analyse des résultats, une certaine quantité de filtrage doit être effectuée pour interpréter correctement les données. Il s’agit là d’un équilibre très délicat, car filtrer trop de choses pourrait vous faire passer à côté d’importantes implications, alors que filtrer trop peu ces informations pourrait faire perdre dans l’étendue de données le message que fournissent les résultats. Parmi les différentes méthodes de filtrage des données collectées dans une enquête, les plus couramment utilisées sont le SSID, le niveau de signal, le point d’accès et les canaux.

 

A.

Filtrage en fonction des points d’accès

Le filtrage sur un ou plusieurs points d’accès vous permet de concentrer votre analyse sur un ensemble spécifique de points d’accès. Bien que le filtrage soit utile pour concentrer l’analyse sur les éléments présentant un intérêt particulier, il faut veiller à ne pas filtrer de façon si agressive que d’autres données clés viennent être perdues ou que l’impact des points d’accès qui ont été filtrés de l’affichage finirait par ne pas être analysé.

 

B.

Filtrage en fonction de SSID

Un moyen de filtrer avec les points d’accès est de sélectionner un SSID à filtrer, ce qui vous permettra de ne voir que les données des PA avec un SSID spécifique ou un ensemble de SSID. Cela est souvent utile lorsque l’on examine des données de couverture ou d’interférence et que l’on souhaite s’assurer que le réseau installé est bien installé et fonctionne correctement. En ce qui concerne les interférences, cela ne devrait pas être évalué seulement avec un filtre, mais c’est souvent une bonne pratique de s’assurer que vous ne venez pas vous-même causer des interférences (faites attention aux zones sous votre contrôle direct).

 

C.

Filtrage au niveau du signal

Le filtrage au niveau du signal permet d’enlever de l’affichage les points d’accès dont le niveau du signal n’a jamais dépassé un certain seuil. Ceci peut être particulièrement utile dans le cas où des points d’accès voisins ne sont pas entendus à un niveau suffisamment élevé pour interférer réellement avec votre réseau, mais dont les données pourraient encombrer votre affichage si elles étaient incluses dans la vue d’ensemble des données.

 

D.

Filtrage en fonction du canal/de la bande

En plus du filtrage basé sur les détails du point d’accès, le filtrage peut être fait sur des canaux ou des bandes spécifiques. Ceci donnera une analyse spécifique des résultats sur le canal ou la bande présentant un intérêt. Dans de nombreux cas, un réseau est censé avoir une couverture complète sur la bande 2,4 GHz ainsi que sur la bande 5 GHz. Le filtrage sur la bande permet une analyse plus facile des données de chaque bande pour s’assurer que les paramètres clés sont respectés.

Implications de la décision

Le filtrage devrait être fait pour mieux comprendre et analyser les données en question, et non pour obtenir les résultats que vous recherchez. Pour contrôler la nature humaine, il est souvent utile d’examiner quels sont les filtres à mettre en œuvre et comment découper et visualiser les données avant d’examiner les résultats de ces filtres. Cela peut aider à éliminer les tentations de filtrer après coup en vue d’obtenir des données qui paraissent adéquates plutôt que de filtrer pour obtenir la meilleure perception de la situation.

Communication des résultats

Un rapport est souvent le principal moyen par lequel les résultats de vos travaux d’analyse seront vus par d’autres. Les rapports doivent inclure toutes les informations pertinentes nécessaires pour comprendre et évaluer les résultats. Le rapport est souvent un exercice d’équilibre entre la fourniture de toutes les informations nécessaires et la prestation de trop nombreux détails empêchant au rapport d’être lisible. Bien qu’il n’y ait pas de table des matières unique pour chaque rapport, certains éléments communs sont valables dans la grande majorité des rapports.

Chemins parcourus

À l’exception possible des analyses avec point d’accès témoin, le chemin d’accès fait partie intégrante du processus de collecte des données et sera la clé pour toute personne qui interprète d’autres données dans le rapport. La plupart des questions qu’un lecteur peut se poser sur les zones analysées ou sur ce qui a été mesuré peuvent trouver une réponse rapide et visuelle en examinant le chemin emprunté. Le fait de fournir des données sur le chemin emprunté aide le lecteur à comprendre la diligence dont il a été fait preuve lors de la collecte des données et cela peut aussi aider à mettre en évidence les hypothèses ou les difficultés soulevées par un site (zones interdites ou inaccessibles) qui peuvent ne pas être immédiatement évidentes simplement à partir des cartes thermiques.

Toutes les cartes thermiques pertinentes

La plupart des conceptions de réseau sans fil de nos jours sont accompagnées de leur lot de préoccupations majeures, bien plus que de simples problèmes de puissance de signal sur le plan d’implantation. En tant que telles, des cartes thermiques doivent être fournies pour couvrir tous les aspects de la conception, celles-ci doivent mettre en évidence les paramètres clés du réseau et prouver que la conception répond à ces paramètres (ou potentiellement dans le cas d’une analyse préalable au déploiement mettre en évidence les zones qui ne viennent pas à l’heure actuelle répondre aux exigences du réseau pour indiquer les zones qui doivent être améliorées au cours de la refonte). Les zones défectueuses peuvent également aider à indiquer où d’autres restrictions de conception (budget, emplacements d’installation, etc.) ont forcé à faire des compromis sur les exigences de conception initiales. Toutes les cartes thermiques qui couvrent une exigence de conception doivent être incluses, mais aussi toutes les cartes thermiques qui mettent en évidence une déficience, un compromis ou une faiblesse dans la conception. Bien qu’il soit dans la nature humaine de vouloir accentuer les côtés positifs, il est tout aussi important de souligner les faiblesses lors de la préparation d’un rapport et de l’approbation finale. Les deux parties devraient être en accord total sur la véritable nature du réseau après avoir examiné le rapport. Il ne devrait pas y avoir de surprises ultérieurement.

Explications et analyse

En plus de ces cartes thermiques devraient se trouver des notes exhaustives et une analyse de ce que le lecteur a devant lui. Les principaux détails et les principales préoccupations ou caractéristiques de la conception devraient être signalés et notés dans le rapport. Un bon rapport d’analyse de site devrait laisser au lecteur autant de connaissances nécessaires sur le réseau que la personne qui a préparé le rapport en premier lieu. Comme nous l’avons noté dans la section Toutes les cartes thermiques sont pertinentes, il faudrait y inclure des cartes thermiques au besoin pour illustrer les points importants et valider que le travail effectué a bien couvert toutes les bases.

© 2018 NETSCOUT SYSTEMS, INC. Tous droits réservés. NETSCOUT et le logo NETSCOUT sont des marques commerciales ou des marques déposées de NETSCOUT SYSTEMS, INC., et/ou de ses filiales ou affiliés aux États-Unis et dans d’autres pays. Les autres marques, noms de produits et marques déposées et non déposées sont la propriété exclusive de leurs détenteurs respectifs.

 
 
Powered By OneLink