Lorsque nous imaginons l’avenir, nous imaginons souvent la vitesse – un transport plus rapide, un accès plus rapide à l’information, un service plus rapide – pour n’en nommer que quelques-uns. Et si nous vous disions que votre réseau informatique (Network Latency) est probablement capable de plus en ce moment ? Votre entreprise sera probablement assise sur des applications plus rapides, une réponse client plus rapide et une plus grande productivité si seulement vous pouviez le débloquer.

La clé pour y parvenir est d’optimiser vos applications, et un élément clé pour y parvenir est de réduire la latence de votre réseau. Mais, si vous voulez le conquérir, vous devez connaître votre ennemi…

Le concept de latence est beaucoup plus facile à comprendre si vous imaginez les données qui circulent sur Internet comme une entité physique.

Nous considérons à juste titre que l’information est sans masse – ce n’est pas un colis qui va prendre de la place à l’arrière d’un camion de livraison après tout. Cependant, le monde numérique divise en fait les informations en paquets, et pour la plupart des communications, c’est le fait que la communication est divisée en plusieurs paquets qui sont adressés et envoyés individuellement qui rend la latence importante.

En termes simples, la latence mesure les retards dans le temps qu’il faut pour qu’une quantité de données soit transmise d’un point d’envoi à un point de réception. Une latence faible signifie que le transfert de données a été rapide – une latence élevée signifie qu’il a été retardé. C’est généralement le temps aller-retour, également connu sous le nom de délai aller-retour, qui est mesuré.

La bande transporteuse de latence

Imaginez un instant un chemin de réseau comme un tapis roulant pour piétons dans un aéroport. Imaginez que les paquets de données soient des touristes envoyés à l’autre bout par un représentant du circuit. Disons que le représentant n’est autorisé à envoyer qu’un certain nombre de touristes sur le convoyeur avant d’attendre la confirmation qu’ils sont tous arrivés sains et saufs à l’autre bout. Après tout, il ne veut pas perdre ses clients ! Disons aussi que pour obtenir un accusé de réception, quelqu’un doit revenir en sens inverse sur le convoyeur de retour. Maintenant, si ce tapis roulant est long, lent ou les deux, le représentant du circuit passera beaucoup de temps à attendre, ce qui ralentira le nombre de touristes qu’il peut amener à destination. C’est ainsi que le trafic IP est généralement géré, et cela fait une grande différence dans la quantité de données pouvant être transportées, avec des implications pour les performances. Vous pouvez avoir un tapis roulant extrêmement large (bande passante élevée), mais s’il est vraiment long et lent, la nécessité d’attendre un accusé de réception signifie qu’il ne peut toujours pas transporter beaucoup de personnes très rapidement (faible débit).

Quel est le hold-up ?

Tout comme les informations physiques peuvent être retardées dans le monde réel, les informations numériques peuvent être retardées sur un réseau – et il s’agit généralement d’une combinaison des éléments suivants :

Un « délai de propagation » fait référence à la vitesse à laquelle les données se déplacent – et à tout retard lié à la distance.

Rien ne peut aller plus vite que la vitesse de la lumière – et parce qu’il y a toujours un mouvement physique impliqué dans le transfert de données (même si ce mouvement est des ondes de lumière ou des transmissions radio), cette règle reste vraie pour le monde numérique.

Cela met une vitesse maximale sur vos données – et bien que vous puissiez penser que ce n’est pas trop un problème – rappelez-vous que les données sont souvent envoyées à 20 000 milles en orbite avant qu’elles ne se dirigent vers leur destination !

Au cours de son voyage dans l’espace, à travers les pays et à travers les mers et le terrain, vos données vont être traitées par un certain nombre d’appareils. Ces appareils seront généralement des routeurs et des commutateurs – et bien qu’il s’agisse d’équipements efficaces et spécialisés, ils prennent une infime fraction de seconde pour comprendre les données qui les accompagnent et ce qu’il convient d’en faire.

C’est ce qu’on appelle un « retard nodal » – et ils s’additionnent. Pas à des chiffres énormes – mais en termes de latence, même les millisecondes comptent.

Les millisecondes comptent

Bien que vous lisiez ceci, vous pourriez penser que les millisecondes ne comptent pas lorsqu’il s’agit des applications que vous exécutez ou des clients dont vous vous occupez. Je dois vous dire que vous auriez tort. Cette icône « tournante » que vous voyez lorsque vous essayez de regarder la télévision à la demande se produit tout le temps dans les coulisses de vos applications – et cela vous coûte une productivité et une satisfaction client précieuses. L’impact de la panne totale de vos systèmes peut être énorme.

Ce n’est pas exagéré – les clients s’attendent à ce que les données qui les concernent soient accessibles presque immédiatement – ce qui signifie qu’ils cliqueront avec plaisir s’ils ne peuvent pas y accéder assez tôt – ou voteront avec leurs pieds si vous êtes lent à y accéder en leur nom.

Il ne faut qu’un petit délai au milieu des multiples conversations de données pour prendre en charge l’une de vos applications, avant que les utilisateurs finaux (ou pire, les clients) ne finissent par attendre quelques secondes pour une réponse à leur clic de souris ou pour qu’un prix apparaisse .

Comment gérer la latence du réseau ?

Si vous pensez que l’une de vos applications fonctionne mal et a un impact sur votre personnel ou vos clients, vous devez agir.

La première chose à réaliser est que la latence peut être améliorée. Vous pourriez, par exemple, changer un circuit pour un type différent et améliorer considérablement les choses. Ou vous pouvez passer d’une connexion via Internet à une connexion via un réseau étendu privé. Ou vous constaterez peut-être que le remplacement de l’ancien équipement réseau ou la suppression des goulots d’étranglement peut améliorer les choses.

Utilisation cet outil pour avoir une idée de l’impact de la latence. Il est accompagné d’un article qui explique plus en détail la latence et donne des exemples de latences typiques que vous pouvez trouver avec différents types de réseaux. Il existe également un lien pour découvrir comment auditer votre réseau afin de rechercher la cause des problèmes de performances. Ce qui introduit le dernier point – que la latence n’est pas la seule cause de mauvaises performances. C’est souvent l’application, la base de données ou le serveur et l’infrastructure de stockage qui génèrent des problèmes de performances. C’est là qu’un fournisseur de services gérés et un audit de performance peuvent souvent aider à aller au fond des choses.

Rate this post
Publicité
Article précédentFobia: Guide de l’hôtel St. Dinfna: code de sécurité, puzzle d’ascenseur, etc.
Article suivantShield Hero Saison 2 Épisode 8

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici