latence définition

Latence : qu’est-ce que c’est et comment la réduire ?

La latence d’un réseau est le temps nécessaire pour que les paquets de données soient transmis de l’émetteur au destinataire. Découvrez tout ce que vous devez savoir à ce sujet, et notamment les facteurs qui augmentent le temps de latence ainsi que les solutions pour le réduire.

La latence est une mesure de délai. Dans le domaine des réseaux, elle définit le temps nécessaire pour que des données parviennent à leur destination. En règle générale, on la mesure en fonction du temps nécessaire pour qu’un paquet de données soit transmis au destinataire et renvoyé à l’émetteur. Le temps nécessaire pour effectuer cet aller-retour est le temps de latence. Dans l’idéal, elle doit donc être aussi proche de 0 que possible. Plus elle est élevée, plus elle affecte les performances du réseau.

Quelles sont les causes de la latence ?

Plusieurs facteurs peuvent augmenter le temps de latence. Pour commencer, la propagation est le temps nécessaire pour qu’un paquet voyage d’un point à l’autre à la vitesse de la lumière. Cependant, un délai est ajouté en fonction du  » médium  » utilisé pour transférer les données : fibre optique, connexion sans fil…

En outre, la taille du paquet doit aussi être prise en compte. Un paquet plus large prend plus longtemps pour parvenir à sa destination et revenir. L’utilisation d’un routeur, ou toute autre passerelle réseau, ajoute un délai, car il lui faut du temps pour examiner voire modifier l’en-tête du paquet.

Par ailleurs, à chaque extrémité du réseau, le paquet peut être stocké ou accédé sur des disques durs ou autre support de stockage de données d’appareils intermédiaires tels que les commutateurs et les ponts, ce qui provoque encore un délai. Tous ces différents facteurs peuvent augmenter le temps de latence.

Comment réduire le temps de latence ?

latence réduire

Pour réduire le temps de latence, il est nécessaire d’apporter des optimisations et des améliorations matérielles, logicielles, et même mécaniques. Au sein d’un ordinateur, il est possible de supprimer ou de réduire la latence en employant diverses techniques.

Le prefetching consiste à anticiper les besoins liés aux requêtes d’entrées de données. Le multithreading consiste à utiliser le parallélisme sur de multiples threads d’exécution. Il est également possible de désinstaller les programmes inutiles, d’optimiser la configuration du réseau et d’améliorer le hardware.

Dans le cas d’un site web, il existe également plusieurs façons de réduire le temps de latence. L’utilisation du HTTP/2 permet de réduire la latence du serveur en minimisant le nombre d’aller-retour nécessaires entre l’émetteur et le récepteur par le biais de transferts parallélisés. Ceci permettra de charger les ressources web plus rapidement, afin d’améliorer le temps de chargement de la page.

Une autre astuce consiste à réduire le nombre de requêtes HTTP externes, à savoir les informations référencées depuis un serveur autre que le votre : images, fichiers CSS ou JS… en effet, ces requêtes externes peuvent fortement augmenter la latence d’un site web en fonction de la vitesse et de la qualité du serveur tiers.

Il est également possible d’utiliser un CDN (réseau de diffusion de contenu) afin de rapprocher les ressources de l’utilisateur. Ainsi, les requêtes de l’utilisateur doivent parcourir une distance moindre. De même, le  » Browser Caching «  permet d’effectuer localement un cache de certaines des ressources du site web pour réduire le nombre de requêtes renvoyées au serveur.

https://www.youtube.com/watch?v=Nma5OfNRExE

Restez à la pointe de l'information avec LEBIGDATA.FR !

2 commentaires

2 Commentaires

  1. nous utiilisons un fly box pour avoir de la connexion internet à la machine réceptrice au signal streaming. la machine est connecté à une amplificateur et ce dernier à une émetteur. nous sommes une radio communautaire.
    il s’observe un temps de latence de 10s et voir plus. la machine est réceptrice est situé sur une montagne de 2400 m d’altitude et nous somme éloigné de 17km à vol d’oiseau. comment resoudre ce problème

  2. Article intéressant… mais AMHA il induit une confusion importante entre temps de chargement et latence.
    – Le temps de chargement dans un contexte web vise le chargement d’un élément (HTML, image, video, CSS, Javascript) ou d’un ensemble d’éléments comme une page. Ces temps de chargement sont mesurés par différentes métriques normées (Page Load Time, Largest Contentful Paint) et en effet dépendent du temps de processing, du protocole utilisé (HTTP1.1 vs HTTP2), de la quantité d’éléments à charger, de leur ordre (fameux rendering path… et de la latence réseau.
    – Le terme latence est plus générique, il désigne de façon large un intervale de temps significatif entre le moment où un événement et la réaction à cet événement, mais le plus souvent dans ce contexte désigne la latence réseau : c’est à dire le temps de transit d’un paquet sur un réseau entre un point et un autre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥