La latence réseau

July 2, 2025

Qu’est-ce que la latence réseau ?

La latence réseau est le temps écoulé entre l’envoi d’un paquet de données et la réception de la réponse. Elle est mesurée en millisecondes (ms) et a un impact direct sur l’expérience utilisateur.

Types de latence

  • Latence unidirectionnelle — de la source au destinataire
  • Temps aller-retour (RTT) — aller et retour
  • Bufferisation et jitter — effets supplémentaires de latence

Causes d’une latence élevée

Cause Impact
Grande distance Délai dû aux limitations physiques (fibre optique)
Surcharge des routeurs Files d’attente et engorgement
Problèmes DNS ou NAT Allongement du chemin de transmission
Utilisation de VPN ou proxy Sauts supplémentaires

Comment mesurer la latence

  • ping — méthode la plus simple
  • traceroute/mtr — diagnostic de routage
  • BGP Looking Glass — vérification depuis l’extérieur
  • DPI et BRAS — collecte de télémétrie côté opérateur

Que faire en cas de latence élevée ?

  1. Vérifier le traceroute et le DNS
  2. Éviter les chemins saturés
  3. Utiliser la QoS pour prioriser le trafic
  4. Déployer une infrastructure edge plus proche de l’utilisateur

FAQ

Quelle latence est considérée comme normale ?

Pour la vidéo/les appels — <50 ms. Pour les jeux — <30 ms. Pour le web — jusqu’à 100 ms est acceptable.

Quel est l’impact de la 5G ?

La 5G peut réduire la latence à 1–10 ms dans des conditions idéales.

La latence est-elle la même chose que la bande passante ?

Non. La bande passante mesure la quantité de données ; la latence mesure le temps de transmission.

Conclusion

La latence réseau est un indicateur essentiel, notamment pour les services en temps réel. Son suivi et optimisation permettent d’améliorer la performance, la disponibilité et l’expérience utilisateur.