Qu’est-ce que la latence réseau ?
La latence réseau est le temps écoulé entre l’envoi d’un paquet de données et la réception de la réponse. Elle est mesurée en millisecondes (ms) et a un impact direct sur l’expérience utilisateur.
Types de latence
- Latence unidirectionnelle — de la source au destinataire
- Temps aller-retour (RTT) — aller et retour
- Bufferisation et jitter — effets supplémentaires de latence
Causes d’une latence élevée
| Cause | Impact |
|---|---|
| Grande distance | Délai dû aux limitations physiques (fibre optique) |
| Surcharge des routeurs | Files d’attente et engorgement |
| Problèmes DNS ou NAT | Allongement du chemin de transmission |
| Utilisation de VPN ou proxy | Sauts supplémentaires |
Comment mesurer la latence
- ping — méthode la plus simple
- traceroute/mtr — diagnostic de routage
- BGP Looking Glass — vérification depuis l’extérieur
- DPI et BRAS — collecte de télémétrie côté opérateur
Que faire en cas de latence élevée ?
- Vérifier le traceroute et le DNS
- Éviter les chemins saturés
- Utiliser la QoS pour prioriser le trafic
- Déployer une infrastructure edge plus proche de l’utilisateur
FAQ
Quelle latence est considérée comme normale ?
Pour la vidéo/les appels — <50 ms. Pour les jeux — <30 ms. Pour le web — jusqu’à 100 ms est acceptable.
Quel est l’impact de la 5G ?
La 5G peut réduire la latence à 1–10 ms dans des conditions idéales.
La latence est-elle la même chose que la bande passante ?
Non. La bande passante mesure la quantité de données ; la latence mesure le temps de transmission.
Conclusion
La latence réseau est un indicateur essentiel, notamment pour les services en temps réel. Son suivi et optimisation permettent d’améliorer la performance, la disponibilité et l’expérience utilisateur.