JMeter – analyse des résultats

JMeter – analyse des résultats
MIN
09 Fév 2024

Après avoir effectué le test de résistance, nous devons en interpréter les résultats. Nous utilisons des écouteurs dans JMeter pour interpréter les résultats. Ces auditeurs fournissent différentes matrices sur le test de résistance. Dans ce document, nous présenterons les matrices les plus couramment utilisées, leur signification et la manière de les calculer en interne à partir de données « brutes ».

Matrices de résultats par l’auditeur de rapports agrégés

Étiquette (nom) – L’étiquette est le nom du contrôleur de l’échantillon ou de la transaction.

# Échantillons – le nombre total d’échantillons correspondant à un échantillon donné

Moyenne – Le temps moyen (en millisecondes) nécessaire à l’exécution des requêtes dans le nom de l’échantillon donné. Ainsi, si 10 échantillons sont effectués, le temps moyen nécessaire pour les réaliser sera de

Moyenne = temps total requis pour tous les échantillons /#échantillons

Médiane – La médiane est essentiellement le temps de réponse moyen dans une liste d’échantillons classés.

90% line (90% des lignes) – Le manuel d’Apache JMeter décrit 90% des lignes comme « passer 90% des échantillons n’a pas pris plus de ce temps ». En fait, il s’agit du 90e percentile des temps de réponse de l’échantillon :

percentile 90 = (90/100)*N+1/2, où N est le nombre d’échantillons

Ainsi, s’il y a 10 échantillons, la ligne des 90 % sera de 9,5 ou 9. Id., p. 9. la valeur de la liste triée des échantillons (triés par ordre croissant de leurs temps de réponse) sera la valeur de la ligne à 90 %.

Min – le temps minimum (en millisecondes) dont l’échantillon a eu besoin

Max – Durée maximale (en millisecondes) de l’échantillon

Erreur % (Error % ) – Pourcentage d’erreurs dans les échantillons

Rendement – Le rendement, comme nous le savons tous, est la production par unité de temps. Dans la terminologie de JMeter, nous définissons le débit comme la quantité de charge appliquée à un serveur. Donc numériquement :

Débit = nombre total de requêtes par serveur / temps total

ou

Nombre total de demandes adressées au serveur/(heure de fin du dernier échantillon – heure de début du premier échantillon)

Ici, nous avons simplement défini la durée totale de chargement du serveur comme étant la durée entre le début du premier échantillon et la fin du dernier échantillon.

KB/sec – La mesure KB/sec n’est rien d’autre que le débit mesuré en octets. Ainsi,

KB/sec = (débit*nombre moyen d’octets)/1024

Average Bytes est la valeur moyenne de la réponse de l’échantillon en octets, et l’expression 1024 est utilisée pour convertir la valeur (Throughput*Average Bytes) en kilo-octets.