Vous êtes sur la page 1sur 8

Utilisation des résultats des comparaisons

interlaboratoires

Résumé
   Les normes ISO/CEI 17043 et ISO 15328, qui traitent des comparaisons inter
laboratoires pour l’évaluation des laboratoires, rappellent explicitement que des
résultats d’essais anormaux peuvent être obtenus même par des laboratoires ayant de
bonnes pratiques, avec du personnel compétent. C’est pourquoi les résultats d’une
comparaison inter laboratoires ne doivent pas être utilisés pour condamner un
participant. Ils doivent être utilisés comme des alertes devant déclencher une
recherche des causes d’écart et si nécessaire, une action corrective appropriée
correspondante.

Introduction
   Dans beaucoup de cas, la décision d’un laboratoire de participer à une comparaison
inter laboratoires est motivée par le besoin de satisfaire au référentiel d’accréditation
(et notamment le § 5.9 de la norme ISO/CEI 17025).
A l’issue de cette participation, le laboratoire a la charge d’analyser les résultats
d’évaluation contenus dans le rapport de comparaison inter laboratoires qu’il reçoit.
Plusieurs risques de mauvaise interprétation de ces résultats existent, limitant le profit
que le participant aurait pu tirer de sa participation. Cette mauvaise interprétation est
souvent due à une mauvaise connaissance des méthodes d’élaboration des résultats
individuels et de la signification des alertes.
Ce document a pour objet :

 D’expliquer la façon dont les résultats d’évaluation sont obtenus et les risques
de mauvaise interprétation encourus ;
 De proposer des actions à entreprendre lorsque qu’une alerte est détectée.

Choix de paramètres utilisés pour évaluer la


performance d’un laboratoire   
L’organisation d’une comparaison inter laboratoires implique de décider au préalable
quels seront les paramètres utilisés pour mesurer la performance du laboratoire.
Pour ce faire, les organisateurs de comparaisons inter laboratoires s’inspirent
généralement de la norme ISO 5725-1, qui définit l’exactitude d’une méthode d’essai
comme une combinaison de sa justesse et de sa fidélité. Dans cette norme :
 La « justesse » est définie comme l’étroitesse de l’accord entre la moyenne d’une
très grande série d’essais et une valeur de référence acceptée. Traduit en termes
courants, les résultats d’essais sont justes quand leur moyenne est égale à la
valeur « vraie » ;
 La « fidélité » est définie comme l’étroitesse de l’accord entre des résultats
d’essais obtenus dans des conditions d’essai fixées. Traduit en termes courants,
les résultats d’essais sont fidèles quand plusieurs essais différents fournissent
des résultats « semblables ».

La norme précise que la notion de fidélité est attachée aux conditions d’essais qui sont
fixées et celles qui ne le sont pas. Les conditions limites de fidélité sont :

 La fidélité maximale de la méthode, dénommée « répétabilité », pour laquelle


tous les paramètres possibles sont fixés : les essais sont réalisés sur des
échantillons identiques, dans un même laboratoire, par un même opérateur, à
l’aide d’un même équipement et de mêmes consommables, dans un court
intervalle de temps ;
 Et la fidélité minimale de la méthode, dénommée « reproductibilité » pour
laquelle seuls les échantillons et la méthode d’essai sont identiques : les essais
sont réalisés sur dans des laboratoires distincts, par différents opérateurs, à
l’aide de différents équipements et consommables, dans un intervalle de temps
long.

En conséquence de ce qui précède, les organisateurs de comparaisons inter


laboratoires calculent généralement :

 Le biais des laboratoires participants pour évaluer la justesse de leurs résultats ;


 La répétabilité des laboratoires participants pour évaluer la composante qui leur
est attribuable de la fidélité de leurs résultats.

Note  : En plus de ces paramètres ci-dessus, qui sont des paramètres de performance des
participants, les comparaisons inter laboratoires fournissent des informations générales
sur la méthode d’essai utiles aux laboratoires  : la répétabilité et la reproductibilité de la
méthode.
   La norme ISO 13528 fournit le conseil nécessaire pour calculer ces paramètres et
pour évaluer à l’aide de tests statistiques appropriés si les résultats du participant sont
significativement différents de valeurs considérées comme vraies (voir Résumé de
l’ISO 13528).L’organisateur de la comparaison inter laboratoires peut également
demander aux participants de fournir l’incertitude sur leurs résultats et utiliser cette
information pour l’évaluation de la performance d’un laboratoire. Cependant, la norme
ISO 13528 ne traite pas de l’évaluation des incertitudes fournies par les participants.
Dans la plupart des cas, la performance d’un laboratoire est évaluée en mesurant la
justesse et la répétabilité de ses résultats.

Aspect conventionnel de l'évaluation


Il convient de ne pas oublier que l’évaluation contient une part « conventionnelle »
plus ou moins importante pour la détermination :

 De la valeur de référence considérée comme « vraie » ;


 De la valeur de dispersion prise pour référence ;
 Des seuils choisis pour décider des alertes.

   L’existence d’une valeur que l’on peut considérer comme vraie n’est pas toujours
évidente. Dans certains cas (notamment dans le cas de la détermination de la
composition d’un mélange), elle existe manifestement. Dans d’autres cas (notamment
lorsque le matériau est intrinsèquement hétérogène), la norme ISO 5725-1 reconnait
qu’elle peut ne pas exister et que la valeur assignée est alors conventionnelle. Pour les
comparaisons inter laboratoires organisées par CompaLab, un exemple typique de ce
cas est la mesure d’Agt lors d’essais de traction selon la norme ISO 6892-1 : les
résultats obtenus pour cette caractéristique varient selon l’endroit de l’éprouvette où
l’on effectue la détermination, selon la longueur de l’éprouvette, selon la longueur de
base de la mesure, etc. … une valeur « vraie » devrait alors tenir compte de tous les
endroits de détermination possibles sur l’éprouvette, de toutes les longueurs
d’éprouvette possibles, de toutes les longueurs de base possibles, etc. … Ceci est
matériellement impossible puisque l’essai est destructif et que sur un échantillon de
longueur finie, le nombre de longueurs d’éprouvette et de longueurs de base possibles
est infini. La valeur assignée est alors une valeur de référence acceptée, déterminée
selon un processus déterminé, mais qui inclut une part de convention.
   L’existence d’une valeur de dispersion que l’on peut considérer comme « vraie »
n’est pas toujours évidente non plus, notamment dans les cas et pour les raisons
évoquées ci-dessus. Il convient de bien distinguer ce problème d’existence d’une
valeur « vraie » et le problème de l’estimation de cette valeur (toujours un peu difficile
dans le cas de l’estimation d’une dispersion). Le premier problème est un problème
technique d’existence effective d’une valeur « vraie » de la dispersion, alors que le
deuxième est un problème statistique classique d’estimation de la valeur d’un
paramètre au moyen d’un nombre limité de déterminations.
Les § 5 et § 6 de la norme ISO 13528 prévoient une possibilité que les valeurs de
référence pour l’évaluation des laboratoires proviennent d’un texte normatif ou
règlementaire. Dans ce cas, la définition même de ces valeurs leur confère un
caractère conventionnel.
Les valeurs «  vraies  » utilisées pour évaluer les laboratoires incluent donc la plupart du
temps une part de convention plus ou moins importante.
   Concernant les seuils, les habitudes, reprises par la norme ISO 13528, font que les
organisateurs de comparaisons inter laboratoires attribuent généralement aux
résultats d’essais obtenus des scores. Ces scores sont ensuite utilisés dans un test
statistique qui décide s’ils possèdent une probabilité maximale de 0,3% ou une
probabilité maximale de 5% de dépasser des limites correspondantes, si les résultats
d’essai font effectivement partie de leu population mère.
Ces probabilités maximales proviennent de valeurs « u  » de la loi de distribution normale
(centrée réduite) égales respectivement à ±2 et ±3 et sont tout à fait arbitraires. Des
valeurs de limite de probabilité de 1% ou de 10% seraient tout aussi significatives, avec
évidemment des seuils d’alerte différents  !

Fiabilité de l'évaluation
La fiabilité de toute évaluation de la performance d’un laboratoire au moyen d’une
comparaison inter laboratoires est conditionnée par :

 La stabilité et l’homogénéité des échantillons utilisés ;


 L’adéquation et la robustesse des techniques statistiques utilisées, en fonction
des impératifs techniques liés aux méthodes d’essais concernées et du nombre
de participants ;
 L’influence d’éventuels artéfacts, notamment les arrondis intempestifs ;
 Le cas échéant, la façon dont l’incertitude de mesure des participants est prise
en compte.

   L’objet des normes ISO/CEI 17043 et ISO 13528 est avant tout d’assurer la fiabilité
des évaluations au moyen de comparaisons inter laboratoires. En particulier les
questions de stabilité et d’homogénéité des échantillons, d’adéquation des
statistiques utilisées y sont largement développées. Il est évident qu’une évaluation
correcte de la performance d’un laboratoire est impossible si les échantillons utilisés
pour cela ne sont pas suffisamment semblables ou si les statistiques utilisées ne sont
pas appropriées. Pour plus de détails à ce sujet, le lecteur est invité à consulter
le résumé de l’ISO 13528.
Le respect des prescriptions des normes ISO/CEI 17043 et ISO 13528 permet d’éviter les
risques de manque de fiabilité liés aux opérations réalisées sous le contrôle de
l’organisateur des comparaisons inter laboratoires.
   Indépendamment de la lettre de ces textes, il convient de garder à l’esprit qu’un
calcul statistique ne peut pas fournir plus d’information que ce que les données
utilisées contiennent. En conséquence, les conditions dans lesquelles les données ont
été élaborées comptent autant que l’adéquation des méthodes statistiques utilisées.
Parmi les points importants à contrôler, on peut citer :

 La maîtrise de la dispersion prise en compte ;


 Les artefacts.

   Un exemple significatif de l’importance de la maîtrise de la dispersion prise en


compte est le cas où la procédure de confection d’échantillon influe significativement
sur le résultat d’essai. La compétence du laboratoire pour confectionner correctement
les échantillons peut alors devenir plus critique que celle nécessaire pour réaliser les
essais proprement dits. Il convient alors que l’organisateur de la comparaison inter
laboratoires décide, en fonction des contingences techniques liées au produit et à
l’essai, quelle part de la confection des échantillons est attribuée des participants,
quels paramètres correspondants sont fixés par l’organisateur et quels paramètres
sont laissés au choix du participant. Il convient aussi que les participants soient
conscients de ce que les écarts-types de dispersion publiés représentent, en fonction
de la façon dont les paramètres de confection des échantillons ont été fixés.
Note  :   Parmi les comparaisons inter laboratoires organisées par CompaLab, cela
concerne notamment l’essai Charpy, pour lequel la norme d’essai prévoit des
spécifications dimensionnelles serrées pour les éprouvettes d’essais. La signification des
écarts-types publiés n’est pas identique selon que ces éprouvettes sont usinées par
l’organisateur ou par les participants.
 
   Un exemple significatif d’artefact est le cas d’arrondis intempestifs sur les résultats
d’essais fournis par les participants. Il est évident que si, à l’extrême, les résultats sont
arrondis à ±1 alors que la reproductibilité de l’essai est de ±0,1, les résultats des
participants seront tous arrondis à la même valeur et les écarts-types calculés par
l’organisateur seront tous égaux à 0. Dans ce cas, l’opération d’arrondi intempestif a
retiré des données toute l’information pertinente relative à la dispersion, et tout calcul
statistique mathématiquement juste fournit un résultat d’évaluation faux. Dans la
pratique, un arrondissement aussi intempestif des données ne se rencontre pas, car il
pose évidemment ensuite un problème à l’organisateur. Cependant, il est de bonne
pratique pour les laboratoires d’arrondir leurs résultats d’essais à un niveau proche de
l’incertitude sur leurs résultats. Ceci est alors nocif lors d’une participation à une
comparaison inter laboratoires car, par le mécanisme décrit ci-dessus, cela biaise de
façon sournoise l’évaluation des écarts-types de dispersion.
   Un autre exemple significatif d’artefact est les cas où la valeur assignée se situe à la
limite de détection des appareils de mesure (par exemple détermination de traces en
chimie), où certains participants expriment leurs résultats d’essais sous la forme
« <0,001 ». Les calculs de biais et de dispersion en sont évidemment affectés. La
norme ISO 13528 recommande d’ailleurs aux organisateurs de comparaisons inter
laboratoires de ne pas accepter les résultats exprimés sous cette forme.
Au-delà du respect des prescriptions des normes ISO/CEI 17043 et ISO  13528 par
l’organisateur des comparaisons inter laboratoires, il est de la responsabilité des
participants de bien étudier et interpréter les rapports de comparaisons inter laboratoires,
et notamment la signification des écarts-types fournis.
 
Enfin, comme tous les résultats d’évaluation, les signaux d’alerte fournis par les
participations sont assortis de deux risques, reliés aux risques appelés α et β des tests
statistiques :

 Le risque α (alpha) de déclencher une alerte alors que les résultats du


laboratoire appartiennent à la population des résultats obtenus en respectant les
prescriptions de la méthode d’essai ;
 Le risque β (beta) de ne pas déclencher une alerte alors que les résultats du
laboratoire n’appartiennent pas à la population des résultats obtenus en
respectant les prescriptions de la méthode d’essai.

   Le risque α correspond au cas d’un laboratoire qui met en œuvre la méthode d’essai
conformément aux spécifications par un personnel compétent, utilise un équipement
et des consommables appropriés dans les conditions environnementales requises.
Cependant, une combinaison malheureuse d’erreurs acceptables s’est produite pour
aboutir à un résultat dont le biais est significatif. Cette combinaison malheureuse a
une probabilité α faible mais non nulle de se produire. Cette valeur α est celle utilisée
dans les tests statistiques mis en œuvre par l’organisateur de la comparaison inter
laboratoires. Comme mentionné plus haut, les valeurs implicitement recommandées
par la norme ISO 13528 pour α sont 5% pour le signal d’avertissement et 0,3% pour le
signal d’action.
   Le risque β correspond au cas d’un laboratoire qui présente un ou plusieurs écarts
significatifs dans sa mise en œuvre de la méthode d’essai ou dans la compétence de
son personnel ou dans l’état de son équipement ou sur l’adéquation des
consommables qu’il utilise ou dans les conditions environnementales dans lesquelles il
réalise les essais. Cependant, le jour de la réalisation des essais pour la comparaison
inter laboratoires, une combinaison favorable de ces erreurs s’est produite de façon
fortuite, de sorte que le participant n’a pas fait l’objet d’un signal d’alerte. La
probabilité β correspondante est difficile à calculer mais elle est évidemment
également jamais nulle, et dans certains cas, assez importante. Elle dépend
essentiellement :

 Du nombre de participants, lorsque les valeurs assignées sont estimées à l’aide


des résultats des participants (voir § 5 et § 6 du résumé de l’ISO 13528). Il est
évident qu’au plus le nombre de participants est important, au plus les valeurs
assignées sont estimées avec précision et que les tests d’alerte sont
discriminants. Dans le cas extrême où le nombre de participants est réduit à 2 et
que les valeurs habituelles sont retenues pour le risque α, le calcul ne peut
jamais conduire à une alerte, quels que soient les résultats des participants : le
risque β est donc égal à 1 ;
 De l’importance des écarts du laboratoire : les écarts ayant une influence très
importante sur les résultats d’essais ont plus de probabilité de déclencher un
signal d’alerte qu’un écart significatif mais d’importance moindre.

En conclusion, l’absence d’alerte ne signifie nécessairement pas l’absence d’écart et la


présence d’une alerte est une présomption mais pas une certitude de la présence d’écart à
corriger par le laboratoire.
 
  En plus des paramètres de biais et de dispersion, l’organisateur peut demander aux
participants de fournir les incertitudes attachées à leurs résultats. Cette information
peut être utilisée pour calculer des scores de type z’, dans lesquels l’incertitude propre
du participant est prise en compte au côté de la reproductibilité. Les scores
correspondants sont alors moins sévères pour les laboratoires. La norme ISO 13528
décrit plusieurs types de scores, avec dans chaque cas une version qui prend en
compte l’incertitude.
  Il est à noter que pour certaines méthodes d’essai, l’estimation des incertitudes est
complexe et peu fiable. Les laboratoires peuvent alors être amenés à surestimer leurs
incertitudes. Dans de tels cas, la prise en compte des incertitudes dans la comparaison
inter laboratoires conduit à réduire le risque α mais à augmenter le risque β.

Scores d’évaluation des résultats individuels


   L’évaluation des résultats individuels est généralement réalisée à l’aide de scores (cf.
plus haut). Les scores et les limites correspondantes sont plus ou moins discriminants
selon la méthode utilisée pour les calculer (cf. notamment choix d’une loi de
distribution). Le choix de cette méthode répond avant tout à un objectif de fiabilité
des résultats d’évaluation (cf. ci-dessus). Ce critère peut conduire à écarter des
méthodes de calcul plus discriminantes mais moins adaptées au cas concerné (cf. par
exemple les cas où l’on s’abstient d’utiliser la loi de distribution normale car elle n’est
pas adaptée aux résultats).
Il en résulte que pour une même série de données, un signal d’alerte peut être déclenché
ou non pour un laboratoire, selon la méthode statistique utilisée.

Signification des alertes


   Les résultats de l’essai d’aptitude ne sont valides que pour le produit et la méthode
d’essai concernés.En conformité avec les normes ISO/CEI 17043 et ISO 15328, il doit
être rappelé que des résultats anormaux peuvent être obtenus même dans les
laboratoires ayant de bonnes pratiques, avec du personnel compétent. Pour cette
raison, les critères fournis par ces normes ne doivent pas être utilisés pour condamner
un participant.
Le déclenchement d’une alerte signifie que les résultats sont si exceptionnels (cf.
risques α ci-dessus) qu’ils méritent une investigation. Les causes habituelles d’écart
sont :

 Produit soumis à la comparaison inter laboratoires différent de ceux


habituellement traités par le laboratoire ;
 Erreur grossière dans la saisie des données nécessaires pour réaliser les essais,
ou dans les calculs ou dans le report des résultats ;
 Equipement insatisfaisant ;
 Consommables insatisfaisants ;
 Personnel insuffisamment compétent ;
 Ecart à la méthode prescrite ;
 Combinaison de sources d’erreur mineures.

Ces causes d’écart peuvent être à l’origine d’un biais et/ou d’un manque de
répétabilité.
Une action corrective devrait être envisagée en correspondance avec les résultats de
cette investigation. En regard de ce qui précède, cela peut être :

 Amélioration de la précision de la définition du champ de compétence du


laboratoire ;
 Amélioration de la procédure de saisie des données, du calcul et du report des
résultats, du contrôle de ces opérations ;
 Réparation ou remplacement des équipements insatisfaisants, amélioration de la
procédure de vérification et de maintenance des équipements ;
 Amélioration des spécifications ou de la procédure de vérification pour
l’approvisionnement des consommables ;
 Amélioration des exigences pour le personnel ou de la formation
correspondante ;
 Identification et suppression des écarts à la méthode prescrite ;
 Mise en œuvre par le laboratoire d’exigences plus sévères que celles prescrites
par la norme décrivant l’essai (applicable lorsque le biais constaté résulte de la
combinaison d’erreurs mineures).

L’investigation peut également montrer qu’aucune cause substantielle d’écart dans les
résultats n’est présente. Le laboratoire peut alors décider de mettre en œuvre aucune
action corrective immédiatement et de mettre son processus d’essai sous surveillance
particulière pendant un certain temps. La norme ISO/CEI 17025 § 5.9 fournit
plusieurs possibilités correspondantes, en plus de la participation à une comparaison
inter laboratoires :

 Vérifications à l’aide de matériaux de référence ;


 Réitération d’essais ;
 Corrélation de résultats.

Cette surveillance du processus d’essai doit permettre de déterminer si la cause


d’écart n’a pas été trouvée ou s’il est vraiment certain qu’aucune cause substantielle
d’écart dans les résultats n’est présente.
En conclusion, les résultats d’une comparaison inter laboratoires doivent être utilisés
comme des alertes devant déclencher une recherche des causes possibles d’écart et si
nécessaire, les actions correctives appropriées correspondantes.

Vous aimerez peut-être aussi