Published On : 17 novembre 2013 |Last Updated : 26 octobre 2017 |1304 words|5,7 min read|0 Commentaire on Métrologie : précision vs. exactitude, erreur vs. incertitude|

Une erreur redondante, commune, habituelle, et ancrée est de parler de précision d’une mesure ou de précision d’un appareil lorsqu’on veut dire que le résultat du mesurage est proche de la valeur vraie. De même, on confond allègrement erreur et incertitude. Mais tout ceci est faux… Expliquons pourquoi…

LA référence absolue en métrologie à l’échelon international est le Vocabulaire International de la Métrologie (VIM) publié en Anglais et en Français par le Bureau international des Poids et des Mesures (BIPM). Si vous faites une recherche dans le fichier PDF (Ctrl+F dans Adobe Reader) pour le terme « Précision », vous n’aurez aucun résultat. Et pour cause, la précision n’existe pas en métrologie !

Partons d’abord de la base : toute mesure est fausse. Ça n’est même pas une question, c’est systématique : les capteurs ne sont pas parfaits, les humains qui les utilisent non plus. Mais la mesure reste tout de même la seule estimation objective de la réalité physique qui nous entoure. On ne peut pas s’en passer, et une mesure fausse est toujours meilleure que pas de mesure du tout. La question est donc toujours : à quel point la mesure est-elle fausse ? Le travail du métrologue consiste à estimer l’incertitude liée à la mesure effectuée, c’est à dire la probabilité d’erreur de la mesure. Et l’incertitude caractérise-t-elle la précision ou l’exactitude ?

La précision s’emploie en parlant de l’affichage d’une valeur numérique : un afficheur numérique donnant 2 décimales sera moins précis qu’un afficheur donnant 4 décimales, par exemple. On parle de précision « au dixième », « centième », etc. On parle aussi  de précision en arithmétique flottante : un nombre réel ne peut être représenté complètement dans un système informatique, qui discrétise l’information. La précision d’un système informatique se caractérique par le nombre de bits utilisés pour représenter des nombres en virgule flottante.

Attention, il se pourrait que la précision de l’affichage soit illusoire, nous le verrons plus bas. Notons dès à présent que la précision ne devra pas non plus être confondue avec les chiffres significatifs, puisqu’on parle ici seulement des décimales. 195,56 comporte 5 chiffres significatifs et est donné avec une précision de 0,01.

Pour dire qu’un capteur ou qu’un mesurage donne un résultat très proche de ce qu’on attend (la fameuse « valeur vraie » VV du mesurande), on dit que ce capteur ou que cette mesure est exacte. L’exactitude est la concomitance de deux concepts : la fidélité et la justesse. Pour bien comprendre de quoi il s’agit, répétons plusieurs fois une même mesure et traçons les résultats sur une cible qu’on pourrait assimiler à un repère polaire (l’origine est la valeur vraie) :

Fidélité
Fidélité

Le premier graphe montre un ensemble de points fortement centrés autour de leur moyenne (l’aire couverte est réduite, l’écart-type est faible), cependant cette moyenne est assez éloignée de la valeur vraie : on dit que le capteur est fidèle. L’erreur commise (écart M-VV) pourra la plupart du temps être corrigée soit par ré-étalonnage de l’instrument soit mathématiquement sur le résultat (compensation de la température, par exemple).

Justesse
Justesse

Le deuxième graphe montre un ensemble de points dont la moyenne est confondue avec la valeur vraie, cependant ils sont fortement dispersés (l’aire couverte est étendue, l’écart-type est élevé) : on dit que le capteur est juste. Ce type de capteur est le pire car la dispersion statistique du résultat rend toute correction mathématique impossible, et son erreur ne peut donc être corrigée simplement. Il n’y a souvent pas grand chose à faire avec un tel capteur, à part en changer.

Exactitude
Exactitude

Le troisième  graphe montre un ensemble de points peu dispersés dont la moyenne est confondue avec la valeur vraie : le capteur est à la fois juste et fidèle, on dit qu’il est exact et c’est ce qu’on attend de lui.

L’exactitude d’un capteur est une donnée statistique qui caractérise à la fois la différence entre la moyenne de la série de mesurages sur un étalon connu et sa dispersion. « La quantité d’inexactitude » est exprimée par l’incertitude de mesure. Cette incertitude modélise la probabilité d’erreur sur une mesure isolée. En effet, sur une série de mesures effectuées sur un étalon de valeur connue, il est facile de mesurer les erreurs successives et de calculer leur moyenne, qu’on appelle l’écart-type. Mais à quel point cette erreur moyenne est-elle pertinente pour modéliser l’inexactitude du capteur ? Pour répondre à cette question, il faut procéder à une analyse statistique de la répartition des erreurs. En général, dans une mesure physique, la distribution des erreurs suit une loi normale, et cet écart-type englobe alors environ 68 % de la plage d’erreur.

Distribution gaussienne des erreurs expérimentales d’une série de mesures sur une grandeur inconnue. V est la moyenne de la série : sa probabilité d’être la valeur vraie est 40 %. Les intervalles matérialisés sous la courbe donnent les incertitudes élargies k × écart-type, leur probabilité de contenir la valeur vraie est respectivement : 68 % (k = 1), 95 %, et  99 % (k = 3).

Lorsqu’on se place dans le cas d’une mesure isolée et « aveugle » d’une grandeur inconnue, si l’on est chanceux, on aura une erreur inférieure à l’écart-type (k = 1 sur le schéma ci-dessus), sinon on à une chance sur trois d’être au-delà. Mais on n’a aucun moyen de savoir si on a été chanceux ou non puisque la valeur vraie est inconnue. Pour tenir compte de cette chance, on passe à une expression de l’exactitude en terme de probabilité : c’est l’incertitude.

En définissant l’incertitude élargie égale à 3 écart-types (c’est à dire 3 × la moyenne des erreurs de mesure sur l’étalon), on donne un intervalle qui contient 99 % des erreurs et modélise une borne supérieure de notre erreur de mesure isolée, à un seuil de confiance de 99 %. C’est la définition la plus courante. À 6 écart-types, on donne une borne supérieure de l’erreur à 100 % de confiance, mais cette valeur risque de ne pas être très alléchante pour le marketing du capteur et peu représentative de la réalité de toute façon.

En résumé, l’erreur est la différence entre le résultat de la mesure et la réalité. Le seul cas où elle est connue est lorsqu’on mesure un étalon, ce qui ne sert pas à grand chose, à part à caractériser le capteur. Lorsqu’on effectue une mesure d’une valeur inconnue, l’erreur est inconnue aussi et on à besoin d’estimer sa borne supérieure à un certain seuil de confiance : c’est l’incertitude.

Croyez moi, j’ai mis des années à comprendre la différence entre les deux, et ce n’est certainement pas en DUT Mesures Physiques qu’on me l’a expliquée. Ce n’est pas comme si c’était le cœur de la métrologie… Mon meilleur souvenir à la bande de rigolos qui m’ont tenus lieu de profs.

La raison pour laquelle une précision (d’afficheur donc) peut être illusoire est qu’une précision à 0,001 peut être associée à une incertitude de l’ordre de 0,01 auquel cas le dernier digit de l’affichage n’a plus aucune signification (on ne peut pas donner un résultat plus précis que son incertitude). Ceci n’arrivera généralement pas sur un appareil commercial (quoique…), mais doit être considéré sérieusement dans le cas d’un instrument de mesure fait-maison (sous LabView par exemple).

Bref, on parle d’exactitude d’un appareil de mesure, et précision ou exactitude sont synonymes dans le langage courant, mais pas en métrologie. La science ne peut pas avoir de synonyme, chaque mot à un sens précis qui désigne un concept particulier.