bonjour,
A chaque fois que je trouve une explication de l'incertitude de type A (traitement statistique), je trouve des exemples avec un série de mesure qui n'ont aucune incertitude (précision infinie). On obtient alors une valeur moyenne et l'incertitude sur cette valeur moyenne (à partir de l'écart type).
Or si on demande à nos élèves de faire une mesure simple (détermination de la vitesse moyenne lors de la chute d'une bille), le résultat sera entaché d'une incertitude (chronomètre utilisé, hauteur de chute mesurée à la règle). On peut répéter cette expérience n fois afin de réduire l'incertitude. Effectuer la moyenne sur l'ensemble des mesures faites permettra d'obtenir une valeur théoriquement plus proche de la valeur vraie. Mais l'incertitude calculée en faisant l'écart type sur les valeurs obtenue a-t-elle vraiment un sens? En effet elle ne tient pas du tout compte de l'incertitude qu'on a déterminé lors de chaque mesure unique.....Ne devrait-on pas plutôt faire une sorte de moyenne des incertitudes obtenues à chaque répétition? je n'arrive pas à faire la part entre ce qui va être influencé par la répétition et les sources d'incertitudes qui doivent être incorporées ultérieurement à l'aide d'un calcul d'incertitude.
En espérant que ma question soit assez claire.....
Merci!