Analyse statistique des donnes exprimentales Incertitudes et analyse

  • Slides: 102
Download presentation
Analyse statistique des données expérimentales Incertitudes et analyse des erreurs dans les mesures physiques

Analyse statistique des données expérimentales Incertitudes et analyse des erreurs dans les mesures physiques John Taylor

Plan • • • Introduction : incertitudes sur les données Probabilités Distributions de probabilités

Plan • • • Introduction : incertitudes sur les données Probabilités Distributions de probabilités Incertitudes, propagation des incertitudes Ajustement de courbes

Mesure et incertitude • Toutes les quantités mesurées le sont à une précision finie

Mesure et incertitude • Toutes les quantités mesurées le sont à une précision finie • La science de la mesure consiste à – mesurer à la meilleure précision possible – d’évaluer l’incertitude sur la mesure

Erreur vs incertitude • Erreur : écart entre la mesure et la valeur vraie

Erreur vs incertitude • Erreur : écart entre la mesure et la valeur vraie (en général inconnue) • Incertitude : écart probable • Les barres d’incertitude contiennent probablement la valeur vraie • Attention de ne pas sous-évaluer l’incertitude • Mieux vaut une mesure présentant une grande incertitude mais qui contienne la valeur vraie que l’inverse

Mesure et incertitude • Chiffres significatifs et mesure • Quelle est la signification de

Mesure et incertitude • Chiffres significatifs et mesure • Quelle est la signification de : – Albert a 22 ans – J’ai parcouru 100 kilomètres à vélo – Le LEP mesure 26, 66 km de circonférence – Ce pointeur laser éclaire à 50 m – This laser pointer shines to 54, 68 yards

Mesure et incertitude • Quelle est la signification de: – G = (6, 67428

Mesure et incertitude • Quelle est la signification de: – G = (6, 67428 ± 0, 00067) × 10 -11 m 3 kg-1 s-2 – me = (9, 10938215 × 10 -31 kg) ± 50 ppb – www. physics. nist. gov/constants

Chiffres significatifs a = 7, 35678 ± 0, 345 (utilisation incorrecte) a = 7,

Chiffres significatifs a = 7, 35678 ± 0, 345 (utilisation incorrecte) a = 7, 3 ± 0, 3 a = 7, 356 ± 0, 04 a = 7, 3568 ± 0, 005 a = 7, 35678 ± 0, 0007 On arrondit l’incertitude à 1 chiffre significatif On arrondit la valeur au dernier chiffre significatif

Chiffres significatifs (exemple) • Soit a = 3 m et b = 7 m

Chiffres significatifs (exemple) • Soit a = 3 m et b = 7 m • a/b = 0, 428571. . . ? • a/b = 0, 4

Incertitude • • • Erreur de mesure Erreur systématique Incertitude aléatoire Incertitude sur une

Incertitude • • • Erreur de mesure Erreur systématique Incertitude aléatoire Incertitude sur une quantité dérivée Propagation des incertitudes Distribution de probabilité

Erreur de mesure • Mesure de distance avec une règle graduée en millimètres: –

Erreur de mesure • Mesure de distance avec une règle graduée en millimètres: – La précision ~ ½ mm • Mesure de tension avec un multimètre: – La précision dépend de l’appareil – L’appareil est très précis mais la tension varie

Erreur systématique • Vous avez mesuré une longueur à ± ½ mm – Mais

Erreur systématique • Vous avez mesuré une longueur à ± ½ mm – Mais la règle est fausse de 10% ! • Vous avez mesuré une tension à 0, 01% – Mais l’appareil est décalibré de 5% • Vous avez fait une mesure avec grand soin – Mais un des appareils était débranché

Incertitude aléatoire (statistique) • Vous répétez une mesure 100 fois • Les résultats se

Incertitude aléatoire (statistique) • Vous répétez une mesure 100 fois • Les résultats se ressemblent mais. . .

Incertitude • L’ensemble des valeurs possibles sont décrites par une distribution de probabilité •

Incertitude • L’ensemble des valeurs possibles sont décrites par une distribution de probabilité • L’incertitude représente un intervalle à l’intérieur duquel la vraie valeur se trouve probablement • L’incertitude = 1 déviation standard

Incertitude Quelle est la signification de: – G = (6, 67428 ± 0, 00067)

Incertitude Quelle est la signification de: – G = (6, 67428 ± 0, 00067) × 10 -11 m 3 kg-1 s-2 – me = (9, 10938215 × 10 -31 kg) ± 50 ppb – L’incertitude = une déviation standard – La probabilité que la vraie valeur soit dans cet intervalle est de 68%

Exemple de mesures • Fréquence d’un pendule (~ 1 s) • Chronomètre très précis

Exemple de mesures • Fréquence d’un pendule (~ 1 s) • Chronomètre très précis (~ 1 s par an) • À quelle précision puis-je mesurer la période ? – quelques dixièmes de seconde • L’histogramme présente une fluctuation • Je peux moyenner sur plusieurs périodes

Exemple de mesures • Fréquence de ma respiration • Même précision de mesure que

Exemple de mesures • Fréquence de ma respiration • Même précision de mesure que précédemment • L’histogramme est plus large • Le phénomène présente plus de variabilité que la précision de la mesure • Je peux moyenner

Est-ce la meilleure façon de mesurer la période ?

Est-ce la meilleure façon de mesurer la période ?

Non • Je compte 100 périodes ~ 100 s ± 0, 2 s •

Non • Je compte 100 périodes ~ 100 s ± 0, 2 s • Plus facile et plus précis qu’avec plusieurs mesures • 100 mesures de ~2 s à ± 0, 2 s donnent –

Incertitude relative ou fractionnaire – G = (6, 67428 ± 0, 00067) × 10

Incertitude relative ou fractionnaire – G = (6, 67428 ± 0, 00067) × 10 -11 m 3 kg-1 s-2 – G = 6, 67428 × 10 -11 m 3 kg-1 s-2 – d. G = 0, 00067 × 10 -11 m 3 kg-1 s-2 – d. G/G = 0, 00067/ 6, 67428 = 10 -4 = 0, 01 % – me = (9, 10938215 × 10 -31 kg) ± 50 ppb – d me / me = 5 × 10 -8 – d me = 4, 6 × 10 -38 kg

Propagation des incertitudes Additions et soustractions • a=9± 3 • b=7± 2 a entre

Propagation des incertitudes Additions et soustractions • a=9± 3 • b=7± 2 a entre 6 et 12 b entre 5 et 9 • s = a + b = 16 ± 5 car s entre 11 et 21 • d = a - b = 2 ± 5 car d entre -3 et 7

Propagation des incertitudes Produits et quotients • a = 29 ± 3 • b

Propagation des incertitudes Produits et quotients • a = 29 ± 3 • b = 37 ± 2 a entre 26 et 32 b entre 35 et 39 • ab = 1073 et est entre 910 et 1248

Propagation d’incertitudes pour une somme • Soit 2 mesures x ± dx et y

Propagation d’incertitudes pour une somme • Soit 2 mesures x ± dx et y ± dy • z=x+y • • dz = dx + dy (provisoire) La règle est provisoire car on exagère un peu x ± dx contient ~68% y ± dy contient ~68% z ± dz contient ~90%, ce qui surévalue dz

Propagation d’incertitudes pour un produit • a = 29 ± 3 • b =

Propagation d’incertitudes pour un produit • a = 29 ± 3 • b = 37 ± 2 • z = ab = 1073 ± 169

Propagation d’incertitudes pour un quotient • z=a/b • On trouve le même résultat :

Propagation d’incertitudes pour un quotient • z=a/b • On trouve le même résultat : (règle provisoire)

 • Ajouter ou soustraire un nombre exact ne change pas l’incertitude absolue •

• Ajouter ou soustraire un nombre exact ne change pas l’incertitude absolue • a = 7, 3 ± 0, 2 • b=4 • a + b = 11, 3 ± 0, 2 • Multiplier ou diviser par un nombre exact ne change pas l’incertitude relative • 4 x (7, 3 ± 0, 2) = 29, 2 ± 0, 8

Puissance • et on additionne les incertitudes relatives • a une incertitude 4 fois

Puissance • et on additionne les incertitudes relatives • a une incertitude 4 fois celle de a • ça ressemble à une dérivée

Règle générale (ou presque)

Règle générale (ou presque)

Incertitudes indépendantes • z=x+y • dz = dx + dy surestime l’incertitude sur z

Incertitudes indépendantes • z=x+y • dz = dx + dy surestime l’incertitude sur z si les dx et dy sont indépendants • l’erreur sur x a autant de chance d’être + ou • l’erreur sur y a autant de chance d’être + ou -

Propagation d’incertitudes

Propagation d’incertitudes

Incertitudes indépendantes • x et y sont des variables indépendantes • Et dx et

Incertitudes indépendantes • x et y sont des variables indépendantes • Et dx et dy sont des erreurs indépendantes • Leurs effets s’additionnent quadratiquement

Incertitudes indépendantes pour des incertitudes indépendantes

Incertitudes indépendantes pour des incertitudes indépendantes

Propagation d’erreurs (sans corrélations)

Propagation d’erreurs (sans corrélations)

Probabilités et Statistiques

Probabilités et Statistiques

Probabilité • Probabilité qu’un événement X se produise Où N = nombre d’essais

Probabilité • Probabilité qu’un événement X se produise Où N = nombre d’essais

Probabilité • On lance un dé • 6 résultats possibles • Chaque résultat a

Probabilité • On lance un dé • 6 résultats possibles • Chaque résultat a un pi = 1/6 Normalisation

Complément • p = la probabilité que X se produise • 1 - p

Complément • p = la probabilité que X se produise • 1 - p = la probabilité que X ne se produise pas • q = 1 - p est le complément de p

Calcul de la probabilité • 1) Calculez le nombre total de combinaisons N, supposées

Calcul de la probabilité • 1) Calculez le nombre total de combinaisons N, supposées équiprobables • 2) Calculez le nombre de ces combinaisons qui représentent un succès S • 3) p = S/N

Calcul de probabilité • Probabilité de tirer 3 avec 1 dé • 1) N

Calcul de probabilité • Probabilité de tirer 3 avec 1 dé • 1) N = 6 possibilités • 2) S = 1 seule bonne combinaison • 3) p = 1/6

Calcul de probabilité • Probabilité de tirer une somme de 4 avec 2 dés

Calcul de probabilité • Probabilité de tirer une somme de 4 avec 2 dés • 1) N = 6 x 6 = 36 possibilités • 2) S = 3 (1, 3) (2, 2) (3, 1) • 3) p = 3/36 = 1/12

Calcul de probabilité • Probabilité de tirer une somme de 7 avec 2 dés

Calcul de probabilité • Probabilité de tirer une somme de 7 avec 2 dés • 1) N = 36 • 2) S = 6 (énumérez les) • 3) p = 6/36 = 1/6

Distribution de probabilité • Indique la probabilité de succès pour chaque type d’événement •

Distribution de probabilité • Indique la probabilité de succès pour chaque type d’événement • Se présente sous forme graphique

Distribution pour 1 dé

Distribution pour 1 dé

Somme de 2 dés

Somme de 2 dés

Distributions • Propriétés des distributions – Moyenne, mode, médiane – Valeur attendue – Moments

Distributions • Propriétés des distributions – Moyenne, mode, médiane – Valeur attendue – Moments • Distributions de probabilité particulières – Binôme, Gauss, Poisson, . . .

2 types de distributions • Distributions discrètes • Distributions continues

2 types de distributions • Distributions discrètes • Distributions continues

Distributions discrètes (comme on a déjà vu) – P(xi) > 0 pour des xi

Distributions discrètes (comme on a déjà vu) – P(xi) > 0 pour des xi discrets – P(xi) = 0 partout ailleurs

Somme de 2 dés

Somme de 2 dés

Distributions continues • Le nombre de résultats permis est • Chaque résultat a une

Distributions continues • Le nombre de résultats permis est • Chaque résultat a une probabilité = 0 • On définit la densité de probabilité f(x) dx = probabilité de trouver le résultat entre x et x + dx Normalisation:

Distribution continue

Distribution continue

Mode • Valeur la plus probable = 7 pour la somme de 2 dés

Mode • Valeur la plus probable = 7 pour la somme de 2 dés Non défini pour un dé Non défini pour pile ou face

Médiane • Point qui sépare la distribution en 2 moitiés égales • = 7

Médiane • Point qui sépare la distribution en 2 moitiés égales • = 7 pour la somme de 2 dés • = 3, 5 pour un dé (ou toute valeur entre 3 et 4)

Moyenne • Ou valeur attendue • Discrète : • Continue :

Moyenne • Ou valeur attendue • Discrète : • Continue :

Pour une distribution symétrique • Moyenne = Mode = Médiane

Pour une distribution symétrique • Moyenne = Mode = Médiane

Valeur estimée • Moyenne = – est la valeur attendue (ou estimée) de x

Valeur estimée • Moyenne = – est la valeur attendue (ou estimée) de x – Notée • La moyenne de x est la valeur estimée de x • La valeur attendue de toute fonction f(x) est

Normalisation La normalisation représente la valeur attendue de 1 qui est bien sûr égale

Normalisation La normalisation représente la valeur attendue de 1 qui est bien sûr égale à 1

Propriétés de la valeur attendue

Propriétés de la valeur attendue

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans la bonne enveloppe? Xi= 0 ou 1 selon que la lettre i est dans la bonne enveloppe ou non

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans la bonne enveloppe? Xi= 0 ou 1 selon que la lettre i est dans la bonne enveloppe ou non Quel que soit N, il y a en moyenne 1 lettre dans la bonne enveloppe

Moments • Différentes distributions peuvent avoir la même moyenne mais être différentes

Moments • Différentes distributions peuvent avoir la même moyenne mais être différentes

Moments • On peut représenter une distribution par l’ensemble de ses moments Normalisation Moyenne

Moments • On peut représenter une distribution par l’ensemble de ses moments Normalisation Moyenne . . .

Moments centrés • On soustrait la moyenne pour recentrer Normalisation Moyenne recentrée = 0

Moments centrés • On soustrait la moyenne pour recentrer Normalisation Moyenne recentrée = 0 Variance = s . . .

Écart-type • Représente la largeur de la distribution s = Écart quadratique moyen =

Écart-type • Représente la largeur de la distribution s = Écart quadratique moyen = Déviation moyenne

Mesure et incertitude • Je mesure une quantité 5 fois • x = 17,

Mesure et incertitude • Je mesure une quantité 5 fois • x = 17, 16, 18, 17, 18 • Quelle est la valeur probable de x et son incertitude ?

Probabilité de N événements • Obtenir 25 piles en 35 lancers • Obtenir 30

Probabilité de N événements • Obtenir 25 piles en 35 lancers • Obtenir 30 fois 6 en 100 lancers • Que 10 noyaux de radium se désintègrent en 5 minutes • Que la bactérie se divise 20 fois en 1 heure • Que 8 de vos 10 mesures soient dans un certain intervalle

Distribution binômiale • On lance un dé 100 fois • La valeur attendue du

Distribution binômiale • On lance un dé 100 fois • La valeur attendue du nombre de 6 est ~17 • Quelle est la probabilité de tirer r fois 6 ?

 • Toutes les séries (a 1, a 2, . . . , a

• Toutes les séries (a 1, a 2, . . . , a 100) sont équiprobables • La probabilité de 6 à chaque case est p = 1/6 • Chaque combinaison de r succès et n- r échecs a une probabilité • Il y a combinaisons de r succès Probabilité pour r succès et n- r échecs =

Désintégration radioactive • 1 g de radium = 2, 7*1021 atomes = 1 Ci

Désintégration radioactive • 1 g de radium = 2, 7*1021 atomes = 1 Ci = 1, 7*1010 désintégrations/s • Demi-vie = 5, 26 *108 min ~ 1000 ans • Probabilité qu’un atome donné se désintègre dans les 5 minutes est faible p ~ 10 -8 • µ = np = 5*1012 désintégrations en 5 minutes

 • Probabilité de r désintégrations = Mais n! est impossible à calculer n

• Probabilité de r désintégrations = Mais n! est impossible à calculer n est très grand p est très petit np = µ est fini On remplace p par µ/n

Distribution de Poisson

Distribution de Poisson

n = 10, p = 0, 5 µ=5 n = 100, p = 0,

n = 10, p = 0, 5 µ=5 n = 100, p = 0, 05 µ=5

Propriétés de la distribution de Poisson • Normalisation • Écart-type

Propriétés de la distribution de Poisson • Normalisation • Écart-type

Rayons cosmiques • • 180 rayons cosmiques / (m 2 min) Combien en passe-t-il

Rayons cosmiques • • 180 rayons cosmiques / (m 2 min) Combien en passe-t-il en 10 secondes ? µ = 180*10/60 = 30 On peut prédire qu’il passera rayons cosmiques en 10 secondes

Distributions de Poisson • • • Nombre de fautes de frappe dans une page

Distributions de Poisson • • • Nombre de fautes de frappe dans une page Nombre d’individus vivant plus de 100 ans Nombre de a émis par une source Nombre d’incendies à Montréal par semaine Nombre de gens tirant le numéro gagnant

Additivité • x obéit à • y obéit à • Alors, z = x

Additivité • x obéit à • y obéit à • Alors, z = x + y obéit à

Additivité • x obéit à • y obéit à • Alors, z = x

Additivité • x obéit à • y obéit à • Alors, z = x + y obéit à

Distribution gaussienne • La distribution de Poisson est asymétrique • Mais devient plus symétrique

Distribution gaussienne • La distribution de Poisson est asymétrique • Mais devient plus symétrique pour µ grand • Pour µ>30, la distribution est symétrique

Distribution gaussienne • • • Abraham de Moivre 1733 Distribution continue de Maximum en

Distribution gaussienne • • • Abraham de Moivre 1733 Distribution continue de Maximum en x = µ Forme en cloche D’application très générale à – Théorème de la limite centrale • Approximation de pour µ grand

Distribution gaussienne • • Taille des individus QI Incertitudes Vitesse des molécules

Distribution gaussienne • • Taille des individus QI Incertitudes Vitesse des molécules

Distribution gaussienne • 2 paramètres : µ et s • Symétrique autour de µ

Distribution gaussienne • 2 paramètres : µ et s • Symétrique autour de µ

Additivité • x obéit à • y obéit à • Alors, z = x

Additivité • x obéit à • y obéit à • Alors, z = x + y obéit à

Distribution normale • Distribution gaussienne • µ=0 s=1 Fonction tabulée Fonction standard

Distribution normale • Distribution gaussienne • µ=0 s=1 Fonction tabulée Fonction standard

Distribution normale

Distribution normale

Largeur à mi-hauteur

Largeur à mi-hauteur

Distribution gaussienne

Distribution gaussienne

Fonction erreur erf(x)

Fonction erreur erf(x)

Fonction erreur

Fonction erreur

Théorème de la limite centrale • Sans démonstration • Indique pourquoi tant de phénomènes

Théorème de la limite centrale • Sans démonstration • Indique pourquoi tant de phénomènes obéissent à une distribution gaussienne

Théorème de la limite centrale • Soit xi i = 1, . . .

Théorème de la limite centrale • Soit xi i = 1, . . . , n n variables indépendantes • Les xi obéissent à des distributions caractérisées par des µi et des si • Alors, est distribuée selon une • gaussienne avec

Lorentz • Pas de lien avec les autres distributions • Phénomènes de résonance •

Lorentz • Pas de lien avec les autres distributions • Phénomènes de résonance • Circuits RLC

Lorentz • s est infini • On utilise G

Lorentz • s est infini • On utilise G

Lorentz

Lorentz