You are on page 1of 129

Probabilits et Statistique

Jean-Michel JOLION Dpartement Gnie Industriel1


Sommaire Probabilits o Notions de probabilits o Analyse combinatoire (rappels) Factorielle Arrangements de p objets parmi n Permutations Combinaisons de p parmi n Rptitions o Epreuves et Evnements o Espace probabilis Axiomatique de Kolmogorov Proprits lmentaires o Probabilit conditionnelle - Thorme de Bayes Thorme des probabilits composes Consquences Thorme de Bayes - Probabilits des causes o Le paradoxe de Bertrand

Variables alatoires o Variable alatoire : dfinitions o Fonction de rpartition Dfinition Proprits Fonction de rpartition d'une v.a. discrte o Fonction de rpartition d'une v.a. continue o Couple de variables alatoires Dfinitions Cas d'un couple de v.a. continues Cas d'un couple de v.a. discrtes Distribution conditionnelle o Loi d'une fonction d'une ou plusieurs variables alatoires Transformation d'une variable alatoire Densit de probabilit d'une somme de V.A. indpendantes o Moyenne et esprance mathmatique d'une v.a. Notion de moyenne pour une v.a. discrte Esprance mathmatique o Moments Dfinitions Quelques moments particuliers

o o

Variance, covariance et cart-type Variable centre rduite Coefficient de corrlation Exemple Ingalits de Bienaym - Tchebyshev - Markov Quelques lois de probabilits Les valeurs principales Liaisons entre lois de probabilits Quelques relations Loi des grands nombres Convergence stochastique Thorme central limite Simulation d'une variable alatoire Mthode gnrale par transformation inverse Loi uniforme Loi exponentielle Loi binomiale Loi de Poisson Loi normale : Autres indicateurs Histogramme Mdiane Mode Autres moyennes

Estimation o Estimation ponctuelle Introduction Estimateur convergent Estimateur sans biais Estimateur efficace Robustesse o Mthode du maximum de vraisemblance o Estimation par intervalle de confiance Estimation d'une proportion Estimation d'une moyenne Estimation d'une variance o Estimation robuste Interprtation de donnes: l'approche baysienne Le traitement de l'a priori Le traitement de l'a posteriori Le cas monodimensionnel Le cas gnral Estimation itrative o Rgression linaire Formalisation Rsolution dans le cas d'une distribution normale des carts

o o o

Le cas de la droite Intervalle de confiance sur le coefficient de corrlation Filtre de Kalman Estimation d'un mode Estimation d'une densit

Tests d'hypothse o Introduction Hypothses et erreurs Tests bilatral et unilatral Rgion d'acceptation et rgion critique Choix d'un test Influence de l'chantillonnage o Test entre deux hypothses simples La mthode de Neyman et Pearson Test de la moyenne d'une loi normale d'cart-type connu Test de la moyenne d'une loi normale d'cart-type inconnu Test d'une variance de loi normale, la moyenne tant connue Test d'une variance de loi normale, la moyenne tant inconnue Test d'une proportion o Test entre hypothses composes Tests UMP Test d'une moyenne de loi normale, l'cart-type tant connu Test d'une moyenne de loi normale, l'cart-type tant inconnu Test d'une variance de loi normale, la moyenne tant connue Test d'une variance de loi normale, la moyenne tant inconnue Test d'une proportion o Test de comparaison Comparaison de deux moyennes Comparaison de deux variances Comparaison de deux proportions o Test du rapport des vraisemblances maximales o Test d'adquation Test du Test de Kolmogorov Test de Cramer-Von Mises Test d'indpendance Test des diffrences premires Test de Spearman Test de comparaison d'chantillons Test des variances de Fisher-Sndcor Test de Student Test de Spearman Analyse de la variance Les donnes de l'analyse Le test Analyse des contrastes

Le Contrle Statistique de Process: SPC o Introduction o Capabilit d'un processus Etude de la capabilit des processus Indicateurs gnraliss Les cartes de contrle o #1

Tables
o o o o

Fonction de rpartition de la loi normale centre rduite Fractiles de la loi normale centre rduite Fractiles de la loi du degrs de libert ayant la probabilit

Valeurs de la variable de Fisher-Sndcor d'tre dpasses Valeurs de la variable de Fisher-Sndcor d'tre dpasses

ayant la probabilit

o o o o o

Valeurs de la variable de Fisher-Sndcor ayant la probabilit d'tre dpasses Table de distribution de (Loi de Student) Table du coefficient de corrlation des rangs de Spearman de deux variables alatoires indpendantes Fonction de rpartition de la statistique de Cramer-Von Mises Table du test de Kolmogorov-Smirnov

Exercices o Probabilits o Variables alatoires o Estimation o Tests d'hypothses o SPC o Sujets gnraux Problme 1 Problme 2 Problme 3 Problme 4

Sommaire

Probabilits o Notions de probabilits o Analyse combinatoire (rappels) o Epreuves et Evnements o Espace probabilis o Probabilit conditionnelle - Thorme de Bayes o Le paradoxe de Bertrand

Variables alatoires o Variable alatoire : dfinitions o Fonction de rpartition o Fonction de rpartition d'une v.a. continue o Couple de variables alatoires o Loi d'une fonction d'une ou plusieurs variables alatoires o Moyenne et esprance mathmatique d'une v.a. o Moments o Quelques lois de probabilits o Quelques relations o Loi des grands nombres o Simulation d'une variable alatoire o Autres indicateurs

Estimation o Estimation ponctuelle o Mthode du maximum de vraisemblance o Estimation par intervalle de confiance o Estimation robuste o Rgression linaire o Filtre de Kalman o Estimation d'un mode o Estimation d'une densit

Tests d'hypothse o Introduction o Test entre deux hypothses simples o Test entre hypothses composes o Test de comparaison o Test du rapport des vraisemblances maximales o Test d'adquation o Test d'indpendance o Test de comparaison d'chantillons

Analyse de la variance

Le Contrle Statistique de Process: SPC o Introduction o Capabilit d'un processus o #1

Tables
o o o o o o o o o o

Fonction de rpartition de la loi normale centre rduite Fractiles de la loi normale centre rduite Fractiles de la loi du degrs de libert Valeurs de la variable de Fisher-Sndcor ayant la probabilit d'tre dpasses Valeurs de la variable de Fisher-Sndcor ayant la probabilit d'tre dpasses Valeurs de la variable de Fisher-Sndcor ayant la probabilit d'tre dpasses Table de distribution de (Loi de Student) Table du coefficient de corrlation des rangs de Spearman de deux variables alatoires indpendantes Fonction de rpartition de la statistique de Cramer-Von Mises Table du test de Kolmogorov-Smirnov

Exercices o Probabilits o Variables alatoires o Estimation o Tests d'hypothses o SPC o Sujets gnraux

Bibliographie Bibliography

Introduction Ce polycopi est un support du cours de ``Probabilits-Statistique'' de 3me anne du dpartement Gnie Industriel de l'INSA de Lyon. Il regroupe les lments fondamentaux vus dans ce cours. Il couvre plus que ce qui est rellement abord en cours car il a galement vocation introduire des concepts plus avancs (comme les statistiques robustes ou la matrise des systmes) en termes de culture gnrale. Il n'existe pas de recueil des annales des examens des annes prcdentes car les exercices et problmes figurant dans ces examens sont introduits chaque anne dans la nouvelle liste des exercices fournies en fin de polycopi, avec le plus souvent des lements de correction.

Le contenu de ce polycopi n'engage que son auteur, dans le cadre de ce cours de l'INSA de Lyon. Toute reproduction partielle ou totale, pour toute utilisation est assujtie la demande formule auprs de l'auteur. Une version lectronique est disponible sur le site web http://rfv.insalyon.fr/ jolion/STAT/poly.html

Jean-Michel Jolion 2006-05-27

Probabilits
Subsections

Notions de probabilits Analyse combinatoire (rappels) o Factorielle o Arrangements de p objets parmi n o Permutations o Combinaisons de p parmi n o Rptitions

Epreuves et Evnements Espace probabilis o Axiomatique de Kolmogorov o Proprits lmentaires

Probabilit conditionnelle - Thorme de Bayes o Thorme des probabilits composes o Consquences o Thorme de Bayes - Probabilits des causes

Le paradoxe de Bertrand

Jean-Michel Jolion 2006-05-27

Notions de probabilits
Il existe plusieurs manires de dfinir une probabilit. Principalement, on parle de probabilits inductives ou exprimentales et de probabilits dductives ou thoriques. On peut les dfinir comme suit : Probabilit exprimentale ou inductive : la probabilit est dduite de toute la population concerne. Par exemple, si sur une population d'un million de naissances, on constate 530000 garons et 470000 filles, on dit que P[garon] = 0.53 Probabilit thorique ou dductive : cette probabilit est connue grce l'tude du phnomne sous-jacent sans exprimentation. Il s'agit donc d'une connaissance a priori par opposition la dfinition prcdente qui faisait plutt rfrence une notion de probabilit a posteriori. Par exemple, dans le cas classique du d parfait, on peut dire, sans avoir jeter un d, que P["obtenir un 4"] = .

Comme il n'est pas toujours possible de dterminer des probabilits a priori, on est souvent amen raliser des expriences. Il faut donc pouvoir passer de la premire la deuxime solution. Ce passage est suppos possible en terme de limite (i.e. avec une population dont la taille tend vers la taille de la population relle).

Analyse combinatoire (rappels)

Subsections

Factorielle Arrangements de p objets parmi n Permutations Combinaisons de p parmi n Rptitions

Factorielle
Si une action peut tre obtenue de faons diffrentes, puis suivant cette action, de faons diffrentes indpendantes des prcdentes, puis ...alors, le nombre de possibilits correspondant l'ensemble de ces actions est

On appelle factorielle n et l'on note n! le nombre :

On peut aussi dfinir la factorielle grce la fonction

qui a les proprits suivantes :

pour n entier et

La formule de Stierling permet de construire une estimation de la factorielle trs valable pour :

Jean-Michel Jolion 2006-05-27

Arrangements de p objets parmi n

Nombre de possibilits de ranger p objets choisis parmi n : .

Permutations
Arrangement de objets parmi en tenant compte de l'ordre : .

Par exemple, il y a , ,

permutations possibles de , .

symboles

Combinaisons de p parmi n

On ne tient pas compte de l'ordre des objets dans le rangement : .

La notation anglosaxonne pour les combinaisons est un peu diffrente : Proprits :

Rptitions
Soient n objets dont on dispose une infinit d'exemplaires. On en choisit p parmi ces n classes d'objets. Il peut donc y avoir rptitions du mme objet. Dans ce cas, on obtient de nouveaux indicateurs :

Toujours dans le mme contexte, on cherche le nombre de possibilit d'avoir a fois le 1er objet, b fois le 2me objet, ...k fois le nme objet. Le nombre de permutations est donn par :

Epreuves et Evnements
Une exprience est dite alatoire si ses rsultats ne sont pas prvisibles avec certitude en fonction des conditions initiales. On appelle preuve la ralisation d'une exprience alatoire. On appelle vnement la proprit du systme qui une fois l'preuve effectue est ou n'est pas ralise.

Exemple : Soient l'exprience alatoire "lancer deux ds discernables" (et non pips si l'on veut vraiment une exprience alatoire) et l'vnement A "obtenir un total des nombres ". A se ralise pour les preuves (6,5), (5,6), (6,6). Correspondance entre les oprateurs logiques et les ensembles (la relation liant ces notations est un isomorphisme, on peut donc employer n'importe laquelle). Logique tat du systme vnement A vnement certain vnement impossible vnement contraire ou Ensemble lment partie espace entier partie vide partie complmentaire

l'vnement B entraine l'vnement A A et B vnements incompatibles parties disjointes A ou B (ou non exclusif) runion somme ou exclusif intersection

A partir de ces notions, on peut prciser le calcul de probabilits d'un vnement A :

probabilit thorique :

. Cette approche probabilit exprimentale : (aussi appelle approche frquentiste) ne permet pas de donner une valeur ni mme un sens

la probabilit d'un vnement non rptable du genre "neigera-t-il le 25 octobre 2990" ce qui limite de fait le champ d'application du calcul des probabilits. Pour les frquentistes, seules ont un sens les probabilits calcules a posteriori sur la base de la rptition d'un grand nombre d'vnements identiques; pour les subjectivistes, au contraire, la notion de probabilit a priori, valuable en fonction d'un sentiment individuel d'incertitude, peut avoir un sens.

Espace probabilis
Subsections

Axiomatique de Kolmogorov Proprits lmentaires

Axiomatique de Kolmogorov
A chaque vnement, on associe un nombre positif compris entre 0 et 1, sa probabilit. Afin d'viter toute discussion sur cette notion, la thorie moderne des probabilits repose sur l'axiomatique suivante : Dfinition 1 On appelle probabilit sur ( parties de , ) (o est l'ensemble des vvements et de dans une classe de

), ou loi de probabilit, une application

telle que :

- pour tout ensemble dnombrable d'vnements incompatibles . Dfinition 2 On appelle espace probabilis le tripl ( , , ) on a

Une loi de probabilit n'est donc rien d'autre qu'une mesure positive de masse totale 1. On peut donc relier la thorie des probabilits celle de la mesure.

Proprits lmentaires
De l'axiomatique de Kolmogorov, on peut dduire les proprits suivantes :

Proprit 1 :

Proprit 2 :

Proprit 3 :

Proprit 4 :

Proprit 5 : deux deux incompatibles.)

(Il n'y a stricte galit que si les vnements

sont

Proprit 6 : Continuit monotone squentielle.

Proprit 7 : Thorme des probabilits totales : Soit d'vnements (i.e. tel que constitue une partition de ).

un systme complet

Remarque :

. De mme,

Probabilit conditionnelle - Thorme de Bayes


Subsections

Thorme des probabilits composes Consquences Thorme de Bayes - Probabilits des causes

Thorme des probabilits composes


Soient deux vnements A et B raliss respectivement On a donc et et fois au cours de preuves. fois,

. Si de plus A et B sont raliss simultanment

on a . Que peut-on dduire sur la probabilit de l'vnement B sachant que l'vnement A est ralis ? Cette probabilit est appelle probabilit conditionnelle de B sachant A et se note . Dans notre cas, on a .

Par dfinition, on a

et

Consquences
Deux vnements A et B sont dits indpendants si ou encore si

(l'information sur la ralisation de A n'apporte rien l'vnement B) et . Attention :

1) indpendant

incompatible.

2)

et

sont indpendants uniquement si vous pouvez

prouver que thoriquement. En pratique, i.e. sur des valeurs numriques, on ne peut pas induire l'indpendance partir de cette galit constate numriquement. On ne peut que supposer trs probable cette indpendance. Si deux vnements , et . et sont indpendants, alors il en est de mme de et , et

Soit

, ...,

une suite d'vnements ayant une intersection commune non nulle, i.e. , on a alors

Thorme de Bayes - Probabilits des causes


Soit un vnement qui peut dpendre de causes diffrentes et incompatibles deux deux (on ne peut avoir deux causes ralises simultanment). Etant donne la ralisation de l'vnement , quelle est la probabilit que ce soit qui en soit la cause ?

On peut crire que car constitue un systme complet (les causes sont incompatibles deux deux et toutes les causes possibles sont supposes connues). Donc d'aprs le thorme des probabilits totales, on a En appliquant le thorme des probabilits conditionnelles, on a .

donc

Exemple : Deux machines produit

et

produisent respectivement 100 et 200 objets. en produit ? . Quelle est la probabilit pour qu'un

de pices dfectueuses et

objet dfectueux ait t fabriqu par la machine L'vnement constat, machines et

, est donc la prsence d'une pice dfectueuse et les causes sont les et

. Compte tenu des productions de ces machines, on a

. De plus, les probabilits conditionnelles de l'vnement

selon les machines

sont gnrale, on obtient

et

. En reportant ces valeurs dans la formule

Le paradoxe de Bertrand
Ce paradoxe est un exemple classique permettant de mesurer la limite des dfinitions de probabilits. Considrons un triangle quilatral et son cercle circonscrit. On tire une corde au hasard. Quelle est la probabilit que sa longueur soit suprieure celle du ct du triangle ? On doit Renyi les remarques suivantes : Premire solution. Comme la longueur de la corde est dtermine par la position de son milieu, le choix de la corde peut consister marquer un point au hasard l'intrieur du cercle. La probabilit pour que la corde soit plus longue que le ct du triangle quilatral inscrit est alors gale la probabilit pour que le milieu de la corde soit intrieur au cercle inscrit dans ce triangle qui est de rayon moiti. Si on admet que la rpartition de ce point est uniforme dans le cercle, on trouve pour la probabilit demande :

Deuxime solution. La longueur de la corde est dtermine par la distance de son milieu au centre du cercle. Par raison de symtrie, nous pouvons considrer que le milieu de la corde est pris sur un rayon donn du cercle et supposer que la rpartition de ce point sur le rayon est uniforme. La corde sera plus longue que le ct du triangle quilatral inscrit si son milieu est une distance du centre infrieure r/2; la probabilit recherche est alors 1/2. Troisime solution. Par raison de symtrie, nous pouvons supposer qu'on a fix une des extrmits de la corde en . L'autre sera choisie au hasard sur la circonfrence. Si on admet que la probabilit que l'autre extrmit tombe sur un arc donn de la circonfrence est proportionnelle la longueur de cet arc, la corde est plus grande que le ct du triangle ) dont la longueur

(tel que quilatral inscrit quand P se trouve sur l'arc est le 1/3 de celle de la circonfrence; la probabilit est donc de 1/3.

Il est clair que les trois hypothses de rpartition sont galement ralisable. Il n'y a pas cependant de rel paradoxe car il s'agit simplement d'un choix de conditions exprimentales de tirage des cordes qui conduisent des vnements diffrents. Pour en savoir plus : http://www-ensps.ustrasbg.fr/enseignants/harthong/Hist/BERTRAND.HTM

Variable alatoire : dfinitions


Une variable alatoire (V.A.) est une application de l'ensemble des preuves dans le corps des rels. Elle est caractrise par l'ensemble des probabilits associes tous ses tats possibles. Dfinition 1 Tout ensemble de parties d'un ensemble complmentarit s'appelle une tribu sur . , stable par runion, intersection et

Soit une tribu de parties de . Le couple mesurable et est l'ensemble des vnements.

s'appelle un espace probabilisable ou

Si peut tre muni d'une topologie, alors la tribu engendre par la classe des ouverts de appelle tribu borlienne.

est

Dfinition 2 Une variable alatoire est une application mesurable d'un espace probabilis ( , , ) dans le corps des rels muni de sa tribu borlienne ( , ) (i.e. ensemble des intervalles de la forme ). ), on dfinit une loi de probabilit de X sur

Dfinition 3 Pour tout borlien B (i.e. ( , ) et l'on note :

Dfinition 4 Une v.a. Dans ce cas, particulires Dfinition 5 Une v.a. forme ,

est discrte si Card[

] est fini ou dnombrable.

ne peut prendre, avec une probabilit non nulle, qu'un nombre fini de valeurs . On note gnralement les probabilits par est continue si elle peut prendre toute valeur sur un segment de la , , et telle que . .

Dfinition 6 Une v.a. et 3)

est mixte si 1)

, 2)

Fonction de rpartition

Subsections

Dfinition Proprits Fonction de rpartition d'une v.a. discrte

Dfinition

La fonction de rpartition (FR) d'une v.a.

est l'application

de

dans

dfinie par

Proprits
est non dcroissante. est continue gauche. est continue droite dans le cas des v.a. continues.

et

Fonction de rpartition d'une v.a. continue


Soit une v.a. continue. Sa fonction de rpartition est continue gauche et droite. Il existe telle que l'on puisse crire : donc une fonction

Par dfinition, est appelle densit de probabilit de fonction a les proprits suivantes :

, ou en abrg, ddp de

. Cette

Couple de variables alatoires

Subsections

Dfinitions Cas d'un couple de v.a. continues Cas d'un couple de v.a. discrtes Distribution conditionnelle

Dfinitions
Soient et deux v.a. dfinies sur le mme espace probabilis. On appelle fonction de rpartition conjointe de et , la fonction dfinie par :

On a par dfinition,

et

Cas d'un couple de v.a. continues


On note la ddp conjointe de et et l'on a par dfinition :

avec les proprits suivantes :

On peut galement dfinir une fonction de rpartition marginale de (idem pour ,

, note ).

par

Cas d'un couple de v.a. discrtes On note .

Distribution conditionnelle
Soient et deux v.a. continues de FR conjointe et de ddp conjointe ? . Comment peut-

on valuer la probabilit conditionnelle

On dfinit la fonction de rpartition conditionnelle

par

et la densit de probabilit conditionnelle

par

Si les deux v.a. sont indpendantes, alors on a

Loi d'une fonction d'une ou plusieurs variables alatoires


Dans la pratique, on est souvent amen manipuler des variables alatoires qui sont des transformations ou des combinaisons de variables alatoires connues. C'est pourquoi on dispose de rgles de passage d'une loi une autre, pour des transformations simples.

Subsections

Transformation d'une variable alatoire Densit de probabilit d'une somme de V.A. indpendantes

Transformation d'une variable alatoire


Transformation d'une loi discrte Soit v.a. est dfinie par : une v.a. discrte de loi . Alors, la loi de la

dsigne la fonction rciproque de

. une v.a. continue dont la loi admet la densit de

Transformation d'une loi continue Soit probabilit et

une fonction monotone et drivable. Alors, la densit de la loi de la v.a.

est dfinie par :

dsigne la fonction rciproque de

On peut par ces proprits montrer en particulier que la v.a. de rpartition de la loi de la v.a. , suit une loi uniforme sur l'intervalle

est la fonction .

Exemple : Soit . On a En application de la proprit prcdente, on obtient

et donc

Densit de probabilit d'une somme de V.A. indpendantes

Soient

et

deux v.a. continues de ddp de la v.a.

et dfinie par

. Si

et

sont indpendantes, alors est donne par

la densit de probabilit

Cette proprit se gnralise quel que soit le nombre de variables dans la somme. On peut aussi additionner des variables alatoires discrtes. Soient et dfinie par : deux v.a. discrtes valeurs dans et . La loi de est

En particulier, si

et

sont indpendantes, on a :

On peut aussi passer par les proprits de l'oprateur esprance mathmatique (voir section suivante).

Moyenne et esprance mathmatique d'une v.a.

Subsections

Notion de moyenne pour une v.a. discrte Esprance mathmatique

Notion de moyenne pour une v.a. discrte


Soit une v.a. discrte prenant ses valeurs dans . , et l'on et dont les probabilits

associes sont

Par dfinition, on appelle moyenne thorique ou esprance mathmatique de note , la valeur .

On ne connait cette v.a. que par le moyen d'un chantillon de taille est significatif par rapport au nombre de valeurs possible, vnement se ralise fois dans l'chantillon (

(dont on supposera qu'il ). Chaque

, de la v.a., i.e. ).

La moyenne exprimentale est dfinit par

Si on admet que la proportion tend vers la propabilit thorique pour un chantillon de taille infinie ( ) alors on peut estimer la moyenne thorique par la limite de la moyenne exprimentale.

Esprance mathmatique
Soit une v.a. On dfinit l'esprance mathmatique de et l'on note la valeur

est la fonction de rpartition de

Cette intgrale est dite au sens de Stieljes. Soit une v.a. dfinie sur . On peut discrtiser la v.a. en introduisant une nouvelle v.a. discrte en dcoupant l'intervalle en intervalles tels que

et donc

Grce un chantillon de taille

, on peut calculer une moyenne exprimentale de si (

( . Si de

) qui tend vers la moyenne thorique plus, on dcoupe en une infinit d'intervalles de la forme obtient la moyenne thorique de la v.a. par

), alors on

Remarque : L'esprance mathmatique n'est pas toujours dfinie. C'est en particulier le cas de la loi de Cauchy dont la ddp est donne par diverge. car l'intgrale

Proprits : Les proprits de l'esprance mathmatique proviennent de celle de l'oprateur intgral et en particulier la linarit. Soit une v.a. et une constante.

Soient

et

deux v.a. et

et

deux constantes.

Plus gnralement, pour toute fonction

, positive, continue, support compact

Exemple : Soient

et

deux v.a. continues indpendantes de mme loi . On a donc

. On souhaite

trouver la loi de la variable alatoire

Les deux variables tant indpendantes, on a changement de variables suivant :

. Soit le

dont le jacobien est

Ce qui nous donne

d'o l'on dduit la densit de probabilit

Supposons maintenant que ces deux variables alatoires suivent une loi exponentielle de paramtre , . On a alors

La v.a. donne

suit donc une loi uniforme. Comme on doit avoir et .

et

, cela

Moments
La notion de moment permet d'introduire celle d'indicateur rsumant et/ou caractrisant une variable alatoire. On y retrouvera la moyenne comme cas particulier.

Subsections

Dfinitions Quelques moments particuliers Variance, covariance et cart-type Variable centre rduite Coefficient de corrlation Exemple Ingalits de Bienaym - Tchebyshev - Markov

Dfinitions
Moment d'ordre n. On appelle moment d'ordre n de la v.a. . et l'on note la valeur

Pour les v.a. discrtes, cela donne : Moment d'ordre n rapport l'abscisse a. On appelle moment d'ordre n de la v.a. rapport l'abscisse , et l'on note , la valeur . Moment centr d'ordre n. On appelle moment centr d'ordre n de la v.a. la valeur d'ordre d'une v.a. est donc le moment d'ordre particulire qu'est sa moyenne ( ). et l'on note

. Le moment centr de cette v.a. rapport l'abscisse

Quelques moments particuliers

est la moyenne.

est la variance (voir plus loin). Trs souvent, pour des raisons d'efficacit, les moments souhaits, i.e. , sont calculs

partir des moments simples, i.e. . En effet, le calcul d'un moment centr ncessite le calcul pralable de l'esprance mathmatique, il y a donc 2 pas de calculs au lieu d'un seul pour les moments non centrs.

, et sont utiliss pour caractriser la forme d'une distribution. Pour cela, on construit des indicateurs sans dimension :

. Ce coefficient est nul pour une Le coefficient d'asymtrie (skewness) : distribution parfaitement symtrique, infrieur zro si la distribution est plus tendue vers la gauche (les valeurs infrieures la moyenne), et suprieur zro dans le cas contraire.

Le coefficient d'aplatissement (kurtosis) :

est toujours suprieur 1. De plus,

on a toujours . Plus que l'aplatissement, le coefficient mesure l'importance des ``queues'' de distribution. Cet indicateur vaut dans le cas de la loi de Gauss (cf chapitre sur les principales lois de probabilit). Il est infrieur pour une distribution moins large que la loi de Gauss et suprieur pour une distribution plus large. Remarque : Ces indicateurs ne sont utilisables, i.e. n'ont de sens, que dans le cas d'une distribution unimodale (un seul maximum).

Variance, covariance et cart-type


La variance est dfinie par

Elle traduit la dispersion de la distribution de la v.a. autour de sa valeur moyenne. Etant un carr, la dimension de la variance n'est pas celle de la moyenne. C'est pourquoi on utilise plus souvent l'cart type, not , qui est la racine de la variance. On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le rsultat de l'exprience alatoire est incertain. A la limite, une v.a. de variance nulle conduit des expriences strictement identiques (i.e. le phnomne est compltement dterministe, il n'y a donc plus aucune raison de garder la notion de variable alatoire). La variance a galement des proprits intressantes vis vis de la combinaison linaire de v.a. :

Soient

et

deux v.a.

est la covariance des v.a.

et

dfinie par :

La covariance peut tre vue comme le moment centr conjoint d'ordre 1 de deux v.a. Si les deux v.a. sont indpendantes, alors leur covariance est nulle (mais la rciproque n'est pas vraie en gnral).

Par ailleurs, soit

une v.a. et

et

deux constantes. On a

Variable centre rduite

On appelle variable alatoire centre rduite, une v.a.

construite par :

C'est le moyen le plus classique pour normaliser une v.a. Par construction, on obtient et

Coefficient de corrlation
La relation entre deux v.a. peut tre quantifie par la covariance comme vue prcdemment. Cependant, l'image de la moyenne et de la variance, la covariance est un moment donc possde une dimension ce qui la rend plus difficile interprter. C'est pourquoi on utilise plus gnralement le coefficient de corrlation, indicateur sans dimension, dfini par

Le coefficient de corrlation mesure la qualit de la relation linaire entre deux variables alatoires et (i.e. de la forme ). On a les proprits suivantes :

Si et gnral).

sont indpendantes, alors

(la rciproque n'est pas vraie en

Si il existe une relation linaire entre

et

alors

On peut rcrire la relation sur la variance d'une somme de v.a. en utilisant le coefficient de corrlation :

Et en gnralisant, on obtient

Exemple
Soit X une v.a. continue et uniforme sur (i.e. quiprobabilit de toutes les valeurs). L'uniformit de X conduit une densit de probabilit constante :

Le calcul des moments donne :

donc La moyenne ( .

et ) de X est donc nulle et la variance ( ) est gale

Ingalits de Bienaym - Tchebyshev - Markov

Ingalit de Tchebyshev : fonction positive.

est un rel positif et

une

En posant,

, on obtient l'ingalit de Markov :

De mme, si l'on pose Bienaym-Tchebyshev :

et .

, on obtient l'ingalit de

Cette ingalit est la plus connue des trois. Elle est valable quelle que soit la v.a. X, ce qui est une proprit trs intressante. Malheureusement, elle n'a que peu d'applications pratiques car la majoration qu'elle fournit est la plupart du temps excessive.

Quelques lois de probabilits

Subsections

Les valeurs principales Liaisons entre lois de probabilits

Les valeurs principales


Loi Typ e Prob. ou ddp Moyenne Variance

0-1

et

Uniforme

Binomiale

D pour pour

Gomtrique

Pascal

Poisson

D et

pour

Uniforme

avec

Gauss

pour

Cauchy

non dfini

non dfini

Gamma

Exponentiell e

pour

et

Rayleigh

C pour

Laplace

C C

Student

Weibull

Type : D

loi discrte ; C

loi continue.

Liaisons entre lois de probabilits


Loi 0-1 : on appelle aussi cette loi, loi de Bernoulli. La v.a. associe une telle loi est considre comme la fonction indicatrice d'un vnement de probabilit p. C'est un cas particulier de la loi Binomiale.

Loi binomiale : On obtient une v.a. de loi binomiale

par une somme de

v.a. de loi

0-1 ( ). En d'autres termes, la loi binomiale est la loi associe rptitions, dans des conditions identiques et indpendamment, d'une exprience alatoire dont l'issue est l'apparition ou la non apparition d'un vnement. La somme de deux lois binomiales de mme paramtre est une loi binomiale. Loi gomtrique : La loi gomtrique est la loi du nombre d'essais ncessaires pour faire apparatre un vnement de probabilit .

Loi de Pascal d'ordre n : C'est la loi du nombre d'essais ncessaires pour observer exactement fois un vnement de probabilit gomtriques indpendantes . Cette loi est la somme de lois

Loi de Poisson (magistrat franais du XIXme sicle) : On obtient une v.a. de loi de Poisson partir d'une v.a. de loi binomiale pour laquelle on a et et

. On peut aussi introduire la loi de Poisson par la notion de processus de Poisson. Soit un phnomne tel qu'un seul vnement puisse se produire la fois (non simultant des ralisations) et que le nombre d'vnements se produisant pendant une priode T ne dpend que de la dure de cette priode. Supposons enfin l'indpendance des vnements. Soit l'esprance mathmatique d'un nombre N d'vnements pendant la priode de dure T avec la cadence c. c dsigne donc le nombre moyen d'vnements par unit de temps. On dmontre alors que la probabilit d'obtenir n vnements pendant un temps T est .

Figure 1: Densit de probabilit de la loi de Poisson de paramtre

La somme de deux lois de Poisson de paramtres .

et

est une loi de Poisson de paramtre

Loi Normale ou loi de Gauss-Laplace : C'est incontestablement la loi la plus connue. On la doit Moivre qui, en 1738, a trouv cette loi comme limite de la loi binomiale. On utilisera la notation suivante : . On la retrouve comme modle le plus courant pour les distributions d'erreurs de mesure autour d'une valeur ``vraie''. Elle joue aussi un rle important en terme de comportement asymptotique des autres lois de probabilits, comme le montre le thorme central limite. Une proprit intressante de cette

loi est sa conservation vis vis de la combinaison linaire : Soient v.a. normales de paramtres les coefficients

un ensemble de

deux deux indpendantes, leur somme pondre par

est une v.a. normale de paramtres la somme pondre des paramtres

Figure 2: Densit de probabilit de la loi normale centre rduite. Loi exponentielle : Si suit une loi de Poisson, et traduit le nombre d'apparitions d'un

certain phnomne alatoire dans un intervalle de temps , alors la variable alatoire reprsente l'intervalle de temps sparant deux apparitions d'un vnement donn. Cette nouvelle variable suit une loi exponentielle de paramtre o est le paramtre de la loi de Poisson. En fiabilit, cette loi est trs utilise pour reprsenter la dure de vie de circuits lectroniques. L'esprance est souvent appele le MTBF (Mean Time Between Failure) et le taux de dfaillance. La loi exponentielle est un cas particulier de la loi Gamma pour .

Figure 3: Densit de probabilit de la loi exponentielle de paramtre

La loi exponentielle est souvent utilise pour son caractre sans mmoire. Soit une variable alatoire suivant une loi exponentielle. Soient et deux rels strictement positifs, on a

Cela signifie que la probabilit d'tre dans un intervalle dpend uniquement de la largeur de l'intervalle et pas de sa position absolue (d'o le vocable ``d'effet sans mmoire``). Loi de Weibull : Cette loi est aussi trs utilise pour caractriser la fiabilit des matriels. Elle est relie la loi exponentielle par la relation suivante : suit une loi de Weibull de paramtre si suit une loi exponentielle. On dit que est le paramtre de forme : un matriel qui se

correspond un matriel qui se dgrade avec le temps (usure); bonifie avec le temps; purement accidentelles).

(cas o la loi est exponentielle) un matriel sans usure (pannes

Figure 4: Densit de probabilit de la loi de Weibull de paramtre

Loi Gamma : Soit une v.a. normale X de paramtres

et soit

une v.a. construite par

. suit une loi Gamma de paramtres . La distribution gamma est une gnralisation de la loi exponentielle. En effet, si la loi exponentielle corrrespond la distribution de probabilit du temps sparant l'apparition de deux vnements donns, la loi gamma fournit la distribution de probabilit du temps qui s'coule entre la Kme et la (K+r)me apparition de l'vnement. La loi gamma est applique comme modle de probabilit pour prvoir la dure de vie des appareils qui subissent une usure tels les vhicules automobiles ou les appareils mcaniques.

Loi du

: Le paramtre m est le nombre de degrs de libert de cette loi. Cette distribution

permet de dfinir la loi de la v.a. o les sont des v.a. normales centres rduites indpendantes. Pour m tendant vers l'infini, cette loi tend asymptotiquement vers une loi normale. La somme de deux v.a. du nouvelle v.a. de loi du Gamma avec respectivement et degrs de libert, est une

degrs de libert. On peut aussi relier cette loi la loi .

Loi de Rayleigh : C'est la loi de la norme, i.e. o et sont des v.a. normales centres. C'est aussi la loi de la drive de la loi normale. La loi de Rayleigh apparat souvent pour dcrire le bruit en sortie de certains rcepteurs de transmissions.

Loi de Student : Si

, et si

(indpendante de

) est telle que

suit une degrs

loi du degrs de libert, alors la variable suit une loi de Student de libert. Cette loi sert essentiellement pour les tests statistiques d'hypothses.

Quelques relations
En statistique, on est souvent amen construire les variables alatoires suivantes :

Dans le cas, frquent, o l'on admet ou vrifie, que les paramtrage , alors

sont des lois normales de mme

suit une loi normale suit une loi du

. degrs de libert. degrs de libert.

suit une loi de Student

Par ailleurs, on sait que seules les affinits (et en particulier les sommes) conservent les lois normale, binomiale, uniforme et Gamma ( paramtres entiers).

Loi des grands nombres

Subsections

Convergence stochastique Thorme central limite

Convergence stochastique
On s'intresse la loi d'une suite de v.a. indentiques, et plus particulirement la convergence l'infini. Pour tudier cette convergence, il existe de nombreux outils dont nous rsumons ici les principaux.

Convergence en loi. Soit une suite de v.a. . On dit que la suite

de F.R.

, et soit ssi

une v.a. de FR converge vers .

converge en loi vers la v.a.

Convergence en probabilit. On dit que la suite ssi (donns arbitrairement petits) tel que

converge en probabilit vers la v.a.

Cette dfinition est une gnralisation du thorme de Bernouilli (dans le cas o est une constante). En consquence de ce thorme, on sait que dans une srie d'preuves indpendantes, la frquence relative de l'vnement A converge en probabilit vers P(A) quand le nombre d'preuves croit indfiniment. Convergence en moyenne. On dit que la suite v.a. ssi pour converge en moyenne d'ordre p vers la

tendant vers l'infini. La plus utilise de ces ).

convergences est la convergence en moyenne quadratique (

La convergence moyenne d'ordre 2 implique la convergence en moyenne d'ordre 1 (ou convergence en moyenne) qui implique la convergence en probabilit qui implique la convergence en loi. Cette dernire est donc la convergence la plus stricte.

Exemple : Thorme de De Moivre-Laplace : Soit

une suite de v.a. binomiales . On admet . Par exemple,

converge en loi vers une loi normale centre rduite gnralement que cette convergence est bonne si soit une v.a. et

. Le critre est valid. Soit approximer la valeur de . La valeur exacte est 0.1319 d'aprs les tables. D'aprs le thorme, on obtient

une valeur approche de

par

Cette formule d'approximation avec une loi

donne

Soit une erreur de moins de

Thorme central limite


Le thorme central limite est l'un des rsultats les plus importants de la thorie des probabilits. De faon informelle, ce thorme donne une estimation trs prcise de l'erreur que l'on commet en approchant l'esprance mathmatique par la moyenne arithmtique. Ce phnomne a d'abord t observ par Gauss qui l'appelait loi des erreurs; mais ce dernier n'en a pas donn de dmonstration rigoureuse. La preuve du thorme a t apporte part Moivre et Laplace; le thorme porte donc parfois leurs noms. Ce thorme est fondamental car il justifie toutes les approximations par la loi normale. Thorme : Soit une suite de v.a. de mme loi d'esprance et d'cart type . Alors la v.a. .

converge en loi vers une v.a. normale centre rduite

Exemples : La moyenne exprimentale ou arithmtique ( vers une loi normale de moyenne Une proportion , la moyenne thorique, et d'cart-type

) converge donc . et d'cart-

tend vers une loi normale de moyenne la proportion thorique

type

Comme cas particulier de ce thorme, on retrouve galement la convergence d'une suite de loi binomiale vers la loi normale (thorme de Bernoulli). Ce thorme justifie l'utilisation de la loi normale lorsqu'il y a rptition d'expriences identiques. Par contre, ce thorme reste strict sur les conditions d'applications. On considre souvent que ce thorme reste valable mme si les distributions individuelles sont diffrentes, pour autant que la variance de chacun des termes individuels soit ngligeable vis--vis de la variance de la somme. C'est en fait un thorme plus gnral du Lindeberg. Thorme : Soient variance la v.a. . Soient des v.a. indpendantes, pas forcment de mme loi, centres et de , et la fonction de rpartition de

. Si la condition suivante est ralise

alors

La condition de Lindeberg exprime que les v.a. sont ``uniformment petites'' avec une grande probabilit. Le rsultat veut dire qu' force d'ajouter de telles variables, on finit par obtenir une loi normale. Autrement dit, si une variable est la rsultante d'un grand nombre de causes, petites, effet additif, cette variable suit une loi normale. C'est cause de cette interprtation que la loi normale est trs souvent employe comme modle (malheureusement pas toujours raison). Enfin, notons que ces thormes supposent l'existence des moments des v.a. On ne peut donc pas les utiliser par exemple pour des v.a. suivant une loi de Cauchy (dans ce cas particulier, la somme produit une v.a. qui a toujours une loi de Cauchy et cela quel que soit le nombre d'lments dans la somme).

Simulation d'une variable alatoire


Trs souvent en simulation, on est amen utiliser des chantillons fictifs de ralisations d'une v.a. de loi dtermine. Nous abordons ici un ensemble de mthodes de construction de tels chantillons

Subsections

Mthode gnrale par transformation inverse Loi uniforme Loi exponentielle Loi binomiale Loi de Poisson Loi normale :

Mthode gnrale par transformation inverse


Soit construire un chantillon de Soit la v.a. dfinie par ralisations d'une v.a. de fonction de rpartition .

. Cette v.a. suit une densit de probabilit . Sa fonction de rpartition G est telle que

uniformment distribue sur l'intervalle .

Soient

un chantillon de taille n d'une v.a. uniformment distribue sur

. Les

peuvent tre considrs comme des ralisations de la v.a. de , il suffira alors de calculer la valeur de

. Pour calculer les ralisations de sa fonction

qui correspond une valeur

de rpartition :

Loi uniforme
La construction d'un chantillon fictif d'une v.a. de loi quelconque ncessite en premier lieu la construction d'un chantillon fictif d'une v.a. uniforme entre 0 et 1. Pour une loi uniforme, on ne pourra donc pas se servir de la mthode gnrale. On utilisera alors soit des tables de nombres au hasard, soit des algorithmes de gnration de nombres pseudo-alatoires (fonction random classique sur les machines par exemple).

Loi exponentielle
pour et . On a le rsultat suivant . La mthode gnrale par transformation inverse nous donne . Si on remplace par (ce qui est possible sans consquence car la . On a donc

distribution uniforme est symtrique), alors on obtient .

Loi binomiale
. nombres alatoires et doivent tre connus. On pose alors et on gnre

uniformment distribus et pour chaque

, on fait le test

si

alors faire

si

alors faire

sera la valeur de la ralisation d'une v.a. binomiale de paramtres utilise la proprit qui relie la loi binomiale la loi 0-1 ( ).

et

. Cet algorithme

Loi de Poisson
. On utilise le fait que les intervalles de temps sparant deux vnements successifs suivant une loi de Poisson sont distribus exponentiellement. On gnre donc les distribus suivant une loi exponentielle de moyenne 1. La ralisation intervalles la variable alatoire de Poisson de paramtre sera alors dtermine par l'ingalit de

avec

: v.a. uniforme [0,1] et

v.a. exponentielle de moyenne 1).

Loi normale :
On utilise le thorme central limite. La distribution de la moyenne d'une v.a. tend vers une loi normale lorsque la taille de l'chantillon est suffisamment grande, et ceci quelle que soit la distribution de la v.a. . On peut donc prendre Y : v.a. uniforme sur [0,1]. Donc

et centre rduite.

. La v.a. dfinie par

tend vers une loi normale

Pour obtenir une chantillon de v.a. normale de moyenne relation

et de variance

, on utilisera la

En pratique, on utilise

Autres indicateurs
Il existe d'autres indicateurs permettant de caractriser une v.a. Ils ne sont pas issus du calcul des moments. Subsections

Histogramme Mdiane Mode Autres moyennes

Histogramme
L'histogramme est analogue la courbe de densit. L'ordonne associe chaque abscisse est gal la frquence d'apparition de la valeur dans l'chantillon. Dans le cas d'une v.a. discrte, la construction de l'histogramme ne pose pas de problme. Par contre, pour une v.a. continue, il est ncessaire de rsumer les valeurs reporter sur la courbe en classes. La dtermination du nombre de classes d'un histogramme est dlicate et il n'existe aps de rgle absolue. Un trop faible nombre de classes fait perdre de l'information et aboutit gommer les diffrences pouvant exister entre des groupes de l'ensemble tudi. En revanche, un trop grand nombre de classes aboutit des graphiques incohrents o certaines classes deviennent vides ou presque car , la taille de l'chantillon, est fini. Sturges propose comme limite maximale du nombre de classes

o dsigne la partie entire. Ainsi pour d'histogrammes de plus de classes.

mesures, il ne faudrait pas construire

Mdiane
Par dfinition, la mdiane est la valeur correspondant au milieu de la fonction de rpartition d'une v.a.

Si la loi de la v.a. est symtrique, alors la mdiane est gale l'esprance mathmatique. la mdiane n'est pas unique. C'est une indicateur insensible aux valeurs extrmes ce qui en fait un outil trs intressant dans le domaine des statistiques robustes. Si l'on part d'un chantillon de obtenue par si ralisations tries par ordre croissant, la mdiane sera est impair. Si est pair, on prend conventionnellement

Exemple : La mdiane de la srie srie trie (

est

(la valeur .

est la 4me dans la

) alors que la moyenne est

Lorsque l'on ne connait qu'une rpartition en classes, on cherche la classe mdiane telle que linaire de la forme et . On dtermine alors par une interpolation

Mode
Par dfinition, le mode d'une v.a. est sa valeur la plus probable

Le mode n'est pas unique. Il n'est strictement dfini que pour une v.a. discrte car pour toute v.a. continue, on a . Cependant, nous verrons dans le chapitre sur l'estimation qu'il est possible de trouver une valeur que l'on assimile au mode pour les v.a. continues.

Autres moyennes
Dans la pratique, il peut arriver que la nature des ralisations d'un chantillon ne soit pas adapte l'utilisation de la moyenne classique. Il existe d'autres possibilits

La moyenne gomtrique :

La moyenne harmonique : Il est trs dur de connatre les lois de comportements de ces indicateurs particuliers. Il doivent donc tre utiliss avec prcaution.

Estimation
On considre gnralement deux types d'estimation: l'estimation ponctuelle (on cherche estimer une valeur) et l'estimation par intervalle de confiance o l'on estime la probabilit que la valeur vraie d'un paramtre appartienne un intervalle donn.

Subsections

Estimation ponctuelle o Introduction o Estimateur convergent o Estimateur sans biais o Estimateur efficace o Robustesse

Mthode du maximum de vraisemblance Estimation par intervalle de confiance o Estimation d'une proportion o Estimation d'une moyenne o Estimation d'une variance

Estimation robuste o Interprtation de donnes: l'approche baysienne o Le traitement de l'a priori o Le traitement de l'a posteriori o Le cas monodimensionnel o Le cas gnral o Estimation itrative

Rgression linaire o Formalisation o Rsolution dans le cas d'une distribution normale des carts o Le cas de la droite o Intervalle de confiance sur le coefficient de corrlation

Filtre de Kalman Estimation d'un mode Estimation d'une densit

Estimation ponctuelle
Subsections

Introduction Estimateur convergent Estimateur sans biais Estimateur efficace Robustesse

Introduction
A partir de donnes d'chantillons reprsentatifs, on va induire des rsultats sur la populationmre (i.e. population dans laquelle les chantillons ont t prlevs).

Plus exactement, soit un paramtre inconnu 2intervenant dans la loi de probabilit d'une variable alatoire . La loi de probabilit de cette variable alatoire doit tre connue analytiquement (on choisit parmi les modles existants la loi la plus approprie au phnomne observ). Seule la valeur numrique du paramtre intervenant dans cette loi de probabilit est inconnue. Soient les valeurs prises par la v.a. prlev dans la population-mre. dans un chantillon de taille

On appelle estimateur de , et l'on note , la fonction qui aux valeurs de l'chantillon fait correspondre la valeur du paramtre . On note la valeur numrique de cette estimation par

est une fonction des ralisations d'une v.a., est donc une v.a. dont on Par dfinition, peut chercher dterminer les caractristiques (loi, ddp, FR, moments, ...). Exemple: On observe un phnomne de production de pices manufactures. Chaque pice est associe une mesure (un indicateur de qualit par exemple). Comme on ne peut pas vrifier chaque mesure, on procde un chantillonnage qui nous fournit donc un chantillon. Supposons que la connaissance de la nature de cet indicateur nous permet de faire l'hypothse qu'il obit une loi de probabilit normale. Le problme est maintenant, au vue de l'chantillon , de proposer une valeur pour la moyenne de cette loi normale. Il faut . Il y a une

procder une estimation du paramtre vrai qui se traduit par la valeur infinit de manire possible parmi lesquelles on peut citer

mdiane

mode

Quel est le meilleur estimateur de la moyenne ? Existe-t-il ?

Sur ce simple exemple, est rsum le problme fondamental de l'estimation: quelle est la dfinition mathmatique de meilleur? La rponse est simple, il n'en existe pas. Alors comment comparer les estimateurs. Pour cela, on se sert de plusieurs critres, le plus souvent lis au bon sens: le biais: On souhaite que l'estimation ne soit pas systmatiquement dcale par rapport la valeur vraie. la prcision: Si l'on rpte l'estimation sur un autre chantillon, on souhaite obtenir une estimation cohrente, donc peu de variation d'un chantillon l'autre. On parlera aussi d'efficacit. la convergence: Si l'on peut estimer la valeur du paramtre sur toute la population-mre, la valeur de l'estimation obtenue doit tre la valeur vraie du paramtre. la complxit: Toute estimation ncessite un calcul donc un temps. On s'attachera donc valuer la complexit du calcul en fonction de la taille des donnes (i.e. ). la robustesse: Dans tout cas concrt, il existe des sources de perturbations. On souhaite que l'estimation ne soit pas sensible la prsence de valeurs abrantes (outliers en anglais). Ces diffrents critres ne sont pas forcment compatibles entre eux, et l'on retrouve des dilemmes classiques, prcision vs robustesse, convergence vs complexit.

Estimateur convergent
Un estimateur est convergent si la valeur estime tend en probabilit vers la valeur vraie du paramtre, soit:

(arbitrairement petits) Si l'estimation est exhaustive (l'chantillon est gal la population-mre), alors la valeur vraie du paramtre est connue.

Estimateur sans biais


Un estimateur est dit sans biais lorsque son esprance mathmatique est gale la valeur vraie du paramtre.

Un estimateur est dit asymptotiquement sans biais si le biais diminue si la taille de l'chantillon augmente:

Exemples:

X: de cette v.a.

est un estimateur convergent sans biais de la moyenne vraie

X: : vraie de cette v.a.

est un estimateur convergent sans biais de la variance

X: ( est suppose inconnue): est un estimateur convergent avec biais de la variance vraie de cette v.a. Cet estimateur est considr sans biais asymptotiquement.

X: ( est suppose inconnue): convergent sans biais de la variance vraie de cette v.a.

est un estimateur

La diffrence entre ces deux derniers exemples se limite au dnominateur de la formule de calcul de . Le deuxime estimateur est sans biais car il prend en compte par le terme le fait qu'il faut utiliser une estimation pralable de la moyenne pour pouvoir faire l'estimation de la variance, i.e. il n'y a donc plus donnes disponibles (ou degrs de liberts) mais . Cette apprciation intuitive peut bien sr tre dmontre.

Soit

un estimateur de la variance. On pose comme hypothse que

l'chantillon est constitu de ralisations de V.A. indpendantes 2 2 et de mme nature que la V.A. X inconnue et dont on veut estimer la variance. Pour estimer le biais de , on calcule l'esprance mathmatique de l'estimateur

est la V.A. associe la ralisation

Soit

En posant

, on obtient une V.A. centre et de mme variance que

On simplifie l'quation prcdente en tenant compte de la linarit de l'oprateur esprance mathmatique.

Pour aller plus loin, on tient compte de quelques proprits :

car les V.A. sont indpendantes 2 2. car est centre. et par

d'aprs la proprit nonce sur proprit de la variance.

On constate bien un biais qui se traduit par le facteur l'estimateur par

. Pour le compenser, on multiplie )

et on obtient un nouvel estimateur sans biais (car

En dveloppant cette formule, on obtient une forme plus efficace

Estimateur efficace
La variance d'un estimateur reprsente sa prcision. Pour tous les estimateurs (ayant mme moyenne), il est possible de trouver celui dont la prcision sera la meilleure, i.e. dont la variance sera la plus faible. On parle alors d'estimateur variance minimum.

Lorsque l'on compare deux estimateurs, on dira galement que .

est plus efficace que

si

Une estimation est lie un chantillon de taille finie. Si la population-mre est de taille infinie, il n'est pas possible d'avoir accs la valeur vraie . La prcision que l'on pourra obtenir sur ne pourra donc pas descendre en dea d'une certaine limite (borne infrieure de la variance de l'estimateur ou Minimum Variance Bound (MVB)) qui est dtermine par l'ingalit de Cramer-Rao:

, appele quantit d'information de l'chantillon, est dfinie par:

est appele fonction de vraisemblance et se calcule par:

dsignant la ddp de la v.a.

et

Si un estimateur atteint la limite infrieure, on parle alors de MVB estimateur. On dmontre aussi que cet estimateur est obligatoirement convergent et sans biais. Remarque: La notion d'information a t propose dans les annes 20 par le chercheur anglais Ronald A. Fisher (considr comme le pre de la statistique mathmatique). La dmarche de Fisher est la suivante: si l'on s'intresse aux caractristiques d'une population nombreuse (voire infinie, c'est le cas limite auquel on est en permanence ramen), on ne peut ni connatre ni traiter les informations trop abondantes relatives chacun des individus qui la composent. Le problme devient donc d'tre capable de dcrire correctement la population au moyen d'indicateurs de synthse pouvant tre fournis par des chantillons issus de la population tudier. Plus les donnes chiffres que l'on peut extraire d'un chantillon reprsentent correctement la population de rfrence et plus l'information contenue dans cet chantillon doit tre considre comme leve. Partant de cette hypothse, Fisher a dfinie techniquement l'information comme la valeur moyenne du carr de la drive du logarithme de la loi de probabilit tudie. La clbre ingalit de Cramer permet alors de montrer que la valeur d'une telle information est proportionnelle la faible variabilit - c'est dire au fort degr de certitude - des conclusions qu'elle permet de tirer. Cette ide, qui est la racine de toute la thorie de l'estimation et de l'infrence statistique, est exactement celle que l'on retrouvera vingt ans plus tard chez Shannon, exprime cette fois en des termes non plus statistiques mais probabilistes.

Robustesse
Le terme ``robuste'' a t pour la premire fois introduit en statistique par G.E.P. Box en 1953. Un estimateur est dit robuste si il est insensible des petits carts sur les hypothses pour lesquelles il a t optimis. Il y a deux sens au terme ``petit'': de petites variations sur toutes les donnes, ou des carts importants sur un petit nombre de donnes. C'est le deuxime aspect qui est le plus mal pris en compte par les estimateurs classiques. Ainsi, la robustesse traduit le plus souvent la rsistance de l'estimation aux donnes abrentes. On la dfinit mathmatiquement par le plus petit nombre de donnes extrmes qui modifie la valeur de l'estimation ramen la taille de l'chantillon. Considrons un chantillon constitu de valeurs identiques , auquel on ajoutera une

perturbation sous la forme de valeurs extrmes . Pour estimer l'esprance mathmatique, on peut utiliser la moyenne arithmtique qui donne bien sr sur l'chantillon. Cependant, cette estimation est modifie ds l'introduction d'une nouvelle valeur, , sa robustesse est donc de . Par contre, la mdiane de cet chantillon n'est pas modifie si l'on ajoute une valeur extrme. En fait, la mdiane ne sera modifie que si le nombre de valeurs extrmes est suprieur au nombre de valeurs initiales. On en dduit que la robustesse de l'estimateur mdiane est gale dont la valeur asymptotique est .

Mthode du maximum de vraisemblance


Le critre d'efficacit permet de comparer des estimateurs. On peut aussi s'en servir pour construire un estimateur. Soit une variable alatoire de densit de probabilit connue analytiquement mais dont l'un des paramtres est inconnu (numriquement). Le problme consiste donc construire une expression analytique fonction des ralisations de cette variable dans un chantillon de taille , permettant de trouver la valeur numrique la plus vraisemblable pour le paramtre .

Si

sont des ralisations indpendantes de la v.a., on peut dire que

est une ralisation d'un vecteur alatoire composantes sont indpendantes deux deux.

dont les

L'approche retenue consiste chercher la valeur de qui rend le plus probable les ralisations que l'on vient d'obtenir. La probabilit d'apparition a priori de l'chantillon en question peut alors tre caractrise par le produit des probabilits d'apparition de chacune des ralisations (puisque celles-ci sont supposes indpendantes deux deux).

La mthode du maximum de vraisemblance consiste rechercher la valeur de probabilit maximale. Comme nous l'avons vu plus haut, le produit des valeurs aussi not et appel fonction de vraisemblance. La valeur maximum la fonction de vraisemblance est donc la solution de:

qui rend cette est qui rend

L'emploi du logarithme sur la fonction permet de passer de la maximisation d'un produit celle d'une somme, le rsultat restant le mme car la fonction logarithme est monotone strictement croissante. Proprits de la fonction de vraisemblance:

Thorme: Si il existe un estimateur efficace sans biais, il sera donn par la mthode du maximum de vraisemblance.

Thorme: L'estimateur efficace dpend pas des observations

existe si

ne

. On peut alors montrer que

Cette approche est trs thorique mais possde l'avantage d'tre parfaitement formalise.

Exemple 1: Soit

une loi normale

avec

connu mais

inconnue. L'objectif est

de construire un estimateur de la valeur

, tant donn un chantillon de ralisation

. Pour cela, on part de la fonction de vraisemblance de cet chantillon:

La moyenne arithmtique est l'estimateur le plus efficace de l'esprance mathmatique dans le cas de la loi normale. Quel est le biais de cet estimateur ?

est une v.a.

de part la proprit de linarit de l'oprateur esprance mathmatique. L'estimateur est donc sans biais.

Estimation par intervalle de confiance


Cette nouvelle approche est souvent prfre dans la pratique car elle introduit la notion centr sur la valeur numrique d'incertitude. On cherche dterminer l'intervalle estime du paramter inconnu contenant la valeur vraie avec un probabilit fixe a priori. Cette probabilit permet de s'adapter aux exigences de l'application.

L'intervalle est appel intervalle de confiance et est le coefficient de confiance. Une estimation par intervalle de confiance sera d'autant meilleure que l'intervalle sera petit pour un coefficient de confiance grand. La donne de dpart, outre l'chantillon, sera la connaissance de la loi de probabilit du paramtre estimer. Comme il n'existe pas de rsolution gnrale de ce problme, nous allons aborder successivement les cas les plus frquents (estimation d'une proportion, d'une moyenne, d'une variance de loi normale).

Subsections

Estimation d'une proportion Estimation d'une moyenne Estimation d'une variance

Estimation d'une proportion


Soit une population dont les individus possdent un caractre avec une probabilit (loi 0/1). On cherche dterminer cette probabilit inconnue en prlevant un chantillon de taille dans cette population. On constate que parmi les individus possdent le caractre .

Que peut-on en dduire, i.e. la proportion quelle confiance.

approxime la valeur vraie

, mais avec

Soit

est une v.a. construite par la somme de

variables alatoires 0/1 et de

mme paramtre,

. C'est donc, d'aprs le thorme central limite, une variable alatoire dont

la loi de probabilit tend vers une loi normale de moyenne et d'cart-type . Cette approximation est valable uniquement si la taille de l'chantillon est suffisamment grande (i.e. en pratique). Construisons l'intervalle de confiance autour de sous la forme:

est le risque (a priori, on construit un intervalle symtrique).

est une ralisation d'une

v.a.

. donc on peut par normalisation et centrage obtenir une nouvelle v.a.

On en dduit donc l'intervalle de confiance sous la forme:

La valeur de loi normale de :

est donc un rsultat de calcul. La valeur de

sera lue sur une table

. Il existe par ailleurs diffrentes manires pour approximer la valeur

soit par la proportion

soit par majoration: en effet, quelle que soit la valeur de par .

, le produit

est major

Exemple: Soit un chantillon de taille et une proportion estime est la confiance dans cette valeur ou bien quel intervalle donne une confiance de de ?

. Quelle (risque

Par lecture dans la table de la loi normale, on obtient L'intervalle de confiance autour de la proportion estime est donc

. .

Estimation d'une moyenne


Deux cas sont envisager:

La variable alatoire mesure est normale et le nombre de ralisations est quelconque. La variable alatoire mesure n'est pas normale et le nombre de ralisations est suprieur 30 (dans ce cas, la distribution de la moyenne tend vers une loi normale d'aprs le thorme central limite). Soit donc une v.a. suivant une loi normale de moyenne inconnue et d'cart-type . On

dispose d'un chantillon de ralisations de confiance sur la moyenne est:

de cette v.a. Comme prcdemment, l'intervalle

est la moyenne arithmtique calcule partir de l'chantillon. Pour aller plus loin, nous o devons considrer deux cas 1- La variance La valeur est connue.

joue le rle d'une constante dans la formule de l'intervalle de confiance et la suit toujours une loi normale. La valeur de est donc lue dans

nouvelle v.a. une table de la loi normale. 2- La variance Dans ce cas,

est inconnue. joue le rle d'une v.a. Soit l'estimation de que l'on obtient par:

Comme

suit une loi normale, on sait que la quantit

suit une loi du

degrs

de libert. La nouvelle variable alatoire

suit donc une loi de Student

degrs de libert. L'intervalle de confiance est alors:

o est lue dans une table de Student pour

degrs de libert.

A posteriori, on peut tre intress par la taille minimale de l'chantillon tel que l'intervalle de confiance, pour un coefficient de confiance donn, soit tel que ses bornes infrieures et suprieures ne s'cartent pas de plus de , ce qui conduit de la valeur moyenne. On impose donc

On approche

par

et

par

si l'cart-type est inconnu.

Estimation d'une variance


Nous n'aborderons que le cas de l'estimation de la variance moyenne partir d'un chantillon de valeurs. d'une v.a. normale de

Si

est connue (trs rare), alors l'intervalle de confiance

(risque) est dfinit par

avec la loi du

et o degrs de libert.

et

sont les quantiles d'ordre

et

de

Si

est inconnue. La quantit

dfinie dans le paragraphe prcdent suit une loi du (risque) est dfinit par

degrs de libert. L'intervalle de confiance

et degrs de libert.

sont les quantiles d'ordre

et

de la loi du

On obtient le rsultat suivant :

(attention, reprsente ici la confiance) avec libert, d'o l'on tire :

lu sur une table du

pour

degrs de

avec

Estimation robuste
Nous allons dans ce paragraphe reprendre le problme de l'estimation au tout dbut afin de montrer qu'il est possible de driver des estimateurs trs diffrents de ceux que nous avons abords jusque l. Ces estimateurs relvent du domaine que l'on nomme les statistiques robustes et dont Legendre (le crateur de la mthode des moindres carrs) a t le prcurseur puisque parlant des carts entre les donnes et l'interprtation, il dclarait (en 1805 dans sa premire publication sur les moindres carrs):

Si parmi ces erreurs, certaines apparaissent trop importantes pour tre admises, alors les observations qui ont gnres ces erreurs seront rejetes, comme provenant d'expriences trop peu fiables, et les inconnues seront dtermines grce aux autres observations, qui de ce fait induiront moins d'erreurs.

Subsections

Interprtation de donnes: l'approche baysienne Le traitement de l'a priori Le traitement de l'a posteriori Le cas monodimensionnel Le cas gnral Estimation itrative

Interprtation de donnes: l'approche baysienne


Soient un ensemble de donnes, i.e. un chantillon, et un contexte ( englobera tout ce qui n'est pas directement en relation avec le processus sous-jacent aux donnes). Le problme de l'estimation est un cas particulier d'un problme plus gnral qui est celui de l'interprtation des donnes. Soit cette interprtation. Notre problme est donc de dterminer connaissant et . Une approche possible est de choisir l'interprtation la plus probable. C'est dire

chercher qui maximise la probabilit conditionnelle . Cette probabilit n'est pas directement valuable mais on peut se servir du thorme de Bayes.

d'o l'on dduit La maximisation de cette expression se faisant sur l'interprtation , on peut supprimer le dnominateur et ne pas tenir compte de la probabilit du contexte . Si de plus on

suppose que le contexte est indpendant des donnes, on trouve l'interprtation la plus probable en maximisant le produit .

Dans cette expression,

est la validation a posteriori des donnes par l'interprtation.

est l'a priori, indpendant des donnes. Ce deuxime terme traduit le biais qui fait que l'on ne part jamais avec tous les modles quiprobables (soit parce que l'on tient compte de l'application sous-jacente, soit par habitude ou connaissance).

Le traitement de l'a priori


Malheureusement, on ne sait pas traduire l'a priori et donc sa probabilit, c'est pourquoi, on suppose toujours qu'il est soit ngligeable soit qu'il contraint suffisamment l'application pour que toutes les interprtations possibles soient de la mme catgorie. Prenons le cas de l'interprtation de donnes bruites. Dans ce cas, on suppose que les donnes sont des prlvements d'un phnomne perturb par un bruit additif , ce qui . Si

nous donne

. Dans ce cas, la probabilit traduisant l'a priori s'crit , on obtient en fait un produit de deux

le bruit n'est pas corrl avec le phnomne probabilits

. La maximisation de ce produit ne conduit pas une solution

unique car les complexits de et s'quilibrent. En effet, pour un jeu de donnes fix, plus le modle sera d'ordre faible plus il faudra supposer un modle de bruit complexe. A l'inverse, pour donnes, on peut toujours envisager une forme polynomiale de degr qui prdit exactement tous les points, et dans ce cas, le bruit est nul, donc de complexit trs faible. Mais avons-nous l'habitude de manipuler des modles d'ordre trs lev ?

Le traitement de l'a posteriori


L'a posteriori traduit l'cart entre les donnes et la prdiction faite par l'interprtation / modle. Afin de formaliser cet cart, il est ncessaire de faire des hypothses sur la distribution des donnes et plus particulirement sur la distribution des carts entre les donnes et le modle. Les hypothses minimales sont gnralement au nombre de trois. Soient une donne de l'chantillon et la prdiction du modle.

Symtrie:

Dcroissance avec le module:

dcroit quand

croit.

Indpendance des erreurs: Pour aller plus loin, on suppose le plus souvent que la distribution des erreurs suit une loi normale de moyenne nulle (pas de biais) et d'cart-type . On peut donc construire la

fonction de vraisemblance par

On peut alors en dduire un estimateur par la recherche du maximum de vraisemblance, ce qui conduit la mthode des moindres carrs qui est aborde dans la suite de ce chapitre. Depuis l'origine des statistiques, les statisticiens ont toujours ador le fait que la distribution de la somme d'un trs grand nombre de petites variations alatoires converge toujours vers une distribution normale (cf Thorme central limite). Le principal problme de ce choix est que la probabilit d'un cart gal l'ordre de fois est de

ce qui est beaucoup trop faible pour traduire la frquence d'apparition des

d'un cart trs fort du une donne abrente. De plus, dans le cas de la loi normale, carts doivent se trouver au plus fois l'cart type.

On peut donc tre amen choisir des distributions dont la dcroissance est moins rapide. Par exemple, on peut utiliser la distribution de Cauchy, ou une distribution exponentielle.

Le cas monodimensionnel
Prenons le cas de l'estimation d'un paramtre reprsentant un chantillon. Soit ce paramtre. Si l'on fait l'hypothse d'une distribution normale des carts, on aboutit l'estimateur moyenne. Par contre, si l'on suppose que la distribution est exponentielle ( ), on aboutit un autre estimateur (toujours par la mthode du maximum de vraisemblance) tout aussi simple, la mdiane. Ces deux estimateurs peuvent tre compars grce aux indicateurs que nous avons voqus au dbut de ce chapitre. Ils sont tous les deux convergents et sans biais. La complexit de la

moyenne est de alors que celle de la mdiane est de car il faut faire un tri des donnes, la moyenne est donc plus rapide calculer. Par contre, la robustesse de la moyenne est asymptotiquement nulle alors que celle de la mdiane est asymptotiquement de 0.5 ce qui traduit une bien meilleure rsistance au bruit, i.e. aux donnes abrentes.

Le cas gnral
Reprenons le cas gnral. On veut maximiser la probabilit l'cart sur la me donne et la distribution des carts. o est

La maximisation de cette probabilit peut se rcrire sous la forme d'une minimisation d'une fonction de cot o est le vecteur des paramtres du modle / interprtation .

avec et o la valeur de chaque cart.

traduit l'incertitude sur la

me donne et permet de relativiser

Soit . La minimisation de paramtres) quations:

conduit rsoudre le systme de

(nombre de

Ce systme n'a bien sur pas de solution gnrale et il convient de l'tudier en fonction du choix de , ce qui donne une classe d'estimateurs connus sous le nom de M-estimateurs.

Modle de Legendre:

C'est le cas le plus connu car il correspond l'hypothse de normalit de la distribution des carts. On pose L-estimateur: et

Egalement trs utilis, cet estimateur utilise conduit l'estimateur mdian. Modle de Cauchy / Lorentz:

et donc

ce qui

Comme nous l'avons vu prcdemment, ce modle permet de par la plus lente dcroissance de la loi de Cauchy, de mieux rendre compte des apparitions de donnes abrentes.

et . La systme rsoudre est alors non linaire et il faut avoir recours des rsolutions itratives. Modle de Huber:

Dans ce modle, on utilise un seuil qui permet d'avoir la fois une dcroissance rapide (i.e. quadratique) si l'cart est faible et de rduire la dcroissance (donc augmenter l'importance) des carts forts (au del du seuil). Il ralise un bon compromis entre le modle de Legendre et celui du L-estimateur. Modle de Tuckey: Le modle de Tuckey est du mme type que celui de Hubert mais un peu plus complexe car il permet de s'affranchir de la sensibilit au choix du seuil .

est appele point de rejet (rejection point) et joue le rle du seuil de Hubert. La La valeur valeur est la constante de confiance est vaut (cette valeur a t dtermine pour obtenir une bonne adquation des carts distribus normalement). La valeur est un facteur de dimension qui permet d'adapter le seuil l'talement de la distribution des carts. On peut assimiler un cart-type et utiliser l'estimateur correspondant mais Tuckey propose un estimateur plus robuste, la mdiane des carts absolus (Median of Absolute Deviation) qui vaut

On peut aussi dterminer le point de rejet en pourcentage du volume de donnes. Par exemple, on ellimine les % plus grandes et plus petites valeurs des carts. Une valeur gnralement recommande est . R-estimateur (Jaeckel, 1972): Le R-estimateur est un cas particulier car il ne s'appuie plus sur des relations linaires mais tient compte essentiellement du classement des carts. La fonction de cout est la suivante: . La mdiane est le cas extrme de cet estimateur tronqu avec

est le rang de l'cart

dans la liste trie des carts. La fonction

est normalise

telle que .

. Par exemple, Wilcoxon a propos la fonction suivante

Les tests de Kolmogorov-Smirnov et de Spearman sont d'autres exemples de R-estimateurs. Le modle L.M.S. (Least Median of Squares, Rousseeuw, 1984):

Le vecteur de paramtres estimateur, .

est la solution de

. Si la robustesse de cet , sa complexit est relativement leve

, est asymptotiquement gale

Estimation itrative
Tous les estimateurs que nous avons abords sont des mthodes directes, et, le plus souvent, il faut faire un compromis entre efficacit et faible complexit d'une part, et robustesse d'autre part. Pour cela on peut procder en plusieurs tapes pour essayer de combiner tous les avantages. Dans un premier temps, un estimateur classique non robuste permet de quantifier l'adquation de chaque donne au modle, i.e. par l'cart. Chaque donne est alors affecte d'un poids, le plus souvent inversement proportionnel l'cart. On peut alors itrer le processus d'estimation. L'hypothse sousjacente est qu'une donne abrente aura un cart initial fort et donc une adquation et un poids faibles. Il n'interviendra donc que trs peu dans la deuxime phase d'estimation. Le processus peut tre itr jusqu' convergence de l'estimation. Prenons pour exemple l'estimation de l'esprance mathmatique par la moyenne arithmtique partir d'un chantillon suivant: . On peut rsumer le processus par l'algorithme

1. Premire estimation ( 2. Calcul des carts:

):

3. Calcul des poids:

(cf le chapitre prcdent pour diverses possibilits pour

).

4. Nouvelle estimation (itration

):

5. test de convergence: Si non convergence (par exemple alors retour au pas .

et

Dans cet exemple, on augmente la robustesse au bruit avec comme cot une complexit un peu plus forte ( au lieu de ). En pratique, on utilise peu d'itrations car le

processus a tendance rejeter de nouveaux points (i.e. ) chaque itration. Le risque est donc non ngligeable de voi le processus converger vers une estimation reposant sur trs peu de donnes (une seule ralisation la limite). On peut, pour viter cet cueil, arrter le processus lorsque de la population initiale a un poids nul ou quasi-nul. Puisque l'objectif .

de l'itration est de recherche la robustesse, on fixe le plus souvent

Rgression linaire
La rgression linaire est un cas particulier d'estimation trs usit car trs bien formalis et correspondant des modles simples (car linaires). C'est l'outil de base de la modlisation de donnes. Une approche trs gnrale de ce problme est fournit dans le cours d'approche conceptuelle des systmes. Nous ne traiterons ici que de la facette statistique de ce problme mathmatique.

Subsections

Formalisation Rsolution dans le cas d'une distribution normale des carts Le cas de la droite Intervalle de confiance sur le coefficient de corrlation

Formalisation

Soit une fonction

de

telle que

On souhaite modliser paramtres (

par une approximation linaire ) telle que .

caractrise par un vecteur de

L'objectif sera d'estimer le vecteur partir d'un jeu de donnes Pour cela, on peut donc reprendre la formalisation du chapitre prcdent. minimisation de la fonction de cot :

. sera obtenu par

(On supposera par simplicit que toutes les donnes ont la mme incertitude, ce qui permet de ne pas faire intervenir les termes .)

Rsolution dans le cas d'une distribution normale des carts


Nous avons vu qu'il est ncessaire dans ce type de problme de faire un choix sur la nature de la distribution des carts. Nous adopterons le choix classique de la distribution normale. Dans ce cas, nous avons vu que cela revient utiliser d'quations linaires suivant: . On obtient alors le systme

Soit

Ce systme tant linaire, il a une solution unique

sauf si le dterminant du systme est nul. entre les

On peut montrer que ce cas intervient si il existe une relation linaire d'ordre

vecteurs . On dit alors que le systme est surdimensionn et un traitement des donnes est ncessaire afin d'elliminer pralablement cette dpendance. La dimension du nouveau vecteur de paramtres recherch est alors de .

Le systme rsoudre est de plus symtrique. On peut donc faire appel des techniques spcifiques telles que la dcomposition LU (mthode directe de complexit ) ou les

algorithmes Gauss-Seidel ou Jacobi (mthodes itratives de complexit o est le nombre d'itrations ncessaires la convergence). Pour plus de dtails sur ces techniques, rfrez vous au cours d'analyse numrique ou tout bon livre sur la rsolution de systmes linaires.

Le cas de la droite
Nous abordons ici le cas limit o le modle est une droite. On parle aussi de regression linaire simple. On a alors s'crit: et . Le systme linaire rsoudre

Ce systme a une solution unique si et seulement si

On peut considrer que les donnes peut caractriser par sa moyenne

constituent un chantillon d'une v.a. et sa variance

que l'on

estimes. La condition

d'existence d'une solution est donc ce qui quivaut dire qu'il faut simplement que les donnes de l'chantillon ne soient pas toutes identiques. Le systme peut alors se rcrire sous la forme:

dont la solution analytique est:

Les v.a.

et

sont relies par la relation

et et

sont les valeurs vraies. . On

On a vu dans ce cas que peut donc relier la valeur estime

la valeur vraie

par:

L'estimation sera donc parfaite si les v.a.

et

sont parfaitement corrles (i.e.

). Plus cette corrlation sera faible, moins bonne sera l'estimation. Le coefficient de corrlation est donc un bon indicateur de la qualit de la rgression linaire simple. De mme, pour le paramtre , on sait que . Donc,

L encore, l'estimation sera d'autant meilleure que la corrlation sera proche de 1. Cependant, on constate que et interviennent comme un gain sur l'erreur due la corrlation non sera donc plus vite dgrade que celle de .

parfaite. L'estimation de

Intervalle de confiance sur le coefficient de corrlation


On peut dterminer un intervalle de confiance sur le coefficient de corrlation quantifier la qualit de la rgression) grce l'introduction de la transformation par : (afin de donne

et

L'intervalle de confiance est dfini par

avec

est une loi normale centre rduite. et , on peut obtenir l'intervalle de confiance sur .

Grce la relation liant les variables

Exemple : Soit l'intervalle de confiance

obtenu sur un chantillon de taille autour de cette valeur.

. On souhaite construire

On obtient successivement

. Dans la table de la loi normale, on lit

et donc . Par inversion, on obtient l'intervalle de confiance sur l'estimation du coefficient de corrlation : .

Filtre de Kalman
Dans tous les problmes d'estimation que nous venons d'aborder, on suppose toujours connu et fixe un chantillon de donnes. L'estimation est un travail a posteriori partir de cet chantillon. Dans certains contextes (lorsque l'chantillon est trs grand, ou qu'il correspond un chantillonnage continu donc sans fin rel) on peut tre amen estimer les paramtres sans attendre d'avoir la totalit de l'chantillon. A chaque nouvelle donne disponible, on cherchera donc mettre jour la valeur de l'estimation (il n'est bien sr pas question de recommencer l'estimation chaque fois, ce qui serait trop couteux). On parle alors d'estimation incrmentale. Nous aborderons dans ce chapitre la technique la plus classique qui ralise une rgression linaire incrmentale, le filtre de Kalman.

Soit

l'estimation initiale et son incertitude (

, et

est une matrice

).

De mme, soit

l'estimation courante (calcule grce aux premires donnes) et son ( ) pour laquelle on ). Le problme est .

incertitude. On suppose l'arrive d'une nouvelle donne connait aussi son incertitude note (

est une matrice

donc le maintenant de trouver la nouvelle estimation Le principe de cette mise jour est traduit par la relation:

et son incertitude,

Comment cela s'interprte-t-il? La matrice de l'estimation

est une matrice

qui permet de passer

au domaine des donnes. Le terme

est la prdiction de la

me donne partir de l'estimation calcule sur les premires. Le terme traduit donc l'cart entre la prdiction et la donne relle. On peut aussi dire que cet cart est l'innovation apporte par la nouvelle donne. Cette innovation va servir mettre jour l'estimation. Cette mise jour est une simple addition o l'on fait cependant intervenir un gain sur la partie innovation, la matrice appele gain de Kalman. Le gain de Kalman doit tenir compte des incertitudes relatives de l'estimation courante et de la donne. Si l'incertitude de la donne est ngligeable devant celle du modle , on devra avoir un gain fort, i.e. la donne est fiable. A l'inverse, si l'incertitude de la donne est grande par rapport celle de l'estimation, le gain doit tre trs faible, i.e. la donne tant peu fiable, il est normal qu'elle ne modifie pas ou peu l'estimation courante. Ces remarques se traduisent par la relation suivante:

L'emploi de la matrice sont pas de mme rang.

est rendu ncessaire par le fait que les matrices d'incertitudes ne

Il ne reste plus qu' mettre jour l'incertitude de l'estimation qui tient compte de l'incertitude courante et du gain de Kalman par la relation:

Prenons un exemple simple,

et

. On obtient les formules suivantes:

On peut montrer que l'estimation obtenue par ce processus aprs donnes est gale celle que l'on obtiendrait si l'on estimait directement le vecteur sur l'chantillon de donnes.

Estimation d'un mode


Nous avons vu dans un des chapitres introductifs que la notion de mode n'tait dfinie que pour les variables alatoires discrtes. Il existe cependant une gnralisation au v.a. continue.

Rappel: Dfinition: Soit

est le mode de la v.a. discrte

ssi la valeur qui satisfait

une v.a. continue. On appele mode de

avec

et

Ce qui veut dire que est le milieu de l'intervalle distribution des valeurs de .

le plus dense dans la

Comment peut-on estimer cette valeur partir d'un chantillon? On choisit dans un premier temps la valeur de (le plus souvent, on fixe ). On recherche ensuite l'intervalle le

plus dense, i.e. , la liste des ralisations tant pralablement trie par valeurs croissantes. L'estimation finale du mode est obtenue conformment la dfinition, par le mileu de l'intervalle retenu.

Les principaux inconvnients de cette estimation sont la complxit et surtout la trs forte dpendance entre l'estimation et la valeur choisie a priori pour . Afin de tester cette sensibilit, on peut bien sr faire varier lgrement (au prix d'une complexit accrue) et tester la variance de l'estimateur.

Estimation d'une densit


Nous avons vu prcdemment que les tests d'adquation ne permettait que de valider ou non une hypothse sur la nature d'une loi de probabilit en s'appuyant essentiellement sur une

distribution empirique, c'est dire le plus souvent sur l'histogramme. Si il existe des rgles simples sur la dtermination du nombre de classes, il peut arriver que la nature de la loi soit difficile dduire a priori de la forme de l'histogramme. La thorie de l'estimation permet de proposer des solutions visant obtenir une bien meilleure approximation de la densit relle partir d'un histogramme. La premire approche consiste estimer la densit de la v.a. en par , le nombre

d'occurences de ralisations appartenant la me classe associe la valeur . La densit est donc la mme quelque soit la position de entre les extrmits de cette classe. Une premire amlioration consiste utiliser une fentre mobile. On construit autour de classe de longueur : , et on compte de nouveau le nombre . On une

d'occurences appartenant cette fentre: peut galement crire

est la fonction indicatrice de l'intervalle , et si .

: vaut donc si

si .

ou

Cette mthode donne une estimation peu rgulire. Si l'on veut une fonction lisse, il est alors possible de gnraliser la formule prcdente en utilisant des noyaux, i.e. fonctions , plus continus. En pratique, on utilise souvent des noyaux symtriques et trs frquemment un

noyau gaussien .

ou parabolique

pour

Ce dernier noyau est appel noyau d'Epanechnikov. Il a des proprits mathmatique intressantes. La constante est appele constante de lissage. Son rle est dterminant, l'image de la largeur des classes de l'histogramme: si est grand, sera trs (trop) lisse. est faible, sera trs peu rgulire, si

Bien que l'on sache que doit tre proportionnel souvent empiriquement.

, sa valeur optimale se dtermine

Il n'est pas ncessaire que soit une densit positive en tout point. On peut tout fait envisager d'utiliser des noyaux prenant des valeurs ngatives, par exemple le noyau propos par M.Lejeune: pour .

Tests d'hypothse
Subsections

Introduction o Hypothses et erreurs o Tests bilatral et unilatral o Rgion d'acceptation et rgion critique o Choix d'un test o Influence de l'chantillonnage

Test entre deux hypothses simples o La mthode de Neyman et Pearson o Test de la moyenne d'une loi normale d'cart-type connu o Test de la moyenne d'une loi normale d'cart-type inconnu o Test d'une variance de loi normale, la moyenne tant connue o Test d'une variance de loi normale, la moyenne tant inconnue o Test d'une proportion

Test entre hypothses composes o Tests UMP o Test d'une moyenne de loi normale, l'cart-type tant connu o Test d'une moyenne de loi normale, l'cart-type tant inconnu o Test d'une variance de loi normale, la moyenne tant connue o Test d'une variance de loi normale, la moyenne tant inconnue o Test d'une proportion

Test de comparaison o Comparaison de deux moyennes o Comparaison de deux variances o Comparaison de deux proportions

Test du rapport des vraisemblances maximales Test d'adquation


o o o

Test du Test de Kolmogorov Test de Cramer-Von Mises

Test d'indpendance o Test des diffrences premires o Test de Spearman

Test de comparaison d'chantillons o Test des variances de Fisher-Sndcor o Test de Student o Test de Spearman

Analyse de la variance o Les donnes de l'analyse o Le test o Analyse des contrastes

Introduction
Subsections

Hypothses et erreurs Tests bilatral et unilatral Rgion d'acceptation et rgion critique Choix d'un test Influence de l'chantillonnage

Hypothses et erreurs
Une utilisation courante des statistiques est la notion de test. Un test est un mcanisme qui permet de trancher entre deux hypothses au vu des rsultats d'un chantillon. Dans les cas qui nous intressent, ces hypothses porteront sur des estimations (valeur d'un moment, galit de variances, nature d'une loi de probabilit ...). Soient et ces deux hypothses, . Il y a donc 4 cas

dont une et une seule est vraie. La dcision aboutira choisir ou possibles dont les probabilits sont rsumes dans le tableau suivant: vraie vraie

dcide dcide

et

sont les erreurs de premire et deuxime espce: est la probabilit de dcider alors que est vraie.

est la probabilit de dcider

alors que

est vraie.

Ces deux erreurs sont antogonistes, plus sera grand (resp. petit), plus sera petit (resp. grand). Le fait d'imposer un faible conduit une rgle de dcision plus stricte qui aboutit le plus souvent n'abandonner l'hypothse que dans des cas rarissimes et donc conserver et est donc

cette hypothse quelque fois tort. Le compromis entre les valeurs de souhaitable bien que difficile raliser.

On appelle puissance d'un test la quantit

Dans la pratique des tests statistiques, il est de rgle de se fixer comme donn (les valeurs les plus courantes sont 0.05, 0.01 ou 0.1) de prfrence en fonction du risque de premire espce. En effet, joue le plus souvent un rle prdominant par rapport l'hypothse joue le rle d'hypothse de rfrence alors que : . . est

Cela est la consquence du fait que

souvent limite l'hypothse contraire. Par exemple, on peut avoir relativement facile tester et dans ce cas, est tout simplement

ce qui est

Cette pratique est lie au fait que l'valuation d'un test passe par l'valuation de fonctions complexes qui ont t tabules pour de nombreuses valeurs de mais ne sont pas connues . On est donc amen choisir a priori . Cependant, l'apparition de plus en plus frquente de processus numriques d'approximation rapides et prcis permet une autre approche consistant rechercher la plus petite valeur de vraie. pour laquelle l'hypothse reste

Tests bilatral et unilatral


Avant d'appliquer tout test statistique, il s'agit de bien dfinir le problme pos. En effet, selon les hypothse formules, on applique soit un test bilatral, soit un test unilatral. Un test bilatral s'applique quand on cherche une diffrence entre deux estimations, ou entre une estimation et une valeur donne sans se proccuper du signe ou du sens de la diffrence. Dans ce cas, la zone de rejet (cf section suivante) de l'hypothse principale se fait de part et d'autre de la distribution de rfrence. Un test unilatral s'applique quand on cherche savoir si une estimation est suprieure (ou infrieure) une autre ou une valeur donne. La zone de rejet de l'hypothse principale est situe d'un seul ct de la distribution de probabilit de rfrence.

Certains test comme l'analyse de la variance ou le test du unilatraux.

sont pratiquement toujours

Rgion d'acceptation et rgion critique


Quelle est la dmarche gnrale? tant fix, il faut choisir une variable de dcision, variable qui doit apporter de l'information sur le problme pos, savoir le choix entre les deux hypothses. La loi de cette variable doit tre parfaitement connue dans au moins une ) afin de ne pas introduire de nouvelles inconnues dans le hypothse (le plus souvent problme. On appelle alors rgion critique, et l'on note , l'ensemble des valeurs de la variable de dcision qui conduisent carter . On appelle rgion d'acceptation, et l'on note la rgion complmentaire de la rgion critique. On a galement des relations avec les erreurs de premire et deuxime espce: et . La zone ou rgion d'acceptation correspond l'intervalle dans lequel les diffrences observes entre les ralisations et la thorie sont attribuables aux fluctuations d'chantillonnage. La rgion critique ou zone de rejet correspond donc aux intervalles dans lesquels les diffrences sont trop grandes pour tre le fruit du hasard d'chantillonnage. La construction d'un test est la dtermination a priori de la rgion critique sans connaitre le rsultat de l'exprience. On peut donc rsumer cette dmarche de la manire suivante: Choix de et au profit de . On peut relier par

Dtermination de la variable de dcision

Allure de la rgion critique en fonction de Calcul de la rgion critique en fonction de

Calcul ventuel de la puissance du test Calcul exprimental de la variable de dcision Conclusion du test: rejet ou acceptation de

Choix d'un test


Plusieurs tests de conception trs diffrente sont souvent disponibles pour soumettre une preuve de vrit une hypothse principale. Dans un tel cas, le test qui fournit l'erreur la plus petite, pour une mme valeur de , est par dfinition le plus puissant (celui ayant la plus grande valeur de la puissance de test ). En effet, il peut dtecter les plus petites diffrences entre les populations sans pour autant augmenter l'erreur de premire espce. La majorit des tests statistiques repose sur le respect d'un certain nombre de conditions. Selon le degr de respect de ces conditions d'application, la validit des rsultats se trouve plus ou moins affecte et elle l'est d'autant plus que le test est moins robuste. Ainsi, la robustesse d'un test quivaut sa tolrance vis--vis du respect des conditions. Si le statisticien dispose de plusieurs tests pour vrifier une hypothse, il choisira bien sr le plus puissant et le plus robuste. Les tests peu puissants augmentent la probabilit de commettre une erreur de deuxime espce. Or, cette erreur peut s'avrer particulirement grave. En effet, en mdecine par exemple, une analyse qui classerait comme malade un individu bien portant peut avoir des consquences aussi graves qu'une analyse qui classerait comme bien portants des individus malades (erreur de premire espce). Dans de tels cas, il y a intrt tracer la courbe de puissance du test, aussi appele courbe caractristique d'efficacit qui indique la probabilit de prendre une bonne dcision si valeur de pour un donn. est vraie. La puissance est mesure par la

Influence de l'chantillonnage
Pour comparer les moyennes, les variances ou les autres paramtres estims de deux chantillons, il faut prendre en considration la technique conduisant la constitution des

deux chantillons. Si la slection des lments est alatoire, et si le choix des lments du premier chantillon n'a aucune influence sur le choix des lments du second, les deux chantillons sont alors appels indpendants. Si l'on prlve alatoirement des paires d'lments, et non les lments eux-mmes, on constitue deux chantillons apparis. Dans ce cas, le premier lment de chaque paire appartient au premier chantillon et le deuxime est affect au second. Parfois, la paire dlments peut se rapporter au mme individu sur lequel on mesure la mme variable deux occasions diffrentes, par deux moyens diffrents par exemple. La technique de l'chantillonnage appari prsente l'avantage d'liminer un maximum de sources de variations non relies au facteur que l'on tudie. En rgele gnrale, plus les critres d'appariement des donnes sont nombreux, plus grand sera cet avantage. Dans ce qui suit, nous allons aborder quelques tests classiques. Cette liste ne se veut pas exhaustive. Reportez-vous des ouvrages plus spcialiss pour une approche plus systmatique des tests statistiques.

Test entre deux hypothses simples


Subsections

La mthode de Neyman et Pearson Test de la moyenne d'une loi normale d'cart-type connu Test de la moyenne d'une loi normale d'cart-type inconnu Test d'une variance de loi normale, la moyenne tant connue Test d'une variance de loi normale, la moyenne tant inconnue Test d'une proportion

La mthode de Neyman et Pearson


Soit une v.a. de densit densit de l'chantillon . o est un paramtre rel inconnu. dsignera la

Un test entre deux hypothses simples se traduit par:

Supposons l'erreur de premire espce de l'espace par:

connu. On a vu que l'on peut relier

une rgion

On cherche par ailleurs le test le plus puissant, donc celui qui maximise:

La solution est donne par le thorme de Neyman et Pearson. Thorme: La rgion critique optimale est dfinie par l'ensemble des points x de tels que:

En consquence de ce thorme, on peut montrer:

(le test est alors dit sans biais).

si

alors

(le test est convergent).

Test de la moyenne d'une loi normale d'cart-type connu


Soit une v.a. normale de moyenne et d'cart-type connu. Au vu d'un chantillon de est gale ou , ce ralisations indpendantes qui se rsume par: , on dsire savoir si la moyenne

Les fonctions de vraisemblance, ou densit, de l'chantillon sont:

La rgion critique est dfinie par le ratio de ces deux fonctions. En passant par un oprateur logarithme, on obtient facilement:

En posant:

, on obtient:

Si

, on aboutit :

La rgion critique est donc dfinie par l'ingalit Pour cela, nous introduisons l'erreur dcidons ralisation.

qu'il faut maintenant dterminer. . Nous

. Cette erreur est dfinie par:

si , donc o tant une v.a. normale, la distribution de .

est la v.a. dont est une est galement normale de moyenne

et d'cart-type

On a alors (la condition

tant vraie)

avec

La quantit

suit une loi normale centre rduite donc:

avec Si la valeur de valeur de

est fixe, on peut par lecture dans une table de la loi normale, trouver la et donc celle de .

La rgle de dcision du test est donc:

Par un raisonnement quivalent, on peut valuer l'erreur de deuxime espce et donc la puissance du test.

avec

v.a. normale centre rduite.

Test de la moyenne d'une loi normale d'cart-type inconnu


Le raisonnement prcdent s'applique jusqu' la dtermination de .

dsigne l'estimation de l'cart-type inconnu

La quantit ne suit plus une loi normale centre rduite car le dnominateur n'est plus une constante mais une ralisation de l'estimateur de la variance de la variable . est obtenue par

Par construction,

suit une loi du

est donc une v.a. suivant une loi de Student

degrs de libert. Ce qui nous donne:

avec

: Student(n-1).

L encore, il est possible grce une table de la loi de Student de trouver la valeur du seuil et donc celle de . La rgle de dcision est toujours la mme. De mme, par un raisonnement analogue, on accde l'erreur de deuxime espce et la puissance du test.

avec

v.a. de Student

degrs de libert.

Test d'une variance de loi normale, la moyenne tant connue


Soit une v.a. normale de moyenne et connue. On suppose que l'cart-type inconnu ne peut ralisations indpendantes prendre que deux valeurs . Au vu d'un chantillon de est gale ou

, on dsire savoir si la variance

, ce qui se rsume par:

L'estimateur de la variance sera

(On utilise

et non pas

car la moyenne est connue.)

Les fonctions de vraisemblance, ou densit, de l'chantillon sont:

La rgion critique est dfinie par le ratio de ces deux fonctions. En passant par un oprateur logarithme, on obtient facilement:

Dans le cas

, on obtient

La valeur de une loi du

est dtermine partir de l'erreur de premire espce. La quantit degrs de libert. La valeur seuil sera donc lue dans une table du

suit .

Test d'une variance de loi normale, la moyenne tant inconnue


Ce cas est plus frquent que le prcdent. Toujours grce au raisonnement induit par le thorme de Neyman et Pearson, on aboutit aux rsultats suivants:

La variable de dcision est

qui est telle que et

suit une loi du est dtermin par

degrs de libert. La rgion critique est dfinie par

La rgle de dcision du test est donc:

Test d'une proportion


Soit une population trs grande o la proportion d'individus possdant le caractre est gale . On pense que cette proportion ne peut avoir que deux valeurs ou . Au vu d'un chantillon de taille , on dsire prendre une dcision quant la valeur de cette proportion, avec une signification . A partir de l'chantillon, l'estimateur de la proportion thorique sera la frquence empirique o est le nombre d'individus possdant le caractre dans l'chantillon.

Les hypothses sont donc

La rgle de dcision est donne par

dsigne la rgion critique.

est une ralisation d'une v.a. dont la loi de probabilit peut tre dtermine grce au thorme central limite. Si la taille de l'chantillon est suffisamment grande (en pratique, ), on admet que la loi de tend vers une loi normale de moyenne et d'cart-type

. Ce qui nous conduit

avec Sous l'hypothse

. , on obtient

est une v.a. normale centre rduite.

La valeur du seuil critique est lue dans une table de la loi normale. L'erreur de seconde espce et la puissance du test sont donnes par:

est une v.a. normale centre rduite.

Test entre hypothses composes


Subsections

Tests UMP Test d'une moyenne de loi normale, l'cart-type tant connu Test d'une moyenne de loi normale, l'cart-type tant inconnu Test d'une variance de loi normale, la moyenne tant connue Test d'une variance de loi normale, la moyenne tant inconnue Test d'une proportion

Tests UMP
Dans un premier temps, considrons que la formulation gnrale reste la mme pour l'hypothse principale:

Par contre, l'hypothse

est forme d'un ensemble d'hypothse simples.

Les exemples les plus courants sont:

tests unilatraux.

test bilatral. L'erreur de premire espce tant fixe, on pourra dterminer une rgion critique associe chaque valeur de , et une valeur de de l'erreur de seconde espce. La courbe

pour toutes les valeurs

est appele courbe d'efficacit.

Le test est dit uniformment le plus puissant (Uniformely Most Powerful) ou UMP si les rgions critiques ne dpendent pas des valeurs de .

Thorme: S'il existe un test UMP, la puissance de ce test est suprieure la puissance associe tout autre test. Plus gnralement, de peut elle-mme tre compose. donn. dpend alors de selon les valeurs

. On devra donc exiger

Le thorme de Lehmann assure l'existence de tests UMP dans les cas suivants:

et

Par contre, il n'existe pas de tests UMP pour les cas : ou , et a fortiori, contre

contre .

Nous allons maintenant introduire quelques exemples. Pour une liste plus exhaustive, reportez-vous la bibliographie. Les rgles de dcision ne changent pas dans le principe. Il s'agit toujours de trouver une valeur seuil et de dcider au del du seuil et en dea du seuil.

Test d'une moyenne de loi normale, l'cart-type tant connu


Test unilatral Soit une v.a. normale de moyenne et de variance connue. Au vu d'un chantillon de

ralisations indpendantes

, on veut choisir entre les deux hypothses:

Comme toujours, l'erreur de premire espce est fixe. Par ailleurs, la moyenne sera estime par la moyenne arithmtique . La construction du test est similaire ce que nous avons vu pour le cas du test simple d'une moyenne. On aboutit :

avec

. est indpendante de la valeur de sous

On remarque que la valeur du seuil de dcision l'hypothse

. Il s'ensuit que le test est uniformment le plus puissant.

suit une loi normale (en effet est connue et joue donc le rle d'une La variable constante) centre et rduite. La valeur du seuil sera donc dduite d'une table de la loi normale. Il en est de mme pour l'erreur de deuxime espce et pour la puissance du test. Test bilatral Soit une v.a. normale de moyenne et de variance connue. Au vu d'un chantillon de

ralisations indpendantes

, on veut choisir entre les deux hypothses:

Comme toujours, l'erreur de premire espce est fixe. Par ailleurs, la moyenne sera estime par la moyenne arithmtique . La construction du test est obtenue en remarquant que l'hypothse peut se dcomposer en deux hypothses lmentaires:

. On peut A chacune de ces deux hypothses sera associ un seuil de dcision et conclure que le test ne sera pas UMP puisque le seuil de dcision dpend du sens de l'ingalit.

La dtermination des seuils est simple puisque les deux hypothses On a

et

sont disjointes.

Il en rsulte une infinit de valeurs possibles pour symtrique (loi normale), on prend gnralement

et

. Cependant, la loi de

tant

ce qui conduit naturellement

. Chaque cas est en fait une application du des valeurs de symtriques par rapport test prcdent mais pour une valeur moindre de .

avec

La valeur du seuil est donc dduite d'une table de la loi normale. Il en est de mme pour l'erreur de deuxime espce et pour la puissance du test.

Test d'une moyenne de loi normale, l'cart-type tant inconnu


Les deux tests, bilatral et unilatral, se construisent selon le mme procd. Les valeurs de dcision seront lues dans des tables de Student degrs de libert.

Test d'une variance de loi normale, la moyenne tant connue


Les deux tests, bilatral et unilatral, se construisent selon le mme procd. Les valeurs de dcision seront lues dans des tables du degrs de libert.

Test d'une variance de loi normale, la moyenne tant inconnue


Les deux tests, bilatral et unilatral, se construisent selon le mme procd. Les valeurs de dcision seront lues dans des tables du degrs de libert.

Test d'une proportion


Les deux tests, bilatral et unilatral, se construisent selon le mme procd. Les valeurs de dcision seront lues dans des tables de loi normale. Dans le cas du test bilatral, on s'appuie sur le fait que la proportion empirique approximativement une loi normale de moyenne suit

, la proportion thorique, et d'cart-type

. La rgion critique du test est alors:

est lu dans une table de la loi normale

Exemple: Sur un chantillon de 200 individus d'une commune, sont favorables l'implantation d'un centre commercial. Ceci contredit-il l'hypothse selon laquelle un habitant sur trois y est favorable ? Cet ennonc conduit la construction d'un test bilatral d'hypothses de proportion:

avec

, on lit

d'o la rgion d'acceptation: soit .

Comme

, on ne peut pas rejeter

au seuil

Test de comparaison
Soient et deux variables alatoires dfinies sur deux populations mres comparables (resp. ) dpend d'un paramtre inconnu (resp.

(ventuellement gales). La loi de

). On souhaite tester l'hypothse "ces deux paramtres sont gaux" contre l'hypothse complmentaire "ces deux paramtres son diffrents", soit : contre : (resp. (resp. ) de (resp. )

Pour effectuer ce test, on dispose d'un chantillon de taille permettant une estimation ponctuelle que les v.a. En supposant et (resp. ) de

). On suppose de plus

sont normales ou approximativement normales. vraie, on dtermine un risque de premire espce et telles que , une zone de rejet

associe deux valeurs critiques

o Si

est une fonction de

et

. sinon, on accepte au risque .

appartient la zone de rejet, on rejette

Subsections

Comparaison de deux moyennes Comparaison de deux variances Comparaison de deux proportions

Comparaison de deux moyennes


Soient teste et deux lois normales de moyennes et , et d'cart types et . On

contre

au risque

On utilise le test de Student (dans sa version la plus gnrale). On dispose de deux chantillons de tailles de moyennes Si les cart types et et et de d'cart types et et sur lesquels on peut faire des estimations .

sont connus, on calcule

On rejette au risque si loi normale centre rduite.

o la valeur

est lue dans la table de la

Si les cart types a) Si et

et

sont inconnus, il faut tenir compte de la taille des chantillons , on calcule

sont tous les deux suprieurs

On rejette au risque si loi normale centre rduite. b) Si ou est infrieur et

o la valeur

est lue dans la table de la

on calcule

On rejette

au risque

si

o la valeur degrs de libert.

est lue dans la table de Student

c) Si

ou

est infrieur

et

on calcule

On rejette au risque si de Student degrs de libert;

o la valeur est l'entier le plus proche de

est lue dans la table

Le test de Student est assez robuste mais si l'on s'loigne trop des conditions de normalit, il est prfrable d'utiliser un test non paramtrique.

Comparaison de deux variances


Avec les mmes notations que prcdemment, on teste : contre : au risque

On calcule

et

On rejette valeur

au risque

si et

o la degrs de libert.

est lue dans la table de Fisher-Sndcor

Remarque :

Comparaison de deux proportions


Soit (respectivement (resp. ) la proportion d'individus d'une certaine modalit ). On extrait un chantillon de taille (resp. dans la ) dans la

population mre population (resp. (resp. ) de

). On teste partir de ces chantillons, on dispose d'une estimation ) qui suit une loi : contre : (resp. ). au risque .

(resp.

On suppose que

et

suivent approximativement des lois normales. On calcule

puis

On rejette au risque si loi normale centre rduite.

o la valeur

est lue dans la table de la

Test du rapport des vraisemblances maximales


Ce test est fort utile l o les mthodes prcdentes ont echou.

Test de

contre

est un paramtre vectoriel de dimension

On construit la quantit suivante:

On a donc

est intuitivement une statistique convenable pour un test car plus il

est fort, plus l'hypothse est vraisemblable. Cela revient remplacer dans par son estimation par la mthode du maximum de vraisemblance. La rgion critique du test sera donne par : .

Thorme: La distribution de .

est asymptotiquement celle d'un

dans l'hypothse

De ce thorme, on dduira le procd d'estimation de la rgion critique. On peut tendre cette approche au test entre deux hypothses composes. Il suffit de former la quantit suivante:

pour laquelle le thorme prcdent est toujours valable.

Test d'adquation
Dans cette partie, on suppose que la loi de probabilit de la variable alatoire , dont on dispose d'un chantillon, est inconnue. Une premire remarque s'impose: les tests d'adquation ne permettent pas de trouver la loi d'une v.a., mais seulement d'accepter ou de rejeter une hypothse simple mise a priori. Ainsi, il est ncessaire de faire une tude sommaire pralable de l'chantillon afin de formuler des hypothses plausibles quant la loi de probabilit de : la v.a. est-elle discrte ou continue? Est-elle dfinie pout tout , ou seulement pour ? L'histogramme en frquence obtenu est-il symtrique par rapport la valeur moyenne? Existe-t-il une relation simple entre moyenne estime et variance estime? Les rponses ces diffrentes questions, de mme que la nature de la variable reprsente par permettent dans la plupart des cas d'mettre une hypothse plausible.

Subsections

Test du Test de Kolmogorov Test de Cramer-Von Mises

Test du
Soit un chantillon de ralisations indpendantes de la v.a. . Soit la loi de distribution inconnue de . L'hypothse de dpart sera que la loi de distribution est . Ceci permet de formuler le test:

Les paramtres de

seront soient connus soit estims. classes . On note ). Si la

A partir de l'chantillon, on construit un histogramme en frquence de le nombre d'observations de faites dans la classe

(avec bien sr

v.a. suit la loi alors l'effectif thorique de la classe est donn par: o est la probabilit pour que la v.a. suivant la loi prenne une valeur sur le domaine dfinissant la classe . est mesure

L'cart entre la ralit issue de l'chantillon et la thorie issue de l'hypothse par l'indicateur

Sous l'hypothse , on peut considrer que l'cart entre distribution thorique et distribution empirique est distribu normalement. Dans ces conditions, tend vers une loi du degrs de libert ( = nombre de classes - 1 - nombre de paramtres ncessaires la ).

spcification complte de

La rgion d'acceptation du test est l'intervalle

tel que la probabilit d'une variable

du degrs de libert prenne une valeur dans cet intervalle soit gale ( tant l'erreur de premire espce relative au test). Si la valeur de l'indicateur est suprieure , alors on dcide l'hypothse .

Il n'est gure possible de dterminer l'erreur de deuxime espce (et donc la puissance du test), la loi de probabilit de n'tant pas spcifie sous l'hypothse . On ne peut donc pas dterminer la loi de probabilit de l'indicateur sous cette hypothse. Pour que la loi (sous l'hypothse ) de l'indicateur d'cart tende effectivement vers une loi

, il est ncessaire que l'effectif d'une classe soit en pratique suprieur 5. du Dans le cas contraire, il faudra procder un regroupement des classes jusqu' ce que cette contrainte soit satisfaite.

Test de Kolmogorov
Soit un chantillon de ralisations indpendantes de la v.a. . Soit la loi de distribution inconnue de . L'hypothse de dpart sera que la loi de distribution est . Ceci permet de formuler le test:

On suppose que tous les paramtres de la loi

sont connus.

Soit la fonction de rpartition empirique alatoire partir de l'chantillon. qui est l'histogramme cumul peut tre considr comme une estimation de la fonction de rpartition de note . L'indicateur d'cart de ce test est la valeur absolue de la distance et :

maximum entre

La valeur de

tant fixe, on acceptera l'hypothse

si

. Les valeurs

sont lues sur les tables de Kolmogorov (il existe aussi des procdures numriques pour les estimer).

Test de Cramer-Von Mises


Soit un chantillon de ralisations indpendantes de la v.a. de fonction de .

rpartition inconnue. L'hypothse de dpart sera que la fonction de rpartition est Ceci permet de formuler le test:

On suppose que tous les paramtres de la fonction

sont connus.

L'indicateur d'cart de ce test est:

La distribution de cet indicateur a t tabule. On dmontre que

o les valeurs de l'chantillon sont ordonnes en ordre croissant. On rejette probabilit si la valeur de cet indicateur est suprieure une valeur que la v.a. de dpasser. a une

Le test de Cramer-Von Mises a les mmes applications que le test de Kolmogorov. La diffrence entre ces deux tests rside dans le fait que pour le test de Kolmogorov seul l'cart maximum entre la distribution empirique et la distribution d'ajustement entre en considrarion alors que l'indicateur d'cart du test de Cramer-Von Mises prend mieux en compte l'ensemble des donnes en ce sens que la somme des carts intervient. Le test de Kolmogorov est donc beaucoup plus sensible l'existence de points abrents dans un chantillon que le test de Cramer-Von Mises. On pense gnralement que ce dernier test est plus puissant, mais cela n'a pas t dmontr thoriquement.

Test d'indpendance
Dans la plupart des tests que nous venons de prsenter, on suppose toujours les valeurs de l'chantillon indpendantes. C'est une condition ncessaire. Il est donc souvent utile de vrifier cette hypothse par un test.

Subsections

Test des diffrences premires Test de Spearman

Test des diffrences premires


Soit un chantillon de des ralisations valeurs successives d'une v.a. . On dsire tester l'indpendance . , puis

. Cette indpendance constitue l'hypothse principale

Le principe de ce test consiste calculer les diffrences successives compter le nombre de diffrences positives et ngatives. Si autant de diffrences positives que de diffrences ngatives. On construit donc la v.a. par

est vraie alors il doit y avoir

A priori, on suppose qu'il n'y a pas de diffrences nulles. On note diffrences premires positives.

le nombre de

Sous l'hypothse est donc

. L'esprance mathmatique de la v.a. et l'on peut montrer que sa variance vaut est . Pour

suffisamment grand (en pratique, on fixe ), la quantit approximativement une loi normale centre rduite. Pour une erreur de premire espce , on accepte l'hypothse

si la quantit

est infrieure la valeur

lue dans une table de la loi normale.

Test de Spearman
Soit une ralisation de la v.a. . Nous dsirons savoir si les peuvent tre considrs comme des ralisations indpendantes les unes des autres. Pour cela, Spearman propose le raisonnement suivant: si les ralisations sont indpendantes, l'chantillon ne prsente pas de structure, i.e. d'ordre privilgi. On testera donc la prsence de dpendance en comparant l'ordre de l'chantillon recueilli avec celui issu d'une procdure de tri. Cette comparaison se fait grce au coefficient de corrlation. Sous l'hypothse d'indpendance, le coefficient de corrlation doit tre nul. Ce test est souvent utilis comme test de tendance de sries chronologiques.

Soit

le rang occup par la ralisations

dans la srie ordonne des

(le rang initial

tant bien sur ). On note

le coefficient de corrlation de Spearman, donn par

o Soit la valeur prise par

. pour l'chantillon considr. La distribution de sous ) on peut

l'hypothse

est tabule. Cependant, pour un chantillon de grande taille (

considrer que la quantit centre rduite.

est approximativement distribue selon une loi normale

Si la quantit

est infrieure au quantile

du coefficient de corrlation de Spearman,

alors on accepte l'hypothse Si

, sinon il y a rejet.

, on peut se servir des valeurs d'une table de la loi normale centre rduite.

Test de comparaison d'chantillons


Toujours en considrant la proprit d'indpendance, on va maintenant s'intresser au cas de la comparaison de deux chantillons, par le biais de paramtres estims (le plus souvent la

moyenne et/ou la variance). L'hypothse est : relativement la variable tudie, ces deux chantillons ont-ils t prlevs indpendamment l'un de l'autre. Par soucis de simplicit de formulation des hypothses, on retiendra, pour , l'hypothse ngative qui se traduit par le fait que les variables observes ne sont pas significativement diffrentes. De plus, on supposera que les chantillons ont des tailles comparables. Des tests entre populations de tailles trs diffrentes peuvent tre trouvs dans la littrature, et en particulier dans l'ouvrage de B.Scherrer (cf Bibliographie).

Subsections

Test des variances de Fisher-Sndcor Test de Student Test de Spearman

Test des variances de Fisher-Sndcor


Ce test ne s'applique qu'au cas de deux chantillons gaussiens:

On choisit le plus souvent de tester les variances avant les moyennes. Ces dernires ne sont testes que si le premier test retient l'hypothse de non indpendance.

On construit les quantits

est l'estimateur de la variance de la variable alatoire . Sous l'hypothse d'galit des variances (

. Cette quantit suit une loi du ), la quantit

suit une loi de Fisher-Sndcor. En pratique, on met toujours au numrateur la plus grande des deux quantits afin d'obtenir une variable de dcision dont la valeur est suprieure . La rgion critique est de la forme

(avec donc ). La valeur de lue dans une table de Fisher-Sndcor.

est relie l'erreur de premire espce et peut tre

Test de Student
Ce test s'applique la comparaison de deux chantillons gaussiens de mme variance. Il est donc souvent la suite logique du test de Fisher-Sndcor. On dispose des donnes suivantes:

Les v.a.

suivent une loi du

degrs de libert.

La moyenne arithmtique

(resp.

) est une ralisation d'une v.a. (resp. ) et d'cart-type

(resp. (resp. ).

suivant une loi normale de moyenne

La quantit

suit une loi du

degrs de libert.

La v.a. . La variance

est une v.a. normale de moyenne

et d'cart-type

tant inconnue, on construit une variable de Student dfinie par

d'o l'on peut faire disparatre le paramtre inconnu

, la rgion critique est de la forme . Comme habituellement, la Sous l'hypothse valeur seuil est relie l'erreur de premire espce et peut tre trouve dans une table de Student.

Il faut noter pour finir que le test de Student est robuste car il s'applique galement lorsque l'hypothse d'galit des variances n'est plus valide. Il faut cependant pour cela que les tailles des chantillons soient grandes (quelques dizaines d'observations pour chaque chantillon).

Test de Spearman
On peut ici rutiliser le coefficient de corrlation de Spearman qui va indiquer le degr de liaison existant entre le classement des lments d'un chantillon selon la variable et le classement des mmes lments selon la variable . Une forte valeur du coefficient de corrlation de Spearman indiquera une liaison entre les deux variables (puisqu'induisant des classements linairement lis). Cette approche n'a de sens que si les chantillons des v.a. et sont apparis. Pour calculer le coefficient de corrlation de Spearman, il s'agit de calculer le rang de chaque lment dans la srie croissante de valeurs de classement donn par : et de puis de calculer la diffrence de

o dnote le -me lment de l'chantillon. L'indicateur de Spearman est

Il existe des versions plus sophistiques de cet indicateur qui tiennent compte des ex-aequos dans les classements (cette correction n'est ncessaire que si ce nombre d'ex aequos devient important). Sous l'hypothse d'indpendance entre les deux variables, on peut montrer que

est la variable alatoire associe l'indicateur de Spearman. De plus, si l'effectif est

grand ( ), cette vatiable alatoire suit approximativement une loi normale. On peut donc construire un test sur la variable

qui suit une loi normale centre rduite. On retrouve un test quivalent un test de moyenne de loi normale. Dans le cas d'un test bilatral, avec un risque de , la rgle de dcision est

Si alors loi normale centre rduite.

sinon

et

dsigne la

Pour les petits chantillons, il est ncessaire d'avoir recours une table spcifique de Spearman.

Analyse de la variance
L'analyse de la variance est un ensemble de techniques permettant de comparer plusieurs chantillons de donnes. Cette comparaison est le plus souvent limite celle des moyennes dans un cas gaussien. On l'utilise galement pour tudier l'effet d'un facteur qualitatif externe. Nous nous limiterons ici une prsentation rsume dans le cas o il y a un seul facteur explicatif.

Subsections

Les donnes de l'analyse Le test Analyse des contrastes

Les donnes de l'analyse


Pour chaque ralisation chantillon . ( ) d'un facteur explicatif , on dispose d'un

dont la moyenne est

. La taille totale de la population est donc

On considre que chaque chantillon est issu d'une v.a. terme de test, nous avons donc

suivant une loi

. En

On pose centre et d'cart-type forme facteur explicatif.

o est une perturbation dont la variation obit une v.a. normale . On peut aussi adopter un modle similaire mais plus gnral de la o est une valeur moyenne constante et l'effet du niveau du

Dans le cas o l'hypothse moyennes (ou et

est rejete, l'tude se poursuit par l'estimation des valeurs selon le modle utilis).

Le test
On note la moyenne totale que l'on obtient par

La variance totale

est estime par

On montre facilement que cette variance totale peut se dcomposer en la somme de la variance des moyennes, variances, (aussi appele variance inter-classes) plus la moyenne des

(aussi appele variance intra-classes).

La variance reprsente la variation du au facteur explicatif considre comme la variabilit rsiduelle.

, la variance

est elle

On peut rcrire cette variance rsiduelle en faisant intervenir les variances de chaque chantillon

Chaque quantit

suit une loi du

degrs de libert. Donc la quantit

suit galement une loi du Sous l'hypothse

degrs de libert. sont de mme loi donc on a galement le fait que la quantit

, les v.a.

suit une loi du libert.

degrs de libert, et

, une loi du

degrs de

On peut donc construire l'indicateur de notre test par

dont la loi est celle de Fisher-Sndcor. Si la valeur de l'indicateur est suprieure la valeur critique d'une variable de Fisher-Sndcor (pour une erreur de premire espce ), alors on conclut l'influence du facteur explicatif , i.e. on rejete l'hypothse .

Analyse des contrastes


Le rejet de l'hypothse possible qu'un seul couple analyse plus fine des diffrences ne signifie pas que toutes les moyennes sont diffrentes. Il est ne valide pas l'hypothse. On est alors intress par une que l'on appele souvent contraste.

Une approche possible repose sur un rsultat du Scheff: l'vnement

a lieu avec une probabilit

donne par

est le carr moyen rsiduel que l'on peut estimer par la quantit

On peut montrer que l'hypothse significativement diffrent de . Le test de chaque contraste est donc

a t rejete si au moins un des contrastes est

sera estim par Attention, ce test est parallle, il n'y a donc pas ncessairement de transitivit des rsultats. On peut donc tout fait avoir la configuration et et .

Le Contrle Statistique de Process: SPC


Subsections

Introduction Capabilit d'un processus o Etude de la capabilit des processus o Indicateurs gnraliss o Les cartes de contrle

#1

Introduction
La notion de qualit est bien sr trs importante dans la production et les statistiques y contribuent en fournissant des outils de mesure mais aussi de dcision les plus objectifs possibles. Si l'on suit Montgomery, la qualit est inversement proportionnelle la variabilit. L'accroissement de la qualit s'obtient donc par la rduction de cette variabilit. Celle-ci s'exprime bien en termes statistiques par le biais de la variance mme si cela n'est pas suffisant. C'est pourquoi il existe de nombreux indicateurs. Afin de les utiliser au mieux il est ncessaire d'en bien connatre et comprendre les hypothses sousjacentes. Dans un systme de production quel qu'il soit (production de produits manufacturiers, de services ou d'information), la variabilit provient de l'absence de rptitivit parfaite. Les causes principales en sont l'usure des machines et des matriaux, les oprateurs, les mthodes de transformation et l'environnement. On considre le plus souvent deux classes de variabilit

la variabilit inhrente au processus (et peu modifiable) qui induit la notion de distribution des mesures (le plus souvent admise par les entreprises comme tant une distribution normale); la variabilit externe qui induit le plus souvent un biais dans les distributions par rapport cette hypothse de normalit.

Le contrle statistique de process (SPC : Statistical Process Control) tente de modliser ces causes et leurs effets. Il s'agit plus d'une mthodologie que d'une simple liste d'outils. Cette mthodologie est compose de trois objectifs: 1. Process control qui tente de maintenir le processus sur sa cible en termes de positionnement nominal et de tolrances. 2. Process capability qui tente de dterminer la variabilit inhrente un processus pour tablir des spcifications ralistes utilisables en particulier des fins de comparaisons. 3. Process change qui induit des modifications du processus dans un but d'amlioration (c'est la partie action du SPC).

Le SPC est associ une grande liste d'outils dont les plus connus sont:

flowchart; run charts; pareto charts and analysis; cause and effect diagrams; frequency histograms; control charts; process capability studies; acceptance sampling plans; scatter diagrams.

Tous ces outils utilisent des donnes de type chantillon et propose une visualisation (le plus souvent graphique) de la variabilit du processus tudi. Ce chapitre ne va voquer que la notion de capabilit. La bibliographie contient les rfrences principales introduisant tous ces outils.

Capabilit d'un processus


Le contrle statistique de process permet de garantir par des outils statistiques que le processus est sous contrle. Il permet ainsi de garantir tout moment des conditions de travail satisfaisantes. Il est bas sur une connaissance et un suivi du processus. Un processus est sous contrle s'il est statistiquement stable. Pour une fabrication comportant diffrents process, l'tude porte sur chacun des process pris sparemment, sur le principe d'lments placs en srie. La mise en place de ce systme de contrle requiert au pralable: Une tude de la capabilit des diffrents process sur lesquels se basent les contrles. La dtermination de la loi de probabilit pour chaque processus. La ralisation de cartes de contrle pour un suivi de l'volution du processus. La dtermination des ractions adopter pour chacun des phnomnes dfaillants mis en vidence par les autocontrles. 5. Une formation sur les autocontrles pour les oprateurs directement concerns. 6. La mise en place dfinitive des autocontrles dans les ateliers. 1. 2. 3. 4.

Subsections

Etude de la capabilit des processus Indicateurs gnraliss Les cartes de contrle

Etude de la capabilit des processus


Pour qu'un processus puisse tre dclar sous contrle, il est indispensable de connatre sa capabilit et que cette valeur soit acceptable. Cet indicateur permet de dterminer si le processus est capable de produire dans l'intervalle de tolrance requis. Les indicateurs de capabilit les plus courants sont:

. Le CAP (coefficient d'aptitude process) est calcul partir d'un film de production traant l'volution de valeurs mesures de manire conscutive. Il reprsente le rapport entre l'intervalle de tolrance ( = Upper Specification Limit et = Lower Specification Limit) et fois l'cart type ( ) de l'chantillon. o est l'esprance mathmatique de la distribution sousjacente (i.e. la valeur thorique). o est la moyenne exprimentale et ). la valeur nominale

(sauf contrindication, on prendra

. est le plus souvent la valeur de l'esprance

Dans la pratique, la valeur nominale

mathmatique . Tous ces indicateurs ont t construits et tabuls sous l'hypothse de la loi normale pour la distribution sousjacente. Par exemple, pour implanter un contrle statistique, le coefficient doit tre gal ou suprieur . Ce coefficient, trs utilis dans le monde industriel, est assujti des hypothses qui ne sont pas toujours vrifies. Tout d'abord, on ne compare que des carts la valeur moyenne sans tenir compte de la rpartition de ces carts. On fait donc une hypothse de symtrie de la distribution des mesures. Il faut donc, au moins par un trac, s'assurer de la validit de cette hypothse. Ensuite, les valeurs de rfrence (cf. tableau ci-dessous) sont obtenues dans le cas de la Loi normale et ne sont bien sr valables que dans ce contexte. Capabilit 0.67 0.67 1 1.33 1.67 Classement Trs mauvaise Trs mauvaise Mauvaise Trs moyenne moyenne Moyenne bonne

2 2

Bonne trs bonne Excellente

L'amlioration de la capabilit peut donc tre obtenue soit par une rvision de l'intervalle de tolrance dans le sens d'un largissement, soit par la fiabilisation du process pour diminuer la dispersion sur les valeurs mesures. . Lorsque celui-ci est L'importance des hypothses peut tre montre sur le coefficient faible, cela n'induit pas obligatoirement que la qualit du processus l'est galement. En effet, cela peut provenir de la non adquation de l'hypothse de normalit (ou au minimum de l'hypothse de symtrie). Le raisonnement est galement valable pour les fortes valeurs de . En particulier, ce coefficient n'est pas adapt des distributions de type Gamma pourtant frquentes dans les cas rels (sauf si le coefficeint d'asymtrie est proche de 0, i.e. la valeur de rfrence de la loi normale). Un test d'adquation pralable toute interprtation est donc requis.

Indicateurs gnraliss
Compte tenu des limitations des indicateurs classiques de capabilit, des indicateurs gnraliss ont t proposs. Ils permettent de prendre en compte la non normalit de la distribution. Cependant, ils sont moins connus et donc moins bien accepts par le milieu professionnel.

Soit un chantillon de valeurs Chang et Lu sont dfinis par

tri en ordre croissant. Les indicateurs de

avec

, la mdiane qui remplace la moyenne (

si

est impair et

si

est pair). de l'chantillon, c'est

et dire

sont les valeurs correspondant aux quantiles

avec entire).

et

est l'oprateur partie

Ces indicateurs donnent les mmes rsultats que les prcdents en prsence de la loi normale et une meilleure apprhension lorsque celle-ci n'est pas vrifie. En effet, la valeur de rfrence correspond au quantile mais uniquement dans le cas de la loi normale. Ces indicateurs sont donc bien des gnralisations.

Les cartes de contrle


Deux types de cartes sont possibles. Cartes de contrle valeurs individuelles Elles se composent de relevs des valeurs sous forme de graphique. Ces cartes sont composes de trois zones: bon, surveillance, rejet (au del

des valeurs extrmes et ). La valeur cible est mise en vidence. L'objectif est de se situer au plus proche de cette valeur. Dans la zone de surveillance, on accepte la production mais on est plus attentif des phnomnes tels que la stagnation dans la zone (plusieurs points consecutifs), une tendance vers le seuil rejet, ... L'outil graphique est un plus donnant les moyens de rgler au mieux le process en se basant sur un suivi.

Figure 5: Exemple de carte de contrle o figurent les valeurs de rfrence ansi que le rsultat de la mesure m(x). Cartes de contrle par attribut On utilise un calibre. Elles sont caractre qualitatif (bon, mauvais par dfaut, mauvais par excs). L'atout est de pouvoir suivre plusieurs caractristiques sur une mme carte. 5B 1]

Capabilit d'un processus


Le contrle statistique de process permet de garantir par des outils statistiques que le processus est sous contrle. Il permet ainsi de garantir tout moment des conditions de travail satisfaisantes. Il est bas sur une connaissance et un suivi du processus. Un processus est sous contrle s'il est statistiquement stable. Pour une fabrication comportant diffrents process, l'tude porte sur chacun des process pris sparemment, sur le principe d'lments placs en srie. La mise en place de ce systme de contrle requiert au pralable: Une tude de la capabilit des diffrents process sur lesquels se basent les contrles. La dtermination de la loi de probabilit pour chaque processus. La ralisation de cartes de contrle pour un suivi de l'volution du processus. La dtermination des ractions adopter pour chacun des phnomnes dfaillants mis en vidence par les autocontrles. 5. Une formation sur les autocontrles pour les oprateurs directement concerns. 6. La mise en place dfinitive des autocontrles dans les ateliers. 1. 2. 3. 4.

Subsections

Etude de la capabilit des processus Indicateurs gnraliss Les cartes de contrle

Etude de la capabilit des processus


Pour qu'un processus puisse tre dclar sous contrle, il est indispensable de connatre sa capabilit et que cette valeur soit acceptable. Cet indicateur permet de dterminer si le processus est capable de produire dans l'intervalle de tolrance requis. Les indicateurs de capabilit les plus courants sont:

. Le CAP (coefficient d'aptitude process) est calcul partir d'un film de production traant l'volution de valeurs mesures de manire = Upper conscutive. Il reprsente le rapport entre l'intervalle de tolrance ( Specification Limit et = Lower Specification Limit) et fois l'cart type ( ) de l'chantillon. o est l'esprance mathmatique de la distribution sousjacente (i.e. la valeur thorique). o est la moyenne exprimentale et ). la valeur nominale

(sauf contrindication, on prendra

. est le plus souvent la valeur de l'esprance

Dans la pratique, la valeur nominale

mathmatique . Tous ces indicateurs ont t construits et tabuls sous l'hypothse de la loi normale pour la distribution sousjacente. Par exemple, pour implanter un contrle statistique, le coefficient doit tre gal ou suprieur . Ce coefficient, trs utilis dans le monde industriel, est assujti des hypothses qui ne sont pas toujours vrifies. Tout d'abord, on ne compare que des carts la valeur moyenne sans tenir compte de la rpartition de ces carts. On fait donc une hypothse de symtrie de la distribution des mesures. Il faut donc, au moins par un trac, s'assurer de la

validit de cette hypothse. Ensuite, les valeurs de rfrence (cf. tableau ci-dessous) sont obtenues dans le cas de la Loi normale et ne sont bien sr valables que dans ce contexte. Capabilit 0.67 0.67 1 1.33 1.67 2 2 Classement Trs mauvaise Trs mauvaise Mauvaise Trs moyenne moyenne Moyenne bonne Bonne trs bonne Excellente

L'amlioration de la capabilit peut donc tre obtenue soit par une rvision de l'intervalle de tolrance dans le sens d'un largissement, soit par la fiabilisation du process pour diminuer la dispersion sur les valeurs mesures. L'importance des hypothses peut tre montre sur le coefficient . Lorsque celui-ci est faible, cela n'induit pas obligatoirement que la qualit du processus l'est galement. En effet, cela peut provenir de la non adquation de l'hypothse de normalit (ou au minimum de l'hypothse de symtrie). Le raisonnement est galement valable pour les fortes valeurs de . En particulier, ce coefficient n'est pas adapt des distributions de type Gamma pourtant frquentes dans les cas rels (sauf si le coefficeint d'asymtrie est proche de 0, i.e. la valeur de rfrence de la loi normale). Un test d'adquation pralable toute interprtation est donc requis.

You might also like