Professional Documents
Culture Documents
Classification binaire
Régression logistique Le perceptron
1 Régression logistique
2 Le perceptron
Régression logistique Le perceptron
Un exemple
Un exemple
Données : échantillon de 100 personnes. Deux variables
mesurées :
Age du patient X.
Présence (1) ou absence (0) d’une maladie cardiaque Y.
Objectif de l’étude : savoir si l’âge a un effet sur la présence de
la maladie cardiaque.
Régression logistique Le perceptron
Un exemple
Régression logistique Le perceptron
Un exemple
Régression logistique
Le modèle
Y variable à expliquer et X variable explicative.
Hypothèses sur les observations
Observations indépendantes
Données répétées : sous chaque xi , il y a ni réponses yi,j ,
j = 1, · · · , ni observées.
yi = j yi,j : nombre de fois que 1 est réalisé sous la condition xi .
P
Régression logistique Le perceptron
Régression logistique
Le modèle
Hypothèse : distribution conditionnelle de Y = loi de Bernoulli
dont le paramètre p(x), dépend de la valeur x de X.
D’où
P(Y = y|X = x) = p(x)y (1 − p(x))1−y .
Régression logistique Le perceptron
Régression logistique
Le modèle
Classe de fonctions L à laquelle appartient x 7→ p(x)?
Propriétés raisonnables de la fonction p :
valeurs dans l’intervalle [0, 1]
monotonie en x
stabilité par changement d’origine et d’échelle sur la variable
explicative : si p ∈ L, x 7→ p(β0 + β1 x) aussi.
Cas général
p(x) = g( t βx)
β ∈ Rp , g = fonction non linéaire, fonction de lien.
Régression logistique Le perceptron
Régression logistique
Modèle Logit
Régression logistique
exp(t)
g(t) = .
1 + exp(t)
Régression logistique Le perceptron
Régression logistique
Caractéristiques de g
Loi de fonction de répartition de g non symétrique
Queues de distribution en −∞ et +∞ différents l’un de l’autre.
Régression logistique Le perceptron
Régression logistique
Le modèle
Même forme pour toutes ces fonctions.
Cas du modèle logit, t β = (β0 , β1 ).
Deux paramètres à estimer : β0 = paramètre de position, β1 =
paramètre d’échelle.
Propriétés du modèle logistique
Variation : Si β1 = 0, loi de la variable à expliquer ne dépend pas
de la variable explicative.
Sinon p est strictement monotone
Régression logistique Le perceptron
Régression logistique
Log–vraisemblance
n
X
`n (y|x, β) = yi log(pβ (xi )) + (1 − yi ) log(1 − pβ (xi )) .
i=1
Régression logistique Le perceptron
Régression logistique
et
∂`n (y|x, β) X exp(β0 + β1 xi )
!
= xi yi − =0.
∂β1 i
1 + exp(β0 + β1 xi )
Pas de solution explicite ⇒ résolution numérique de ces
équations. Obtention d’un estimateur βn
Régression logistique Le perceptron
Régression logistique
Régression logistique
(H0 ) β1 = 0 .
(H1 ) β1 , 0 .
Régression logistique
Λ(y|x) = 2(`(y|x, b
β) − `(y|x, b
βH0 )) .
Le perceptron [Rosenblatt,1958]
Régression logistique Le perceptron
Le perceptron [Rosenblatt,1958]
Le perceptron [Rosenblatt,1958]
Fonction de prédiction linéaire de paramètre w = (w0 , w) ∈ R × Rd
hw : Rd → R
x 7→< w, x > +w0
∂b
L X
=− yi
∂w0
i∈I
X
L=−
∇wb yi xi
i∈I
Algorithme du perceptron
Convergence de l’algorithme?
Régression logistique Le perceptron
Convergence du perceptron
` ≤ (R/ρ)2