Professional Documents
Culture Documents
RESEAUX DE NEURONES
Fabien MOUTARDE
Centre de Robotique (CAOR)
Mines ParisTech (ENSMP)
Fabien.Moutarde@mines-paristech.fr
http://perso.mines-paristech.fr/fabien.moutarde
Introduction aux rseaux de neurones
mars
2011
avril 2013
PLAN GENERAL
mars
2011
avril 2013
PRESENTATION GENERALE
1) INTRODUCTION - HISTORIQUE
2) LES RESEAUX DE NEURONES FORMELS
3) LES TECHNIQUES D'APPRENTISSAGE
4) EXEMPLE
mars
2011
avril 2013
HISTORIQUE
Comprhension et modlisation cerveau
mars
2011
avril 2013
NEURONES BIOLOGIQUES
corps cellulaire
synapse
dendrite
axone
mars
2011
avril 2013
FONDEMENTS BIOLOGIQUES
FORMATION DU CERVEAU - APPRENTISSAGE - MEMOIRE
FORMATION: programme hrditaire dict par
- un rseau de neurones totalement connect
- le mcanisme interne de chaque type de neurones
- le potentiel d'volution des synapses
EVOLUTION ET APPRENTISSAGE :
interaction avec l'extrieur
volution des synapses qui peuvent
dgnrer
se stabiliser de faon +/- rversible (mmoire)
mars
2011
avril 2013
potentiel de membrane
q Ci f i
i
f
~ 500 Hz
sigmode
Potentiel de
membrane
mars
2011
avril 2013
Oi
Oj
+1
-1
Wij
mars
2011
avril 2013
MODELE DE L'APPRENTISSAGE
Rgle de Hebb (1949)
Renforcement des connections entre neurones
activs simultanment
Oi
Oj
Wij
mars
2011
avril 2013
PREMIERS "RESEAUX DE
NEURONES FORMELS"
LE PERCEPTRON (Rosenblatt, 1957)
ADALINE (Widrow, 1962)
neurone formel Mac Culloch & Pitts
+
rgle d'apprentissage de Hebb
mars
2011
avril 2013
10
mars
2011
avril 2013
11
LE RENOUVEAU DU NEURONAL
La mcanique statistique au secours des
rseaux de neurones (J.J. Hopfield, 82)
--> intrt de la dynamique des rseaux totalement connects
LA RETROPROPAGATION DU GRADIENT et la rsolution
du Credit Assignment Problem (Rumelhart 86, Le Cun 85)
: apprentissage de rseaux couches caches.
Puissance de calcul des ordinateurs
==> rsolution empirique de problmes rels.
Des rsultats mathmatiques
universels parcimonieux
Introduction aux rseaux de neurones
approximateurs
mars
2011
avril 2013
12
REVIVAL RECENT
deep neural networks, avec plusieurs couches
caches de grandes dimensions :
initialisation intelligente non-supervise
apprentissage usuel ensuite fine-tuning des
poids
couches caches
features appris (bas niveau sur
premire couche cache, + ht niveau sur 2eme)
mars
2011
avril 2013
13
Voisin, ...)
- splines et autres outils d'interpolation
- modles ARMA, ...
- filtres linaires adaptatifs, ...
- contrleurs PID, ...
...
Introduction aux rseaux de neurones
mars
2011
avril 2013
14
DOMAINES D'APPLICATIONS
Apprentissage d'une relation entre-sortie
connue par l'exemple :
Reconnaissance de formes
Classification
Identification
Prdiction
Filtrage
Commande, rgulation
mars
2011
avril 2013
15
EXEMPLES D'APPLICATIONS
reconnaissance de caractres (EasyReader), de visage
(Mimetics), de la parole, de l'criture (ordinateur sans
clavier), de signature acoustique (Thomson), d'objets
(Silac: profils d'aluminium...
diagnostic (allumage voiture, Renault ; photocopieur,
Canon; circuits VLSI, IBM...)
compression de donnes (JVC)
prvision de consommation d'eau (Lyonnaise, CGE),
d'lectricit (EDF), de trafic routier (Cofiroute), de cours
boursiers...
identification de procd industriel (Air liquide, Elf
Atochem, ciments Lafarge...)
commande de vhicule (Sagem)
Introduction aux rseaux de neurones
mars
2011
avril 2013
16
mars
2011
avril 2013
17
LE NEURONE FORMEL
ei
ei : entres du neurone
Aj : activation du neurone
Oj : sortie du neurone
Wij
h f g
Oj
Aj
mars
2011
avril 2013
18
LE NEURONE SOMMATEUR
FONCTIONS D'ACTIVATION
Fonction seuil (Heaviside) ou signe
PRINCIPE
Fonction sigmode
ei
Oj
Wij
Identit
--> neurones linaires
Saturation
O j = f W0 j + Wij ei
i =1
Gaussienne
W0j = "biais"
Introduction aux rseaux de neurones
mars
2011
avril 2013
19
LE NEURONE DISTANCE
ei
e1 W1 j
fonction d'entre : h ... , ... = (ei Wij )2
i
ek Wkj
Wij
DIST
Oj
mars
2011
avril 2013
20
ei
Oj
Wij
= f (W ijW kj e i e k )
i,k
mars
2011
avril 2013
21
Id
Oj
h(e, w) = K (e, w)
mars
2011
avril 2013
22
mars
2011
avril 2013
23
Y2
Y1
les neurones 1, 3 et 4
sont dits "cachs"
X1
X2
X3
X4
neurones
d'entre
Fabien Moutarde, CAOR, MINES ParisTech
mars
2011
avril 2013
24
Y1
X2
Y2
X3
couche de sortie
couche d'entre
couches caches (0 N)
mars
2011
avril 2013
25
RESEAUX BOUCLES
sortie
sortie
2
x2
x2(t)
x2(t-1)
x3
x3(t)
f
entre x1
x1(t)
entre
A chaque connection
est associ un dlai
x3(t-1)
x2(t-2)
x2(t-1)
Forme quivalente
Introduction aux rseaux de neurones
mars
2011
avril 2013
26
RESEAUX BOUCLES :
forme canonique
sorties yj(t)
xk(t)
variables d'tat
..........
........
Rseau statique
....... 1
........
............
ui(t)
entres externes
xk(t-1)
variables d'tat
mars
2011
avril 2013
27
RESEAU DE HOPFIELD
x3
x2
1
1
1
1
1
1
x1
x4
mars
2011
avril 2013
28
sortie
rseau
y=F
(x)
A,W
poids W
y=
FA,W (x)
architecture A
Deux modes :
apprentissage : partir d'exemples de couples
(entre, sortie) , le rseau modifie
les paramtres W (poids des connexions)
ventuellement son architecture A
(en crant/liminant neurones ou connexions)
reconnaissance :
calcul de la sortie associe une entre
Introduction aux rseaux de neurones
mars
2011
avril 2013
29
L'APPRENTISSAGE
PLAN
Gnralits
Apprentissage supervis
Apprentissage non supervis
Mthodologie pour l'apprentissage
mars
2011
avril 2013
30
GENERALITES
MODES D'APPRENTISSAGE
NON SUPERVISE
SUPERVISE
mars
2011
avril 2013
31
L'APPRENTISSAGE SUPERVISE
Rseaux de neurones sommateurs seuil
- la sparation linaire
- les rseaux multicouches : la rtropropagation
Rseaux de neurones "distance"
- Learning Vector Quantization (LVQ)
- Mthodes noyaux type Radial Basis Function
Rseaux neurones d'ordre suprieur
Support Vector Machines (SVM)
mars
2011
avril 2013
32
GENERALITES ET FORMALISME
L'apprentissage supervis est l'adaptation des coefficients
synaptiques d'un rseau afin que pour chaque exemple, la
sortie du rseau corresponde la sortie dsire.
FONCTION DE COT : problme de minimisation
Soient n exemples (Xp;Dp) et Yp la sortie donne par le rseau :
On dfinit l'erreur qui peut tre quadratique de la forme
E (W ) =
(Y
Dp )
W (t + 1) = W (t ) . grad W (E )
mars
2011
avril 2013
33
W.X
mars
2011
avril 2013
34
APPRENTISSAGE DU PERCEPTRON
X
Wk.X> 0
W
W.X
Wk.X < 0
mars
2011
avril 2013
35
REGLES DELTA
AUTRES REGLES D'APPRENTISSAGE POUR LA
SEPARATION LINEAIRE PAR UN NEURONE
La rgle Delta ou de Widrow-Hoff :
E(W) =
==>
mars
2011
avril 2013
36
SEPARATIONS LINEAIRES
COMPARAISON DES SOLUTIONS DES 3 ALGORITHMES
Perceptron
Delta gnralise
mars
2011
avril 2013
37
CLASSE 2
CLASSE 1
mars
2011
avril 2013
38
LE PROBLEME DE
"CREDIT ASSIGNMENT"
Comment connatre la sortie dsire
pour un neurone cach ?
X
yi
wij
yj
sortie dsire
d
LA RETROPROPAGATION DU GRADIENT
(en anglais BACKPROPAGATION)
Introduction aux rseaux de neurones
mars
2011
avril 2013
39
mars
2011
avril 2013
40
yi
wij
y0=1
yj
wjk
k f
k(dk/dj) = k kWjk(dyj/dj)
j = (k Wjkk)f'(j)
Et j = (dEp/dj) = (dEp/dyj)(dyj/dj)
d'o
mars
2011
avril 2013
41
Rtropropagation v.s.
rseau monocouche
nn
_m
ine
la sparation linaire
s1
W.X
_p
s4
_v
3.p
df rtropropagation : cas gnral
mars
2011
avril 2013
42
LE THEOREME
D'APPROXIMATION UNIVERSELLE
Cybenko 89
mars
2011
avril 2013
43
Caractristiques des
rseaux neuronaux multicouches
AVANTAGES
Approximateur universel parcimonieux
(et classifieur universel)
Rapidit d'excution (++ si multi-processeurs ou chip)
Robustesse des solutions, rsistance au bruit des donnes
Facilit de dveloppement
INCONVENIENTS
Le choix de l'architecture est critique
Le temps d'apprentissage peut tre long
Prsence de minima locaux de la fonction de cot
Difficults d'interprtation des rsultats
en terme de connaissance
Introduction aux rseaux de neurones
mars
2011
avril 2013
44
METHODOLOGIE POUR
lAPPRENTISSAGE
SUPERVISE DE RESEAUX
NEURONAUX A COUCHES
mars
2011
avril 2013
45
mars
2011
avril 2013
46
METHODOLOGIE :
Favoriser bonne gnralisation
viter d'avoir trop de paramtres libres (nombre de poids)
par rapport au nombre d'exemples d'apprentissage
mars
2011
avril 2013
47
mars
2011
avril 2013
48
mars
2011
avril 2013
49
mars
2011
avril 2013
50
AUTRES TECHNIQUES
NEURONALES SUPERVISEES
mars
2011
avril 2013
51
RESEAU LVQ
mars
2011
avril 2013
52
METHODES A NOYAUX
METHODES A NOYAUX : (RBF, Potentiels, ondelettes, SVMs)
neurones
noyau
mars
2011
avril 2013
53
L'APPRENTISSAGE
NON SUPERVISE
Motivation
- Pour organiser/analyser/catgoriser un grand
volume de donnes inexploitable tel quel
- Indispensable en classification lorsqu'on
possde beaucoup d'exemples dont une trop
faible proportion est labelle.
mars
2011
avril 2013
54
TECHNIQUES D'APPRENTISSAGE
NON SUPERVISE
K-means
cartes topologiques de Kohonen
(Self-Organizing Feature Maps, SOFM)
Adaptive Resonance Theory (ART)
mars
2011
avril 2013
55
MOTIVATIONS EN CLASSIFICATION
Faire du clustering, i.e. regrouper les exemples en paquets
"similaires" pour dfinir des classes
Construire une reprsentation visualisable (1D ou 2D en
gnral) des entres par une sorte de "projection nonlinaire" de l'espace des entres (en gnral de grande
dimension) qui respecte la topologie initiale (les
"projections" de points proches restent proches).
mars
2011
avril 2013
56
neurones
de
sortie
X1
X2
Xn
Entres
mars
2011
avril 2013
57
mars
2011
avril 2013
58
mars
2011
avril 2013
59
mars
2011
avril 2013
60
ETUDE DE CAS
RECONNAISSANCE DE MODULATION
mars
2011
avril 2013
61
RECONNAISSANCE DE
MODULATION (1)
train
binaire
modulateur
canal de transmission
intercepteur
bruit
filtre de
rception
pr-traitement
signal inconnu
modle neuronal
type de
modulation
dmodulateur
train
binaire
classification
mars
2011
avril 2013
62
RECONNAISSANCE DE
MODULATION (2)
fort S/N
reconnaissance
visuelle possible
faible S/N
reconnaissance
visuelle impossible
Ncessit d'un
classifieur
Introduction aux rseaux de neurones
mars
2011
avril 2013
63
RECONNAISSANCE DE
MODULATION (3)
MODULATIONS A RECONNATRE
FSK2, FSK4, FSK8
MDP2, MDP4, MDP8
MAQ 16, MAQ64
OQPSK, MSK
10 types de modulation
mars
2011
avril 2013
64
RECONNAISSANCE DE
MODULATION (4)
regroupement des modulations en 3 "mtaclasses" naturelles
FSK2, FSK4, FSK8, OQPSK, MSK
==> 4 problmes plus simples
PSK2, PSK4, PSK8
QAM 16, QAM 64
courbe d'apprentissage typique
EQM
itrations
Introduction aux rseaux de neurones
mars
2011
avril 2013
65
RECONNAISSANCE DE
MODULATION (5)
cas d'un apprentissage avec pas de
gradient un peu trop grand
mars
2011
avril 2013
66
RECONNAISSANCE DE
MODULATION (6)
cas d'un apprentissage constructif
(Adaptive BackPropagation)
mars
2011
avril 2013
67
RECONNAISSANCE DE
MODULATION (7)
.
.
.
.
.
.
metaclass 1
metaclass 2
metaclass 3
2fsk
4fsk
8fsk
oqpsk
msk
2psk
4psk
8psk
2fsk
4fsk
8fsk
2psk
4psk
8psk
16qam
64qam
oqpsk
msk
16qam
64qam
mars
2011
avril 2013
68
mars
2011
avril 2013
69
RESEAU BOUCLE
(ou RECURRENT)
Y2
5
1
X1
X2
X3
mars
2011
avril 2013
70
Forme canonique
dun rseau boucl
U(t)
Rseau
non
X(t-1) boucl
Y(t)
X(t)
X est l'tat
du rseau
Retard
Introduction aux rseaux de neurones
mars
2011
avril 2013
71
ETAT ET ORDRE
D'UN RESEAU BOUCLE
Pour calculer la sortie l'instant t, on doit connatre :
- les valeurs d'entre du rseau t
- un nombre minimum de sorties de neurones t-1
Ces sorties sont appeles VARIABLES D'ETAT
(pas uniques)
Leur nombre est l'ORDRE DU RESEAU
L'ensemble des variables d'tat est L'ETAT DU RESEAU
mars
2011
avril 2013
72
DYNAMIQUE
DES RESEAUX BOUCLES
Un rseau boucl temps discret d'ordre K peut tre
reprsent par K quations aux diffrences, couples,
d'ordre 1, mettant en jeu K variables (tat) en plus des
N variables d'entre.
Soit le vecteur d'entre U(t) = [u1(t), ...,uN(t)]
et le vecteur d'tat X(t) = [x1(t), ...,xK(t)]
Comportement dynamique du rseau :
X(t) = [U(t), X(t-1)]
Y(t) = [U(t), X(t-1)]
mars
2011
avril 2013
73
FONCTIONNEMENT
DES RESEAUX BOUCLES
variables d'tat
au temps n X(n)
Rseau statique
entres externes au temps n : U(n)
sorties au temps n-1 : Y(n-1)
Rseau statique
entres externes au temps n-1 : U(n-1)
variables d'tat
au temps n-2 X(n-2)
Rseau statique
entres externes au temps n-2 : U(n-2)
variables d'tat
au temps n-3 X(n-3)
mars
2011
avril 2013
74
APPRENTISSAGE DES
RESEAUX RECURRENTS
L'apprentissage des rseaux boucls
se fait sur des squences d'apprentissage
Plusieurs techniques d'apprentissage proposes :
Rtropropagation rcurrente
Rtropropagation dans le temps (BPTT)
Apprentissage temporel rcurrent en temps rel (RealTime Recurrent Learning, RTRL)
diffrences = ce que a fait, ou la faon de calculer, voire
simplement le nom de l'auteur...
Introduction aux rseaux de neurones
mars
2011
avril 2013
75
PARAMETRES SPECIFIQUES :
DEFINITIONS
Horizon :
nombre Nt d'itrations entre 2 modifications des poids
(donc nb de "copies" du rseau statique mises bout bout)
Fonction de cot calcule sur une plage Nc <= Nt
Frquence de recalage du vecteur d'tat
mars
2011
avril 2013
76
PARAMETRES SPECIFIQUES :
SCHEMA
Horizon Nt = 4
W(n)
W(n)
W(n)
W(n)
e4
e3
squence d'apprentissage
n+1
W(n+4)
n+2
n+3
n+4
mars
2011
avril 2013
77
CATEGORIES
D'ALGORITHMES
ALGORITHMES DIRIGES :
tat entrant dans chaque bloc = valeurs dsires.
ALGORITHMES SEMI-DIRIGES :
tat entrant dans premier bloc de l'horizon = valeurs dsires,
tat entrant dans les suivants = tat sortant du prcdent.
ALGORITHMES NON DIRIGES :
l'tat n'est jamais recal sur des valeurs dsires.
mars
2011
avril 2013
78
n+1
e3
n+2
n+3
e2
n
n+1
n+2
e3
n+1
algorithme semi-dirig
n+3
e2
n
algorithme dirig
n+2
e3
n+3
mars
2011
avril 2013
79
COMPARAISON DES
TYPES D'ALGORITHMES
Si certaines variables d'tat n'ont pas de valeurs dsires
contenues dans la base d'apprentissage (cas des tats
purement internes), alors on ne peut faire que du non dirig.
Plus l'algorithme est dirig, plus il est stable, avec erreur
faible en apprentissage. Mais le comportement dynamique
n'est pas assur en gnralisation.
Un algorithme non dirig est difficile apprendre. Il offre
plus de garantie en dynamique.
mars
2011
avril 2013
80
FORMULES MATHEMATIQUES
DE L'APPRENTISSAGE
W(t+Nt) = W(t) - gradW(E) avec E =
yn
xn
=F
Si dirig,
Fy Fy dxn-1
dyn
=
+
dw w
x dw
un
Fx Fx dxn-1
dxn
+
=
x dw
dw w
x n-1
dxn-1
dw
Si semi-dirig,
(Y-D)2
dxn-1
dw
Si non dirig, il faut faire un propagation avant du gradient (mais on peut quand
mme calculer la Jacobienne du rseau par technique type rtropropagation,
avec une passe par sortie)
Introduction aux rseaux de neurones
mars
2011
avril 2013
81
IMPLEMENTATIONS POSSIBLES
Pour algo dirig, BP chaque pas pour lequel on prend
erreur en compte, mais modification des poids que tous les
Nt pas.
dmultiplication du rseau statique + BP globale
==> calculs rapides, MAIS :
- pb de memoire si horizon grand,
- ne convient pas pour algo non dirig
analyse des quations et reformulation matricielle globale
==> compliqu
propagation avant
Introduction aux rseaux de neurones
mars
2011
avril 2013
82
RETROPROPAGATION
SUR UN HORIZON
U(n)
U(n+1)
D(n+2)
U(n+2)
bloc 2
W(n)
bloc 1
W(n)
Xd(n-1)
D(n+1)
bloc 3
W(n)
X(n+2)
X(n+1)
X(n)
dE/dXn
dE/dXn+1
W3
W2
W1
W = W1 + W2 + W3
Introduction aux rseaux de neurones
mars
2011
avril 2013
83
PROPAGATION AVANT
U(n)
U(n+1)
bloc 1
W(n)
X(n-1)
dXn-1/dW
D(n+1)
D(n+2)
U(n+2)
bloc 2
W(n)
bloc 3
W(n)
X(n)
X(n+1)
X(n+2)
dXn/dW
dXn+1/dW
dXn+2/dW
W2
W3
mars
2011
avril 2013
84
IDENTIFICATION NEURONALE
GENERALITES SUR L'IDENTIFICATION
Identification = obtention d'un modle mathmatique
pour reprsenter le comportement dynamique d'un processus.
Types de modle :
- parfois, modle de connaissances (quations diffrentielles)
mais 1) souvent trop idalis par rapport au systme rel,
2) difficult connatre la valeur des paramtres physiques,
et 3) lourdeur des calculs pour rsolution des equa. diff.
- le plus souvent, modle mathmatique simple (en gnral
linaire) avec des paramtres sans signification physique :
c'est l'identification "bote noire".
mars
2011
avril 2013
85
INTERET DU NEURONAL
EN IDENTIFICATION ?
proprit d'approximateurs universels parcimonieux
==> modles NON-LINEAIRES quelconques
rapidit de calcul en excution
capacit naturelle raliser un modle adaptatif
mars
2011
avril 2013
86
u1(t)
retard
retard
u1(t-1)
u1(t-2)
.
.
.
retard
u1(t-n1)
u2(t)
u2(t)
retard
Rseau
statique
Y(t)
u2(t-1)
.
.
.
retard
u2(t-n2)
mars
2011
avril 2013
87
TYPES D'IDENTIFICATION
NEURONALE
rseau "rcurrent"
U(t-1)
rseau de neurones
"statique"
X(t-1)
YN(t) +
-
retard
systme dynamique
modliser
Y(t)
mars
2011
avril 2013
88
SIMILITUDE AVEC
IDENTIFICATION LINEAIRE
equation error (ARX)
ym(k) = a1 y(k-1) + a2 y(k-2) + ... + an y(k-n) + b0 u(k)
+ b1 u(k-1) + ... + bn u(k-n)
mars
2011
avril 2013
89
MODELE HYBRIDE
CONNAISSANCE/NEURONAL
Si on connait certaines quations
explicites du systme, s'en servir soit
simplement pour contraindre
l'architecture du rseau, soit comme
une partie du modle
On peut utiliser des neurones "ad hoc"
(sin, cos, ...)
mars
2011
avril 2013
90
mars
2011
avril 2013
91
COMMANDE NEURONALE
Commande = laboration de signaux d'entre d'un
processus qui permette d'obtenir un comportement
spcifi d'avance
(rgulation : maintenir autour pt de fonctionnement)
mars
2011
avril 2013
92
sorties
dsires pour
le procd
commandes
ncessaires ??
commande
Procd
mars
2011
avril 2013
93
APPRENTISSAGE DIRECT DE
MODELE INVERSE
action
procd
sortie
rseau
commande
mars
2011
avril 2013
94
APPRENTISSAGE INDIRECT DE
MODELE INVERSE
modle de
rfrence
consigne
rseau
commande
action
sorties
procd
rtropropagation
mars
2011
avril 2013
95
APPRENTISSAGE PAR
RENFORCEMENT
modle de
rfrence
consigne
rseau
commande
action
procd
sorties
"valuation"
=>
renforcement/inhibition
mars
2011
avril 2013
96
AUTRE UTILISATION DU
NEURONAL EN COMMANDE
perturbations
REGULATEUR A MODELE
y
a
CORRECTEUR
PROCEDE
y0
(consigne)
y
+
-
MODELE
NEURONAL
a = grandeurs rglantes
y = grandeurs rgles
y = perturbations reconstitues
mars
2011
avril 2013
97
REMARQUES SUR
LA COMMANDE NEURONALE
Intrt de travailler d'abord sur un modle du procd, et
de ne faire que recalage/raffinement sur le vrai systme...
Comme pour l'identification non-linaire, ncessit de
squences d'apprentissage couvrant bien le domaine dde
fonctionnement
Difficults lies l'absence de preuve de stabilit (comme
toute commande non-linaire)
mars
2011
avril 2013
98
APPLICATIONS ET EXEMPLES
DOMAINES DE PREDILECTION
mars
2011
avril 2013
99
APPLICATIONS
prvision de consommation d'eau (Lyonnaise, CGE),
d'lectricit (EDF), de trafic routier (Cofiroute),
d'affluence de voyageurs (SNCF), de cours boursiers...
identification de procd industriel (Air liquide, Elf
Atochem, ciments Lafarge...), modle de dynamique
thermique de btiment, ...
commande de vhicule (Sagem), de robot autonome, de
station de pompage (Mitsubishi)
mars
2011
avril 2013
100
EXEMPLES PRESENTES
mars
2011
avril 2013
101
EXEMPLE D'IDENTIFICATION
BOITE NOIRE
Evaporateur de sucrerie
(tude ralise pour Cegelec par Alcatel-Alsthom Recherche)
Q13
Q23
Q33
Q43
Q53
Q1R
bac de
stockage
Bx0
QJ0
Bx5
Bx1
Bx2
Bx3
Bx4
QJD
mars
2011
avril 2013
102
BASE D'APPRENTISSAGE
3 entres externes :
QJ0 (commande)
Bx0, Q33 (perturbations mesures)
2 sorties :
Bx3 et Bx5
(concentrations effectivement mesures)
squence d'apprentissage :
srie de 30 chelons 3D alatoires sur les entres
150 pas de temps entre 2 chelons
mars
2011
avril 2013
103
PREDICTEUR NEURONAL
QJ0(t)
Bx0(t)
Q33(t)
Bx3(t+1)
Rseau
couches
Bx5(t+1)
Bx3(t)
Bx5(t)
mars
2011
avril 2013
104
PREDICTEUR NEURONAL :
RESULTATS
Prdiction 1 pas de temps en avance
3
2
1
0
-1
-2
-3
1000
2000
minutes
3000
4000
mars
2011
avril 2013
105
MODELE PARALLELE
QJ0(t)
Bx3(t+1)
Bx0(t)
Modle
Q33(t)
dynamique
Bx5(t+1)
mars
2011
avril 2013
106
80
60
40
20
0
500
1000
1500
2000
2500
3000
3500
4000
4500
minutes
mars
2011
avril 2013
107
MODELE PARALLELE
NEURONAL (1)
100
80
60
40
20
0
1000
2000
3000
4000
minutes
PREDICTEUR REBOUCLE
un bon prdicteur peut avoir un mauvais
comportement en mode parallle
Introduction aux rseaux de neurones
mars
2011
avril 2013
108
MODELE PARALLELE
NEURONAL (2)
100
80
60
40
20
0
500
1000
1500
2000
2500
3000
3500
4000
4500
minutes
APPRENTISSAGE RECURRENT
erreur moyenne - 6,2 % (base de test)
rseau 14-40-2
(ordre 4 sur les sorties et 2 sur les entres)
Introduction aux rseaux de neurones
mars
2011
avril 2013
109
CONCLUSIONS ET REFERENCES
Rseau statique + rtropropagation
==> bon prdicteur
Rseau boucl + APPRENTISSAGE RECURRENT
==> modle parallle meilleur que modles linaires
Rfrences sur cette application :
"Rseaux de neurones pour l'identification de procds industriels",
F. Moutarde, P. Delesalle & M. Menahem, proceedings of Neuro-Nimes 92,
Nmes, 2-6 novembre 1992 (pages 443-454).
"Potentialits d'applications des techniques neuronales en diagnostic et contrle
de procds industriels", F. Moutarde, A. Benveniste & Q. Zhang, rapport final
de ltude MRT numro 90S0866, dcembre 1992.
Introduction aux rseaux de neurones
mars
2011
avril 2013
110
DIFFICULTES ET PERSPECTIVES
squence d'apprentissage couvrant bien l'espace
(x,u) ?
influence du bruit sur l'apprentissage ?
apprentissage dlicat
modles non-linaires lments dynamiques linaires
mars
2011
avril 2013
111
EXEMPLE DE
MODELE NEURONAL HYBRIDE
Colonne de distillation
(application ralise pour Elf-Atochem par le laboratoire dlectronique de lESPCI et la socit Netral)
condenseur
Distillat
Alimentation
bouilleur
Introduction aux rseaux de neurones
Rsidu
mars
2011
avril 2013
112
MODELE DE CONNAISSANCE
D'UN PLATEAU
ya,i V
yb,i
xa,i-1 L
xb,i-1
a, b : constituants
x, y : fractions molaires
(resp. ds le liquide et dans la vapeur)
L : flux de liquide
V : flux de vapeur
ya,i+1 V
yb,i+1
xa,i L
xb,i
=> xa,i(t+1) = LKixa,i-1(t) - LKixa,i(t) + VKi Ga(P,xa,i+1(t),xb,i +1(t)) - VKi Ga(P,xa,i(t),xb,i (t))
et idem pour les xb
Introduction aux rseaux de neurones
mars
2011
avril 2013
113
RESEAU DE PLATEAU
xa,i-1(t)
xb,i-1(t)
L(t)
V(t)
xa,i(t)
xb,i(t)
xa,i(t+1)
Ga
xb,i(t+1)
Gb
P(t)
Ga
xa,i+1(t)
xb,i+1(t)
Gb
Rseau spcial
Introduction aux rseaux de neurones
mars
2011
avril 2013
114
RESEAU GLOBAL
P(t)
xa,1
L(t)
xb,n
V(t)
xa,1
xb,1
.
.
.
.
.
.
xa,n
xb,n
retard
Introduction aux rseaux de neurones
mars
2011
avril 2013
115
RESULTATS D'APPRENTISSAGE
mars
2011
avril 2013
116
UTILISATION
mars
2011
avril 2013
117
CONCLUSIONS ET REFERENCE
La connaissance sur le procd permet de dfinir une
architecture adapte, donc un rseau plus simple
L'existence d'un simulateur bas sur des quations
physique permet de raliser un bon apprentissage initial
Le modle neuronal obtenu a les avantages suivants :
recalage facile sur la colonne relle
excution beaucoup plus rapide que le simulateur
physique
Rfrence sur cette application :
"From Knowledge-based Models to Recurrent Networks: an Application to an
Industrial Distillation Process" , Ploix J.-L., Dreyfus G., Corriou J.-P. & Pascal D.,
NeuroNmes 94 (1994).
Introduction aux rseaux de neurones
mars
2011
avril 2013
118
EXEMPLE DE
COMMANDE NEURONALE
Commande du volant d'un vhicule 4x4 autonome
(application ralise par la socit Sagem et le laboratoire dlectronique de lESPCI)
mars
2011
avril 2013
119
ARCHITECTURE GLOBALE
DU SYSTEME
mars 2011
120
mars 2011
121
mars
2011
avril 2013
122
IDENTIFICATION
Algorithme semi-dirig
Introduction aux rseaux de neurones
APPRENTISSAGE DE
LA COMMANDE NEURONALE
mars 2011
123
mars 2011
124
REGULATEUR NEURONAL
A MODELE
mars 2011
125
REFERENCES SUR
CETTE APPLICATION
"Real-time control of an autonomous vehicle: a neural network approach to the
path-following problem", Rivals I., Personnaz L., Dreyfus G. & Canas D.,
mars 2011
126
Connections symtriques
Pas dauto-activation : Wii = 0
Introduction aux rseaux de neurones
mars
2011
avril 2013
127
Origine historique du
rseau de Hopfield
Neural networks and physical systems with emergent
collective computational properties, Hopfield and
Tank, PNAS, 1982.
J.J. Hopfield
mars
2011
avril 2013
128
tat initial
(pattern bruit)
tat final
volution
mars
2011
avril 2013
129
E=
1
(Wij Si S j )
2 i< j
1
2
(W ij S i (t + 1 )S
i< j
(t + 1 )) (W ij S i (t )S j (t )) =
i< j
1
(S i ( t + 1) S i ( t ) ) (W ij S
2
j
(t ))
E forcment <0 si chgt tat, alors que E born par E > -i<jWij
convergence vers un point fixe (minimum local attracteur)
Introduction aux rseaux de neurones
mars 2011
130
mars
2011
avril 2013
131
Apprentissage Hopfield
La mmorisation comme attracteurs dun ensemble de
mars
2011
avril 2013
132
mmorisation de
mars
2011
avril 2013
133
mars
2011
avril 2013
134
QUELQUES REFERENCES
SUR LES RESEAUX NEURONAUX
Des livres :
Rseaux de neurones : mthodologie et applications,
G. Dreyfus et al., Eyrolles, 2002.
Rseaux de neurones formels pour la modlisation, la
commande, et la classification, L. Personnaz et I. Rivals, CNRS
ditions, collection Sciences et Techniques de lIngnieur, 2003.
Rseaux de neurones : de la physique la psychologie,
J.-P. Nadal, Armand Colin, 1993.
Sur le Web :
mars
2011
avril 2013
135