Next: Réseaux neuronaux stochastiques
Up: Réseaux neuronaux et processus
Previous: Le procédé d'apprentissage
  Contents
  Index
L'exemple le plus simple de mémoire associative est fourni par la règle
d'apprentissage de Hebb. Le cadre est le suivant : on dispose d'un
perceptron à deux couches () de neurones chacune. Chaque
neurone peut se trouver dans deux états possibles, symbolisés par
. L'espace des configurations est donc
où
pour .
On dispose de configurations fixées de , notées
, avec
qui seront les
configurations mémorisées. Il s'agit de construire un système qui lorsqu'on
lui présente une clé, c'est-à-dire une configuration vaguement
réminiscente d'une des configurations mémorisées, soit capable de choisir
la configuration mémorisée qui est la plus proche de la clé.
Le problème pratique qui se pose donc est le choix des efficacités
synaptiques qui permettent de réaliser cet exploit.
Il n'est pas nécessaire de commenter ici les innombrables applications
pratiques qu'aurait potentiellement un tel dispositif et qui vont de la
reconnaissance de l'écriture manuscrite à la prédiction de la structure
tertiaire dans une séquence protéinique de l'ADN. Les nouvelles
applications qui sont explorées chaque année remplissent plusieurs volumes
des publications scientifique spécialisées (comme, par exemple, les revues
Neural Networks, IEEE Neural Networks, Neural Computing, etc).
La règle de Hebb propose une solution simple pour les valeurs des
efficacités synaptiques.
Le choix (règle de Hebb)
correspond à la mémorisation de configurations , pour
.
Il est évident que la configuration est un point fixe de
l'évolution ; en effet, pour tout , on a :
Donc,
.
Supposons maintenant que la configuration initiale diffère de
sur sites, c'est-à-dire
Alors, est partitionné en deux parties, et , où
avec .
Pour tout , on a
Donc, tant que , alors
et la dynamique
``corrige'' les erreurs commises.
L'analyse du comportement du perceptron de Hebb quand se complique et
uniquement des résultats partiels, asymptotiques, à grand ,
[GAYRARD, KOMLOS ET AL., NEWMAN, VERMET (1993)] sont connus.
Les résultats mathématiques indiquent que le
perceptron de Hebb fonctionne comme une mémoire associative, dans la limite
, quand le nombre de configurations mémorisées est fini ou croît
moins rapidement que de manière que
Par contre, les résultats numériques semblent indiquer que le perceptron
``oublie'' tout si un seuil de saturation, de l'ordre de
, est dépassé.
Next: Réseaux neuronaux stochastiques
Up: Réseaux neuronaux et processus
Previous: Le procédé d'apprentissage
  Contents
  Index
Dimitri Petritis
2003-07-03