next up previous contents index
Next: Calculabilité neuronale des fonctions Up: Deux exemples de réseaux Previous: Le réseau neuronal de   Contents   Index


Le perceptron

Pour faire face aux insuffisances du modèle de McCulloch et Pitts, un nouveau type de réseau neuronal a été introduit sous le nom de perceptron. En réalité, le perceptron n'est qu'un cas particulier du modèle de McCulloch et Pitts mais la restriction est de taille puisque le graphe sous-jacent du perceptron est fini dans toutes les directions.

Le réseau est composé [SOLLA] de couches, numérotées par . Chaque couche contient neurones (sites). La première couche correspond aux neurones sensoriels qui reçoivent les stimuli du monde externe. Les strates ultérieures correspondent à des couches de calcul intermédiaire et la dernière couche de calcul () restitue les résultats au monde externe (neurones ``moteurs'').

L'espace des configurations est stratifié selon les couches, , et où est l'espace d'états à chaque site.

Le graphe orienté sur lequel sont définies les efficacités synaptiques a des arêtes entre les sites d'une couche et les sites de la couche pour  ; l'efficacité synaptique correspondante est notée où et . De même, le seuil d'activation est noté par où il est clair que .

Le potentiel post-synaptique est aussi défini de strate en strate, pour , par


et la dynamique (déterministe) par


Un tel réseau est appelé perceptron (modèle en couches) et son architecture est schématisée dans la figure suivante :

Si la configuration de la couche inférieure est donnée, la dynamique du réseau détermine, de manière unique, une configuration de sortie . Quand balaie tout l'espace , on obtient comme image par le perceptron une partie de l'espace  ; le réseau implante une application , définie exhaustivement par son graphe. Il est évident que le choix des valeurs des efficacités synaptiques et de seuils d'activation détermine l'application . Si l'on dénote, collectivement, par la famille de ses variables, chaque réalisation de détermine une certaine application que l'on dénote par . On rappelle que et donc les fonctions peuvent être interprétées comme des fonctions booléennes à entrées et sorties. Comme, par ailleurs, la représentation sur ordinateur, à précision donnée, de tout nombre réel se fait avec un nombre de bits donné, pour que la construction d'un ordinateur universel neuronal soit possible, il faut que toute fonction booléenne soit calculable (implentable) par un réseau neuronal.


next up previous contents index
Next: Calculabilité neuronale des fonctions Up: Deux exemples de réseaux Previous: Le réseau neuronal de   Contents   Index
Dimitri Petritis 2003-07-03