Si le réseau a été convenablement instruit à l'aide des exemples résolus il est capable de reproduire correctement les valeurs de la fonction codée, , sur les points pour . Mais à cause du codage surabondant, le réseau peut maintenant retourner des valeurs exactes (ou presque) de la fonction à des points autres que les points appris. Sans entrer dans les détails, notons que cette faculté de généralisation a été mis au profit pour étudier plusieurs fonctions, par exemple, pour prédire de manière optimale les valeurs d'une suite chronologique.
Une autre application, encore plus spectaculaire, des réseaux neuronaux est la construction des mémoires associatives. Cela correspond au cas où les exemples appris par le réseau sont entourés des bassins d'attraction étendus. (On dit qu'une configuration est dans le -bassin d'attraction d'une configuration mémorisée , si ). Des réseaux neuronaux ont été construits qui servent a stocker (apprendre) certaines images digitalisées. En présentant ensuite en entrée une partie de l'image ou une image perturbée comme clé, ils sont capables de reconstruire une image qui ressemble fort à une des images stockées.
Des problèmes intéressants comme la taille optimale des mémoires où les phénomènes de saturation font l'objet de recherches théoriques et numériques très intenses (cf. [NEWMAN, GOLES ET AL., GAYRARD, VERMET 1992, ZAGREBNOV ET AL., ETC.]). Puisque cela constitue un domaine en pleine évolution, il est plus prudent d'arrêter l'exposé sur les réseaux neuronaux à ce niveau et diriger les lecteurs intéressés vers les nombreux articles de recherche publiés sur le sujet.