Introduction aux réseaux de neurones
• Mac Culloch et Pitts (1943) : définition d’un neurone formel
• Loi de Hebb (1949)
• Rosenblatt (1958), Widrow et Hoff : modèle avec processus d’apprentissage, perceptron
• Minsky et Papert (1969) : limites des perceptrons
• Kohonen (1972) : mémoires associatives
• Rumelhart – Mc Clelland (1980), Werbos – Le Cun : perceptron multi-couches, mécanismes d’apprentissage performants (rétropropagation du gradient).
• apprentissage supervisé : les coefficients synaptiques sont évalués en minimisant l’erreur (entre sortie souhaitée et sortie obtenue) sur une base d’apprentissage.
• apprentissage non-supervisé : on ne dispose pas de base d’apprentissage. Les coefficients synaptiques sont déterminés par rapport à des critères de conformité : spécifications générales.
• sur-apprentissage : on minimise l’erreur sur la base d’apprentissage à chaque itération mais on augmente l’erreur sur la base d’essai. Le modèle perd sa capacité de généralisation : c’est l’apprentissage par cœur.
• pas de notion temporelle
• coefficient synaptique : coefficient réel
• sommation des signaux arrivant au neurone
• sortie obtenue après application d’une fonction de transfert
Si deux neurones sont activés en même temps, alors la force de connexion augmente.
On note S la base d’apprentissage.
S est composée de couples (e, c) où :
o = − 1 ≠ 1 = x
⇒ w1 = w1 + e1 ∗ x = 1
w2 = w2 + e2 ∗ x = 1
o = − 1 ≠ 1 = x
⇒ w1 = w1 + e1 ∗ x = 2
w2 = w2 + e2 ∗ x = 0
Les neurones reçoivent des signaux (impulsions électriques) par les dendrites et envoient l’information par les axones.
View Comments
C'est tres intressant de suivre ce cours