Le Perceptron à une couche cachée

Le perceptron à une couche cachée et les réseaux de neurones qui en découlent sont l’étape intermédiaire entre le perceptron et les réseaux de neurones profonds à convolutions qui font aujourd’hui toutes ces choses merveilleuses qui nous font penser qu’ils sont finalement peut-être « réellement intelligents ».
Même s’ils sont maintenant un peu obsolètes, ces réseaux élémentaires restent très utiles dans le cadre pédagogique car leur relative simplicité permet d’expliquer des concepts complexes toujours d’actualité et également de mettre en pratique sur des exemples réels.

Continuer la lecture de « Le Perceptron à une couche cachée »

La descente de gradient

Pour les Réseaux de Neurones, selon leur type et ce à quoi ils sont destinés, il existe plusieurs types d’apprentissage. Le modèle prédominant est l’apprentissage supervisé car il s’applique aussi bien à la séparation de classes (discrimination d’objets selon certains paramètres) qu’à la régression (trouver la fonction représentant le mieux un groupe d’objets) qui sont les usages les plus fréquents des réseaux de neurones.

Dans ce mode d’apprentissage, on fournit au réseau un jeu de test (une série d’exemples), qu’il utilise pour adapter ses paramètres. Il pourra ensuite, en utilisant ses paramètres « adaptés », effectuer des prédictions sur de nouveaux objets.

Continuer la lecture de « La descente de gradient »

Le perceptron, premier neurone artificiel

L’invention du Perceptron représente pour beaucoup l’acte de naissance des réseaux de neurones et, si l’on considère qu’encore aujourd’hui il en constitue la brique élémentaire, c’est assez juste… même si à l’époque où il a été inventé, il n’a guère été plus qu’une curiosité scientifique puisqu’il n’a aucune application concrète à son actif.

Continuer la lecture de « Le perceptron, premier neurone artificiel »