Introduction aux rseaux de neurones CHAPITRE 2 Intelligence

  • Slides: 35
Download presentation
Introduction aux réseaux de neurones CHAPITRE 2

Introduction aux réseaux de neurones CHAPITRE 2

Intelligence et Neurone Cardiocentrisme : Depuis l’antiquité l’humanité a presque toujours associé la pensée,

Intelligence et Neurone Cardiocentrisme : Depuis l’antiquité l’humanité a presque toujours associé la pensée, l’intelligence, les émotions au cœur Aristote : « le cerveau est un organe de refroidissement »

Intelligence et Neurone Cérébrocentrisme : avec la révolution scientifique les ancienes connaissances sont remises

Intelligence et Neurone Cérébrocentrisme : avec la révolution scientifique les ancienes connaissances sont remises en question Découverte de l’influx nerveux

Intelligence et Neurone Découverte du neurone

Intelligence et Neurone Découverte du neurone

Intelligence et Neurone Le cerveau est fait 100 milliards de neurones L’activité cérébrale laisse

Intelligence et Neurone Le cerveau est fait 100 milliards de neurones L’activité cérébrale laisse émerger de la conscience

Dans ce chapitre S’inspirer Ce du cerveau chapitre présente les réseaux de neurones, largement

Dans ce chapitre S’inspirer Ce du cerveau chapitre présente les réseaux de neurones, largement utilisés comme modèle pour l’apprentissage automatique.

Apprentissage basé sur des réseau de neurone

Apprentissage basé sur des réseau de neurone

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Nœuds d'un réseau de neurones

Couches de réseau de neurones

Couches de réseau de neurones

Types de réseaux de neurones

Types de réseaux de neurones

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Exemple

Apprentissage supervisé d'un réseau de neurones

Apprentissage supervisé d'un réseau de neurones

Algorithme d’apprentissage supervisé 1. Initialisez les poids avec des valeurs adéquates. 2. Prenez «l'entrée»

Algorithme d’apprentissage supervisé 1. Initialisez les poids avec des valeurs adéquates. 2. Prenez «l'entrée» dans les données d'apprentissage, qui est organisée comme {entrée, sortie correcte}, et entrez-la dans le réseau de neurones. Obtenez la sortie du réseau de neurones et calculez l'erreur à partir de la sortie correcte. 3. Ajustez les poids wij pour réduire l'erreur. 4. Répétez les étapes 2 et 3 pour toutes les données d'entraînement.

Algorithme d’apprentissage supervisé pour réseaux monocouche linéaire

Algorithme d’apprentissage supervisé pour réseaux monocouche linéaire

Algorithme d’apprentissage Règle Delta, loi de Widrow-Hoff

Algorithme d’apprentissage Règle Delta, loi de Widrow-Hoff

Règle Delta, loi de Widrow-Hoff Exemple, fonction d’activation linéaire

Règle Delta, loi de Widrow-Hoff Exemple, fonction d’activation linéaire

Algorithme de Widrow-Hoff 1. Initialisez les poids aux valeurs adéquates. 2. Prenez {entrée, sortie

Algorithme de Widrow-Hoff 1. Initialisez les poids aux valeurs adéquates. 2. Prenez {entrée, sortie correcte} et Calculez l'erreur de la sortie ei 3. Calculez les mises à jour de poids en fonction de la règle de delta suivante: 4. Ajustez les poids comme suit: 5. Effectuez les étapes 2 à 4 pour toutes les données d'entraînement.

Algorithme de Widrow-Hoff

Algorithme de Widrow-Hoff

Algorithme de Widrow-Hoff Généralisation, fonction d’activation non-linéaire

Algorithme de Widrow-Hoff Généralisation, fonction d’activation non-linéaire

Algorithme de Widrow-Hoff Généralisation, fonction d’activation non-linéaire

Algorithme de Widrow-Hoff Généralisation, fonction d’activation non-linéaire

Algorithme de Widrow-Hoff 1. Initialisez les poids aux valeurs adéquates. 2. Prenez {entrée, sortie

Algorithme de Widrow-Hoff 1. Initialisez les poids aux valeurs adéquates. 2. Prenez {entrée, sortie correcte} et Calculez l'erreur de la sortie ei 3. Calculez les mises à jour de poids en fonction de la règle de delta suivante: 4. Ajustez les poids comme suit: 5. Effectuez les étapes 2 à 4 pour toutes les données d'entraînement.

Algorithme de Widrow-Hoff Méthode SGD

Algorithme de Widrow-Hoff Méthode SGD

Algorithme de Widrow-Hoff Méthode SGD La descente de gradient stochastique (SGD) calcule l’erreur pour

Algorithme de Widrow-Hoff Méthode SGD La descente de gradient stochastique (SGD) calcule l’erreur pour chaque donnée d’entraînement et ajuste les poids immédiatement. Si nous avons 100 points de données d’entraînement, le SGD ajuste les poids 100 fois. La figure 215 montre comment la mise à jour du poids du SGD est liée aux données d'entraînement complètes.

Algorithme de Widrow-Hoff Méthode Batch la méthode par lots, chaque mise à jour de

Algorithme de Widrow-Hoff Méthode Batch la méthode par lots, chaque mise à jour de poids est calculée pour toutes les erreurs des données d'apprentissage et la moyenne des mises à jour de poids est utilisée pour ajuster les poids. Cette méthode utilise toutes les données d'apprentissage et ne se met à jour qu'une seule fois. Dans

Algorithme de Widrow-Hoff Méthode Mini Batch Calcule l’ajustement chaque N points

Algorithme de Widrow-Hoff Méthode Mini Batch Calcule l’ajustement chaque N points

Vos Questions !

Vos Questions !