Captulo 5 Counterpropagation Networks CPN Redes de Contrapropagacin

  • Slides: 30
Download presentation
Capítulo 5 Counterpropagation Networks (CPN) Redes de Contrapropagación Robert Hecht-Nielsen ( 1987) Creación de

Capítulo 5 Counterpropagation Networks (CPN) Redes de Contrapropagación Robert Hecht-Nielsen ( 1987) Creación de Subredes mediante memorias Hetereoasociativas Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 1

La Arquitectura CPN • Dado el conjunto de pares de vectores (x 1, y

La Arquitectura CPN • Dado el conjunto de pares de vectores (x 1, y 1), . . , (x. P, y. P), donde xi RN ; yi RK estos clasifican en diferentes clases: C 1, C 2, …. , CH. • El CPN asocia un vector de la capa de entrada x, con un <y>k Ck, k= 1, . . H para el cúal el correspondiente <x>k es el más cercano a x. • <x>k e <y>k son los promedios de xp e yp que pertenecen a una misma clase. • CPN puede trabajar tb en reversa: dado y se obtiene <x>k Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 2

La Arquitectura CPN • Consiste en 5 capas y 3 niveles: – El nivel

La Arquitectura CPN • Consiste en 5 capas y 3 niveles: – El nivel de entrada contiene dos capas x e y: • El 1 er nivel normaliza el vector de entrada. – El nivel medio contiene la capa oculta: • Clasifica el vector de entrada, eligiendo uno de los K códigos de clasificación. • Las salidas de todas las neuronas de la capa escondida son ceros excepto una, y dicha salida clasifica al correspondiente vector de entrada con una clase Ck. – El nivel de salida tienen dos capas x’ e y’: • Basado en la clasificación efectuada en la capa oculta, la capa de salida recupera el vector representativo. • Las tres subredes son cuasi-independientes y el entrenamiento de un nivel se ejecuta solo cuando se ha terminado el nivel anterior. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 3

La Arquitectura CPN Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 4

La Arquitectura CPN Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 4

La Arquitectura CPN • Forma de trabajar: – Considerar que se tiene una red

La Arquitectura CPN • Forma de trabajar: – Considerar que se tiene una red entrenada, tal que cuando se aplican vectores: x e y = 0 , en el nivel de entrada, entonces se obtiene <y>k. – En forma inversa (reversa), cuando se aplican vector y , x = 0, y se obtiene <x>k Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 5

La capa de entrada • • Sea la entrada x. Sea N la dimensión

La capa de entrada • • Sea la entrada x. Sea N la dimensión de x y K la dimensión de y. Sea zx la salida de la capa de entrada x. El nivel de entrada realiza normalización de la entrada: – Cada neurona recibe una exitación positiva proporcional a su entrada correspondiente. +B xi, B>0. – Cada neurona recibe una excitación negativa de todas las neuronas de la misma capa, incluyendosé, igual a –zxixj – La entrada x es aplicada en el tiempo t = 0 y retirada en el tiempo t=t’ – En ausencia de xi, la salida zxi decrece a cero exponencialmente, i. e. , zxi e-At Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 6

La Capa de Entrada Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 7

La Capa de Entrada Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 7

La Capa de Entrada • Comportamiento: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 8

La Capa de Entrada • Comportamiento: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 8

La Capa de entrada Sol: • La salida es acotada y proporcional a la

La Capa de entrada Sol: • La salida es acotada y proporcional a la entrada. es un vector normalizado llamado patrón de reflectancia i. e. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 9

La Capa de Entrada Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 10

La Capa de Entrada Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 10

La Capa oculta • El Instar: – La capa oculta consta de un conjunto

La Capa oculta • El Instar: – La capa oculta consta de un conjunto de Instar. – Los Instar pueden clasificar la dirección de los vectores de entrada. – El vector de entrada es z ={zi}I=1, . . , N+K, contiene los outputs de xey – Sea H la dimensión de la capa oculta: z. H={ZHk}k=1, H , el output del vector de la capa oculta. – Sea W la matriz peso, W= {wki}k=1, H ; i=1, N+K , tal que la entrada a la neurona k de la capa oculta es W(k, : ) z = Neto Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 11

La Capa oculta • Comportamiento del neuron k-ésimo Profesor: Dr. Héctor Allende Redes Neuronales

La Capa oculta • Comportamiento del neuron k-ésimo Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 12

La Capa oculta • Comportamiento: La matriz peso cambia de acuerdo a: – En

La Capa oculta • Comportamiento: La matriz peso cambia de acuerdo a: – En ausencia del vector de entrada z = 0 si el proceso de aprendizaje continuara, entonces: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 13

La Capa oculta • Comportamiento: • Si la matriz de peso cambia más lentamente

La Capa oculta • Comportamiento: • Si la matriz de peso cambia más lentamente que la salida de la neurona, entonces W(k, : ) z cte. La solución obtenida es. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 14

La Capa oculta • Si se asume que z se aplica por un tiempo

La Capa oculta • Si se asume que z se aplica por un tiempo suficientemente largo, entonces: es decir, W(k, : ) se mueve hacia z. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 15

La Capa oculta • Proceso de aprendizaje: Sea el conjunto de vectores de entrada

La Capa oculta • Proceso de aprendizaje: Sea el conjunto de vectores de entrada {zp}p=1, . , P aplicados de la siguiente manera: z 1 entre [0, t 1), …, z. P entre [t. P-1, t. P). El proceso parte i) Inicilizando la matriz peso: W(k, : ) = 0 – Si t 0= 0, calcular los pesos: – W(k, : ) apunta a la dirección promedio apuntada por {zp}p=1, . , P Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 16

La Capa Oculta Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 17

La Capa Oculta Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 17

La Capa oculta • La Red Competitiva: La capa oculta de CPN consta de

La Capa oculta • La Red Competitiva: La capa oculta de CPN consta de instars interconectados que clasifican cualquier vector z RN+K , i. e. se inhiben todos los Instars menos el ganador. – La capa oculta clasifica un vector de entrada z (la instar con mayor respuesta es la ganadora) – Salida del tipo 1 de k. – El vector peso se mueve hacia el promedio de las entradas. – Se agrega feedback para asegurar salida. – Debe existir por lo menos una neurona instar por cada clase Ck, ; k=1, . . H. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 18

La Capa Oculta Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 19

La Capa Oculta Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 19

La Capa Oculta • Sea f=f (z. Hk) (ej. : f(z)=zr r>1) la función

La Capa Oculta • Sea f=f (z. Hk) (ej. : f(z)=zr r>1) la función de feedback. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 20

La Capa de salida • Outstars: – Neuronas de la capa de salida. –

La Capa de salida • Outstars: – Neuronas de la capa de salida. – Existen 2 capas: x’ de dimensión N e y’ de dimensión K. – Matriz peso : W’ – Objetivo: Recuperar el par {<x>k, <y>k}, donde <x>k es cercano a la entrada x Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 21

La Capa de salida • Comportamiento: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 22

La Capa de salida • Comportamiento: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 22

La Capa de salida • Cambio en la matriz peso: – Solo una columna

La Capa de salida • Cambio en la matriz peso: – Solo una columna de W’ cambia. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 23

La Capa de salida • Si se asume que la matriz peso cambia más

La Capa de salida • Si se asume que la matriz peso cambia más lentamente, i. e. , W(i, : )z. H cte. Entonces se tiene la siguiente solución: • La solución para los pesos es: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 24

La Capa de salida • Comportamiento Asintótico: – Después del entrenamiento los pesos serán

La Capa de salida • Comportamiento Asintótico: – Después del entrenamiento los pesos serán W’(1: N, k) <x>k Profesor: Dr. Héctor Allende W’(N+1: N+K, k) <y>k Redes Neuronales Artificiales 25

Dinámica de la CPN • Ejecución de la red: – Capa de entrada: Normalización

Dinámica de la CPN • Ejecución de la red: – Capa de entrada: Normalización de la entrada. – La capa oculta es del tipo ganador se lleva todo. • Se calcula las salidas de las neuronas ocultas: z. Hl W(l, : )z. • Sea k tal que • – Capa de Salida • La ecuación : • Hacer y = 0, C’=A’ y E’=D’, entonces la salida de la capa y’ es y’ =W’(N+1, N+K, k) Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 26

Dinámica de la CPN • Algoritmo de aprendizaje: – Un vector de entrada se

Dinámica de la CPN • Algoritmo de aprendizaje: – Un vector de entrada se elige aleatoriamente. – La capa de entrada normaliza la entrada: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 27

Dinámica de la CPN • Algoritmo de aprendizaje: – Entrenamiento de la capa oculta:

Dinámica de la CPN • Algoritmo de aprendizaje: – Entrenamiento de la capa oculta: • Pesos se inicializan aleatoriamente con vectores de entrada normalizados. • Capa oculta es del tipo ganador se lleva todo. • Se calcula las salidas de las neuronas ocultas: z. Hl W(l, : )z. • Sea k tal que • • Actualizacion del peso de la neurona ganadora: • Repetir para todas las entradas hasta que • Testear el resultado con entradas no usadas en el entrenamiento. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 28

Dinámica de la CPN • Algoritmo de aprendizaje: – Entrenamiento de la capa oculta:

Dinámica de la CPN • Algoritmo de aprendizaje: – Entrenamiento de la capa oculta: • Se aplica una entrada x , e y se obtiene la neurona ganadora k de la capa oculta. • El peso de la neurona k se actualiza: • Se repite para todas las entradas hasta que los vectores de entradas se reconocen correctamente: w’ik-xi< para i=1, . . , N Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 29

Dinámica de la CPN Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 30

Dinámica de la CPN Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 30