INTRODUCCIN A REDES NEURONALES ARTIFICIALES TEORA Y APLICACIONES

  • Slides: 37
Download presentation
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES Dr. Héctor Allende Departamento de Informática

INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES Dr. Héctor Allende Departamento de Informática Universidad Técnica Federico Santa María Profesor: Héctor Allende Redes Neuronales Artificiales 1

Capítulo 1 Basic Neural Dynamics The ANN Books R. M. Kristev 1998 http: //www.

Capítulo 1 Basic Neural Dynamics The ANN Books R. M. Kristev 1998 http: //www. inf. utfsm. cl/~hallende/ redes neuronales/novedades FAQ NN: "ftp: //ftp. sas. com/pub/neural/FAQ. html" n Profesor: Héctor Allende Redes Neuronales Artificiales 2

Inteligencia Computacional ? Computational Intelligence • Combinación: – Ciencias de la Computación – Neuro-Fisiología

Inteligencia Computacional ? Computational Intelligence • Combinación: – Ciencias de la Computación – Neuro-Fisiología – Filosofía (Teoría del conocimiento y lógica) Creación de Máquinas que puedan Pensar en el sentido del test de Turin Profesor: Héctor Allende Redes Neuronales Artificiales 3

Corteza Cerebral Humana: 11 • Aproximadamente 10 neuronas • 1000 a 10. 000 Synapsis

Corteza Cerebral Humana: 11 • Aproximadamente 10 neuronas • 1000 a 10. 000 Synapsis por neurona • Comunicación tren de impulsos electroquimicos ( mensaje modulado) • Proceso Cognitivo tiempo (milisegundos) Operación Masiva Paralela Secuencial en 100 Etapas Profesor: Héctor Allende Redes Neuronales Artificiales 4

Célula Nerviosa Soma: Info. Hereditaria + Plasma + Generación Señales Dendritas: Recepción Señales Impulsos

Célula Nerviosa Soma: Info. Hereditaria + Plasma + Generación Señales Dendritas: Recepción Señales Impulsos Axón: Transmisión de Señales Sinapsis: Interfaz Neuronal (Inhibitoria, Excitatoria) Profesor: Héctor Allende Redes Neuronales Artificiales 5

Breve Historia • 1943 W. Mc. Culloch, W. Pitts: Modelo ANN ( El Perceptrón

Breve Historia • 1943 W. Mc. Culloch, W. Pitts: Modelo ANN ( El Perceptrón ) • 1959 Bernard Widrow ( SU): Filtro Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline) Basado en ( ANN) • 1969 Minsky y Papert: El Perceptrón (limitaciones). • 1982 J. Hopfield: Memoria Asociativa ”Redes de Hopfield". • 1986 Rumulhart, Hunton y Williams : redescubren el BPL algoritmo de "back-propagation learning" ( Paul Werbor, 1974) • 1989 K. Hornik, M. Stinchcombe, H. White: Multi-FANN y Aproximación Universal Profesor: Héctor Allende Redes Neuronales Artificiales 6

Red neuronal artificial (ANN) ANN: Es un sistema dinámico compuesto por redes paralelas y

Red neuronal artificial (ANN) ANN: Es un sistema dinámico compuesto por redes paralelas y distribuidas de procesadores elementales, con la capacidad de aprender y almacenar “conocimiento”. • Arquitectura • Interacción • Función de proceso ANN: SM sobre-parametrizado Profesor: Héctor Allende Redes Neuronales Artificiales 7

Aplicaciones de las ANN • • Resolver problemas Complejos Hacer generalizaciones Establecer Relaciones no

Aplicaciones de las ANN • • Resolver problemas Complejos Hacer generalizaciones Establecer Relaciones no evidentes Análisis de sistemas complejos Percepción Comprensión y Aprendizaje Generación de nuevo conocimiento Profesor: Héctor Allende Redes Neuronales Artificiales 8

Aplicaciones de las ANN • • Telecomunicaciones Informática Minería Energía Finanzas Transporte Salud Profesor:

Aplicaciones de las ANN • • Telecomunicaciones Informática Minería Energía Finanzas Transporte Salud Profesor: Héctor Allende Redes Neuronales Artificiales 9

Aplicaciones de las ANN • • Clasificación Pre-procesamiento de datos Reconocimiento de patrones Aproximación

Aplicaciones de las ANN • • Clasificación Pre-procesamiento de datos Reconocimiento de patrones Aproximación de funciones Predicción de Series de Tiempo Optimización Combinatorial Control Profesor: Héctor Allende Redes Neuronales Artificiales 10

Modelo Neuronal: Mc Culloch & Pitts 1943 w 1 i . . . 0

Modelo Neuronal: Mc Culloch & Pitts 1943 w 1 i . . . 0 1 xi(t) =1 Profesor: Héctor Allende w ni bi 0 1 n å w xj(t-1) j=1 ij - xi(t) bi Redes Neuronales Artificiales 11

ANN y Neuronales Biológicas Neurona y Conecciones Sinápticas Procesador Elemental Neuronas: El aprendizaje se

ANN y Neuronales Biológicas Neurona y Conecciones Sinápticas Procesador Elemental Neuronas: El aprendizaje se produce mediante la variación de la efectividad de las sinapsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras. ANN: La regla de aprendizaje usada indica como se ajustan los pesos de las conexiones en función del vector entrada Profesor: Héctor Allende Redes Neuronales Artificiales 12

Analogías Profesor: Héctor Allende Redes Neuronales Artificiales 13

Analogías Profesor: Héctor Allende Redes Neuronales Artificiales 13

Procesador Elemental. PE: Es una unidad básica de procesamiento la que posee múltiples entradas

Procesador Elemental. PE: Es una unidad básica de procesamiento la que posee múltiples entradas y solo una salida. – Cada entrada xi es ponderada por un factor (peso) wi y se calcula la suma ponderada de las entradas: – Luego es aplicada una transformación mediante la función de activación : Profesor: Héctor Allende Redes Neuronales Artificiales 14

Procesador elemental. xi a=netai wi Input f(a) Output Unidad de agregación Profesor: Héctor Allende

Procesador elemental. xi a=netai wi Input f(a) Output Unidad de agregación Profesor: Héctor Allende f Unidad de Activación Redes Neuronales Artificiales 15

Procesador elemental. • ANN Feedforward: Se construye colocando las neuronas en capas y conectando

Procesador elemental. • ANN Feedforward: Se construye colocando las neuronas en capas y conectando las salidas de una capa con las entradas de las neuronas de la próxima capa. • Capas de una red: – Capa de entrada Zona sensorial ( S) – Capa de salida Zona de Respuesta ( R) – Capas ocultas Zona de asociación ( A) Profesor: Héctor Allende Redes Neuronales Artificiales 16

ANN: Aprendizaje y Generalización Métodos Actuales Tipos de Aprendizaje Supervisado No - Supervisado Híbridos

ANN: Aprendizaje y Generalización Métodos Actuales Tipos de Aprendizaje Supervisado No - Supervisado Híbridos Tipos de Arquitectura Feed. Forward Single, Multiple Recurrentes Tipos de Función de Transición: deterministas, probabilistas Tipo de Algoritmo de Aprendizaje: BPL, PPL, LM, etc 22/11/2020 Profesor: Héctor Allende Redes Neuronales Artificiales 17

Feedforward Neural Network Profesor: Héctor Allende Redes Neuronales Artificiales 18

Feedforward Neural Network Profesor: Héctor Allende Redes Neuronales Artificiales 18

Redes Feedforward • FANN La capa 0 no realiza procesamiento alguno, solo distribuye las

Redes Feedforward • FANN La capa 0 no realiza procesamiento alguno, solo distribuye las entradas a la capa siguiente S x 1 Profesor: Héctor Allende Redes Neuronales Artificiales x 2 19

Modelo de Turing xi(0) {0, 1} n xi(t) =1 å wij xj(t-1) - bi

Modelo de Turing xi(0) {0, 1} n xi(t) =1 å wij xj(t-1) - bi j=1 i=1, . . . , n W (conectividad de la NN) b = (bi ) vector de umbrales Profesor: Héctor Allende Redes Neuronales Artificiales wij 20

Arquitectura En función de la conectividad de las capas, podemos hablar de redes recurrentes

Arquitectura En función de la conectividad de las capas, podemos hablar de redes recurrentes (feed-back) y redes no recurrentes o redes en cascada (feedforward). Lo más usual es disponer las unidades en forma de capas, pudiéndose hablar de redes de una capa oculta, o de más de dos capas ocultas (redes multicapa Profesor: Héctor Allende Redes Neuronales Artificiales 21

Neuronas y Redes simples. • ANN Recurrente: La salida de una neurona es la

Neuronas y Redes simples. • ANN Recurrente: La salida de una neurona es la entrada de neuronas de capas anteriores (feedback). • Feedback lateral: La salida de una neurona es la entrada de otra neurona en la misma capa. Profesor: Héctor Allende Redes Neuronales Artificiales 22

Neuronas y Redes simples. • Parámetros de la Red: Los pesos {wi}. • Aprendizaje

Neuronas y Redes simples. • Parámetros de la Red: Los pesos {wi}. • Aprendizaje o entrenamiento: Es el procedimiento mediante el cual los pesos son ajustados. • Conjunto de entrenamiento: Conjunto de datos que consiste vectores de entrada asociado con vectores de salida deseada: {(xi, yi)}. Profesor: Héctor Allende Redes Neuronales Artificiales 23

Neuronas como funciones • Las neuronas transforman una entrada no acotada x(t) en el

Neuronas como funciones • Las neuronas transforman una entrada no acotada x(t) en el tiempo t en una señal de salida acotada f(x(t)). • La función de activación o función de señal: f • Velocidad de la señal: Profesor: Héctor Allende Redes Neuronales Artificiales 24

Funciones de Activación Funciones Tipo Sigmoide Funciones Base Radial Profesor: Héctor Allende Redes Neuronales

Funciones de Activación Funciones Tipo Sigmoide Funciones Base Radial Profesor: Héctor Allende Redes Neuronales Artificiales 25

Funciones de activación comunes • Función de activación logística: – Es monótamente creciente para

Funciones de activación comunes • Función de activación logística: – Es monótamente creciente para c >0 Profesor: Héctor Allende Redes Neuronales Artificiales 26

Funciones de activación comunes Profesor: Héctor Allende Redes Neuronales Artificiales 27

Funciones de activación comunes Profesor: Héctor Allende Redes Neuronales Artificiales 27

Funciones de activación comunes • Tangente hiperbólica: donde c>0. Profesor: Héctor Allende Redes Neuronales

Funciones de activación comunes • Tangente hiperbólica: donde c>0. Profesor: Héctor Allende Redes Neuronales Artificiales 28

Funciones de activación comunes • Threshold (umbral) c>0 Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes • Threshold (umbral) c>0 Profesor: Héctor Allende Redes Neuronales Artificiales 29

Funciones de activación comunes • Distribución exponencial: c>0. Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes • Distribución exponencial: c>0. Profesor: Héctor Allende Redes Neuronales Artificiales 30

Funciones de activación comunes • Razón polinomial: Profesor: Héctor Allende Redes Neuronales Artificiales 31

Funciones de activación comunes • Razón polinomial: Profesor: Héctor Allende Redes Neuronales Artificiales 31

Funciones de activación comunes • Pulse-coded: Consiste en un tren de pulsos exponencialmente ponderados

Funciones de activación comunes • Pulse-coded: Consiste en un tren de pulsos exponencialmente ponderados Profesor: Héctor Allende Redes Neuronales Artificiales 32

NN: Preguntas Abiertas • Tamaño de las muestras • Cuántas Neuronas • Cuantas Capas

NN: Preguntas Abiertas • Tamaño de las muestras • Cuántas Neuronas • Cuantas Capas • Tipo de Arquitectura ( Selección del Modelo ANN) • Tipo de Aprendizaje • Algoritmos de Aprendizaje • ¿Cuándo usar ANN Profesor: Héctor Allende Redes Neuronales Artificiales Modelador 33

Aplicaciones NN • Optimización Combinatorial • Aprendizaje y Generalización: – Memorias Asociativas (Básico) –

Aplicaciones NN • Optimización Combinatorial • Aprendizaje y Generalización: – Memorias Asociativas (Básico) – Redes Multicapas • Pattern Recognition – Predicción y Pronósticos – Aproximación de Funciones • Modelos de Difusión de Información • Arquitecturas Paralelas Profesor: Héctor Allende Redes Neuronales Artificiales 34

Test de Turing: “Un computador merece ser llamado inteligente si puede hacer pensar a

Test de Turing: “Un computador merece ser llamado inteligente si puede hacer pensar a un ser humano que es otro ser humano” Profesor: Héctor Allende Redes Neuronales Artificiales 35

Estructura y Formas de Conexión Función de Activación Se suele distinguir entre funciones lineales,

Estructura y Formas de Conexión Función de Activación Se suele distinguir entre funciones lineales, en las que la salida es proporcional a la entrada; funciones de umbral, en las cuales la salida es un valor discreto (típicamente binario 0/1) que depende de si la estimulación total supera o no un determinado valor de umbral; y funciones no lineales, no proporcionales a la entrada. Caracteristicas Aprendizaje inductivo Generalización. Abstracción tolerancia al ruido: Procesamiento paralelo Memoria Distribuida Redes Asincronicas v/s Sincronicas Metodos deterministas v/s Estaticos Profesor: Héctor Allende Redes Neuronales Artificiales 36

Funcionamiento Basico La arquitectura más usada en la actualidad de una red neuronal consistiría

Funcionamiento Basico La arquitectura más usada en la actualidad de una red neuronal consistiría en: • Una primera capa de entradas, que recibe información del exterior. • Una serie de capas ocultas (intermedias), encargadas de realizar el trabajo de la red. • Una capa de salidas, que proporciona el resultado del trabajo de la red al exterior. El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal. Profesor: Héctor Allende Redes Neuronales Artificiales 37