perceptrón simple y multicapa

9
PERCEPTRÓN SIMPLE Y MULTICAPA INTRODUCCIÓN Una de las principales características de las redes neuronales es su capacidad para aprender a partir de alguna fuente de información interactuando con su entorno. El psicólogo Frank Rosenblat desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts y en una regla de aprendizaje basada en la corrección del error. A este modelo le llamó Perceptrón en 1958. Una de las características que más interés despertó de este modelo fue la capacidad de aprender a reconocer patrones. El Perceptrón está constituido por conjunto de sensores de entrada que reciben los patrones de entrada a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a los patrones de entrada en dos clases, según que la salida de la misma es binaria. Sin embargo, este modelo tiene muchas limitaciones, como por ejemplo, no es capaz de aprender la función lógica XOR, además tuvieron que pasar varios años hasta que se propusiera la regla de aprendizaje de retro propagación del error para demostrarse que el Perceptrón multicapa es un aproximador universal. El perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona artificial, para formar redes neuronales más complicadas.

Upload: jefferson-guillen

Post on 17-Aug-2015

71 views

Category:

Education


1 download

TRANSCRIPT

Page 1: Perceptrón simple y multicapa

PERCEPTRÓN SIMPLE Y MULTICAPA

INTRODUCCIÓN

Una de las principales características de las redes neuronales es su capacidad para

aprender a partir de alguna fuente de información interactuando con su entorno. El

psicólogo Frank Rosenblat desarrolló un modelo simple de neurona basado en el modelo

de McCulloch y Pitts y en una regla de aprendizaje basada en la corrección del error. A

este modelo le llamó Perceptrón en 1958. Una de las características que más interés

despertó de este modelo fue la capacidad de aprender a reconocer patrones. El

Perceptrón está constituido por conjunto de sensores de entrada que reciben los patrones

de entrada a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a

los patrones de entrada en dos clases, según que la salida de la misma es binaria.

Sin embargo, este modelo tiene muchas limitaciones, como por ejemplo, no es capaz de

aprender la función lógica XOR, además tuvieron que pasar varios años hasta que se

propusiera la regla de aprendizaje de retro propagación del error para demostrarse que el

Perceptrón multicapa es un aproximador universal.

El perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona artificial, para

formar redes neuronales más complicadas.

Page 2: Perceptrón simple y multicapa

MARCO TEÓRICO

PERCEPTRÓN SIMPLE

El Perceptrón Simple es un modelo unidireccional, consta de una red con una capa de

salida de n neuronas y otra capa de salida de m neuronas también utiliza señales

binarias.

Las neuronas de entrada son discretas, la función de activación de las neuronas de la

capa de salida es de tipo escalón además es un dispositivo entrenable que puede

determinar automáticamente los pesos sinápticos que clasifican un conjunto de patrones

etiquetados.

CARACTERÍSTICAS

Es un sistema capaz de realizar tareas de clasificación de forma automática.

A partir de un número de ejemplos etiquetados, el sistema determina la ecuación

del plano discriminante.

Puede usarse como neurona dentro de otro tipo de red de neurona artificial.

Aprendizaje supervisado y conexiones en un sólo sentido.

Es reconocido por su capacidad de aprender a reconocer patrones

Es un modelo unidireccional compuesto por dos capas de neuronas.

Page 3: Perceptrón simple y multicapa

Con respecto al entrenamiento las neuronas de entrada son discretas y la función

de activación de las de salida es de tipo escalón

APRENDIZAJE SUPERVISADO

Para el proceso de aprendizaje del Perceptron Simple es necesario saber:

Los datos son puntos en un espacio multidimensional.

Se dispone de un conjunto de observaciones, puntos representados en el hiperplano, de

los que se sabe su categoría o clase.

Se tiene que determinar la ecuación del hiperplano que separa los ejemplos de un tipo de

los de otro.

La ecuación del hiperplano se deduce a partir de los ejemplos.

El aprendizaje es proceso iterativo supervisado.

Hasta encontrar el hiperplano discriminante se debe ir modificando los parámetros de la

red (pesos y umbral).

Este proceso de aprendizaje supervisado tiene un número finito de iteraciones.

Los pasos a seguir para el aprendizaje son:

1. Inicialización aleatoria de los pesos y umbral.

2. Se toma un patrón de entrada-salida.

3. Se calcula la salida de la red.

4. Si y = d(x) (clasificación correcta).

Si y ≠ d(x) (clasificación incorrecta) se modifican los parámetros.

5. Se vuelve al paso 2 hasta completar el conjunto de patrones de entrenamiento.

6. Se repiten los pasos anteriores hasta alcanzar el criterio de parada.

LIMITACIONES DEL PERCEPTRÓN

Hay que tener en cuenta que no siempre el algoritmo de entrenamiento del Perceptrón

podrá aproximarse hacia al error nulo. De hecho el Perceptrón es incapaz de aproximarse

en aquellas funciones que son linealmente separables, es decir, aquellas cuyos

elementos pueden ser separados por una línea recta. La unidades básicas del Perceptrón

Page 4: Perceptrón simple y multicapa

que son las neuronas artificiales, cuya limitación reside principalmente en la función de

activación que como se puede observar, es decir separa las entradas en dos salidas de

manera que con todas las entradas posibles se forma un hiperplano cuyos elementos de

salidas son separados en dos partes.

PERCEPTRÓN MULTICAPA

Este modelo se compone de:

Capa de entrada: sólo se encarga de recibir las señales de entrada y propagarla a

la siguiente capa.

Capa de salida: proporciona al exterior la respuesta de la red para cada patrón de

entrada.

Capas ocultas: realizan un procesamiento no lineal de los datos de entrada.

La propagación de los patrones de entrada en el perceptrón multicapa define una relación

entre las variables de entrada y variables de salida de la red. Esta relación se obtiene

propagando hacia delante los valores de entrada. Cada neurona de la red procesa la

información recibida por sus entradas y produce una respuesta o activación que se

propaga, a través de las conexiones correspondientes, a las neuronas de la siguiente

capa.

CARACTERÍSTICAS

Es una de las arquitecturas más utilizadas para resolver problemas reales.

Se evalúa un conjunto de datos de entradas y se obtienen valores reales o vectores con

valores reales.

Se diferencia del perceptron simple y ADALINE en que tiene una capa oculta.

Todas las neuronas se relacionan con todas las neuronas, incluyendo las neuronas de la

capa oculta.

APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA

1. Se inicializan los pesos y umbrales (valores aleatorios próximos a 0).

2. Se presenta un patrón "n" de entrenamiento y se propaga hacia la salida,

obteniendo la salida de la red "y(n)"

3. Se evalúa el error cuadrático, "e(n)", cometido por la red para cada patrón.

4. Se aplica la Regla Delta Generalizada para modificar pesos y umbrales:

Page 5: Perceptrón simple y multicapa

Se calculan los valores "δ" para todas las neuronas de la capa de salida.

Se calcula "δ" para el resto de neuronas, empezando por la última capa oculta y

terminando en la capa de entrada.

Se modifican los pesos y umbrales.

5. Se repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.

6. Se evalúa el error total de la red.

7. Se repite hasta alcanzar el error mínimo de entrenamiento, realizando "m" ciclos.

Se pueden establecer otros criterios de parada:

El error del entrenamiento se estabilice.

El error de validación se estabilice.

El error de validación aumente.

APLICACIONES

El rango de tareas que el Perceptrón puede manejar es mucho mayor que simples

decisiones y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para

formar el tiempo pasado de los verbos en inglés, leer texto en inglés y manuscrito. El

Perceptrón multicapa (MLP) puede ser usado para la predicción de una serie de datos en

el tiempo; tal a sido su éxito en la medición de la demanda de gas y electricidad, además,

de la predicción de cambios en el valor de los instrumentos financieros.

NETtalk, es un Perceptrón que es capaz de transformar texto en inglés en sonido

individual (representaciones fonéticas) y la pronunciación con la utilización de un

Page 6: Perceptrón simple y multicapa

sintetizador de voz; cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en

la capa oculta) y 20,000 conexiones individuales.

CONCLUSIONES

El Perceptrón es una red neuronal artificial multicapa que posee conexiones hacia

adelante, este tipo de redes realiza aproximaciones que son combinaciones lineales de

múltiples funciones locales no lineales.

Este tipo de redes se pueden implementar en la vida moderna en ámbitos como análisis

de series temporales, procesamiento de imágenes, reconocimiento automático del habla,

diagnósticos médicos, entre otros.

Cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en la capa oculta) y

20,000 conexiones individuales.

El perceptrón a pesar de ser una de las redes más utilizadas, no necesariamente es una

de las más potentes ya que posee ciertas limitaciones como es el caso del proceso de

aprendizaje para problemas complejos.

BIBLIOGRAFÍA

Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson Education. Madrid. p 1-5.

Torres, Luis .2008. Redes Neuronales Artificiales. (En Línea).Consultado 16 de Jun 2015. Formato (PDF).Disponible en http://disi.unal.edu.co/~lctorress/RedNeu/RNA006c.pdf

Valls, J. 2007. Redes de Neuronas Perceptrón y Adaline. (En Línea). Consultado,  24 de Junio 2015. Formato (PDF). Disponible en: http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema2-PerceptronAdaline.pdf

Page 7: Perceptrón simple y multicapa

Roncagllolo, P. s.f. Procesamiento Digital de Imágenes. (En Línea). Consultado,  24 de Jun 2015. Formato (PDF). Disponible en: http://www2.elo.utfsm.cl/~elo328/PDI21_RedesNeuronales.pdf