perceptrón simple y multicapa
TRANSCRIPT
PERCEPTRÓN SIMPLE Y MULTICAPA
INTRODUCCIÓN
Una de las principales características de las redes neuronales es su capacidad para
aprender a partir de alguna fuente de información interactuando con su entorno. El
psicólogo Frank Rosenblat desarrolló un modelo simple de neurona basado en el modelo
de McCulloch y Pitts y en una regla de aprendizaje basada en la corrección del error. A
este modelo le llamó Perceptrón en 1958. Una de las características que más interés
despertó de este modelo fue la capacidad de aprender a reconocer patrones. El
Perceptrón está constituido por conjunto de sensores de entrada que reciben los patrones
de entrada a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a
los patrones de entrada en dos clases, según que la salida de la misma es binaria.
Sin embargo, este modelo tiene muchas limitaciones, como por ejemplo, no es capaz de
aprender la función lógica XOR, además tuvieron que pasar varios años hasta que se
propusiera la regla de aprendizaje de retro propagación del error para demostrarse que el
Perceptrón multicapa es un aproximador universal.
El perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona artificial, para
formar redes neuronales más complicadas.
MARCO TEÓRICO
PERCEPTRÓN SIMPLE
El Perceptrón Simple es un modelo unidireccional, consta de una red con una capa de
salida de n neuronas y otra capa de salida de m neuronas también utiliza señales
binarias.
Las neuronas de entrada son discretas, la función de activación de las neuronas de la
capa de salida es de tipo escalón además es un dispositivo entrenable que puede
determinar automáticamente los pesos sinápticos que clasifican un conjunto de patrones
etiquetados.
CARACTERÍSTICAS
Es un sistema capaz de realizar tareas de clasificación de forma automática.
A partir de un número de ejemplos etiquetados, el sistema determina la ecuación
del plano discriminante.
Puede usarse como neurona dentro de otro tipo de red de neurona artificial.
Aprendizaje supervisado y conexiones en un sólo sentido.
Es reconocido por su capacidad de aprender a reconocer patrones
Es un modelo unidireccional compuesto por dos capas de neuronas.
Con respecto al entrenamiento las neuronas de entrada son discretas y la función
de activación de las de salida es de tipo escalón
APRENDIZAJE SUPERVISADO
Para el proceso de aprendizaje del Perceptron Simple es necesario saber:
Los datos son puntos en un espacio multidimensional.
Se dispone de un conjunto de observaciones, puntos representados en el hiperplano, de
los que se sabe su categoría o clase.
Se tiene que determinar la ecuación del hiperplano que separa los ejemplos de un tipo de
los de otro.
La ecuación del hiperplano se deduce a partir de los ejemplos.
El aprendizaje es proceso iterativo supervisado.
Hasta encontrar el hiperplano discriminante se debe ir modificando los parámetros de la
red (pesos y umbral).
Este proceso de aprendizaje supervisado tiene un número finito de iteraciones.
Los pasos a seguir para el aprendizaje son:
1. Inicialización aleatoria de los pesos y umbral.
2. Se toma un patrón de entrada-salida.
3. Se calcula la salida de la red.
4. Si y = d(x) (clasificación correcta).
Si y ≠ d(x) (clasificación incorrecta) se modifican los parámetros.
5. Se vuelve al paso 2 hasta completar el conjunto de patrones de entrenamiento.
6. Se repiten los pasos anteriores hasta alcanzar el criterio de parada.
LIMITACIONES DEL PERCEPTRÓN
Hay que tener en cuenta que no siempre el algoritmo de entrenamiento del Perceptrón
podrá aproximarse hacia al error nulo. De hecho el Perceptrón es incapaz de aproximarse
en aquellas funciones que son linealmente separables, es decir, aquellas cuyos
elementos pueden ser separados por una línea recta. La unidades básicas del Perceptrón
que son las neuronas artificiales, cuya limitación reside principalmente en la función de
activación que como se puede observar, es decir separa las entradas en dos salidas de
manera que con todas las entradas posibles se forma un hiperplano cuyos elementos de
salidas son separados en dos partes.
PERCEPTRÓN MULTICAPA
Este modelo se compone de:
Capa de entrada: sólo se encarga de recibir las señales de entrada y propagarla a
la siguiente capa.
Capa de salida: proporciona al exterior la respuesta de la red para cada patrón de
entrada.
Capas ocultas: realizan un procesamiento no lineal de los datos de entrada.
La propagación de los patrones de entrada en el perceptrón multicapa define una relación
entre las variables de entrada y variables de salida de la red. Esta relación se obtiene
propagando hacia delante los valores de entrada. Cada neurona de la red procesa la
información recibida por sus entradas y produce una respuesta o activación que se
propaga, a través de las conexiones correspondientes, a las neuronas de la siguiente
capa.
CARACTERÍSTICAS
Es una de las arquitecturas más utilizadas para resolver problemas reales.
Se evalúa un conjunto de datos de entradas y se obtienen valores reales o vectores con
valores reales.
Se diferencia del perceptron simple y ADALINE en que tiene una capa oculta.
Todas las neuronas se relacionan con todas las neuronas, incluyendo las neuronas de la
capa oculta.
APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA
1. Se inicializan los pesos y umbrales (valores aleatorios próximos a 0).
2. Se presenta un patrón "n" de entrenamiento y se propaga hacia la salida,
obteniendo la salida de la red "y(n)"
3. Se evalúa el error cuadrático, "e(n)", cometido por la red para cada patrón.
4. Se aplica la Regla Delta Generalizada para modificar pesos y umbrales:
Se calculan los valores "δ" para todas las neuronas de la capa de salida.
Se calcula "δ" para el resto de neuronas, empezando por la última capa oculta y
terminando en la capa de entrada.
Se modifican los pesos y umbrales.
5. Se repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.
6. Se evalúa el error total de la red.
7. Se repite hasta alcanzar el error mínimo de entrenamiento, realizando "m" ciclos.
Se pueden establecer otros criterios de parada:
El error del entrenamiento se estabilice.
El error de validación se estabilice.
El error de validación aumente.
APLICACIONES
El rango de tareas que el Perceptrón puede manejar es mucho mayor que simples
decisiones y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para
formar el tiempo pasado de los verbos en inglés, leer texto en inglés y manuscrito. El
Perceptrón multicapa (MLP) puede ser usado para la predicción de una serie de datos en
el tiempo; tal a sido su éxito en la medición de la demanda de gas y electricidad, además,
de la predicción de cambios en el valor de los instrumentos financieros.
NETtalk, es un Perceptrón que es capaz de transformar texto en inglés en sonido
individual (representaciones fonéticas) y la pronunciación con la utilización de un
sintetizador de voz; cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en
la capa oculta) y 20,000 conexiones individuales.
CONCLUSIONES
El Perceptrón es una red neuronal artificial multicapa que posee conexiones hacia
adelante, este tipo de redes realiza aproximaciones que son combinaciones lineales de
múltiples funciones locales no lineales.
Este tipo de redes se pueden implementar en la vida moderna en ámbitos como análisis
de series temporales, procesamiento de imágenes, reconocimiento automático del habla,
diagnósticos médicos, entre otros.
Cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en la capa oculta) y
20,000 conexiones individuales.
El perceptrón a pesar de ser una de las redes más utilizadas, no necesariamente es una
de las más potentes ya que posee ciertas limitaciones como es el caso del proceso de
aprendizaje para problemas complejos.
BIBLIOGRAFÍA
Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson Education. Madrid. p 1-5.
Torres, Luis .2008. Redes Neuronales Artificiales. (En Línea).Consultado 16 de Jun 2015. Formato (PDF).Disponible en http://disi.unal.edu.co/~lctorress/RedNeu/RNA006c.pdf
Valls, J. 2007. Redes de Neuronas Perceptrón y Adaline. (En Línea). Consultado, 24 de Junio 2015. Formato (PDF). Disponible en: http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema2-PerceptronAdaline.pdf
Roncagllolo, P. s.f. Procesamiento Digital de Imágenes. (En Línea). Consultado, 24 de Jun 2015. Formato (PDF). Disponible en: http://www2.elo.utfsm.cl/~elo328/PDI21_RedesNeuronales.pdf