redalyc.redes neuronales para identificación y predicción...

20
Disponible en: http://www.redalyc.org/articulo.oa?id=34201406 Red de Revistas Científicas de América Latina, el Caribe, España y Portugal Sistema de Información Científica Adolfo González, Miguel A. Ávila, Eduardo Gómez, Xavier Vilasis, Oriol Mulet, Ferran Mazzanti Redes neuronales para identificación y predicción de series de tiempo Revista del Centro de Investigación. Universidad La Salle, vol. 4, núm. 14, enero, 2000, pp. 45-65, Universidad La Salle México ¿Cómo citar? Fascículo completo Más información del artículo Página de la revista Revista del Centro de Investigación. Universidad La Salle, ISSN (Versión impresa): 1405-6690 [email protected] Universidad La Salle México www.redalyc.org Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto

Upload: others

Post on 12-Aug-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Disponible en: http://www.redalyc.org/articulo.oa?id=34201406

Red de Revistas Científicas de América Latina, el Caribe, España y Portugal

Sistema de Información Científica

Adolfo González, Miguel A. Ávila, Eduardo Gómez, Xavier Vilasis, Oriol Mulet, Ferran Mazzanti

Redes neuronales para identificación y predicción de series de tiempo

Revista del Centro de Investigación. Universidad La Salle, vol. 4, núm. 14, enero, 2000, pp. 45-65,

Universidad La Salle

México

¿Cómo citar? Fascículo completo Más información del artículo Página de la revista

Revista del Centro de Investigación. Universidad

La Salle,

ISSN (Versión impresa): 1405-6690

[email protected]

Universidad La Salle

México

www.redalyc.orgProyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto

Page 2: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

" ,,~

Redes Neuronales paraidentificación y predicciónde series de tiempoAdolfo González Yunes1,Miguel A. Ávila Álvarez1,Eduardo Gómez Ramírezl,Oriol Mulet2,Ferran MazzantP,Xavier Vilasis-Cardona21Laboratoriode Investigación y Desarrollo de TecnologíaAvanzada, Universidad La SalleBenjamín Franklín 47, Col. Hipódromo Condesa, México, D.F., 06170e-mail: <[email protected]><maavila@helíos.lci.ulsa.mx><[email protected]> .'Departament d'Electronica - Enginyeria La Salle - Universitat Ramon L/ullPg. Bonanova 8 08022 Barcelona - España.e-mail: <[email protected]><[email protected]> .

RESUMEN

La predicción de series de tiempo es un área que ha llamado gran atención debido a la gran cantidad deaplicaciones en control, economía medicina, entre otras. En este trabajo se presenta algunos de los algo-ritmos de redes neuronales artificiales que han mostrado mejores resultados en este campo. Se presentala aplicación en la predicción de la serie de manchas solares como los datos estándar para que pueda sercomparado con otros algoritmos reportados.Palabras clave: Redes Neuronales, predicción de series de tiempo, redes neuronales polínomiales, per-ceptrones, multicapa, redes de Elman.

ABSTRACT

The Area of Forecasting Time Series has grown in the last years due to the great number of applications incontrol, economy, medicine, etc. In this paper we present some algorithms of Artificial Neural Networksthat has shown good results to predict time series. We use like standard example the sunspots forecast-ing to compare with other algorithms.Keywords: Neural networks, time series prediction, polynomial neural networks, multí/ayer perceptrons,Elman networks.

1 INTRODUCCiÓN

no describen el sistema con la precisión desea-da en todo su rango de funcionamiento. Tam-bién puede suceder que alguno de los paráme-tros del modelo sea desconocido, o incluso noexisten ecuaciones conocidas para el sistemaque se debe tratar. La identificación de un sis-tema consiste entonces en ajustar su respuestaa un modelo funcional a partir de datos experi-mentales.

La identificación de sistemas es una de laspiezas fundamentales de la teoría de control. Enefecto, el diseño de cualquier controladorempieza por disponer de un modelo matemáticode la planta, o al menos del conocimiento delcomportamiento dinámico de las variablesinvolucradas. La calidad del controlador va adepender de la precisión del modelo, principal-mente cuando se busca la convergencia de uncontrolador adaptable. El modelo se sueleobtener a partir de las ecuaciones físicas delproceso, aunque a menudo sucede que éstas

Para sistemas lineales existe una ampliateoría desarrollada (1, 2), pero empiezan aaparecer dificultades al entrar en el dominio delos sistemas no lineales. En este terreno lasredes neuronales artificiales (3, 4) resultan unaherramienta muy útil para tales propósitos (5, 6),

Rev. Centro /nv. (Méx) Vo/.4, 13 -14 Enero 2000 47

Page 3: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

rtículo

básicamente por dos motivos: primero, porquese puede demostrar que las redes neuronalesartificiales son aproximadores universales (7)de funciones tal como pueda serio una serie deFourier, por ejemplo. Segundo, porque la identi-ficación de un sistema se pueda interpretarcomo un problema de aprendizaje supervisado:se dispone de un conjunto de muestras que lared debe reproducir tan fielmente como seaposible.

El objeto de este artículo es ilustrar el uso delas redes neuronales artificiales para un casoparticular de identificación de sistemas como esla predicción de series de tiempo. En particularse utilizará una de las series que más a menudose usa como banco de pruebas: la serie delNúmero de Wolff que indica la actividad solar yque se conoce comúnmente como la serie demanchas solares. Sobre esta serie, por un lado,se ilustrará el uso de algunos de los tipos deredes más comunes usados en identificacióncomo son los perceptrones multicapa (8) y lasredes de Elman modificadas (12), mientras quepor otro, se prueba la eficiencia de las redespolinomiales de arquitectura adaptable (26).

Para explicar varias de las metodologías exis-tentes en el área para la identificación de seriesde tiempo se estructuró el artículo de la si-guiente forma: La sección 2 es una breve intro-ducción a identificación de sistemas y la pre-dicción de series de tiempo. En la sección 3 sedescriben los tres algoritmos de redes Neu-ronales utilizados: perceptrón multicapa, redesde Elman modificadas y, red neuronal artificialpolinomial (RNAP). En la sección 4 se describelo que son las manchas solares y la serie detiempo generada. En la siguiente sección semuestran los resultados con cada una de estasredes y por último las conclusiones de esteartículo.

2. IDENTIFICACiÓN DE SISTEMAS Y PREDIC-CiÓN DE SERIES DE TIEMPO

Tal como se ha mencionado en la introducción,identificar un sistema consiste en ajustar larespuesta de éste a un modelo matemático fun-cional a partir de datos experimentales. Depen-diendo del enfoque es posible realizar esta ta-rea de dos formas:

48

u(k)-'~(

I. I. I

u(k-N u+l) ~IANN i~ y(k+l)

y(k)TI !y(k-N y+l) ~l j

Fígura 1: Esquema de /a ídentífícacíónentra-dalsalída con una red neurona/.

Un enfoque consiste en estudiar la plantacomo un sistema entrada/salida, es decir, medi-mos la respuesta y(t) a una entrada determina-da u(t) e intentamos encontrar la dependenciafuncional entre ellas. Para un sistema causal entiempo discreto, se tiene,

y(k + 1) = h( u(k),u(k-1),u(k - n¡) ;

y(k), y(k-l),y(k - n2)),

(Ec. 1)

donde, por simplicidad se han eliminado lasdependencias de variables externas que no sepueden controlar. Así formulado, el problemaconsiste en aproximar la función h(J En térmi-nos lineales, esto es equivalente a encontrar lafunción de transferencia.

El segundo enfoque pretende, por otro lado,hallar la dinámica interna de la planta a travésde sus variables de estado x(t). La salida delsistema y(t) es una función de estas variables.Para un sistema causal discreto, se tiene, sim-plificando las dependencias posibles para lasalida,

x(k + 1) = f(x(k),x(k-l),...;u(k),u(k-l),...},

y(k) =g(x(k),u(k)),

(Ec. 2)

donde se ha realizado la misma simplificaciónque en la Ec. 1.

En este marco, la tarea de las redes neu-ronales es aproximar las funciones f(), g() oh(), dependiendo del tipo de red empleada.

Si se utilizan redes de alimentación hacia ade-lante (feed fo/Ward),como son los perceptrones

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Page 4: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

multicapa (PM) o las redes neuronales artifi-ciales polinomiales (RNAP), se optará por haceruna identificación del tipo entrada/salida. Así, sebuscará ajustar una función de la forma,

A

y(k + 1) = h(u(k),u(k + l),...,u(k - Nu + 1);

y(k),y(k -1), ...,y(k - Ny + 1»

(Ec. 3)

Se construirá una red con Nu+Nyneuronas deentrada en las cuales se dispondrá de los valo-res u(k),"".,U(k-Nu+1),y(k),...,y(k-Ny+1)y unaneurona de salida en la cual se espera obtenery(k+1) (ver Figura 1). Se organizarán entonceslos datos obtenidos experimentalmente sobre larespuesta del sistema para construir el conjuntode entrenamiento:

{u(k ),..., u(k - Nu + 1), y(k),..., y(k - Ny + 1); y(k + 1)}

Con estos valores se va a entrenar la red conlos algoritmos apropiados.

El interés en usar redes recurrentes reside enla posibilidad de emular la dinámica del sistemacon su propia dinámica interna. Se busca que lared encuentre una representación en variablesde estado del sistema a partir de los estados delas neuronas ocultas. Idealmente, sólo se nece-sita introducir en la red el valor de las entradasactuales u(k) para poder recuperar la salidafutura y(k) en las neuronas de salida de la red.En la práctica resulta a menudo más eficienteinformar a la red del valor de entradas y salidasanteriores. Del mismo modo que para las redesde alimentación hacia adelante con los datosexperimentales se construye el conjunto de en-trenamiento y se entrenará la red.

En general, el entrenamiento de redes recur-rentes suele ser más lento y difícil que el de lasredes con alimentación hacia adelante, aunqueello se compensa por el mejor ajuste que poten-cialmente pueden realizar del sistema.

Un caso particular de identificación de sis-temas es la predicción de series de tiempo. Unaserie de tiempo no es más que un conjunto dedatos medidos a intervalos regulares. Dentro deesta amplia definición se pueden considerar losfenómenos más dispares, desde las cotiza-ciones bursátiles diarias hasta el consumo

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

horario eléctrico de una ciudad, el importe quepaga diariamente un cajero automático o elnúmero de personas por hora que cruzan unadeterminada calle. Vistos estos ejemplos, elinterés de realizar predicciones sobre estasseries es evidente. Desde el punto de vista de laidentificación de sistemas, se puede interpretaruna serie de tiempo como la salida de un sis-tema con el que no se cuenta con su entrada (ypor ello se desconocen sus u(k)). Se disponeúnicamente de los valores anteriores de la seriepara predecir los valores siguientes. En algunoscasos, se intenta buscar variables externas quepuedan influir de forma relevante que están cor-relacionadas con la salida: por ejemplo, el con-sumo de gas puede depender de la temperatu-ra, ya que en función de ella se encenderán ono los calefactores.

Existe abundante literatura sobre predicciónde series de tiempo empleando métodos linea-les, (9, 10) aunque las redes neuronales, por sucapacidad de aprendizaje se están erigiendo enútiles aliados para estas tareas. Tomando unaventana de datos, se alimenta a las redes, seanlas de alimentación hacia adelante o recurren-tes, y se obtiene la salida estimada:

y(k + l) = h(y(k),y(k -1),...)

(Ec. 4)

Como caso particular de identificación, sepuede interpretar el valor a predecir directa-mente como una función de los valores anterio-res, tal como indica la Ec. 4, o como la medidadel estado de un sistema:

x(k + 1) = f(x(k),x(k -1),...),

y(k) = g(x(k»

(Ec.5)

Operando de la misma manera que ha des-crito para la identificación de sistemas, se pue-den usar redes de alimentación hacia adelanteo recurrentes, tal como se ilustrará en las próxi-mas secciones.

3. EJEMPLOS DE REDES USADOS EN LAIDENTIFICACiÓN DE SISTEMAS

A continuaciónse describirándos de los tipos

49

Page 5: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

de redes neuronales artificiales más utilizadasen la identificación de sistemas. Se eligió, parailustrar el desarrollo de la sección 2, un tipo dered de alimentación hacia adelante como es elperceptrón multicapa, y un tipo de red recurren-te, como es la red de Elman modificada.

3.1 Perceptrón multicapa

Este es sin duda el tipo de red más famoso y dehecho, el responsable de la popularidad de lasredes neuronales a partir de mediados de losaños ochenta. Esto se debe a la simplicidad desu algoritmo de aprendizaje supervisado, el co-nocido propagación hacia atrás (backpropaga-tion) (11).

(0[1]1)

(0[0']1) rol?]

1)ro[n]

1)

y[n]1

Figura 2: Perceptrón multicapa.

Como su nombre indica, el perceptrón multi-capa tiene sus neuronas organizadas por ca-pas, de acuerdo a la estructura que se muestraen la Figura 2. Su número es variable depen-diendo de la funcionalidad de la red, pero engeneral se distinguen los tipos siguientes:

. una capa de entrada, donde se alimenta a losdatos a la red (capa Odel dibujo),

. capas ocultas, cuyo número es variable,

. una capa de salida, donde se lee el resultadodel cálculo de la red (capa n de la figura).

De acuerdo con el esquema de la figura, engeneral se designa xrJ al valor que toma la neu-rona i-ésima de la capa k-ésima, mientras queyrJ es el valor que transmite a las neuronas dela capa siguiente. Como la señal se propagaexclusivamentehacia adelante, la salida y/kJcoincide con la entrada X/k+1].La relación entre

50

la señal que llega a una neurona y su valor desalida se establece a través de la denominada

función de activación f(), que generalmente esno-lineal,

y/k] = X~k+l] == fl(2:Ú)i)k]X)k])j

(Ec. 6)

donde OJilI es el peso que la neurona i de lacapa k con el resto de neuronas de la capa ante-rior.

Tal como se ha mencionado, en este tipo deredes, se suele emplear como algoritmo de en-trenamiento, es decir de adaptación de pesos,el algoritmo de propagación hacia atrás. Esteconsiste en minimizar el error cuadrático mediodel conjunto de muestras comparando la salidaesperada con la obtenida por la red:

E= ~ ~ (y[n]'fl- -fl )2

2N4 1 Yifll

(Ec. 7)

siendo N el número de muestras, etiquetadasporel índice fl, - ~ la salida esperada y yrJ,llla

Yisalida de la red. La minimización se lleva a cabo

con técnicas de gradiente inverso aplicadas alos pesos de cada capa:

[k] aE~ Wij = -Y] -:;:-:mawIJ

(Ec.B)

donde 11es el parámetro de aprendizaje. Sobreesta base, suelen aplicarse métodos de acele-ración, como por ejemplo añadir un término demomento, que recuerda la dirección escogidaen la anterior actualización de los pesos:

[k] aE [k]

~Wij (t) = -Y] aw[k] (t) + a~wij (t -1)IJ

(Ec. 9)

Con esto se consigue, además de acelerar laconvergencia del algoritmo de aprendizaje, evi-tar algunos mínimos locales poco profundos dela función de error.

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

x[O] X[I] X[2] X [Il-I] x[n]1 i i i i

II 11 II II

y[O] y1] y[n-2j y[n'l]1 1 1

Page 6: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Se toma en cuenta que la Ecuación 6 rela-ciona el valor de las neuronas de la capa k conlos de la capa k-1, y que éstas a su vez se rela-cionan con las de la capa k-2 y así sucesiva-mente hasta llegar a las neuronas de la capa deentrada. Entonces es posible expresar la fun-ción de error en términos de los pesos de lacapa respecto a la que se quiere derivar.Entonces:

E = J ""'

[YJl - f

(""' úk] f

(""' ú)[n-IJ¡ (~

))) ]

2

2N4 1 ..4 l,}¡ ..4 }¡,hJl,l }¡ h

~ =...f(

""' ú)[k] x[k]

)f A-l,jk h

(Ec.10)

A partir de esta expresión se puede derivar laregla de actualización de los pesos de la capa kempleando las ecuaciones 8 y la regla de lacadena. Para los pesos que conectan con lacapa de salida, se obtiene:

aEaú)[~]= ~<\[n].Jlx[n].Jl

1J Jl J

(Ec. 11)

dondeúr),Jl es una cantidadcaracterísticade las ecuaciones del algoritmo de propagaciónhacia atrás

b¡[n],Jl = (y; - y;)f(h¡[n]'Jl)

y h/n),Jl es el campo local(Ec.12)

h~n]'Jl = ~ú)~:]xln]'Jlk

(Ec.13)

Procediendo de forma análoga, la regla deactualización de los pesos de la penúltima caparesulta ser:

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

aE

aú)~~-l]= ""' a[n-I],Jl [n-I],JlIJ L.J 1 X .Jl J

donde ahora(Ec. 14)

b[n-I],Jl = ""' bE.n1Jlú)[n]f( h[n-I],Jl)1 L.J 1 IJ Jj

(Ec. 15)y

h[n-I],Jl- ""' [n-l] [n],Jlj - L.JÚ)¡k Xk

k

(Ec. 16)

Como puede observarse a partir de estosresultados, existe cierta recurrencia que permiteobtener la expresión general de las derivadasde la función de costo respecto a los pesos decada capa. El resultado general es que la actua-lización de los pesos de la capa k-ésima seestablece de acuerdo a:

aE = ""' b[k],Jlik],Jl[k] L.J 1 J

ú)ij Jl

(Ec. 17)

donde el valor de O/k],Jlse halla a través de larelación

b[k].Jl = ""' b[k+l]. Jlú)~~]f( h[k-I].Jl)1 L.J 1 IJ J

j

en términos de los campos locales(Ec. 18)

h[k] = ""'ú) [kk]X[k],Jl1 L.J 1 J

j

(Ec. 19)

En conclusión y tal como puede observarse,el cálculo de Ú/kJ.Jlrequieredel uso de Ú/k+I],Il,

mientras que ésta a su vez se calcula partiendode Ú/k+2),Jly así hasta llegar a ú/n),Jl, que seobtiene a partir de la salida predicha por la red,

51

Page 7: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

el valor real de tal salida y el campo local en laúltima capa. Así pues, en este algoritmo laactualización de los pesos se realiza en sentidoinverso al de propagación de la señal, es decirque primero se evalúa la variación de los pesosde la última capa, luego la variación de lospesos de la penúltima capa, y así hasta llegar ala variación de los pesos de la capa de entrada:es por ello que el algoritmo se denomina propa-gación hacia atrás.

3.2 Redes de Elman modificadas

La red de Elman modificada es un tipo de redneuronal con una topología muy particular y quepuede entenderse como un modelo híbrido dered de alimentación hacia adelante y red re-currente (12, 6). Consta de una capa de entra-da, una capa intermedia, una capa de salida yuna capa de contexto tal como se muestra en laFigura 3. Tanto entre la capa de entrada y laoculta como entre la capa oculta y la de salida,la señal se propaga hacia adelante como en unared de alimentación hacia adelante, mientrasque la conexión entre la capa oculta y la capade contexto es bidireccional haciendo que la redsea recurrente. Por otro lado, no existe cone-xión directa entre la capa de contexto y las otrascapas.

[ o o Salida O o ] Yi(k)

~roi~ ~

0' ro oro~1)

~ Conrex,o" 1)ex x;(k)

xXk)1

Oculta O o ]

~ro~ ~

[ o o Entrada o o ]

xi(k)1

Figura 3: Red de Elman modificada

Las redes de Elman modificadas son útiles enteoría de control, debido a que conjugan satis-factoriamente los beneficios de las redes de ali-mentación hacia adelante y los de las redesrecurrentes. Lo que se consigue con ello esdisponer de un sistema de menores dimen-siones pero con una capacidad computacionalsimilar a la que se obtiene con otras redes (un

52

perceptrón multicapa por ejemplo) con unnúmero mayor de neuronas. Sin embargo, parapoder especificar la dinámica de funcionamientode esta red es necesario introducir previamentela nomenclatura que especifique cada paráme-tro de la misma. Para ello se designa y¡(k) alvalor de la neurona i-ésima en la capa de salida,x/(k) el valor que toma la neurona j-ésima de lacapa a (este índice varía entre i, o, h o c paraindicar input, hidden o context), y rol el valorque toma el peso que modera la interacciónentre las neuronas i y j de la capa a donde atoma los mismos valores de antes. Si adicional-mente se denomina f() a la función de acti-vación de cada neurona, el conjunto de ecua-ciones que determinan los valores que tomanéstas en el equilibrio es el siguiente:

y/k) = f(~(ú¡~x;(k»j

x¡h(k) = f(~(ú;x/k)+ ~(ú~x;(k»j j

x¡"(k + 1) = ax¡"(k) + X¡h(k)

(Ec. 20)

Así pues, tal como puede observarse el valorde las neuronas de salida depende del valor delas neuronas de la capa oculta, mientras queéstas últimas dependen de forma compleja delos valores de las neuronas de entrada y de lasde contexto, siendo éstas a su vez dependien-tes del valor de las propias neuronas de la capaoculta. Esto último pone de manifiesto el carác-ter recurrente de la red. El problema por tantoes autoconsistente y el valor que toma cadaneurona en el equilibrio es precisamente aquelque hace que el conjunto satisfaga la Ecuación12. Nótese que en realidad estas ecuaciones noson todo lo general posible ya que la función deactivación que determina el valor de y¡(k) y dexNk) es la misma, y que la relación que determi-na el valor de xF(k)es lineal.

El hecho de que el número de neuronas nece-sarias para igualar las capacidades computa-cionales de otras redes sea menor en la red deElman queda compensado por una manifiestamayor complejidad en las ecuaciones que de-terminan la reglas de aprendizaje. Dichas reglaspueden hallarse procediendo de forma análoga

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Page 8: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

a la descrita en el apartado anterior pero aten-diendo a las peculiaridades específicas queconlleva la topología de esta red. Así pues, unpoco de álgebra más o menos tediosa propor-ciona, a las siguientes reglas de actualización,los pesos:

Conexiones con la capa de salida

o 1~ o h

/1wij = '11"2 ."f/'i (k)x/k)

(Ec. 21)donde:

5;.0' ~ o hUi (k) = (y/k) - Yi(k))f(L., Wi/XI (k))

I

(Ec. 22)Conexiones con la capa oculta

/1W¡~ ='112 o¡hx/k)k

(Ec. 23)donde:

o: (k) = 20:(k)w~f(2w~nxnCk)+ 2w~x~(k))x/k)I n n

(Ec. 24)

Conexiones con la capa de contexto

/1Wi~='11~[

O¡h(k)X~(k)+~ O\k )wC a«k)]

"'t J L.,I Im~cI,m uWij

(Ec. 25)

donde:

ax~ (k) ax~ (k)- = a + .....awC. awc.IJ lJ

+ f( ~ w~nxn (k -1) + ~ w:nx~ (k -1))

X

[2W~n ax~(k~1) +0¡mX~(k-1)

]n aWij

(Ec. 26)

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

Tal como puede observarse, el sistema deecuaciones obtenido es complejo y por ello enla práctica deben usarse con cuidado. En térmi-nos generales el proceso a seguir para entrenaruna red de Elman modificada es el siguiente:partiendo de una elección inicial adecuada delos pesos (que pueden ser valores aleatorios oque por el contrario pueden estar guiados porcriterios externos acerca del problema que sequiere resolver) y de un valor inicial aleatorio onulo de las neuronas de la capa de contexto, secalcula el valor de las ,1m/ mediante la Ec. 21 yEc. 22. De la misma forma se evalúan las varia-ciones de los pesos de la capa oculta y de lacapa de contexto. Una vez acabado el ciclo, seactualiza el valor de todos los pesos y se vuelvea iniciar el proceso, que acaba cuando las varia-ciones de éstos es menor que un cierto errortolerado o bien cuando se ha realizado el con-junto de actualizaciones un número determina-do de veces.

3.3 Red neuronal artificial polinomial

La historia de las RNA comienza con el trabajode McCulloch y Pitts (13), planteando algunasideas para modelar el sistema neurona!. Estosmodelos biológicos han cambiado con losnuevos avances reportados en las neurocien-cias y la tecnología. Actualmente, se sabe quelas conexiones sinápticas no solamente puedenser modeladas mediante una suma de la pon-deración de las entradas (14). Los resultadosmuestran que algunas neuronas pueden modu-lar, potenciar y ponderar la respuesta de otrasneuronas (15). Esto significa que el modelo porneurona pudiera considerarse como unarelación de multiplicación o potenciación. En laliteratura se pueden encontrar algunos modelosque aprovechan estas ideas como: Las RedesNeuronales Polinomiales (RNP), (PolynomialNeural Networks, PNN) (16), Redes Neuronalesde Orden Mayor (Higher arder Neural Net-works, HaN N) (17) y modelos con interco-nexiones no lineales. Este tipo de repre-sentación no es exclusiva de las RNA y sepueden consultar modelos similares matemáti-camente en otras áreas, por ejemplo: el modeloNARMAX (18)(19)(20)(21), Método de grupopara el manejo de datos (Group Method of DataHandling (GMDH)(22)(23) y AproximacionesPolinomiales (24)(25).

53

Page 9: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

rt{culo .

El modelo de RNAP propuesto puede serdescrito como: (27)

(Ec. 27)

donde Yk ¡cm es el estimado de una función, esdecir la salida de la red, cp(X,y)E9\ es una funciónno lineal, X¡E X son las entradas, i=1,..o,n¡;n¡=número de entradas, Yk-jE Y son los valoresanteriores de la salida, j=1,..,n2, n¡ número deretardos de la entrada, n2 número de retardosde la salida, X, Y son conjuntos compactos de 9\.

La función no lineal cp(z)está dada por:

1

<1>max

[<1> (z)]::: = <1> (z)<l>min

<I>(Z) ~ <l>max

<l>min< <I>(z) < <l>max

<I>(z)s <l>min

(Ec. 28)

donde CPmáxand CPm¡nson los límites máximo ymínimo respectivamente.

Para simplificar el manejo de la notación enlas ecuaciones se va a hacer un cambio de va-riable de tal forma que:

z = {XI,k ,X2,k' .., Xn¡,k, , Yk -¡, Yk -2 , , Yk- n2}

= {ZPZ2,Z3, Znv}

(Ec. 29)

donde: nv es el número total de elementos en ladescripción z, es decir, el número total de en-tradas, valores anteriores y valores anterioresde la salida:

nv = ni + n¡n; + n2

(Ec. 30)

Entonces la función cp(z)E lPp pertenecea unafamilia de polinomios lPpque pueden ser repre-sentados:

54

<1> (ZpZ2,,,,,,Zn ) =p ,

{

<P(Z): <p(z)= ao(Z¡,Z2' "",zn,) + a¡ (z¡, ~ , , zn, )

}+a2(ZpZ2 , , zn, ) + a/ZpZ2 , , z¡,,)

(Ec.31)

El subíndice p es la potencia máxima de laexpresión polinomial y los términos a;(Z1'Z2,,,,,,Zn,)son polinomios homogéneos de grado total ¡,para i=O,...,p. Cada polinomio homogéneopuede ser definido como:

ao (Z1'Z2' ""zn) = Wo

a¡ (z1' ~, ""zn ) = w¡¡z¡ + w¡ 2Z2+... + w¡ z¡,, " ,n, ,

a2 (z¡, Z2' ""zn) = W2,¡Z~ + W2,2Z¡Z2 + W2,3ZIZ3+ ....2 2

... + ZIZn, + ",Z2 + ",~Z3'" + W2,N2Z""

(3 2 2

a3 ZpZ2 ,..., z¡, ) = W3¡Z + W32Z¡Z2 + W33Z1Z3 +, , ¡, ,

2 2

W3,4ZIZ2 + W3,5Z¡~Z3 + W3,6Z¡Z3 +...3 2 2 3

+ ",Z2 + "Z2Z3 + ,,~Z3 + + W3,N3Zn,

( ) - p p-Iap ZpZ2' ""Zn, - Wp,IZI + Wp,2Z¡ Z2 + ...

... + Wp N Z:, p ,

(Ec. 32)

donde wijcorresponde al peso asociado a cadaneurona. El término Wocorresponde al input biasde la red. Este término tiene el mismo significa-do que el coeficiente cero de la transformada deFourier, es decir, obtiene el promedio de la señalque se quiere estimar. El polinomio a¡{z) corres-ponde únicamente a la ponderación lineal de lasentradas. De aiz) a ap(z)se representan los tér-minos de modulación entre las entradas corres-pondientes y las relaciones de potenciación.

Como se puede observar los términos utiliza-dos a partir de z/ permiten al algoritmo resolverel problema de paridad bidimensional que teníael perceptrón. Esto es análogo al efecto de tenervarias capas en una red neuronal tradicional.

El valor N¡corresponde al número de términosde cada polinomio homogéneo:

n, n,-¡n,-s¡

No =l,N¡ = nv,N2= ~i,N3 = ~ ~i,;-¡ SI-o ;=¡

(Eco 33)

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Yk = [<I>(Xl,k,X2,k ",Xnj,k' xl,k-¡' X2,k-P ....

Xnj,k-n¡' Yk-P Yk-2' Y ) ]<Pmex..... .... k-n <p.2 nun

Page 10: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

n, -1 n, -S3 '\ -s2 n, -s,

Np = 2>'}:}: }:í~p-2 ~o S2~~ s,~o ¡~1

p-1

La dimensión N<I> de cada familia <Pppuede serobtenida de la siguiente forma:

p

N<I>=}:N¡¡~O

(Eco34)

X',k

X2,k

Xn;,k

X"k.'

z"1 X2,k.'

XnJ,

<1>(*) lliX',k.n,

Figura 4: Esquema de RNAP

3.3.1 Aprendizaje de RNAP

Para introducir el aprendizaje en RNAP esnecesario, primero, introducir algunos concep-tos que serán utilizados en este artículo.

Definición 4.1

El error de aproximación de RNAP se definecomo:

Rev. Centro /nv, (Méx) Va/A, 13 -14 Enero 2000

Artículo

1 n 2

errn(yn,~(z)) = - }:(Yk-~(Zk))n k-1

1 n A 2

= - }:(Yk - Yk) ,1 = (Yl'Y2,..,Yn)n k~l

(Ec. 35)

donde Yn es la salida deseada, IjJ(Z¡JE(J'Jpy n esel número de puntos.

Definición 4.2

El error óptimo está definido como:

opterrn(yn,~(Z)) = minerrn(yn,~(z))<jJE<I>p

= errn(yn,~:(z))

(Ec. 36)donde

~:(z) E<Pp

es la estimación óptima de yn.

Definición 4.3

La RNAP ljJ(z) E (J'J,aprende uniformemente lasalida deseada con precisión t: si

errn(yn,~(z))-err(yn,~:(Z))>E =0 E >0

Después de describir estos conceptos ahora elproblema del aprendizaje de RNAP consiste enencontrar la estructura de ljJ E (J'J,(z)que verificaesta desigualdad.

En la siguiente sección se aplica el uso dealgoritmo genético para obtener el valor delarreglo w;* . Se presenta un algoritmo queobtienela ~rquitecturaóptimade la redmedian-te el uso de AG (26). Para lograr esto defínaseun vector de componentes M(z) utilizando lasimplificación de (29):

M(z) = {Zl' ~ ,Z3' ,znv'z~,ZlZ2""2 3 2 P

}..., z,;v'Zl ,Zl Z2""'" Znv

(Ec. 37)

55

Page 11: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

Entonces la función no lineal tpE<Pp(Z) descritaen la Ec. 31 puede ser representada como:

<P = (W ,M(z)} donde W = W.*lV¡,T,'ifw~ E{O,l}

(Ec. 38)

donde W = {WI' W2' ,WN",}

son los pesos de RNAP, Wbes un vector bina-rio, y N<pse obtiene utilizando la Ec. 34.

Definición 4.4

El producto. * se define como:

W.*W:= {Wij if wJ= 1

O if wJ= O

(Ec.39)Por ejemplo, para W y Wbcomo:

[

Wl1 WI2 w13

jW = W21 W22 W23

W31 W32 W33

Wb = [1 O 1]

[

Wl1 O w13

jW.* lV¡,T= W21 O W23

W31 O W33

y para el caso vectorial:

[WI W2 W3 w4J.*[1 O 1 oy =[WI O W3 O]

La Ec. 38 representa que tpsolamente tiene tér-minos específicos de <ppque pueden ser selec-cionados por Wb de tal forma que la estructura. ..'.' .

f(z) = ((W')*,MeZ))= (w.* (W:)*,Mez))

= (W,M(Z).*(~Tr)

(Ec. 40)

56

=> e~rn(yn,<p(z))= e~rn(yn,((W'),M(z)))

(Ec.41)

=> op;:rrn (yn,<p(z))= op~~rrn(yn ,((w' r,M(Z)))

(Ec. 42)

Utilizando la Ec. 37 y Ec. 42, el problema deaprendizaje para una estructura específicapuede ser representado por un problema deoptimización con los siguientes dos pasos:

min minerrn (l ,<p(z))1Wb we¡¡ Wb

(Ec. 43)

donde er~(l,<p(z))1Wb

es el error definido en la Ec. 35 para un valordeterminado de Wb.

Los valores del parámetro W pueden serobtenidos utilizando el método de mínimoscuadrados (27):

Wlw, = argmin errn(yn ,<p(z))1b We¡¡N Wb

n

WI~ = rN}:Yk(Mb(Zk))k=1

Mb(Zk)= M. * W:

rN ~ (~Mb(Z,)Mb(ZJ r(Ec. 44)

o en su forma recurrente

(~wbL = (WIWJk-1+rkMb(zkf[Yk-(WlwbLIMb(Zkf]

r - r - rk-IMb(Zkf Mb(Zk)rk-1k - k-I( ) ( )

T1 + Mb Zk if'k-IMb Zk

(Ec. 45)

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Page 12: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Para este caso N=N<1> y el espacio de búsque-da tiene dimensión 2N. En algunos casos con-siderando un valor fijo de p, n1, n2 es muy proba-

ble que no se requieran de todos los elementosde <P(z) y, como se describió en la sección ante-rior, es posible seleccionar qué elementos serequieren para obtener una arquitectura oestructura óptima.

De esta forma, el problema de aprendizajepuede ser traducido a obtener la óptima estruc-tura de RNAP utilizando AG.

3.3.2 Algoritmos Genéticos

Algoritmo Genético es un modelo de conoci-miento que se encuentra en función de algunosde los mecanismos de evolución que se obser-van en la naturaleza. Este modelo de com-putación genética puede ser implementado conel uso de arreglos de bits o caracteres que re-presentan los cromosomas. Aun cuando existemucha investigación acerca de cadenas de lon-gitud variable y sobre otras estructuras, lamayoría del trabajo con Algoritmos Genéticosestá enfocado hacia cadenas de longitud fija; sino es manejado de esta manera, elAlgoritmo deEvolución que se está considerando será Pro-gramación Genética, la cual se enfoca haciacadenas de longitud variable (28, 29).

Cuando se implementa el Algoritmo Genético,usualmente sigue el ciclo (30, 31):

. Generación de una población inicial de formaaleatoria..Evaluación del más apto o alguna funciónobjetivo de todos los individuos que per-tenecen a la población..Creación de una nueva población debido a laejecución de operaciones como recombina-ción (crossover) y mutación sobre los indivi-duos de donde el más apto o el valor mejoradofue medido.

.Eliminación de la población original e iteraciónutilizando la nueva población hasta que el cri-terio de terminación sea cumplido o se hayallegado a cierto número de generaciones sinhaber completado el objetivo planeado.

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

Generación O

11111-

Selección

Generación 1

- UUIFigura 5: Etapas genéricas del Algoritmo

Genético

El distinto tipo de operaciones que se hacensobre las cadenas o cromosomas que sonmanipulados dentro del AG son llamadas opera-dores, en este trabajo se utiliza el operador derecombinación sexual, la mutación (32) y otrosprocesos especiales que son llamados agregarpadres (26). Las siguientes secciones describenestos procesos en detalle.

3.3.2.1 Recombinación

El operador de recombinación se caracterizapor la combinación de material genético de losindividuos que son seleccionados en función asu buen desempeño (función objetivo) quetuvieron en compar~ción con el resto de los indi-viduos o "padres" que conforman la población.Existen algunas variantes de este operador(33), que puede ser determinado por el númerode puntos de recombinación que serán conside-rados para la generación de una población, elnúmero de padres involucrado para la genera-ción del linaje, etc. Es obvio que si el número depuntos de recombinación se incrementa, elnúmero de individuos que conforman el linaje,será también mayor.

~oo11

~OO-<>-+- O1-+-0-1 O

11

Figura 6: Operador de recombinación en unpunto.

Para explicar la recombinación multipuntoempleada, considérese que

C(F )EII1',xnbg,n,

57

Page 13: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

es el conjunto de padres de una población dadadonde np es el número de padres de la po-blación en la generación 9 y n es el número debits del arreglo (cromosoma), g=1,..,ng;y nges elnúmero total de generaciones.

C(F n )EIlf',xnbg' t es el operador de recom-

binación y puede ser definido como la combi-nación entre el conjunto de padres consideran-do el número de intervalos n¡ de cada individuoy el número de hijos n, por lo que:

n = n n,s p

(Ec. 46)

Para mostrar como es que puede ser aplicadoel operador de recombinación, considere que Fgse forma con np=2 y n¡=3. Esto significa que sedivide el arreglo en tres secciones y se denomi-na a cada sección como a¡ y b¡ respectivamentepara i=1,..,n¡. Si:

Es importante notar que con este operador lospadres Fg de la población 9 se incluyen en elresultado de la recombinación.

3.3.2.2 Mutación

En el operador de mutación, sólo se nieganalgunos bits que son seleccionados en formaaleatoria por medio de un factor de probabilidadPm; en otras palabras, tan sólo se varían loscomponentes de algunos genes, es decir, semodifican los alelos. Este operador es extre-madamente importante, ya que permite ase-gurar que se mantenga la diversidad dentro de

58

la población, la cual es básica para la evolución(34,35).

Figura 7: Operador de mutación

M J"nn,xnb JBn,xnbEste operador : D ~

cambia con probabilidad Pm la población gene-rada por el operador recombinación en la si-guiente forma:

M(C¡j) = {C¡j EBl

C.1]

rs Pm

r> Pm

(Ec. 47)

donde rE V(O,1) es una variable aleatoria e,i=1,..,ns; j=1,..,nb; y EBes el operador x-oro

El operador de mutación asegura que la pro-babilidad de encontrar cualquier punto en el es-pacio de búsqueda nunca sea cero y evita quese alcance un mínimo local.

3.3.2.3 Agregar Padres

En esta parte sólo se agrega Fg al resultado delproceso de mutación, entonces la población Agen la generación 9 se puede obtener como:

A, = [M(c~,n,))](Ec. 48)

Cabe hacer notar que Ag tiene los mejoresindividuos de A9-1ya que se agrega Fg en esteprocedimiento. Este paso y el anterior aseguranla convergencia del algoritmo.

3.3.2.4 Proceso de selección

El Proceso de selección 5g calcula la funciónobjetivo Ogque representa una función específi-ca que se quiere minimizar y se seleccionan los

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

[al

a2

a3]F;, = b¡ b2 b3r

a2 a3al

a¡ a2 b3

al b2 a3

I alb2 b3

=::} c(F;,,3) = bl a2 a3

b¡ a2 b3

bl b2 a3

b¡ b2 b3

Page 14: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

mejores individuos np de Ag tal que:

Sg(~,np) = minnpOg(~)

(Ec.49)Entonces:

F;+I = Sg(Ag,np)

(Ec. 50)

Note que los mejores individuos de la genera-ción pueden ser obtenidos por el siguiente ope-rador:

Sg(~,l)(Ec.51)

En resumen el Algoritmo Genético puede serdescrito por medio de los siguientes pasos:

Artículo

1. Para la condición inicial g=O seleccionar en

forma aleatoria Ao,tal que Aa EIlf'sxnb2. Calcular F1=So(Ao)3. Obtener Ag4. Calcular Sg5. Regresar al paso 3 hasta que el número

máximo de generaciones sea alcanzado ouno de los individuos de Sgobtenga el míni-mo valor deseado de Og.

El empleo de Algoritmo Genético es especial-mente útil cuando se tiene gran cantidad deposibilidades en el espacio de búsqueda y no seposee información acerca de cómo obtener lasolución óptima para un problema específico.Para este caso, la aplicación de la teoría esautomática si se considera a ~* como el arre-glo buscado. El problema de aprendizaje puedeser trasladado para obtener la estructura óptimade PANN usandoAG.

Los pasos deAG modificados pueden obser-varse en la siguiente tabla:

Tabla 1. Comparación entre A G tradicional y en la RNAP

Rev. Centro Inv. (Méx) Vol.4, 13 -14 Enero 2000 59

ALGORITMO GENÉTICO ALGORITMO GENÉTICO EN RNAP

1. Para la condición inicial g=Ose calcula Ao de 1. Para la condición inicial g=Ose calcula Aodeforma aleatoria con las siguientes dimensiones: forma aleatoria con las siguientes dimensiones:

Av: nsxnb

Aa: nsxnb donde cada renglón de la matriz corresponde auna propuesta para Wb

2. Se obtiene la función objetivo y se selecciona 2.1. Para calcular F1 primero se debe calcularal mejor individuo para la población inicial So(Ao,np)donde la función objetivo Ogpuede serF1= So(Ao,np) calculada utilizando el error definido por Ec. 41

de la siguiente forma:

O = er(yn,((W)Lb,M(z))),i=l,..,ns

2.2. Se calcula SA,np) = minnp Og()

3. Se obtiene la nueva población Agen la gene- 3. Se obtiene la nueva población Agen la gene-ración 9 con el operador recombinación y muta- ración 9 con el operador recombinación y muta-r.iñn ción.

4. Calcular la función objetivo y seleccionar a los 4. Calcular Sgcon la siguiente función objetivo:mejores individuos de la generación con Sg

O; = erni(yn,((w XWb,M(Z))),i = L...ns+np

5. Regresar al paso 3 hasta que se alcance el 5. Regresar al paso 3 hasta que se alcance elmáximo número de generaciones o uno de los máximo número de generaciones o uno de losindividuos de Sg obtengan el mínimo valor de- individuos de Sg obtengan el mínimo valor de-

seado de Og seadode Og

Page 15: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

El error óptimo en la generación g puede serobtenido por:

(oPt errn

)= minerr (yn ,((w')1 ,M(Z) ))w' r<uN % 64.. Wb=, g n

(Ec. 52)

Teorema 4.1

Definiendo

~g ~Sg(Ag' 1)

(Ec. 53)

donde ~g es el mejor individuo en la gene-ración g, es decir, la estructura óptima de laRNAP en ese momento, se puede reescribir elerror de aproximación como:

err(yn,q,g(Z)) = ~~ (Yk- (W,M(z).*(~gr)r

(Ec.54)

donde yn es la salida deseada, <Mz) E l1Jp es larepresentación óptima en la generación g, y

wlw. = argmin errn(yn,q,(z))1 .b wenN Wb~ IV¡,

Si Pm>Oentonces RNAP aprende uniforme-mente la salida deseada de tal forma que:

!~n;p{err(y,q,g(z) - opterr(y,q,(z)) ~ f)} = O, f > O

(Ec. 55)

<Pg E l1Jp puede ser descrita como:

q,g= (W,M(Z). * Sg(1\,1r)(Ec. 56)

Debido al progreso de agregar padres y el demutación

err(y,q,g+I(Z)) s err(y,q,g(z))

(Ec. 57)60

~ limerr (y,q, (z))= opterr(y,q,(z))g-->co g

(Ec. 58)

Comentario 1

Para casos prácticos el Teorema 4.1 puedeescribirse utilizando la definición 4.1 como:

Si Pm>Oentonces la RNAP aprende uniforme-mente la salida deseada con precisión e en unnúmero finito de generaciones ngsi:

l~~p{err(y,q,g(z) -opterr(y,q,(z))> f)} =0 f >0

(Ec. 59)4 MANCHAS SOLARES

Las manchas solares, por razones de contrastecon el resto de la superficie solar, aparentan serregiones oscuras; sin embargo, son completa-mente luminosas. Su temperatura es un par demiles de grados más pequeña que la del restode la superficie solar. (36)

Figura 8: Manchas solares

El astrónomo norteamericano Hale descuprióque las manchas solares contienen camposmagnéticos muy fuertes. Una mancha solar típi-ca tiene campo magnético con una fuerza de2500 gauss. En comparación, el campo mag-nético de la Tierra tiene una fuerza de 1 ~auss.Las partículas cargadas eléctricamente tienentendencia a seguir la dirección del campo mag-nético, describiendo espirales alrededor de laslíneas de fuerza generadas por las manchassolares como se muestra en la estructura de la1manchas solares propuesta por Hale. .

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Page 16: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Figura 9: Estructura de las manchas solares

Un estudio sugirió que el número de manchasvaría con un período de aproximadamente onceaños y medio (1). Desde entonces, el númerode manchas solares ha sido registrado cuida-dosamente por los astrónomos, generando asíuna serie de tiempo con casi trescientos datos.

Algunos fenómenos terrestres provocadospor la variación del número de las manchassolares son:

. Crecimiento acelerado de los árboles durantelos años máximos de manchas.

. Crecimiento lento del trigo durante los añospobres en manchas.

. Dependemos de las capas superiores de laatmósfera para las comunicaciones, las man-chas solares varían la ionización de estascapas, por lo que la reflexión angular resultadistorsionada, causándo que la comunicaciónradiada en el mundo falle.

. Las manchas hacen que algunas partículasenergéticas alcancen la tierra, causando lasauroras boreales.

5 RESULTADOS

5.1 Red NeuronalArtificial Polinomial.

La serie de tiempo de manchas solares fueintroducida a RNAP para generar el modelomatemático.

Los parámetros con los cuales se llevaron acabo las pruebas son:

(no se tienen entradas).

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

l1¡ =0

nz = 3...15

p=2

(para cada número de valoresanteriores, se hace la prueba).(potencia máxima del poli-nomio).

Las pruebas se dividen en dos grupos, elmodelado y predicción de la serie de tiempo demanchas solares.

Los primeros 250 datos son usados paraentrenar la red, mientras que los últimos 30 ayu-dan a evaluarla. En las gráficas presentadas,las cruces señalan los valores reales, mientrasque los trazos indican la aproximación obtenidaa la serie durante el aprendizaje y la predicciónde la red.

La Tabla 2 presenta el número de valoresanteriores empleados para cada una de laspredicciones y su respectivo error, tanto deprueba como de entrenamiento.

Tabla2. Errores de entrenamiento y pruebade 3 hasta 15 los valores anteriores

ValoresAnteriores}1-.§6

Roo"'ts ol~, Im""9

08

-02Lo 50 100 150 200 250

"m,

Figura 10: Entrenamiento con 14 valoresanteriores. Error de entrenamiento: 0.0024

61

Page 17: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Articulo

T'~t

0.8

1°6:::04

g 0.2'"

-0.2 ° 10time

Figura 11:Prueba con 14 valoresanteriores. Error de prueba: 0.0085

El algoritmo de PANN demostró tener grancapacidad para modelar series de tiempo.

Se pudo observar que tanto el error de entre-namiento como el de prueba son pequeños, porlo que se les puede considerar como acepta-bles. En las pruebas realizadas, se observa quecuando se utilizaron 14 valores anteriores, seobtuvo el menor error. Es importante mencionarque la serie de tiempo fue introducida a la redneuronal polinomial artificial y ésta se encargóde modelar su comportamiento. Se ha observa-do que cuando se aplica un preprocesamiento ala entrada por medio de filtros multiresolución, elerror disminuye considerablemente.

5.2 Perceptrón Multicapa.

A la hora de entrenar un perceptrón multicapa,surgen una serie de preguntas, como, por ejem-plo, cuál debe ser la topología de la red: cuántascapas se ponen, cuántas neuronas debe tenercada capa, qué valores deben tomar los pará-metros de entrenamiento, h y a? Lo cierto esque no existe respuesta a estas dudas más quelas pruebas sistemáticas o la codificación deesta información no definida en algún tipo dealgoritmo de optimización (como por ejemplo losalgoritmos genéticos). Se optará en este casopor una exploración sistemática desde 3 hasta14 neuronas de entrada y, en la capa oculta,desde 3 hasta 3 veces el número de neuronasde entrada. Se tomarán como parámetros deentrenamiento h = 0.01 ya = 0.1 que son valo-res usuales. Se prepararán los elementos de laserie para crear los pares (entrada I salida) queconstituirán los conjuntos de entrenamiento y deprueba. De entrada se esclarecerá la serie detal manera que tome valores entre 0.9 y 0.9,para aprovechar de manera óptima el rango devalores que toma la imagen de la tangente

62

hiperbólica que será nuestra función de acti-vación. Como conjunto de pruebas, se tomaránla predicción de la serie para los últimos 30años. Se evaluarán los resultados a partir delcómputo del error cuadrático medio. Durante elentrenamiento, los patrones deben presentarsecambiando el orden a cada ciclo de entre-namiento (este ciclo se conoce también comoepoch o iteración) para evitar que la capacidadde generalización de la red quede sesgada.Además, se debe tener en cuenta que la super-ficie de error que se intenta minimizar tiene unagran cantidad de mínimos locales donde las téc-nicas de gradiente inverso que se utilizanpueden quedar atrapadas. Por ello el valor finalde los pesos al terminar el entrenamientodependerá del valor inicial aleatorio que tomenéstos, así como del orden en que se presentenlos diferentes elementos del conjunto de entre-namiento. Por este motivo, para cada topologíase entrenarán 20 redes para quedarse con lamejor, esto es la que presente un menor errorde prueba.

Los resultados se leen en la tabla adjunta:

Tabla3. Resultados del entrenamiento delperceptrón multicapa para h=0.01 ya=0.1

sobre 200 iteraciones

14 23 0.003766 0.012589

Según estos datos la mejor red corresponde a11 neuronas de entrada y 9 en la capa oculta.En las figuras siguientes se puede observar losresultados obtenidos para esta red.

Rev. Centro Inv. (Méx)'Vol.4, 13 -14 Enero 2000

Neuronas Neuronas Error de Error de

de la Capa de la Capa Entrena- Prueba

de Entrada Oculta miento3 5 0.006571 0.0189274 3 0.005783 0.0157675 8 0.004423 0.0162386 16 0.003889 0.0145327 20 0.003841 0.0133578 19 0.003929 0.0120589 18 0.004222 0.011434

10 11 0.004430 0.01184911 09 0.004162 0.00961312 17 0.003428 0.01088513 9 0.004937 0.011717--

Page 18: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

0.07

0.06

0.05 .

S OJwf\ .

¿j~:~~ ~ \""" "" - -. ' '--,-- Uu".. '--- ,---'-'-- -" -.. --.' ~0.01

oO 50 100

time150 200

Figura 12: Evolución del error de prueba(Iinea continua) y de entrenamiento

(línea díscontínua). Error de entrenamiento enla red perceptrón multicapa.

I

::: 08

~ 0:6[ +E-<

l' 0,4

& 02Elo o.

-0.2O 50 100 150 200

time

Fígura 13: Comparación de los datos reales(cruces) con los de entrenamiento

(línea continua). Comparación de los datosreales con los obtenidos por el perceptrón

multicapa en el entrenamíento.

+" 0.8~

¡§! 0.6l'

E 0.4'"6 02

OO 10 20 25

time

Fígura 14: Comparación de los datos reales(cruces) con los de prueba (línea continua).

Comparación de los datos reales con lospredíchos por el perceptrón multicapa

5.3 Redes de Elman modificadas

Para las redes de Elman modificadas y antedudas parecidas a las que se plantean con elperceptrón multicapa, realizamos una explo-ración sistemática del número de neuronas deentrada y de la capa oculta. Tomamos valoresentre 1 y 4 para el número de neuronas deentrada y entre 3 y 11 para el número de neu-ronas de la capa oculta. Estos números sonclaramente inferiores a los escogidos para elperceptrón multicapa para ilustrar cómo la redde Elman modificada es capaz de obtener resul-

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

tados comparables con un número menor deneuronas. De nuevo se entrenarán 20 redes ini-cializadas con pesos aleatorios y se tomará lamejor, según el criterio definido en el apartadoanterior. Como valores de los parámetros deentrenamiento se toman h=0.01 y g, el términode momento, renombrándolo para no confundircon el parámetro a de memoria de la capa decontexto, 0.09. Para a se usa el valor 0.5. Estosvalores se escogen por ser usuales.

Los resultados se leen en la tabla adjunta.

Tabla4. Tablade resultados para la red deElman modificada. Los valores de los

parámetros de la red son 17=0.01y y=0.09.

250

Seguidamente presentamos las gráficas deerror y resultados para la mejor red.

30

J:t~~~n~c= :m: : : ..o 50 IDO 150 200

time

Figura 15: Evolución del error de prueba(línea continua) y de entrenamiento

(línea discontinua). Error de entrenamíento enla red de Elman.

;

.

0'81~ +

.

f! 0.6 + + +E-<l' 0,4

&. 0.2

<3 O + ~-0.2

o 50 IDO 150 200 250time

Fígura16: Comparación de los datos reales(cruces) con los de entrenamiento

(línea continua). Comparación de los datosreales con los obtenidos por la red de Elman

en el entrenamíento.

63

Neuronas Neuronas Error de Error dede la Capa de la Capa Entrena- Pruebade Entrada Oculta miento

1 11 0.008201 0.0095132 11 0.014714 0.0109923 7 0.005972 0.0084254 11 0.010037 0.010666

Page 19: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

Artículo

+'¡) 0.8~~ 0.61" ." OA~o 0.2

oo 15lime

20 25 30

Figura17: Comparación de los datos reales(cruces) con los de prueba (línea continua).

Comparación de los datos reales con lospredichos por la red de Elman.

6 CONCLUSIONES

A juzgar por los resultados obtenidos con lostres tipos de redes neuronales analizadas eneste artículo llegamos a las siguientes conclu-siones refer:entes al rendimiento de cada red.En principio y a partir de los datos analizados,parece ser que el Perceptrón multicapa requierede un mayor número total de neuronas (11 deentrada y 9 en la capa oculta) que la red neu-ronal polinomial (14 valores anteriores) y que lared de Elman (3 en la capa de entrada y 7 en lascapas ocultas y de contexto) para obtener losmejores resultaaos en el error de prueba. Porcontrapartida, el Perceptrón multicapa es la redmás simple de las tres, con lo que el aumentoen el número de neuronas queda compensadopor el menor costo computacional requerido.Asimismo los errores más bajos obtenidos concada tipo de red son comparables, con lo queaparentemente las tres redes resuelven deforma similar el problema planteado.

Estos resultados sin embargo no puedengeneralizarse fácilmente a otros problemascomo los que se obtienen cambiando la serie demanchas solares por otra gobernada por unadinámica diferente. De la misma forma, es difícilextrapolar las conclusiones referentes alnúmero de neuronas óptimo en cada red a pro-blemas en los que las redes deban ser muchomayores, máxime teniendo en cuenta que losparámetros específicos de cada red (a, h, oo.)sehan fijado a valores razonables en lugar derealizar una amplia exploración en su espaciode valores. ."

64

7 REFERENCIAS BIBLIOGRÁFICAS

(1) G.F.Franklin, J.D.Powell, M.Workman, Digi-tal control of dynamic systems - 3rd Ed., Addi-son-Wesley, 1998.(2) L.Ljung, System identification, Prentice-Hall,1987.(3) J.A.Freeman, D.M.Skapura, Redes Neu-ronales, Addison-Wesley/Díaz de S~ntos, 1993.(4) Elisabet Golobardes, Eduard Pous i ManuelRomán. Introducció a les xarxes neuronals, pre-sentació de les Backpropagation, INPUT 1017-26, 1996.(5) K.S.Narendra, K. Parthasaranthy, Identifica-tion and control of dynamic systems using neu-ral networks, IEEE Trans. on Neural Networks,1,4-27, 1990.(6) D.T.Pham,X.Uu, Neural Networks for identi-fication, prediction and control, Springer-Verlag,1995.(7) Hornik K., Stinchcombe M. & White H.. Multi-layer Feedforward Networks Are UniversalApproximators, Neural Networks, 1989.(8) Rosenblatt, Frank., The Perceptron: A proba-bilistic model for information storage and organi-zation in the brain, Psychological Review, 65,386-408, 1958.(9) G.E.P.Box, G.M.Jenkins Time series analy-sis, Holden-Day, 1976.(10) R.Lewandowski, La prévision a court terme,Dunod,1985.(11) D.E.Rumelhart, J.L.M.McClelland and thePDP research group, Parallel Distributed Pro-cessing, MIT Press, 1986.(12) J.L.Elman Finding structure in time, Cogni-tive Science 14,179-211,1990.(13) McCulloch, Warren S. & Pitts, Walter. A log-¡cal calculus of ideas immanent in nervous activ-ity. Bulletín of Mathematícal Biophysics 5:115-133,1943.(14) MacGregor, R. J., Neural and Brain Model-ing. Academic Press, San Diego, Ca, 1987.(15) Hornik K., Stinchcombe M. & White H.. Mul-tilayer Feedforward Networks Are UniversalApproximators. Neural Networks. 1989.(16) Park, D.C. et aL, "Electric Load ForecastingUsing an Artificial Neural Network", IEEE Trans.Power Systems, Vol. 6, núm. 2, pp. 442-449,1991.(17) Chang C., Un J.; & Cheung J., Polynomialand Standard Higher Order Neural Network.IEEE International Conference on Neural Net-works. p. 989-94 vol.2, San Francisco, CA,USA, 28 Marzo-1Abril, 1993.(18) Chen S. & Billings S., Representations ofnonlinear systems: the NARMAX model, Int. J.Control, vol. 49, núm. 3, 1989.(19) Alippi C. & Piuri V., Experimental NeuralNetworks for Prediction and Identification, IEEETransactions on Instrumentatíon and measure-ment, vol. 45, núm. 2 Abril, 1996.

Rev. Centro /nv. (Méx) Vo/A, 13 -14 Enero 2000

Page 20: Redalyc.Redes neuronales para identificación y predicción ...core.ac.uk/download/pdf/25656971.pdfredes de Elman modificadas (12), mientras que por otro, se prueba la eficiencia de

(20) Leontaritis Y. & Billings S., Input-outputparametric models for nonlinear systems, Int. J.Control, vol. 41, núm. 2, 1985.(21) Chen S. & Billings A, Recursive Predictionerror parameter estimator for nonlinear models,Int. J. Control, vol. 49, núm. 2, 1989.(22) Ivakhnenko A, Polynomial Theory of Com-plex systems, IEEE Transactions on systems,Man and Cybernetics, vol. SMC-1, núm. 4Octubre, 1971(23) Duffy J. & Franklin M., A Learning Identifica-tion Algorithm and Its Application to an Environ-mental System, IEEE Transactionson Systems,Man and Cybernetics, vol. SMC-5, núm. 2,marzo, 1975.(24) Shin y. & Gosh J., Approximation of Multi-variate Functions Using Ridge Polynomial Net-works, IJCNN'92, p. 380-5, Baltimore, MD,USA,7-11 Junio, 1992(25) Shin Y., Modified Bernestein Polynomialsand Their Connectionist Interpretation, ICNN, p.1433-8, vol. 3, Orlando, Florida, USA, 27 Junio-2 Julio, 1994.(26) E. Gómez-Ramír~z, ~. Poznyak, AGonzález Yunes & M. Avila-Alvarez. AdaptiveArchitecture of Polynomial Artificial Neural Net-work to Forecast Nonlinear Time Series. CEC99Special Session on Time Series Prediction.Mayflower Hotel, Washington D.C., USA, Julio6-9, 1999.

Rev. Centro /nv. (Méx) Va/A, 13 -14 Enero 2000

Artículo

(27) Gómez Ramírez E. & Poznyak A How toSelect a Number of Nodes in Artificial NeuralNetworks. Neural Networks Applied to Controland Image Processing. NNACIP'94, CINVES-TAV IPN, Noviembre 7-11, México, D.F., 1994.(28) Altenberg L., The Evolution of Evolvability inGenetic Programming, 1994, MIT Press.(29) Andre D., Automatically Defined Features:The Simultaneous Evolution of 2-DimensionalFeature Detectors and an Algorithm for UsingThem, 1994, MIT Press, Kenneth E..(30) Alander J. T., An Indexed Bibliography ofGenetic Algorithms: Years 1957-1993, 1994,Artof CAD Itd.(31) Bedner l., Genetic Algorithms and GeneticProgramming at Standford 1997, 1997, StanfordBookstore.(32) Andre D. and Koza J., Advances in GeneticProgramming 2, 1996, MIT Press.(33) Andrews M. & Prager R., Advances inGenetic Programming, 1994, MIT Press.(34) Altenberg L., Genome growth and the evo-lution of the genotype-phenotype map, 1995,Springer-Verlag, Berlín,Alemania.(35) Banzhaf w., Nordin P, Keller R. & FranconeF., Genetic Programming - An Introduction Onthe Automatic Evolution of Computer Programsand its Applications, 1997, Morgan Kaufmann,dpunkt.verlag.(36) George Gamow, «Una estrella llamadaSol». Ed. Espasa-Calpe, 1967.

65