est2014-inf781-01.pdf
TRANSCRIPT
-
8/16/2019 Est2014-inf781-01.pdf
1/11
EMPLEO DE REDES NEURONALES EN EL DISEÑO DE ELEMENTOS DECONCRETO Y ACERO
Leonardo Flores GonzálezProfesor Asociado de la FIC UNI
Víctor Rojas YupanquiProfesor de la FIC UNI
RESUMEN- En la presente investigación se expone el empleo de Redes Neuronales Artificiales – NNA- en el diseño de secciones de acero y en la predicción del esfuerzo de corte último de vigas
de gran peralte, el lenguaje de programación empleado para el desarrollo de los algoritmos de
redes neuronales es MATLAB. El artículo comienza con una breve exposición conceptual de las
redes neuronales, luego se comprueba la calidad de los algoritmos de redes neuronales de
MATLAB mediante el entrenamiento de una red de retropropagación con un test de desempeño
– Benchmark-; finalmente se expone la solución de dos ejemplos relativos a la ingeniería civil
mediante red de retropropagación – BP-.
Palabras Clave- Redes Neuronales, retropropagación, Benchmark.
ABSTRACT- In this research is exposed the use of Artificial Neural Networks – NNA- in thedesign of steel sections and in the prediction of ultimate shear strength of reinforced concrete deep
beams, the programming language used for developing the neural network algorithms is
MATLAB. The article begins with a brief conceptual exposure of neural networks, then the
quality of the neural network algorithms is verified by MATLAB training a backpropagation
network with test performance - Benchmark-; finally the solution of two examples related to civil
engineering are exposed through backpropagation network – BP-.
Keywords-Neural Networks, backpropagation, Benchmark.
1.
INTRODUCCIÓN
Las Redes Neuronales Artificiales se componen de neuronas artificiales interconectadas y
procesan información en forma paralela y a veces en serie para formar una red neuronal artificial,
para el desarrollo operativo del presente trabajo se emplearán NNA con el llamado “Neural
Network Toolbox” de MATLAB.
Para comenzar el desarrollo del mismo adoptaremos la definición:
“Una red neuronal artificial es un procesador distribuido en paralelo de forma masiva que tiene
una tendencia natural para almacenar conocimiento de forma experimental y lo hace disponible
para su uso”.
Los modelos de redes neuronales son conexionistas, las conexiones sirven para transmitir las
salidas de unos nodos a las entradas de otros. El funcionamiento de un nodo es similar al de las
neuronas biológicas presentes en el cerebro. De igual forma se dice que las redes neuronales tiene
la capacidad de “aprender” mediante el ajuste de las conexiones de los nodos, estas conexiones
tienen un valor numérico asociado denominado peso.
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
2/11
Figura 1. Descri pción de una red de neur onas Biológicas
2.
FUNDAMENTO TEÓRICO
El modelo matemático de una neurona se explica en [3], en él se expone de manera lógica una
propiedad fundamental de un ser humano, que cuando éste realiza una actividad no todas las
neuronas tienen el mismo estado de alerta si no que priorizan la alerta de acuerdo a las actividades
que realizan, esto se evidencia con los pesos los que ponderan las informaciones que ingresan
por las dendritas . El procesamiento de la información + es a través de la función de
transferencia vectorial : ℝ → ℝ, tal que las salidas de la ( + ); las función vectorial
de transferencia se desarrolla a través de funciones : ℝ → ℝ, descritas en [3] como Hardlim,
Hardlims, Poslin, Purelin, Satlin, Satlins, Logsig, Tansig y Compet. Como se indica en la primera parte del trabajo la arquitectura de una red backpropagation consta de tres capas (entrada, oculta,
salida), la capa oculta puede estar constituida por varias capas en serie, este proceso puede ser
simplificado de la siguiente manera:
→ 1 = 1(1 + 1) → 2 = 2(21 + 2) ⋯ = (−1 + )
Figura 2. Neurona Ar tifi cial [3]
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
3/11
Principalmente las redes neuronales se clasifican en supervisadas y no supervisadas, el presente
trabajo emplea una red supervisada backpropagation, donde se conocen los valores esperados por
la red o Target, producido por una secuencia de datos de entrada. El aprendizaje de la red consiste
en hacer mínimo el error de la media cuadrática entre los valores esperados y los producidos por
la red, las variables que minimizan dicha función son los pesos y ganancias de la red. La secuencia
de empleo de la red backpropagation con MATLAB se explica en [3], principalmente se empleael comando newff para crear la red, los parámetros de entrada de este comando son los rangos, el
número de neuronas de cada capa, las funciones de transferencia, funciones de aprendizaje y
desempeño o tolerancia de la red.
El fundamento matemático generalmente está referido en la literatura como el álgebra para
minimizar la función de error cuadrático, sin embargo los autores consideran que es más
importante repasar las luces de esta teoría, sobre todo la de backpropagation, es por esto que a
continuación indicamos el Teorema de Aproximación , que es el sucesor del Teorema de
Kolmogorov en lo referido a redes neuronales.
Teorema de Aproximación Sea una función continua, monótonamente creciente y acotada
en el hipercubo 1,0 . Sea ,: p p I I C , el espacio de funciones continuas en el hipercubo.Entonces, 0)( y I C f p existe M,N, y un conjunto de constantes
),,( , N jiwijii con N Rw jiiii j ,,( con i=1,….,m. j=1,…,p tal que:
p I f )x,,(xx,,x)x,,F(x p1 p1 p1 y
M
1i
p
1 j
jiji p1 θxwα)x,f(x i
Lo importante del teorema anterior es que se reproduce la formulación del perceptrón pararepresentar cualquier función continua. A continuación se presenta un diagrama de flujo del
proceso de solución con redes neuronales artificiales.
Figura 3. Diagrama de Flujo del proceso de solución
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
4/11
3.
APLICACIONES
En el presente artículo se presentan los siguientes ejemplos:
Con data Benchmark, verificar la predictibilidad del programa MATLAB.
Predecir el último esfuerzo de corte en vigas de gran peralte de concreto armado, para esteejemplo la base de datos se obtiene de [5]
Encontrar el momento nominal de una viga de acero sin emplear tablas del AISC, este ejemplo
produce un cálculo engorroso, que se propone superar con redes neuronales backpropagation,
la data de entrenamiento es la base de datos del AISC.
PRUEBA DE DESEMPEÑO DE UN PROGRAMA DE REDES NEURONALES
En el presente ejemplo se comprueba la calidad del algoritmo de retropropagación de MATLAB
con ayuda de una base de datos extraída de [5].
El algoritmo es elaborado tomando en cuenta la siguiente secuencia de pasos: Preparación de la
matriz de datos de entrada a la red; normalización y depuración de datos; preparación de datos
para el entrenamiento validación y test; creación de la red; entrenamiento de NNA; simulación de
NNA; conversión de la respuesta de simulación a los valores originales; comparación del valor
entregado por la red y el valor esperado.
Las correlaciones obtenidas por el programa se muestran en la Figura 4.
Figura 4. Corr elaciones del programa en cada etapa de entr enamiento
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
5/11
En este ejemplo se probaron diferentes arquitecturas de la red, las que se muestran en la tabla 1.
Tabla 1. Arquitecturas y correlación encontrada
Otra interpretación de la correlación de los resultados de la simulación para la Red corre01 se
muestra en la siguiente figura.
Figura 5. Resul tados esperados versus resultados pr edichos
Los resultados encontrados tienen un nivel de correlación alto.
PREDICCIÓN DEL ESFUERZO DE CORTE ÚLTIMO DE VIGAS DE CONCRETO ARMADODE GRAN PERALTE
A continuación se presenta de manera esquemática el comportamiento de vigas de concreto
armado de gran peralte.
Figura 6. Comportami ento de una viga de gran peralte
-1
4
9
14
19
24
29
0 200 400 600 800 1000 1200 1400
Predicción
Targets
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
6/11
Figura 7. Parámetros empleados en viga de gran peral te
Los parámetros empleados son:
(b) Ancho de la viga.
(a) Longitud libre de la viga (distancia entre apoyo y carga).
(a/h) Razón de Longitud entre altura de la viga.
(f’c) Resistencia de compresión axial del concreto.
(f yh ) Esfuerzo de fluencia del acero horizontal de una viga.
(f yv ) Esfuerzo de fluencia del acero vertical de una viga.
Los resultados se seleccionan con los mismos pasos del ejemplo anterior. Como el objetivo de
este ejemplo es predecir la resistencia al corte de vigas de gran altura, los resultados de las vigas
de gran altura fallidos bajo esfuerzo de corte se mantienen; para el entrenamiento de la red, la
base de datos y las ideas para su programación siguen la secuencia de propuesta en [5], la base de
154 datos es recopilada de la referencia bibliográfica antes mencionada. El error medio cuadrático
decrece a medida que el número de iteraciones aumenta.
Figura 8. Er ror medio cuadrático
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
7/11
La red ha sido entrenada con 3 capas de neuronas: 5 neuronas en la capa de entrada, 5 neuronas
en la capa intermedia y 1 neurona en la capa de salida. Se usaron las funciones de transferencia
'logsig' para las capas de entrada e intermedia y 'purelin' para la capa de salida. Para el
entrenamiento se usó la función 'trainb' y para el aprendizaje la función 'learngdm'. El error se
mide con el mínimo cuadrático de la muestra: 'sse'.
Figura 9. Resul tados Predichos versus Esperados
Con la red se logra un 95.27% de correlación – alta- con los pesos mostrados a continuación, los
mismos que se pueden emplear en predicciones futuras.
net.IW{1,1}0.1230 -0.8033 -0.7543 -0.7803 0.1432 0.7264 1.6298
-0.7905 1.0939 0.9263 0.0636 -0.9632 1.0756 -3.0216
-1.0867 -0.4344 1.2811 0.7007 -0.0256 -0.0150 -1.4877
1.4239 2.3039 -0.2535 0.9882 2.6217 0.2388 -2.8096
0.4072 1.5746 0.2592 0.6603 0.3501 -0.8978 -2.6387
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
8/11
Esperados
Tabla 2. Muestra de datos empleados
b h a* f'c V fyv fyh
mm mm mm N/mm2
KN N/mm2
N/mm2
1 De-Paiva G23S-11 50.8 330.2 203.2 24.55 179.7 0 315.1015
2 De-Paiva G23S-21 50.8 330.2 203.2 23.58 106.75 0 354.403
3 De-Paiva G24S-11 50.8 330.2 203.2 38.61 181.48 0 315.1015
4 De-Paiva G24S-21 50.8 330.2 203.2 36.13 100.52 0 354.403
5 De-Paiva G33S-11 76.2 228.6 203.2 23.31 170.8 0 326.1335
20 Kong(1970) 1-30. 76.2 762 254 22.13 477.72 280 286.83
21 Kong(1970) 1-25. 76.2 635 254 24.55 448.36 280 286.83
22 Kong(1970) 1-20. 76.2 508 254 21.24 378.97 280 286.83
23 Kong(1970) 1-15. 76.2 381 254 21.24 328.26 280 286.83
24 Kong(1970) 1-10. 76.2 254 254 21.65 178.81 280 286.83
56 Manueletal Beam5 101.6 460 266.5 34.26815 569.344 0 409.563
57 Manueletal Beam6 101.6 460 266.5 37.43985 538.208 0 409.563
58 Manueletal Beam7 101.6 460 266.5 31.9928 600.48 0 409.563
59 Manueletal Beam8 101.6 460 266.5 38.8878 560.448 0 409.563
60 Manueletal Beam9 101.6 460 410 37.6467 378.08 0 409.56364 Ram A1 76.2 381 216 0 0 0 320
65 Ram B1 76.2 381 216 0 0 0 320
66 Ram B2 76.2 508 216 0 0 0 320
67 Ram B3 78.7 572 216 0 0 0 320
68 Ram B4 78.7 762 216 0 0 0 320
73 Rogowsky BM1-1 200 1000 1000 26.1 1204 0 381
74 Rogowsky BM2-1 200 1000 1000 26.8 1500 0 381
75 Rogowsky BM1A-1 200 1000 1000 26.4 1200 0 368
76 Rogowsky BM1-15 200 600 1000 42.4 606 0 452
77 Rogowsky BM2-15 200 600 1000 42.4 696 0 452
80 Smith&Vantsiotis 0A0-44 101.6 355.6 304.8 20.48 279.07 0 437.4
81 Smith&Vantsiotis 0A0-48 101.6 355.6 304.8 20.93 272.22 0 437.4
82 Smith&Vantsiotis 1A1-10 101.6 355.6 304.8 18.69 322.48 437.4 437.4
83 Smith&Vantsiotis 1A3-11 101.6 355.6 304.8 18.03 296.68 437.4 437.4
84 Smith&Vantsiotis 1A4-12 101.6 355.6 304.8 16.07 282.45 437.4 437.4
132 Subedietal 1A1 100 500 190 26 479 454 382
133 Subedietal 1A2 100 500 190 29.6 750 455 493
134 Subedietal 1B1 100 500 690 24.8 156 456 382
135 Subedietal 1B2 100 500 690 29.6 299 457 493
136 Subedietal 1C1 100 900 390 24.8 585 458 326
150 Tan&Lu 1-500-050 140 500 250 49.1 1700 0 520
151 Tan&Lu 1-500-075 140 500 375 42.5 1400 0 520
152 Tan&Lu 1-500-1 140 500 500 37.4 1140 0 520
153 Tan&Lu 2-1000-050 140 1000 500 31.2 1750 520 520
154 Tan&Lu 2-1000-075 140 1000 740 32.7 1300 520 520
Ref. Beam
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
9/11
SECCIONES COMPUESTAS DE ACERO CONCRETO (MÉTODO AISC-LRFD)
La información básica para la generación de los resultados esperados se obtuvo de la Tabla de
Propiedades Geométricas de Perfiles Laminados en Caliente del AISC (American Institute of
Steel Construction). Una muestra de la data empleada para el entrenamiento se indica en la tabla3.
Esperados
Tabla 3. Perf il es Laminados en Caliente del AI SC
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
10/11
La correlación en las etapas de entrenamiento, validación y test es buena, así también el
desempeño de la red en cada una de las mismas etapas, a continuación se muestra el desempeño
de la red.
Figura 10. Desempeño de la red durante l as etapas de entrenami ento, val idaci ón y test
La red ha sido entrenada con 3 capas de neuronas: 5 neuronas en la capa de entrada, 5 neuronas
en la capa intermedia y 1 neurona en la capa de salida. Se usaron las funciones de transferencia
'logsig' para las capas de entrada e intermedia y 'purelin' para la capa de salida. Para el
entrenamiento se usó la función 'trainb' y para el aprendizaje la función 'learngdm'. El error se
mide con el mínimo cuadrático de la muestra: 'sse'. Se ha empleado la misma configuración de la
red de la segunda aplicación con la diferencia en las dentritas de entrada.
Se logra un 99.52% de correlación que significaría una herramienta para la determinación de
Momentos de diseño en Vigas Compuestas por Perfiles Plegados de Acero Estructural y losas de
concreto armado. Los siguientes pesos son los que se emplearán en la determinación de momentos
para diferentes perfiles:
net.IW{1,1}
-0.2347 -0.2821 -1.3160 2.2036 5.6702
-3.0414 1.4452 -1.0930 0.0299 5.2522
0.9448 -1.7682 1.0462 0.2600 -3.1336
-0.4735 0.7717 -0.8862 2.5649 1.3653
4.7820 -1.4750 1.4976 -1.2113 -8.5179
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes
-
8/16/2019 Est2014-inf781-01.pdf
11/11
4.
CONCLUSIONES
Se obtuvieron buenos resultados en los tres ejemplos. Las correlaciones para las redes
planteadas están por encima del 95%.
Se logran mejores resultados en el primer caso cuando la topología de la red está constituida por mayor cantidad de capas. Esto se observa en la primera aplicación.
La red desarrollada con data experimental – segunda aplicación- tiene el mayor error mínimo
cuadrático. Pero el nivel de correlación es alto (95.27%).
Por el alto grado de correlación de la tercera aplicación, los pesos obtenidos por la red pueden
emplearse para el cálculo de momento nominal de perfiles laminados en caliente de AISC.
5.
BIBLIOGRAFÍA
[1] Calixto, R. “Estado del arte del concreto para optimizar su eficiencia con el uso deaditivos”. Informe de suficiencia. Facultad de Ingeniería Civil. Universidad Nacional de
Ingeniería. 2013.
[2] De La Cruz, C. “Reconocimiento de caracteres en campos de formularios usando redes
neuronales”. Informe de suficiencia. Facultad de Ingeniería Civil. Universidad Nacional de
Ingeniería. 2012.
[3] Espinoza, P. “Apuntes de clase del curso Programación Matemática”. Curso de
Doctorado. Facultad de Ingeniería Industrial y Sistemas. Universidad Nacional de Ingeniería.
2013
[4] Haykin, S. “Neural Network: A Comprehensive Foundation”. NY: Maccmillan, p. 2.
1994.
[5] Haytham, M. “Prediction of Ultimate Shear Strength of Reinforced Concrete Deep
Beams Using Artificial Neural Networks”. Tesis de maestría Facultad de Ingeniería.
Departamento de Ingeniería Estructural. Universidad Islámica de Gaza. Abril 2005.
[6] Rojas, R. “Neural Networks”. Springer -Verlag. 1996.
VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes
VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes