est2014-inf781-01.pdf

Upload: eduardocip

Post on 05-Jul-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/16/2019 Est2014-inf781-01.pdf

    1/11

    EMPLEO DE REDES NEURONALES EN EL DISEÑO DE ELEMENTOS DECONCRETO Y ACERO

    Leonardo Flores GonzálezProfesor Asociado de la FIC UNI

    Víctor Rojas YupanquiProfesor de la FIC UNI

    RESUMEN- En la presente investigación se expone el empleo de Redes Neuronales Artificiales –  NNA- en el diseño de secciones de acero y en la predicción del esfuerzo de corte último de vigas

    de gran peralte, el lenguaje de programación empleado para el desarrollo de los algoritmos de

    redes neuronales es MATLAB. El artículo comienza con una breve exposición conceptual de las

    redes neuronales, luego se comprueba la calidad de los algoritmos de redes neuronales de

    MATLAB mediante el entrenamiento de una red de retropropagación con un test de desempeño

     –  Benchmark-; finalmente se expone la solución de dos ejemplos relativos a la ingeniería civil

    mediante red de retropropagación – BP-.

    Palabras Clave- Redes Neuronales, retropropagación, Benchmark.

    ABSTRACT- In this research is exposed the use of Artificial Neural Networks  –  NNA- in thedesign of steel sections and in the prediction of ultimate shear strength of reinforced concrete deep

     beams, the programming language used for developing the neural network algorithms is

    MATLAB. The article begins with a brief conceptual exposure of neural networks, then the

    quality of the neural network algorithms is verified by MATLAB training a backpropagation

    network with test performance - Benchmark-; finally the solution of two examples related to civil

    engineering are exposed through backpropagation network – BP-.

    Keywords-Neural Networks, backpropagation, Benchmark.

    1. 

    INTRODUCCIÓN

    Las Redes Neuronales Artificiales se componen de neuronas artificiales interconectadas y

     procesan información en forma paralela y a veces en serie para formar una red neuronal artificial,

     para el desarrollo operativo del presente trabajo se emplearán NNA con el llamado “Neural

     Network Toolbox” de MATLAB.

    Para comenzar el desarrollo del mismo adoptaremos la definición:

    “Una red neuronal artificial es un procesador distribuido en paralelo de forma masiva que tiene

    una tendencia natural para almacenar conocimiento de forma experimental y lo hace disponible

     para su uso”. 

    Los modelos de redes neuronales son conexionistas, las conexiones sirven para transmitir las

    salidas de unos nodos a las entradas de otros. El funcionamiento de un nodo es similar al de las

    neuronas biológicas presentes en el cerebro. De igual forma se dice que las redes neuronales tiene

    la capacidad de “aprender” mediante el ajuste de las conexiones de los nodos, estas conexiones

    tienen un valor numérico asociado denominado peso.

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    2/11

     

    Figura 1. Descri pción de una red de neur onas Biológicas  

    2. 

    FUNDAMENTO TEÓRICO

    El modelo matemático de una neurona se explica en [3], en él se expone de manera lógica una

     propiedad fundamental de un ser humano, que cuando éste realiza una actividad no todas las

    neuronas tienen el mismo estado de alerta si no que priorizan la alerta de acuerdo a las actividades

    que realizan, esto se evidencia con los pesos  los que ponderan las informaciones que ingresan

     por las dendritas . El procesamiento de la información +  es a través de la función de

    transferencia vectorial : ℝ → ℝ, tal que las salidas de la ( + ); las función vectorial

    de transferencia se desarrolla a través de funciones  : ℝ → ℝ, descritas en [3] como Hardlim,

    Hardlims, Poslin, Purelin, Satlin, Satlins, Logsig, Tansig y Compet. Como se indica en la primera parte del trabajo la arquitectura de una red backpropagation consta de tres capas (entrada, oculta,

    salida), la capa oculta puede estar constituida por varias capas en serie, este proceso puede ser

    simplificado de la siguiente manera:

    → 1 = 1(1 + 1) → 2 = 2(21 + 2) ⋯ = (−1 + ) 

    Figura 2. Neurona Ar tifi cial [3]

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    3/11

    Principalmente las redes neuronales se clasifican en supervisadas y no supervisadas, el presente

    trabajo emplea una red supervisada backpropagation, donde se conocen los valores esperados por

    la red o Target, producido por una secuencia de datos de entrada. El aprendizaje de la red consiste

    en hacer mínimo el error de la media cuadrática entre los valores esperados y los producidos por

    la red, las variables que minimizan dicha función son los pesos y ganancias de la red. La secuencia

    de empleo de la red backpropagation con MATLAB se explica en [3], principalmente se empleael comando newff  para crear la red, los parámetros de entrada de este comando son los rangos, el

    número de neuronas de cada capa, las funciones de transferencia, funciones de aprendizaje y

    desempeño o tolerancia de la red.

    El fundamento matemático generalmente está referido en la literatura como el álgebra para

    minimizar la función de error cuadrático, sin embargo los autores consideran que es más

    importante repasar las luces de esta teoría, sobre todo la de backpropagation, es por esto que a

    continuación indicamos el Teorema de Aproximación , que es el sucesor del Teorema de

    Kolmogorov   en lo referido a redes neuronales.

    Teorema de Aproximación Sea   una función continua, monótonamente creciente y acotada

    en el hipercubo 1,0 . Sea ,:    p p   I  I C  , el espacio de funciones continuas en el hipercubo.Entonces, 0)(       y I C  f    p   existe M,N, y un conjunto de constantes

    ),,( ,   N  jiwijii      con  N  Rw  jiiii  j   ,,(      con i=1,….,m. j=1,…,p tal que: 

      p I  f       )x,,(xx,,x)x,,F(x  p1 p1 p1         y

     

     

      

     

    M

    1i

     p

    1 j

     jiji p1   θxwα)x,f(x i   

    Lo importante del teorema anterior es que se reproduce la formulación del perceptrón pararepresentar cualquier función continua. A continuación se presenta un diagrama de flujo del

     proceso de solución con redes neuronales artificiales.

    Figura 3. Diagrama de Flujo del proceso de solución  

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    4/11

    3. 

    APLICACIONES

    En el presente artículo se presentan los siguientes ejemplos:

      Con data Benchmark, verificar la predictibilidad del programa MATLAB.

     

    Predecir el último esfuerzo de corte en vigas de gran peralte de concreto armado, para esteejemplo la base de datos se obtiene de [5]

      Encontrar el momento nominal de una viga de acero sin emplear tablas del AISC, este ejemplo

     produce un cálculo engorroso, que se propone superar con redes neuronales backpropagation,

    la data de entrenamiento es la base de datos del AISC.

    PRUEBA DE DESEMPEÑO DE UN PROGRAMA DE REDES NEURONALES

    En el presente ejemplo se comprueba la calidad del algoritmo de retropropagación de MATLAB

    con ayuda de una base de datos extraída de [5].

    El algoritmo es elaborado tomando en cuenta la siguiente secuencia de pasos: Preparación de la

    matriz de datos de entrada a la red; normalización y depuración de datos; preparación de datos

     para el entrenamiento validación y test; creación de la red; entrenamiento de NNA; simulación de

     NNA; conversión de la respuesta de simulación a los valores originales; comparación del valor

    entregado por la red y el valor esperado.

    Las correlaciones obtenidas por el programa se muestran en la Figura 4.

    Figura 4. Corr elaciones del programa en cada etapa de entr enamiento

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    5/11

    En este ejemplo se probaron diferentes arquitecturas de la red, las que se muestran en la tabla 1.

    Tabla 1. Arquitecturas y correlación encontrada

    Otra interpretación de la correlación de los resultados de la simulación para la Red corre01 se

    muestra en la siguiente figura.

    Figura 5. Resul tados esperados versus resultados pr edichos

    Los resultados encontrados tienen un nivel de correlación alto.

    PREDICCIÓN DEL ESFUERZO DE CORTE ÚLTIMO DE VIGAS DE CONCRETO ARMADODE GRAN PERALTE

    A continuación se presenta de manera esquemática el comportamiento de vigas de concreto

    armado de gran peralte.

    Figura 6. Comportami ento de una viga de gran peralte

    -1

    4

    9

    14

    19

    24

    29

    0 200 400 600 800 1000 1200 1400

    Predicción

    Targets

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    6/11

     

    Figura 7. Parámetros empleados en viga de gran peral te

    Los parámetros empleados son:

    (b)  Ancho de la viga.

    (a)  Longitud libre de la viga (distancia entre apoyo y carga).

    (a/h)  Razón de Longitud entre altura de la viga.

    (f’c) Resistencia de compresión axial del concreto.

    (f yh  )  Esfuerzo de fluencia del acero horizontal de una viga.

    (f yv  )  Esfuerzo de fluencia del acero vertical de una viga.

    Los resultados se seleccionan con los mismos pasos del ejemplo anterior. Como el objetivo de

    este ejemplo es predecir la resistencia al corte de vigas de gran altura, los resultados de las vigas

    de gran altura fallidos bajo esfuerzo de corte se mantienen; para el entrenamiento de la red, la

     base de datos y las ideas para su programación siguen la secuencia de propuesta en [5], la base de

    154 datos es recopilada de la referencia bibliográfica antes mencionada. El error medio cuadrático

    decrece a medida que el número de iteraciones aumenta.

    Figura 8. Er ror medio cuadrático

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    7/11

    La red ha sido entrenada con 3 capas de neuronas: 5 neuronas en la capa de entrada, 5 neuronas

    en la capa intermedia y 1 neurona en la capa de salida. Se usaron las funciones de transferencia

    'logsig' para las capas de entrada e intermedia y 'purelin' para la capa de salida. Para el

    entrenamiento se usó la función 'trainb' y para el aprendizaje la función 'learngdm'. El error se

    mide con el mínimo cuadrático de la muestra: 'sse'.

    Figura 9. Resul tados Predichos versus Esperados

    Con la red se logra un 95.27% de correlación  – alta- con los pesos mostrados a continuación, los

    mismos que se pueden emplear en predicciones futuras.

    net.IW{1,1}0.1230 -0.8033 -0.7543 -0.7803 0.1432 0.7264 1.6298

    -0.7905 1.0939 0.9263 0.0636 -0.9632 1.0756 -3.0216

    -1.0867 -0.4344 1.2811 0.7007 -0.0256 -0.0150 -1.4877

    1.4239 2.3039 -0.2535 0.9882 2.6217 0.2388 -2.8096

    0.4072 1.5746 0.2592 0.6603 0.3501 -0.8978 -2.6387

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    8/11

     

    Esperados

    Tabla 2. Muestra de datos empleados  

    b h a* f'c V fyv fyh

    mm mm mm N/mm2

    KN N/mm2

    N/mm2

    1 De-Paiva G23S-11 50.8 330.2 203.2 24.55 179.7 0 315.1015

    2 De-Paiva G23S-21 50.8 330.2 203.2 23.58 106.75 0 354.403

    3 De-Paiva G24S-11 50.8 330.2 203.2 38.61 181.48 0 315.1015

    4 De-Paiva G24S-21 50.8 330.2 203.2 36.13 100.52 0 354.403

    5 De-Paiva G33S-11 76.2 228.6 203.2 23.31 170.8 0 326.1335

    20 Kong(1970) 1-30. 76.2 762 254 22.13 477.72 280 286.83

    21 Kong(1970) 1-25. 76.2 635 254 24.55 448.36 280 286.83

    22 Kong(1970) 1-20. 76.2 508 254 21.24 378.97 280 286.83

    23 Kong(1970) 1-15. 76.2 381 254 21.24 328.26 280 286.83

    24 Kong(1970) 1-10. 76.2 254 254 21.65 178.81 280 286.83

    56 Manueletal Beam5 101.6 460 266.5 34.26815 569.344 0 409.563

    57 Manueletal Beam6 101.6 460 266.5 37.43985 538.208 0 409.563

    58 Manueletal Beam7 101.6 460 266.5 31.9928 600.48 0 409.563

    59 Manueletal Beam8 101.6 460 266.5 38.8878 560.448 0 409.563

    60 Manueletal Beam9 101.6 460 410 37.6467 378.08 0 409.56364 Ram A1 76.2 381 216 0 0 0 320

    65 Ram B1 76.2 381 216 0 0 0 320

    66 Ram B2 76.2 508 216 0 0 0 320

    67 Ram B3 78.7 572 216 0 0 0 320

    68 Ram B4 78.7 762 216 0 0 0 320

    73 Rogowsky BM1-1 200 1000 1000 26.1 1204 0 381

    74 Rogowsky BM2-1 200 1000 1000 26.8 1500 0 381

    75 Rogowsky BM1A-1 200 1000 1000 26.4 1200 0 368

    76 Rogowsky BM1-15 200 600 1000 42.4 606 0 452

    77 Rogowsky BM2-15 200 600 1000 42.4 696 0 452

    80 Smith&Vantsiotis 0A0-44 101.6 355.6 304.8 20.48 279.07 0 437.4

    81 Smith&Vantsiotis 0A0-48 101.6 355.6 304.8 20.93 272.22 0 437.4

    82 Smith&Vantsiotis 1A1-10 101.6 355.6 304.8 18.69 322.48 437.4 437.4

    83 Smith&Vantsiotis 1A3-11 101.6 355.6 304.8 18.03 296.68 437.4 437.4

    84 Smith&Vantsiotis 1A4-12 101.6 355.6 304.8 16.07 282.45 437.4 437.4

    132 Subedietal 1A1 100 500 190 26 479 454 382

    133 Subedietal 1A2 100 500 190 29.6 750 455 493

    134 Subedietal 1B1 100 500 690 24.8 156 456 382

    135 Subedietal 1B2 100 500 690 29.6 299 457 493

    136 Subedietal 1C1 100 900 390 24.8 585 458 326

    150 Tan&Lu 1-500-050 140 500 250 49.1 1700 0 520

    151 Tan&Lu 1-500-075 140 500 375 42.5 1400 0 520

    152 Tan&Lu 1-500-1 140 500 500 37.4 1140 0 520

    153 Tan&Lu 2-1000-050 140 1000 500 31.2 1750 520 520

    154 Tan&Lu 2-1000-075 140 1000 740 32.7 1300 520 520

    Ref. Beam

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    9/11

     

    SECCIONES COMPUESTAS DE ACERO CONCRETO (MÉTODO AISC-LRFD)

    La información básica para la generación de los resultados esperados se obtuvo de la Tabla de

    Propiedades Geométricas de Perfiles Laminados en Caliente del AISC (American Institute of

    Steel Construction). Una muestra de la data empleada para el entrenamiento se indica en la tabla3.

    Esperados

    Tabla 3. Perf il es Laminados en Caliente del AI SC  

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    10/11

    La correlación en las etapas de entrenamiento, validación y test es buena, así también el

    desempeño de la red en cada una de las mismas etapas, a continuación se muestra el desempeño

    de la red.

    Figura 10. Desempeño de la red durante l as etapas de entrenami ento, val idaci ón y test

    La red ha sido entrenada con 3 capas de neuronas: 5 neuronas en la capa de entrada, 5 neuronas

    en la capa intermedia y 1 neurona en la capa de salida. Se usaron las funciones de transferencia

    'logsig' para las capas de entrada e intermedia y 'purelin' para la capa de salida. Para el

    entrenamiento se usó la función 'trainb' y para el aprendizaje la función 'learngdm'. El error se

    mide con el mínimo cuadrático de la muestra: 'sse'. Se ha empleado la misma configuración de la

    red de la segunda aplicación con la diferencia en las dentritas de entrada.

    Se logra un 99.52% de correlación que significaría una herramienta para la determinación de

    Momentos de diseño en Vigas Compuestas por Perfiles Plegados de Acero Estructural y losas de

    concreto armado. Los siguientes pesos son los que se emplearán en la determinación de momentos

     para diferentes perfiles:

    net.IW{1,1}

    -0.2347 -0.2821 -1.3160 2.2036 5.6702

    -3.0414 1.4452 -1.0930 0.0299 5.2522

    0.9448 -1.7682 1.0462 0.2600 -3.1336

    -0.4735 0.7717 -0.8862 2.5649 1.3653

    4.7820 -1.4750 1.4976 -1.2113 -8.5179

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes

  • 8/16/2019 Est2014-inf781-01.pdf

    11/11

    4. 

    CONCLUSIONES

      Se obtuvieron buenos resultados en los tres ejemplos. Las correlaciones para las redes

     planteadas están por encima del 95%.

     

    Se logran mejores resultados en el primer caso cuando la topología de la red está constituida por mayor cantidad de capas. Esto se observa en la primera aplicación.

      La red desarrollada con data experimental – segunda aplicación- tiene el mayor error mínimo

    cuadrático. Pero el nivel de correlación es alto (95.27%).

      Por el alto grado de correlación de la tercera aplicación, los pesos obtenidos por la red pueden

    emplearse para el cálculo de momento nominal de perfiles laminados en caliente de AISC.

    5. 

    BIBLIOGRAFÍA

    [1] Calixto, R. “Estado del arte del concreto para optimizar su eficiencia con el uso deaditivos”. Informe de suficiencia. Facultad de Ingeniería Civil. Universidad Nacional de

    Ingeniería. 2013.

    [2] De La Cruz, C. “Reconocimiento de caracteres en campos de formularios usando redes

    neuronales”. Informe de suficiencia. Facultad de Ingeniería Civil. Universidad Nacional de

    Ingeniería. 2012.

    [3] Espinoza, P. “Apuntes de clase del curso Programación Matemática”. Curso de

    Doctorado. Facultad de Ingeniería Industrial y Sistemas. Universidad Nacional de Ingeniería.

    2013

    [4] Haykin, S. “Neural Network: A Comprehensive Foundation”. NY: Maccmillan, p. 2.

    1994.

    [5] Haytham, M. “Prediction of Ultimate Shear Strength of Reinforced Concrete Deep

    Beams Using Artificial Neural Networks”. Tesis de maestría Facultad de Ingeniería.

    Departamento de Ingeniería Estructural. Universidad Islámica de Gaza. Abril 2005.

    [6] Rojas, R. “Neural Networks”. Springer -Verlag. 1996.

    VI Congreso Internacional de Ingeniería Estructural,Sísmica y Puentes

    VI Congreso Internacional de Ingeniería Estructural, Sísmica y Puentes