avances en el desarrollo tecnológico e investigación en el...

110
Página | 1 Alfa Omega Grupo Editor Avances en el desarrollo tecnológico e investigación en el área de Tecnologías de la Información y Comunicación en México. ANIEI.

Upload: others

Post on 28-Feb-2020

13 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 1 Alfa Omega Grupo Editor

Avances en el desarrollo tecnológico e

investigación en el área de Tecnologías de la

Información y Comunicación en México.

ANIEI.

Page 2: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 2 Alfa Omega Grupo Editor

EDITORES:

Dra. Alma Rosa García Gaona.

Dr. Francisco Javier Álvarez Rodríguez.

M. en C. Ma. de Lourdes Sánchez Guerrero.

EDITORIAL:

ALFA-OMEGA.

ISBN.- 978-607-707-839-5

FECHA:

MEXICO, D.F., OCTUBRE DEL 2013.

Page 3: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 3 Alfa Omega Grupo Editor

ÍNDICE.

I. PRÓLOGO……………………………………………….06.

II. INTRODUCCIÓN………………………………………08.

III. SECCIÓN DESARROLLO TECNOLÓGICO……09.

1. Interfaz Gráfica de Visualización de Resultados de los Sistemas de Información

Geográfica orientados al Transporte Público Colectivo Urbano basado en principios de

Usabilidad.

Víctor Martínez Morales, Adolfo Aguilar Rico, Georgina Flores Becerra.

……………………………………………………………………………………………………………10.

2. Tecnologías Honeypots: Carnada para Hackers.

Salma Roxana de María Chiquito Alor, Omar Eduardo Betanzos Martínez.

…………………………………………………………………………………………………………..16.

3. Directorio geográfico de la Universidad Veracruzana campus Xalapa.

Gerardo Contreras Vega, Joel Humberto Gómez Paredes, Carlos Alberto Ochoa Rivera.

……………………………………………………………………………………………………………23.

4. Desarrollo de un Sistema Web para la administración de cartas descriptivas y su

planeación.

Andrés Sandoval, Mónica Carreño, Italia Estrada.

………………………………………………………………………………………………….30.

Page 4: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 4 Alfa Omega Grupo Editor

5. Herramientas de e-commerce y realidad virtual como estrategia para la venta de

artesanías.

Alma Lilia González Áspera, Leticia Rubicela Rodríguez Ruiz, Carmen Araceli González

Áspera.

………………………………………………………………………………………………………….39.

6. RAINT: Aplicación interactiva con realidad aumentada como apoyo al aprendizaje de la

lectura de personas con discapacidad auditiva utilizando Kinect.

Alfonso Sánchez-Orea, Alma Rosa García Gaona, Jesús Sánchez-Orea.

………………………………………………………………………………………………………46.

7. Diseño y desarrollo de videojuegos en aplicaciones móviles para la identificación de

errores ortográficos en el aprendizaje. Caso de Estudio: Leximania.

Alejandra Ramos Navarro, Andrés Calderón Sacarías, Francisco Javier Álvarez Rodríguez.

………………………………………………………………………………………………………..52.

IV. SECCIÓN INVESTIGACIÓN APLICADA……..58.

1. Diseño semiautomático de estructuras óptimas utilizando una distribución normal de

probabilidades.

Ukranio Coronilla Contreras, Jorge Cortés Galicia, José Netz Romero Durán.

……………………………………………………………………………………………………59.

2. Paralelización del Algoritmo de Colonia de Hormigas (ACO) para resolver problemas de

ruteos.

Julio César Ponce, Humberto Muñoz, Alejandro Padilla.

……………………………………………………………………………………………………….66.

3. Autenticación de Usuarios Mediante Ritmo de Escritura en Teclado Usando Árboles de

Decisión.

Page 5: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 5 Alfa Omega Grupo Editor

Sandra Mercado Pérez, J. Guadalupe Lara Cisneros, José Refugio Luévano Ceballos.

……………………………………………………………………………………………………74.

4. Introducción de la fase de especificación para la construcción de Sistemas multi-agentes.

Erik Hernández, Edmundo Bonilla, Cora Beatriz Excelente.

……………………………………………………………………………………………81.

5. Controlador difuso PID + controlador Inmune Artificial.

Arturo Valdivia González, Daniel Zaldívar Navarro

………………………………………………………………………………………………….87.

6. Propuesta de una arquitectura avanzada para aplicaciones Web educativas con

tecnologías de Web Semántica bajo el paradigma de Educación Basada en Web.

Rubén Peredo, Iván Peredo

………………………………………………………………………………………………..94.

7. Descomposición de Datos Multivariados mediante Factorización No Negativa de

Matrices de Imágenes.

Cristhian Torres Millarez

…………………………………………………………………………………………..104.

V. SEMBLANZA EDITORES…………………….109.

Page 6: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 6 Alfa Omega Grupo Editor

PRÓLOGO.

Las tecnologías de la información y la comunicación (TIC) han venido a revolucionar el

mundo en todos los ámbitos de desarrollo, social, económico, político y educativo, por ello la

importancia de la educación en esta área es cada vez mayor. Desde 1982 a la fecha, la Asociación

Nacional de Instituciones de Educación en Tecnologías de la Información, A. C:, (ANIEI), congrega a

más de 100 instituciones que ofrecen programas educativos relacionadas al área de la

Computación e Informática del país. En esta obra, se concentran los productos de los avances de

las investigaciones y desarrollo tecnológico en esta área, generados por los investigadores,

académicos y estudiantes asociados a la ANIEI y a las TICs.

El libro “Avances en el desarrollo tecnológico e investigación en el área de Tecnologías de

la Información y Comunicación en México”, organizado en dos secciones con ocho capítulos cada

una, presenta productos tecnológicos que resuelven problemas reales del transporte público,

basados en sistemas de información geográfica, por ejemplo, utilizando principios de usabilidad, o

herramientas de realidad virtual hasta realidad aumentada esta última para apoyo a personas

débiles visuales y videojuegos aplicados a la educación. Así mismo, el libro aborda temáticas de

corte de investigación aplicada que tienen que ver con el diseño semiautomático de estructuras

óptimas o utilización de técnicas de inteligencia artificial para resolver problemas de ruteo hasta

una propuesta de arquitectura avanzada para arquitectura web educativas usando la web

semántica.

Los autores provienen de diversas universidades y centros de educación superior

reconocidos del país como la Universidad Autónoma de Aguascalientes, Universidad Politécnica de

Querétaro, Laboratorio Nacional en Informática Avanzada, Universidad de Guadalajara,

Universidad Autónoma Metropolitana, Instituto Tecnológico de Puebla, Instituto Tecnológico de

Morelia y la Universidad Veracruzana.

Cabe señalar que esta obra representa un primer esfuerzo que la ANIEI hace para publicar

a través de la editorial ALFAOMEGA, lo que los investigadores asociados y grupos de trabajo que

se encuentran relacionados con la computación en México, realizan, con la finalidad de que se

Page 7: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 7 Alfa Omega Grupo Editor

generen redes de colaboración entre los investigadores y académicos que se encuentran

desarrollando trabajos relativos al desarrollo de las TIC en México.

Page 8: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 8 Alfa Omega Grupo Editor

INTRODUCCIÓN.

Este libro tiene como objetivo presentar los principales avances del desarrollo

tecnológico e investigación para las áreas de tecnologías de la información y

comunicación en México. Este trabajo es el resultado de investigadores, alumnos y

grupos a lo largo del país que tiene como principal característica trabajos colaborativos

que incluyen a los alumnos de los diferentes programas educativos relacionados con la

temática.

Los capítulos se organizaron en dos secciones que agrupan el propósito enunciado

anteriormente: a. Desarrollo tecnológico y b. Investigación aplicada. Puede encontrarse en

la primera sección capítulos de corte aplicativo que resuelven problemas específicos de

los diferentes sectores de la sociedad: Empresas, Instituciones de educación, etc.

En la segunda sección los capítulos puestos presentan evidencias de

investigaciones desarrolladas con resultados completos o parciales. Estas investigaciones

tienen las características de aplicar las mismas a problemas reales y por lo tanto con una

utilidad palpable.

Page 9: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 9 Alfa Omega Grupo Editor

SECCIONES.

DESARROLLO TECNOLÓGICO.

Page 10: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 10 Alfa Omega Grupo Editor

Capítulo I. Interfaz Gráfica de Visualización de Resultados de los

Sistemas de Información Geográfica orientados al Transporte Público

Colectivo Urbano basado en principios de Usabilidad.

Área de conocimiento: Sistemas de Información

Víctor Martínez Morales, Adolfo Aguilar Rico, Georgina Flores Becerra

Instituto Tecnológico de Puebla – Av. Tecnológico 420, Maravillas, Puebla, Pue., 72220. México

[email protected], [email protected], [email protected]

Cerrada de Aconcagua 2037-4, Maravillas, Puebla, Pue. 72220. México

(044) 22 21 40 95 34.

Resumen. En el presente artículo se propone una nueva alternativa de visualización de resultados en los

Sistemas de Información Geográfica orientados al uso del Transporte Público Colectivo Urbano, y se

utilizan dos métodos formales para la evaluación de usabilidad mediante un estudio comparativo

compuesto de interfaces convencionales e interfaces centradas en el usuario, con el objetivo de

identificar los elementos que permitan facilitar el uso, obtención y comprensión de resultados por parte

de los usuarios finales, con la finalidad de generar un mayor grado de satisfacción en la interacción con

el sistema. En este trabajo se estudian diferentes perspectivas de los principales autores en el tema de

usabilidad y el diseño centrado en el usuario y se genera una nueva propuesta en la visualización de rutas

sobre mapas virtuales.

Palabras Clave: Usabilidad, Sistemas de Información Geográfica, Evaluación Heurística, Usabilidad en

Mapas Virtuales.

1. Introducción

La usabilidad es un tema de suma importancia cuando se busca garantizar la satisfacción de los usuarios finales, y se

define como un atributo de calidad que mide qué tan fácil de utilizar son las interfaces de usuario [3].

Existen diferentes aplicaciones que pretenden sacar todo el provecho de los sistemas de mapas virtuales para cumplir con

diferentes objetivos, y aunque existen distintas propuestas para el uso e interacción con los mapas, la mayor parte de los

usuarios de dichos sistemas encuentra complejo el uso e incluso la interpretación de los resultados pretendidos [2].

Aún en la primera década del año 2000 la mayoría de programadores y diseñadores web se enfocaban únicamente en el

funcionamiento y la apariencia de los sistemas desarrollados [1], sin embargo y debido al creciente número de usuarios en

Internet, se han ofertado nuevos servicios que brindan un valor agregado sobre los ya existentes, permitiendo la

introducción de la usabilidad como características indispensable de los Sistemas de Información Web.

La mayoría de estudios de usabilidad en los sistemas web se centran en cómo hacer más sencilla la interacción entre el

usuario y el sistema, pero poco hablan de la comprensión y sencillez con que debiesen ser interpretados los resultados.

El objetivo del presente trabajo es proponer una interfaz que no solo cubra los atributos de usabilidad de las interfaces

convencionales, sino que también facilite la comprensión y representación de los resultados en un sistema de información

geográfica mediante una comparativa, utilizando técnicas de evaluación de usabilidad, que permitan elevar el grado de

satisfacción de los usuarios finales.

2. Estado del arte

En el trabajo “El diseño de mapas de transporte público” José Allard define los elementos gráficos y las operaciones de

diseño en la representación de los sistemas de navegación urbana considerando parámetros de usabilidad [1], pero no

considera mapas virtuales orientados al transporte urbano. Además, en el artículo Usabilidad y Arquitectura de la

Información [2] se aborda cómo diseñar aplicaciones web usables y accesibles a través de la aplicación del conjunto de

Page 11: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 11 Alfa Omega Grupo Editor

técnicas y procedimientos englobados bajo el marco metodológico conocido como Diseño Centrado en el Usuario, sin

embargo no son considerados los parámetros de usabilidad en la visualización de resultados; mientras que en el artículo

Usabilidad de los mapas y las indicaciones geográficas [6], se establecen criterios que deben ser considerados en el diseño

de interfaces de interacción con mapas virtuales orientados al diseño centrado en el usuario aunque tampoco habla de

cómo deberían mostrarse los resultados de las consultas realizadas por los usuarios finales.

3. Metodología utilizada

La evaluación de la usabilidad de un sitio web puede hacerse con diferentes métodos y técnicas. Para el propósito

específico del presente artículo se ha comenzado por la evaluación heurística y se ha realizado posteriormente un test de

satisfacción de usuarios.

Para la decisión de elegir cuál sería la técnica utilizada para evaluar la usabilidad de las interfaces, se hizo revisión de las

técnicas empleadas para ello, además de revisar varios proyectos donde se ha evaluado la usabilidad en ambientes

similares como el de Rovira Fontanals [9] José Allard [1], los cuales utilizaron análisis heurísticos y cuestionarios

adaptados para evaluar la usabilidad de los sistemas.

Se ha comprobado que las técnicas tradicionales pueden aplicarse a los ambientes de los sitios web informativos, sin

embargo, no pueden ser suficientes para evaluar las características de inmersión e interacción que existen en los sistemas

de mapas virtuales [1]. Por lo tanto se eligieron las dos técnicas citadas previamente para evaluar las interfaces

desarrolladas.

3.1 Análisis Heurístico

El análisis heurístico, también llamado evaluación experta, se define como: “un conjunto de reglas metodológicas no

necesariamente formalizadas, positivas y negativas, que sugieren o establecen cómo proceder y problemas a evitar a la

hora de generar soluciones y elaborar hipótesis” [7]. El estudio heurístico utilizado se encuentra basado en la

metodología expuesta en el trabajo: Guía de Evaluación Heurística de Sitios Web [8] y consiste en determinar el grado de

usabilidad revisando la interfaz siguiendo los principios de dicha disciplina ya reconocidos (heurísticos). Para acometer

esta parte del análisis se han tomado como referencia algunas de las obras más destacadas sobre el diseño centrado en el

usuario (Simpson [8]; Shneiderman [10]) y en particular los principios heurísticos de Jakob Nielsen [4]. Se analizan los

datos de acuerdo a su clasificación, como datos heurísticos generales, identidad e información, redacción, etiquetas,

navegación, diseño visual de información, resultados, ayuda, accesibilidad, control y retroalimentación.

3.2 Test de usuarios

Un test consiste en la aplicación de una prueba en la que se le hace una serie de preguntas a un grupo de usuarios y de

acuerdo a sus respuestas y a las acciones que realicen ante el sistema, se determinan las características usables de la

interfaz que se esté probando [12].

El desarrollo de las preguntas que se utilizan en la prueba de usabilidad con usuarios está enfocado a ámbitos del interés

particular de los sistemas de información geográfica referentes al transporte público colectivo urbano y cada uno de los

cuales se mide por separado [11]:

Identidad

Contenido

Navegación

Elementos Gráficos

Búsqueda

Utilidad.

Tiempo de Ejecución de tareas específicas

4. Comparativa de interfaces gráficas comunes VS propuesta de solución

Como se menciona en el trabajo de Allard [1] “La interacción y la concentración de elementos en un área limitada puede

crear varios problemas de representación en la información, tales como la superposición de las rutas y varios problemas

Page 12: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 12 Alfa Omega Grupo Editor

de etiquetado. A partir de aquí, la necesidad de encontrar el equilibrio correcto en la cantidad de información que se

incluye en la visualización de mapas virtuales”1.

A partir de esta idea, debe obtenerse mediante la evaluación heurística, la información esencial que será considerada para

la planificación del viaje tiene que ser incluida, pero la información que no se considere esencial para el propósito del

sistema debe reducirse al mínimo, dicho de otra forma, la información no necesaria para la planificación del viaje no debe

ser incluida.

En la Figura 1 se muestra una interfaz de visualización de resultados convencional de un sistema de información

geográfica, dicha interfaz muestra un solo resultado por pantalla y utiliza un mapa virtual para trazar la trayectoria de la

ruta de transporte público, pero no ofrece puntos que puedan servir de referencia y contiene elementos que a su vez

pueden causar confusión a los usuarios sin conocimientos del área geográfica.

Fig. 1. Interfaz común de visualización de resultados

La Figura 2, corresponde a la interfaz propuesta, y es capaz de ofrecer de 1 a 3 resultados (en caso de que existan) en una

misma pantalla, y aunque realiza el trazado de la(s) ruta(s) sobre un mapa virtual omite su visualización para centrar la

atención del usuario en los detalles de su interés, además ofrece puntos de referencia que pueden ser fácilmente

reconocibles a pesar de que no se tenga conocimiento sobre el área geográfica consultada.

Los elementos utilizados en el diseño visual de la interfaz mostrada en la Figura 2 fueron definidos y posteriormente

comprobados mediante las técnicas de evaluación de usabilidad expuestas en la metodología del presente artículo.

1 Traducción del inglés al español propia

Mapa virtual

Ruta recomendada

Trazado de trayectoria

basado en el mapa

virtual

Indicadores de punto

de inicio y destino

Page 13: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 13 Alfa Omega Grupo Editor

Fig. 2. Interfaz de visualización de resultados propuesta

5. Resultados experimentales

A continuación se presentan los resultados de algunas de las pruebas más significativas de usabilidad realizadas en las

interfaces gráficas de usuario utilizadas. El motivo de realizar primero una evaluación sin contar con los usuarios finales,

tiene que ver con el propósito del análisis heurístico que permite hacer una evaluación detallada y ordenada de todos los

aspectos de interés para la usabilidad. Esta primera parte debe ser necesariamente complementada con los test de usuarios,

pues de lo contrario se obtendrían conclusiones sesgadas de los problemas reales en el sistema.

La evaluación heurística de las interfaces fue realizada según las técnicas utilizadas en la metodología planteada

previamente y se utilizó la escala de Likert2 para la representación de resultados.

Los valores fueron para la escala de Likert de 1 a 5, donde 1 representa la mínima expresión del heurístico en los

elementos evaluados y 5 la máxima expresión del heurístico en los elementos evaluados, siendo 2, 3 y 4 valores

intermedios.

Para el propósito propio de esta sección se definirán las interfaces de la siguiente forma:

Interfaz 1: Interfaces gráficas basadas en los sistemas de información convencionales.

Interfaz 2: Interfaces gráficas basadas en parámetros de usabilidad y en el diseño centrado en el usuario.

Datos heurísticos

Aspectos evaluados Puntos

Interfaz 1

Puntos

Interfaz 2

Datos heurísticos generales 3 5

Identidad e Información 4 5

Lenguaje y redacción 5 5

Etiquetas utilizadas 4 5

Estructura y navegación del sistema 2 5

Diseño visual de información del sistema 2 5

Elementos y resultados 3 5

Ayuda 0 4

2 Método de evaluaciones sumarias comúnmente utilizado en cuestionarios y encuestas para la investigación,

principalmente en Ciencias Sociales.

Cada resultado se muestra en

un color diferente y

corresponde al trazado del

mismo color

Ruta recomendada

Opciones adicionales

Puntos de

referencia

Trazado de trayectoria

basado en el mapa virtual

Indicadores de punto

de inicio y destino

Page 14: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 14 Alfa Omega Grupo Editor

Accesibilidad 3 4

Control y retroalimentación 2 5

Total: 28 48

Tabla 1. Comparativa de resultados del estudio heurístico de las interfaces

En la Tabla 1, puede apreciarse que los resultados obtenidos a través de la interfaz que considera parámetros heurísticos

de usabilidad son considerablemente más elevados con la propuesta de visualización de resultados que se plantea.

De esta manera, una vez obtenidos los informes heurísticos, se realizaron las pruebas con usuarios con el fin de detectar

más posibles problemas en el uso y la comprensión de resultados de las interfaces expuestas anteriormente, y al mismo

tiempo con la intención de comparar los resultados de la evaluación experta con la observación de los usuarios.

Para el estudio se escogieron 6 personas, número óptimo de participantes según el estudio de Montero [11] para realizar

las pruebas: 3 de ellos familiarizados con el uso de mapas virtuales y 3 usuarios no expertos en este ámbito. Todos ellos

con conocimientos básicos del uso de Internet. De igual forma se utiliza una escala de Likert con promedios de los valores

utilizados en el estudio heurístico. Los resultados pueden observarse en la Tabla 2.

Preguntas Promedio interfaz 1 Promedio interfaz 2

Generales 3.4 5

Identidad e información 4.6 4.8

Lenguaje y redacción 4.7 4.7

Etiquetas Utilizadas 4 5

Estructura y navegación 3.6 4.7

Diseño visual 3 5

Elementos y resultados 3 4.6

Ayuda 0 4.6

Accesibilidad 3.8 5

Control y retroalimentación 1.7 4.7

Tiempo de ejecución de tareas 2.4 4.8

Total: 3.10 4.80

Tabla 2. Comparativa de resultados del test de usuarios

A continuación, en la Figura 3, se muestra una gráfica comparativa de los resultados obtenidos, dónde puede apreciarse de

una forma más clara las diferencias entre la interfaz 1 y la interfaz 2 utilizadas para la evaluación.

Fig. 3. Gráfica comparativa entre las interfaces de visualización de resultados

La interpretación de la Figura 3 indica que el nivel de satisfacción de los usuarios y la interacción con el sistema es mayor

con la interfaz propuesta que con la interfaz convencional, cumpliendo así con el objetivo expuesto en la definición de

usabilidad propuesta por Nielsen [3].

Page 15: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 15 Alfa Omega Grupo Editor

6. Conclusiones y trabajos futuros

La combinación de una técnica de inspección, como la evaluación heurística, y la aplicación de test de usuarios apoyan de

manera eficaz y eficiente la evaluación de usabilidad en el ambiente de mapas virtuales, ya que es necesario realizar la

combinación de estas dos técnicas para medir de manera eficaz los resultados obtenidos, dado que se obtuvo información

de la experiencia de uso, satisfacción del usuario, problemas de usabilidad detectados y posibilidades de mejora, que no se

podrían obtener aplicando nada más una de ellas. Esto reduce el tiempo y facilita la comprensión de los resultados de las

consultas deseadas por los usuarios al interactuar con los sistemas de información geográfica. El análisis comparativo de

las interfaces, arroja resultados que permiten diferenciar de una manera más clara los atributos de calidad obtenidos al

utilizar directrices de usabilidad y que permiten a los usuarios reducir los esfuerzos necesarios para el intercambio de

información con el sistema. El aprendizaje del manejo del sistema es mucho más rápido e intuitivo en la interfaz con

diseño centrado en el usuario, esto permite que el mismo se familiarice enseguida con el sistema y pueda realizar las

tareas de una manera más rápida y sencilla, aumentando el grado de satisfacción del usuario y brindando una ventaja

competitiva sobre otros sistemas.

Referencias

[1] J.Allard. The Design of public transport maps. Graphic elements and design operations in the representation of urban

navigation systems. Politecnico di Milano, 2009.

[2] Y. Hassan, J. Francisco, M. Fernández y G. Iazza. Diseño Web Centrado en el Usuario: Usabilidad y Arquitectura de

la Información [en linea]." Hipertext.net", núm. 2, 2004. <http://www.hipertext.net>

[3] J. Nielsen. Usability Engineering. Morgan Kaufmann, 1993.

[4] J. Nielsen. Heuristic evaluation. Usability Inspection Methods. John Wiley & Sons, New York, NY, 1994.

[5] H. Simpson. Design of User-Friendly Programs for Small Computers. New York McGraw-Hill.

[6] International Cartogrhapic Association. Usability of Maps and GI, 2012 <http://icaci.org/research-agenda/usability-of-

maps-and-gi/>

[7] Revista «Hiperenciclopédica» de Divulgación del Saber Segunda Época. Heurítica. Vol. 6, Núm. 4, 2012.

[8] H. Montero, M, Fernández. Guía de Evaluación Heurística de Sitios Web. Revista multidisciplinar sobre personas,

diseño y tecnología, 2005.

[9] M. Marcos Mora y C. Rovira Fontanals. Evaluación de la usabilidad en los sistemas de información Web Municipales.

Barcelona, 2005.

[10] B. Shneiderman. Designing the User Interface. 3rd ed. Reading, MA: Addison-Wesley, 2009.

[11] H. Montero, M. Fernández, Francisco J. Método de test con usuarios, 2003

http://www.nosolousabilidad.com/articulos/test_usuarios.htm

[12] K., Steve. No me hagas pensar: una aproximación a la usabilidad en la Web. Madrid [etc.]: Prentice Hall, 2001.

Page 16: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 16 Alfa Omega Grupo Editor

Capítulo II. Tecnologías Honeypots: Carnada para Hackers

Área de Conocimiento: Seguridad Informática

Tec. Salma Roxana de María Chiquito Alor

Instituto Tecnológico Superior de Coatzacoalcos, Carretera antigua Minatitlán-Coatzacoalcos km.16.5 Col.

Las Gaviotas C.P. 96536, Ciudad Coatzacoalcos, Veracruz. [email protected]

M. I. D. S. Omar Eduardo Betanzos Martinez

Instituto Tecnológico Superior de Coatzacoalcos, Carretera antigua Minatitlán-Coatzacoalcos km.16.5 Col.

Las Gaviotas C.P. 96536, Ciudad Coatzacoalcos, Veracruz. [email protected]

Resumen: Debido a que el uso de Internet se encuentra en aumento, el Instituto Tecnológico Superior de Coatzacoalcos

reconoce que es fundamental proteger la integridad y la privacidad de la información almacenada en sus sistemas

informáticos, estableciendo estrategias que consistan en defender la infraestructura de la información, detectar posibles

fallos de la estructura defensiva y reaccionar a esos fallos. Pero ¿Cómo podemos defendernos contra un enemigo, que no

vemos y ni siquiera sabemos quién es? La idea detrás de los honeypots es precisamente y mediante el uso de herramientas

de seguridad, atraer a los hackers maliciosos (como moscas atraídas por la dulce miel), al sistema que se les presenta y las

cuales ayudan a entender, rastrear e investigar los ataques realizados a través de Internet.

Palabras Clave: Hacker, Seguridad Informática, Sistema Informático.

Introducción

Hoy en día existen redes de datos que permiten transferir y procesar información de una localidad virtual a otra, en casi

cualquier parte del mundo, en tiempo real. Pero el crecimiento exponencial que ha tenido el área de las

telecomunicaciones lleva consigo el aumento de estrategias de seguridad para mantener a salvo la información contenida

en los sistemas informáticos y los cuales están expuestos a constantes ataques. La idea de los honeypots es mostrar a los

atacantes un sistema virtual que parezca el sistema real o incluso redes enteras, que presenten vulnerabilidades fáciles de

explotar que pueden resultar atractivos para un eventual atacante, alejando al intruso de los recursos reales a la vez que

monitorizan todo esa actividad malintencionada.

El concepto honeypots tiene ya más de 10 años de historia y fue acuñado durante la Guerra Fría para designar una técnica

de espionaje, pero no fue hasta comienzos de la década de los 90 cuando empieza a utilizarse en el campo de la seguridad

de la información, aunque la tecnología aplicada de manera formal tiene menos y poca documentación de sus orígenes.

Sin embargo, Lance Spitzner, consultor y analista informático experto en seguridad, construyó a comienzos del año 2000

una red de seis computadoras en su propia casa. Esta red la diseñó para estudiar el comportamiento y formas de actuación

de los atacantes. Fue de los primeros investigadores en adoptar la idea, y hoy es uno de los mayores expertos en

honeypots. Su sistema estuvo durante casi un año de prueba, desde abril del 2000 a febrero de 2001, guardando toda la

información que se generaba. Los resultados hablaban por sí solos: en los momentos de mayor intensidad de los ataques,

comprobaba que las vías de acceso más comunes a los equipos de su casa eran escaneadas, desde el exterior de su red,

hasta 14 veces al día, utilizando herramientas de ataque automatizadas [1]. Y es a partir del 2002 que los Honeypots son

usados para detectar y capturar información sobre ataques desconocido. El ITESCO siendo una institución que busca

siempre innovar y aplicar dentro de sus sistemas informáticos los métodos más actuales que permitan mantenerlos

seguros e íntegros, es por ello que a través de la implementación de la tecnología honeypots, la institución busca estudiar

el valor que funge en la actualidad como herramienta de investigación en el área de la seguridad de la información, en el desarrollo de este artículo se muestrara por qué se debería implementar una tecnología de este tipo.

Estado del Arte

Page 17: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 17 Alfa Omega Grupo Editor

Hoy en día existen diversas herramientas que permiten prevenir y proteger de ataques virtuales a los sistemas informáticos

y los cuales se pueden instalar dentro de nuestras computadoras, pero muy pocas herramientas son utilizadas para el

estudio de las líneas de ataque y el lugar por donde estos ataques se filtran en los sistemas.

En las instituciones y empresas es poco común que apliquen algún tipo de tecnología que funcione de tal forma que se

puedan prevenir ataques futuros y permitirles conocer las vulnerabilidades que les afectan.

ITESCO es una institución educativa que cuenta con el sistema E-learning, equipos de cómputo, sistemas de información

y servidores que deben de estar alta y obligadamente protegidos. Pero actualmente el instituto carece de potentes medidas

de seguridad que le permitan mantener la información integra. En los últimos años se ha observado que las computadoras

han sufrido diversos ataques que terminan por generar la perdida de la información que culmina en la caída de los

servidores y por ende el personal se ve obligado a suspender actividades por cierto tiempo.

Para poder establecer una mejor protección se debe también considerar no solo la idea de instalar programas que detecten

y neutralicen los ataques, sino también la idea de conocer las vías por donde estos ataques se filtran de forma que se

puedan sellar las puertas por donde estos códigos maliciosos hacen su entrada a nuestros sistemas.

Dentro del mercado de las computadoras los sistemas operativos son el software encargado de ejercer el control y

coordinar el uso de los recursos de nuestros equipos, para que una institución pueda mantener sus equipos más seguros es

importante tomar en cuenta y analizar qué sistema operativo es más conveniente, conocer sus fortalezas y debilidades. A

continuación se muestra una comparativa de las marcas de los sistemas operativos.

Linux y Mac OS.- Estos dos gigantes eran considerados sistemas operativos muy seguros y prácticamente inexpugnables,

hasta la fecha. Sin embargo, el cambio en la orientación de las amenazas ha provocado que estos hayan comenzado a

verse afectados por problemas de seguridad que tienen su origen en aplicaciones software de terceros. Lo más reciente y

también lo que más se ha oído es el problema de seguridad que se encontraba en Java y que cualquier navegador que

tuviera habilitada la ejecución de código Java podía verse afectado por este problema de seguridad.

En cuanto a Apple el problema se acentuó aún más y se llegó a hablar hasta más de un millón de Macbooks infectados con

virus por culpa de este fallo de seguridad. Sin embargo, también hay que decir que hasta hace poco, la compañía seguía

una política de actualizaciones errónea y el soporte de seguridad para las versiones de sistemas operativos es más limitada

que la ofrece por ejemplo la compañía de Bill Gates.

En el caso de Linux, la solución era actualizar el paquete Java instalado en el equipo, algo que no se pudo hacer en Mac

por la política errónea a la que hacíamos referencia con anterioridad.

Windows y la seguridad.- Los sistemas operativos de Microsoft siempre han destacado por tener una gran cantidad de

problemas de seguridad, sin embargo han destacado también por la compatibilidad con aplicaciones y sencillez de

instalación y manejo. Esta diferencia con respecto a los competidores se está viendo reducida, no sólo por las mejoras en

los otros sistemas, sino también por la desconfianza que se crea en los usuarios. El hecho de que haya actualizaciones de

seguridad cada semana es un indicativo de que el producto final no es del todo correcto. La política de los dos anteriores

es de lanzar actualizaciones cada cierto tiempo, pero no de una forma continuista. Si esa política fuese adoptada por el

equipo de seguridad de Microsoft, los sistemas operativos no serían un completo desastre en lo referido a seguridad. Sin

embargo, estas actualizaciones hacen pensar al usuario que existe un compromiso con la seguridad y que es bueno. Pero

un sistema operativo con tantos errores en una versión comercial no es un dato bueno.

Desde luego es muy complicado crear el sistema operativo perfecto en materia de seguridad, pero con la instalación de un

honeypots cualquier sistema operativo tendría oportunidad de mantenerse integro. Sin embargo, si tenemos que

decantarnos por uno, diríamos que Linux sería a día de hoy el sistema operativo más completo en materia de seguridad.

Tampoco descartaríamos a Mac OS, eso sí, sería necesario que modificasen la política de seguridad y la forma en la que

se da soporte a versiones de sistemas operativos antiguas.

Metodología Usada

Para la realización de este método de investigación de vías de ataques, se consideró la tecnología honeypots, este es

Software o conjunto de computadoras cuya intención es atraer a atacantes, simulando ser sistemas vulnerables o débiles a

los ataques [2]. Este sistema tiene como objetivo identificar, evitar y, en cierta medida neutralizar los intentos de accesar y

apoderarse de los sistemas y redes de información, sin ningún permiso. Generalmente un honeypot puede ser una

computadora o un sitio de red que parecen ser parte de una red, pero que en realidad están aislados, protegidos y

Page 18: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 18 Alfa Omega Grupo Editor

monitorizados, haciéndolo atractivos para los posibles atacantes, ya que parecen contener información o recursos valiosos.

Figura 1.

Figura 1. Arquitectura Honeypot.

Características

• Genera un volumen pequeño de datos.

• No existen los falsos positivos.

• Son elementos pasivos.

• Son fuentes potenciales de riesgo para la red.

• Usan una dirección IP como mínimo.

• Los Honeypots tienen un limitado carácter preventivo.

• Tienen un alto grado de detección por los intrusos.

• Son programables en cuanto a la reacción contra el atacante

Funciones principales de un honeypots

• Desviar la atención del atacante de la red real del sistema, de manera que no se comprometan los recursos principales de información.

• Capturar nuevos virus o gusanos para su estudio posterior.

• Formar perfiles de atacantes y sus métodos de ataque preferidos, de manera similar a la usada por una corporación policiaca para construir el archivo de un criminal basado en su modus operandi.

• Conocer nuevas vulnerabilidades y riesgos de los distintos sistemas operativos, entornos y programas las cuales aún no se encuentren debidamente documentadas.

Resultados

En este apartado se muestra la forma en el que el honeypots se debe ubicar, las ventajas y desventajas de su uso. Cabe

mencionar que esta tecnología se puede utilizar como herramienta de protección o como herramienta de investigación. De

acuerdo a las necesidades que presenta la institución sería conveniente que se aplicaría el honeypots como una

herramienta de protección e investigación.

Dentro de la institución funcionaria instalar un honeypot de baja interacción, ya que en este tipo, la interacción con el

usuario es mucho menor y se limita por lo general a emular servicios. Son rápidos y fáciles de implementar por lo que, en

general, son los más utilizados aunque son mucho más complejos de administrar y mantener, y la información que reciben

debe ser lo más extensa posible, debe ser organizada y analizada para que sea de utilidad. Normalmente este tipo de

honeypots no está destinado a “atrapar” atacantes reales, sino herramientas automatizadas [3]. Figura 2.

Figura 2. Honeypots de Baja interacción. Simula que existe algún servicio común escucha y almacena todas las

peticiones. Simplemente registra peticiones de acceso ya que no responde a ninguna de ellas o interaccionamos con

el atacante.

Page 19: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 19 Alfa Omega Grupo Editor

Al utilizar un honeypots de baja interacción nos permitirá emular servicios, vulnerabilidades, etc. los riesgos que se

correrían serian mínimos y se obtendría mucha información pero depende del sistema de clasificación y análisis para

evaluar los datos recabados. La ubicación del honeypots se establecerá de forma estratégica para maximizar su

efectividad. Es importante tener en cuenta que los Honeypots se debe integrar con el resto del sistema que se tiene

implementado por ejemplo: servidores WWW , servidores de archivos, DNS . De manera de asegurar que no interfiera

con las otras medidas de seguridad que puedan ya existir en la red como Firewalls, IDS .

El honeypot al ubicarlo antes del firewall (Front of firewall) hace que la seguridad de la red interna no se vea

comprometida en ningún momento, ya que el Firewall evita que el ataque vaya a nuestra red interna. Figura 3

Figura 3. Implementación de Honeypot delante del Firewall.

Se va implementar una máquina virtual que resulta mucho más sencillo de mantener que una honeypot física y con una

escalabilidad mucho mayor. Así, sería posible tener miles de estos señuelos en una sola máquina física. Para este fin, se

hace uso de programas como VMware o VirtualBox. Ambas aplicaciones habilitan a una máquina la simulación de un

sistema completo, que responde al tráfico de red. El sistema virtual nos permite restaurarlo en cuestión de minutos en caso

de accidente, desastre o compromiso, ya que el sistema virtual permite almacenar un estado “ideal” y volver a él en cualquier momento de manera mucho más rápida.

El sistema se desarrolla en VirtualBox que es un proyecto de Sun, gratuito y de código abierto que puede simular

máquinas que ejecutan cualquier sistema operativo y a su vez hacerlo sobre cualquier sistema operativo. Las maquinas del instituto contienen sistemas operativos xp, la simulación se estará ejecutando sobre él. Figura 4.

Figura 4. Máquina Virtual corriendo en Windows xp, vista desde virtualbox.

El Honeypots estará formado por un conjunto de equipos vulnerables; las máquinas trampa y un equipo de control que

monitoriza al resto de los equipos. Este sistema permitirá el tráfico entre la red de equipos trampa y el exterior,

bloqueando los equipos cuando se detecta un ataque, de forma que no se puedan emplear estos, a su vez, para realizar

nuevos ataques.

En los equipos trampa se pueden instalar los diversos sistemas operativos con la configuración de servicios que se deseé

monitorizar (servidor WWW, FTP, etc.). Dado que estos equipos trampa no necesitan tener un rendimiento alto, se pueden

Page 20: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 20 Alfa Omega Grupo Editor

emplear sistemas antiguos que hayan sido retirados del servicio, aunque es conveniente que pueden ejecutar versiones

actuales de los sistemas operativos. Figura 5.

Figura 5. Ejemplo de una Red Trampa.

Con esta implementación se detectará un ataque sobre IPv6 de la misma forma que lo hace con un ataque sobre IPv4, el

tráfico cifrado dirigido a los sistemas Honeypot es fácil de analizar.

Los ataques que se generen hacia los sistemas permitirán estudiar sus comportamientos y aprender de sus métodos,

detectar nuevos y desconocidos ataques y así mismo reducir las falsas alarmas.

Conclusión

En seguridad toda medida es poca y hay que estar innovando continuamente (actualizando políticas y medios para afinar

los recursos de seguridad) para no dejar huecos por donde se puedan acceder los intrusos, pero como esto no siempre es

evitable (la seguridad absoluta en la práctica no existe, podemos siempre irnos aproximando a ella, pero como concepto

constituye un objetivo irrealizable), y es así como se abre paso a todo un universo de técnicas más elaboradas e incluso

ingeniosas, como es facilitar la entrada a la red pero por caminos falsos que no conducen a nada concreto o esperable para

un posible atacante y que permiten al responsable de la seguridad del sistema detectar los intentos de intrusión, con lo que

se está sobre aviso y es más fácil protegerse. Los honeypots parecieran ser una contradicción a la función habitual de las

herramientas de seguridad, ya que debiera mantener alejados a los atacantes o impedir sus ataques. Sin embargo, se

utilizan para atraer a atacantes hacia un entorno controlado, e intentar conocer más detalles sobre cómo estos realizan sus

ataques, e incluso descubrir nuevas vulnerabilidades.

Referencias

[1] Lance Spitzner: "Honeypots: Tracking Hackers”, Septiembre 2002.

[2] Sergio de los Santos: "Honeypots, una tecnología que funciona", 2010.

[3] Pablo A. Mora: “Honeypots”, Seguridad Informatica, México, Julio 2008.

Page 21: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 21 Alfa Omega Grupo Editor

Autores:

Tec. Salma Roxana de María Chiquito Alor es titulada como Técnico en Computación por el Centro de Estudios

Tecnológicos industrial y de servicios Nº 79 de la ciudad de Coatzacoalcos, Veracruz y pasante de Licenciatura en

Informática por el Instituto Tecnológico Superior de Coatzacoalcos obteniendo la titulación automática por promedio

general.

M. I. D. S. Omar Eduardo Betanzos Martinez es Master en Ingenieria de Desarrollo de Software por el

Colegio de Posgrado de Puebla y titulado de Licenciado en Informatica por el Tecnologico de San Andres

Tuxtla, Profesor de tiempo completo en las carreras de Licenciatura e Ingenieria en Informatica en el Instituto

Tecnológico Superior de Coatzacoalcos.

Page 22: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 22 Alfa Omega Grupo Editor

Page 23: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 23 Alfa Omega Grupo Editor

Capítulo III. Directorio geográfico de la Universidad Veracruzana

campus Xalapa

Gerardo Contreras Vega1, Joel Humberto Gómez Paredes

2 y Carlos Alberto Ochoa Rivera

3

1 Facultad de Estadística e Informática, Universidad Veracruzana, Av. Xalapa s/n esquina con Ávila

Camacho, Xalapa, Ver., 91000. México

[email protected] 2 Facultad de Estadística e Informática, Universidad Veracruzana, Av. Xalapa s/n esquina con Ávila

Camacho, Xalapa, Ver., 91000. México

[email protected] 3Facultad de Estadística e Informática, Universidad Veracruzana, Av. Xalapa s/n esquina con Ávila Camacho,

Xalapa, Ver., 91000 México

[email protected]

Resumen. La localización siempre ha sido algo de interés para el hombre, con el paso del tiempo se

han utilizado distintas técnicas para representarla, desde el uso de mapas de papel hasta el uso de

servicios de mapas digitales. En Xalapa debido a que las dependencias de la Universidad Veracruzana

(UV) se encuentran distribuidas por toda la ciudad, resulta complicado el ubicar y transportarse a estas,

debido a que suele ser un proceso que conlleva una inversión de tiempo en encontrar la ubicación de la

dependencia y la identificación de un medio de transporte para llegar a ella. Ante esta problemática se

decidió realizar un directorio geográfico accesible vía web que muestre al estudiante la localización de

las dependencias de la UV en Xalapa y que autobús se debe abordar para llegar a ellas.

Palabras clave: Directorio geográfico, transporte público, Servidores de mapas, Google Maps.

1 Introducción

La localización siempre ha sido algo de interés para el hombre, con el paso del tiempo se han utilizado distintas técnicas

para representarla, desde el uso de mapas de papel hasta el uso de servicios de mapas digitales, entre otras. Para hacer uso

y manipulación de información geográfica se utilizan sistemas de información geográfica llamadas también SIG. Un SIG

es un sistema que integra tecnología, informática, personas e información geográfica, y cuya principal función es capturar,

analizar, almacenar, editar y representar datos geo-referenciados [1]. Con el paso del tiempo estas herramientas se han

puesto a disposición del usuario a través de la web, a estos se les denomina SIG webs. SIG webs como Google Maps [2],

Bing Maps, Yahoo Maps, OpenStreetMaps sirven como base para la realización de aplicaciones que hacen uso de mapas

digitales ya sea para mostrar y/o analizar información.

En la ciudad de Xalapa la UV desde su fundación ha estado desconcentrada [6], con el paso del tiempo esta ha ido

expandiéndose no solo en Xalapa sino en el resto del Estado de Veracruz. Debido a la distribución de las dependencias de

la Universidad en toda la ciudad, la tarea ubicar y transportarse a estas suele ser un proceso que conlleva una inversión de

tiempo considerable, en especial para estudiantes foráneos ya que no conocen la ciudad (muchos estudiantes no son

originarios de Xalapa) e inclusive las personas que viven en la ciudad no conocen la ubicación de ciertas dependencias ya

sea porque son nuevas o porque nunca se ha oído hablar de ellas. El problema de la ubicación de las dependencias ha sido

mitigado gracias herramientas como Google Maps, pero no ha sido resuelto ya que no todas las dependencias de la UV

están registradas en su base de datos. El otro problema es el transporte, en Xalapa el transporte más utilizado es el autobús

pero actualmente no se cuenta con una herramienta que indique que autobús se debe abordar para llegar de un lugar a otro

y la única forma de obtener esa información es preguntando a las personas de la ciudad (lo cual no es un método infalible

ya que puede que no se conozca el lugar o una ruta que pase por ese ahí). Ante esto se decidió realizar un directorio

geográfico que muestre a la comunidad universitaria la localización de las dependencias de la UV en Xalapa y que

autobús se debe abordar para llegar a ellas.

Page 24: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 24 Alfa Omega Grupo Editor

2 Estado del arte

Un ejemplo de cómo pueden ser aplicados los SIG en el transporte es el Departamento de Transporte del estado de Nueva

York en Estados Unidos, este gestiona aproximadamente 6,300 kilómetros de calles y carreteras, más de 12.000

kilómetros de acera, 781 estructuras de puentes y seis túneles [12]. Este provee de mapas de las rutas de los medios de

transportes y monitoreo del tráfico en tiempo real. En México el ITM hace uso del Sistemas de Información Geoespacial

para el Transporte (SIGET) con el objetivo de “diseñar, estructurar e implementar un sistema informático eficiente,

versátil y sencillo para el registro, análisis y representación de la información geográfica y estadística asociada al sistema

de transporte mexicano” [13].

Actualmente en el portal de la UV haciendo uso de la tecnología Google Maps, en la página de cada dependencia existe

una sección llamada “como-llegar”. Esta funciona haciendo uso de la geo-localización para ubicar al usuario usando sus

coordenadas geográficas y a partir de estas trazar la ruta hacia la dependencia caminando o en automóvil según la decisión

del usuario. El directorio geográfico busca complementar al portal de la UV concentrando la información geográfica y de

transporte público en un solo sitio para acceder a ella de una manera fácil y rápida.

3 Metodología

Para el desarrollo del directorio geográfico se llevó a cabo una serie de actividades usando la metodología de desarrollo

Extreme Programming (XP). Esta es una metodología ágil para el desarrollo de software que se adapta a los cambios que

pudieran haber en un proyecto, y da más prioridad a la codificación y pruebas para mostrar pequeños avances, que a la

documentación exhaustiva.

Las prácticas de la XP que fueron empleadas en este trabajo fueron las siguientes:

Pequeñas entregas: Esto permitió que se pudieran detectar interpretaciones erróneas de los requerimientos y

hacer correcciones, además de agregar características que se consideraban que hacían falta después de realizar

las entregas.

Diseño simple. Esta sirvió para dar mayor prioridad a cumplir con los requerimientos establecidos antes que

pensar en características adicionales que se pudieran agregar al directorio.

Pruebas. Realizadas para comprobar si el directorio geográfico que se desarrolló cumplía con los

requerimientos establecidos y corregir posibles defectos.

3.1 Requerimientos

“Los requerimientos para un sistema son la descripción de los servicios proporcionados por el sistema y sus restricciones

operativas.” [14].

Las categorías para los requerimientos de software pueden dividirse en 2 principales: requerimientos funcionales y

requerimientos no funcionales. Los requerimientos funcionales son los que definen las funciones que el sistema será capaz

de realizar. Los requerimientos no funcionales tienen que ver con características que de una u otra forma puedan limitar el

sistema.

Requerimientos funcionales y no funcionales del directorio:

Funcionales:

El usuario debe poder elegir como punto de origen entre una dependencia con coordenadas fijas o

hacer uso de geo-localización, y como punto destino una dependencia con coordenadas fijas.

Page 25: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 25 Alfa Omega Grupo Editor

En base al punto de origen y destino le regresara al usuario una lista con los distintos autobuses que

pasan por dichos puntos ordenados según la hora en que llegará al destino.

El usuario al elegir un autobús debe poder visualizar la parada donde tomara el autobús y la parada

donde se bajara para llegar a su destino.

No funcionales:

Solo será accesible vía web (Esto permite poder hacer al directorio accesible a todos los dispositivos

que puedan hacer uso de un navegador sin importar el sistema operativo que usen).

Se requiere del uso de un navegador web actualizado (Google Chrome, Firefox, Opera o Internet

Explorer 10).

3.2 Investigación de servicios de mapas

Para poder hacer uso de un mapa vía web, ese necesario implementar servidores de mapa como mapserver, pero la

implementación y configuración de una infraestructura de servicio de mapas requiere de conocimientos avanzados para

funcionar de manera óptima. Es por ello que se decidió que era más factible obtener los mapas de servicios externos para

solo enfocarse en la funcionalidad del directorio.

Compañías como Google y Microsoft ponen a disposición del público su servicio de mapas, en el caso de los usuarios a

través de sus aplicaciones oficiales y en el caso de los desarrolladores una API propietaria que les permite acceder al uso

de sus mapas y su manipulación para crear aplicaciones especializadas que requieran el uso de mapas.

Existen también proyectos como OpenStreetMap que es una iniciativa sin fines de lucro para crear un mapa libre y

editable del mundo [9]. Este servicio no posee una API propia como Google en vez de eso da acceso a sus mapas a

bibliotecas Javascript que quieran hacer uso del servicio, algunos ejemplos de estas son Leaflet y OpenLayers.

3.3 MongoDB como gestor de la base de datos del directorio geográfico.

MongoDB es un manejador orientado a documentos de código abierto y líder de las bases de datos NoSQL (Not Only

SQL) [4]. Este brinda una mayor rapidez en comparación con una base de datos relacional u orientada a objetos que usa

SQL, esto debido a que elimina ciertas características como la integridad referencial, entre otras que implementa una base

de datos relacional.

Una de las razones fundamentales por las cuales se eligió MongoDB es porque los modelos relacionales tienen un

esquema muy rígido, y en este caso cada dependencia puede variar en ciertos aspectos: puede que no tengan los mismos

atributos, quizás una dependencia posea otro esquema de datos totalmente diferente a otra, etc. MongDB por ser orientado

a documentos no maneja estructuras rígidas [3] sino colecciones de datos, las cuales están compuestas de documentos,

cada documento equivale a un registro y este puede tener una estructura igual o completamente diferente a los demás

documentos en la colección lo cual brinda flexibilidad.

3.4 API de Google Maps.

El API de Google Maps provee una manera de incorporar mapas de Google en un sitio web y la personalización de los

estilos del mapa sino se desea utilizar los que incorpora por defecto. Esta tecnología es usada por los usuarios para

encontrar lugares como: bancos, hoteles, restaurantes, hospitales, centros comerciales, centrales de autobuses, etc.

Actualmente hay más de 150,000 sitios usando su API [8], lo que da una idea de su popularidad.

Page 26: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 26 Alfa Omega Grupo Editor

Hay que recalcar que Google Maps no es el único servicio de mapas en Internet, hay otros como: Yahoo! Maps,

OpenStreetMaps o Bing Maps, pero el API Google Maps es el más popular no solo en la categoría de mapas sino en un

contexto general de API's utilizadas para la creación de Mashups según estadísticas del sitio web

www.programmableweb.com en su sección de APIs.

Los mapas de Google tienen diferentes vistas para cada tipo de uso que se le quiera dar, estas son las vistas en Google

Maps[5]:

HYBRID- Combinación de Imágenes satelitales con el mapa de calle.

ROADMAP- Mapa de calles.

SATELLITE- Imágenes satelitales.

TERRAIN- Terreno y vegetación.

3.5 Uso de servicios web en el directorio geográfico.

Un servicio no tiene una definición como tal, pero esta organización habla de ellos como un conjunto de aplicaciones o de

tecnologías con capacidad para interoperar en la Web [7].

Una vez terminada la interfaz y la base de datos se comenzó el desarrollo de la funcionalidad del directorio. Para el

desarrollo del directorio se decidió que se manejara únicamente HTML, CSS, Javascript en la interfaz, esto para no ligar

el directorio a un lenguaje de programación específico. Con esto se provee flexibilidad ya que solo se necesitan escribir en

un lenguaje de programación los servicios que procesen los datos que envíe el usuario y estos le regresen la información

solicitada. Para la programación de los servicios de hizo uso de PHP ya que “es un lenguaje de código abierto, es

ejecutado en el servidor, es simple y cuenta con muchas funciones” [10].

El directorio cuenta con los siguientes servicios:

Buscar dependencia: Devuelve toda la información de una dependencia.

Listar Dependencias: Devuelve todas las dependencias.

Listar Autobuses: Regresa una lista de autobuses que llevan del origen al destino seleccionado.

Estos se consumen mediante AJAX (Asynchronous JavaScript and XML). AJAX es la técnica de intercambiar datos con

un servidor y actualizar partes de una página web sin recargar la página entera [11].

4 Resultados experimentales

Al terminar el desarrollo el directorio geográfico se puede consultar en la dirección y a través de él se puede consultar

información acerca de una de la UV dependencia en particular (Fig. 1) y consultar que autobús debe tomar para llegar a

su destino (Fig. 2).

Page 27: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 27 Alfa Omega Grupo Editor

Fig. 1 Consulta de una dependencia.

Fig. 2 Consultar un autobús.

5 Conclusiones y trabajos futuros.

Este artículo muestra la funcionalidad del directorio geográfico elaborado para la Universidad Veracruzana en su campus

en la ciudad de Xalapa, además de posibles usos que se pudieran dar a herramientas similares para resolver algunas

problemáticas que se pueden presentar en la ciudad, no solo para proveer servicios a la ciudadanía sino también como una

herramienta de análisis y ayuda a la toma de decisiones. Se muestran las tecnologías usadas en el desarrollo del directorio

geográfico las cuales son libres (excepto Google Maps) buscando promover el uso de las mismas.

Para futuras versiones de esta herramienta se buscara implementarse para las demás ciudades donde haya campus de la

UV además de incluir otros medios de transporte.

Agradecimientos. Agradezco a la Facultad de Estadística e Informática de la Universidad Veracruzana por el apoyo

brindado para la elaboración de este artículo.

Referencias

[1] Olaya Víctor, (2011, 25 de noviembre). Sistemas de información geográfica (Versión 1.0).

[2] Gavarró Rodríguez, Albert. Programación SIG en entornos web.

Page 28: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 28 Alfa Omega Grupo Editor

[3] CouchBase, (2011). Navigating the Transition From Relational to NoSQL Database Technology.

[4] 10gen, Inc., (2013, 16 de mayo). MongoDB Documentation Release 2.4.3.

[5] Google Developers. Tipos de mapas. Recuperado 20 de junio de 2013, de

https://developers.google.com/maps/documentation/javascript/maptypes?hl=es.

[6] La Universidad Veracruzana de hoy. Recuperado el 27 de junio de 2013, de

http://www.uv.mx/universidad/doctosofi/plangral/uvhoy.html.

[7] W3C. Guía Breve de Servicios Web. Recuperado 23 de marzo del 2013, de

http://www.w3c.es/Divulgacion/GuiasBreves/ServiciosWeb.

[8] The Google Maps Team. Google Maps API. Recuperado 20 de junio del 2013, de

http://static.googleusercontent.com/external_content/untrusted_dlcp/maps.google.com/es//help/maps/casestudies/maps

-api-web.pdf.

[9] OpenStreeMap Foundation, Main Page. Recuperado el 20 de junio de 2013, de

http://wiki.osmfoundation.org/wiki/Main_Page.

[10] The PHP Group. ¿Qué es PHP? Recuperado el 24 de junio de 2013, de http://php.net/manual/es/intro-whatis.php.

[11] W3Schools. AJAX Tutorial. Recuperado el 24 de junio de 2013, de http://www.w3schools.com/ajax/.

[12] About DOT. Recuperado 24 de junio de 2013, de http://www.nyc.gov/html/dot/html/about/about.shtml

[13] Sistemas de Información Geoespacial – Objetivos. Recuperado 24 de junio de 2013, de

http://www.imt.mx/micrositios/sistemas-de-informacion-geoespacial/servicios-tecnologicos/sistema-de-informacion-

geostadistica-para-el-transporte-siget/objetivos.html

[14] Sommerville Ian (2005). Ingeniería de software (7ª edición).

Page 29: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 29 Alfa Omega Grupo Editor

Page 30: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 30 Alfa Omega Grupo Editor

Capítulo IV. Desarrollo de un Sistema Web para la administración de

cartas descriptivas y su planeación

Italia Estrada1, Mónica A. Carreño2, Andrés Sandoval

3

Universidad Autónoma de Baja California Sur, Carretera al Sur Km. 5.5,

La Paz B.C.S., 23080, México

{iestrada

1, mcarreno

2, sandoval

3}@uabcs.mx

Resumen. El presente artículo reporta el desarrollo de un Sistema Web para la administración de las cartas

descriptivas de los planes de estudio y su planeación. Este sistema Web permite administrar y registrar

cada uno de los planes de estudio que se ofrecen y sus cartas descriptivas que lo integran; a su vez permite

elaborar la plantilla para la planeación de la asignatura la cual está compuesta de objetivos, conocimientos,

prácticas, dinámicas de grupos, entre otros necesarios, que le permitan al docente universitario realizar

una planeación al inicio de cada semestre. Entre las ventajas que ha proporcionado el uso del sistema Web

es concentrar en un único lugar la información y contar con reportes oportunos que apoyen la toma

decisiones. Para su desarrollo se apoyó en las técnicas, herramientas y modelos que proporciona la

ingeniería del software, específicamente la Ingeniería Web para garantizar su calidad y el patrón de diseño

MVC.

Palabras claves: Ingeniería del Software, Ingeniería Web, MVC.

1 Introducción

Los sistemas de información están cambiando la forma en que las organizaciones operan, en este sentido, con su uso se

ha logrado automatizar procesos que proveen información importante que apoyan el proceso de toma de decisiones, y

facilitan el logro de ventajas competitivas a través de su implantación. [1]

En nuestros días, el contar con sistemas de información confiables y fáciles resultan ser esenciales para obtener ventajas

competitivas y obtener buenos resultados. Bajo esta premisa, el Departamento de Sistemas Computacionales (DSC)

inmerso en una sistematización de sus procesos administrativos, ha venido desarrollando sistemas de información

operacionales y en plataformas Web que le permitan eficientar sus procesos en la administración de sus programas

educativos. Actualmente, el DSC oferta dos programas educativos: Ingeniería en Tecnología Computacional y

Licenciatura en Computación, con una población aproximada de 250 alumnos y para su atención cuenta con una planta

docente conformado por 32 profesores.

Al inicio de cada semestre, la jefatura del DSC realiza una reunión con el personal docente, la cual tiene la finalidad de

dar a conocer las retículas de los programas educativos, entregar las cartas descriptivas de las asignaturas y establecer

fechas de entrega de la planeación de la asignatura.

Este proceso ya viene realizándose tiempo atrás, sin embargo se han detectado algunos problemas: el profesor entrega su

planeación de forma manual o semi – automatizada y en diferentes formatos (Word, pdf), no se pueden elaborar reportes:

p.e. profesores que no han cumplido con dicha tarea, perdida o tras papeleo de planeaciones, no se podía concentrar la

información referente a la administración de cartas descriptivas y su planeación en un solo lugar; todos estos

inconvenientes propiciaron la necesidad de contar un sistema específico [2,3] en Web que permita a la jefatura del DSC

eficientar la administración de las cartas descriptivas de los planes de estudio y al mismo tiempo sea flexible para que el

docente universitario realice la planeación de la asignatura de una manera más fácil, cómoda y desde cualquier lugar.

Page 31: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 31 Alfa Omega Grupo Editor

2 Marco Teórico

2.1 Ingeniería Web

El desarrollo de software tradicional o de un sistema de información difieren del desarrollo de aplicaciones Web; en ese

sentido es importante darse cuenta que las características para el desarrollo de aplicaciones Web que influyen en el

proceso de Ingeniería Web son: evolución continua, comunidad de usuarios variables, buena presentación o estética,

rápida adaptación a los cambios tecnológicos y mayor seguridad y privacidad para los usuarios [4].

Actualmente existe una metodología enfocada al desarrollo de aplicaciones Web, la cual se denomina ¨Modelo de proceso

para Ingeniería Web¨ propuesta por Roger Pressman (2002). Esta metodología consta de una estructura similar a la del

ciclo de vida de los sistemas de información; es iterativa e incremental y presenta un enfoque disciplinado para el

desarrollo aplicaciones Web consistiendo en las fases de: Formulación, Planificación, Análisis, Ingeniería, Técnicas

(diseño arquitectónico, de navegación y de interfaz). Integración con el software intermedio (middleware) de componente

y Evaluación con el cliente.[5]

2.2 Modelo Vista Controlador

En el año de 1979, Trygve Reenskaug quien trabajaba como desarrollador en Smalltalk en Xerox [6], desarrollo un patrón

de diseño de arquitectura de software usado para el desarrollo de aplicaciones denominado MVC (Model View Controller

por sus siglas en inglés); esté es considerado como el padre de los patrones de diseño. (ver figura 1)

El MVC permite separar la interfaz gráfica de usuario, del modelo de datos y de la lógica; este patrón se ve

frecuentemente en aplicaciones Web, donde se puede definir la vista como página HTML y el código que provee de datos

a la página. El modelo es el sistema de gestión de bases de datos y la lógica de negocio que es la parte que se encarga de

los procesos y el controlador es el encargado de recibir los eventos de entrada de la vista.

Fig. 1. Patrón de Diseño Modelo Vista Controlador

3 Desarrollo del sistema Web

Para el desarrollo del sistema Web existieron reuniones entre la jefatura del DSC y la comisión de seguimiento de los

planes de estudio, para determinar la idea general que permitiera concentrar en un único lugar toda la información

referente a las cartas descriptivas de los planes de estudio y a las planeaciones de las mismas, esto se ilustra en la figura 2,

los puntos principales fueron:

Page 32: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 32 Alfa Omega Grupo Editor

Fig. 2. Idea General del Sistema Web

Identificación de la información necesaria que existe dentro del SIIA (Sistema Integral de Información

Administrativa), esto es: del SIREHU (Sistema de Información de Recursos Humanos) extraer información del

personal docente adscrito al DSC, del SICOES (Sistema de Control Escolar) extraer la información los planes de

estudio del DSC con sus respectivas materias, para formar parte de la base de datos del sistema.

De la comisión de seguimiento de los planes de estudio es necesario las cartas descriptivas en extenso de cada plan

de estudio (estos han sufrido actualizaciones) y los formatos actuales, tanto de las cartas descriptivas como la de las

planeaciones.

De la jefatura del DSC se necesita conocer: asignaturas a impartir el semestre, cargas por docente en el semestre

estas para ser integrada a la información que se almacenara en la base de datos.

Interfaz de usuario, que facilite al usuario el uso del sistema Web para realizar las tareas, pertinentes a la

administración de las cartas descriptivas y su planeación.

El siguiente paso fue seguir el modelo de proceso de la Ingeniería Web, el cual consiste en las fases de:

Formulación: los objetivos identificados para el desarrollo del sistema Web, son: administrar de manera eficiente las

cartas descriptivas de las asignaturas, concentrar en un único lugar la información, automatizar los procesos de cartas

descriptivas, asignación de asignaturas y la planeación de la asignatura; manejar por medio de catálogos la información

necesaria y la elaboración de reportes.

Planificación: se establecieron fechas de desarrollo y revisión del sistema Web por parte de la jefatura, comisión de

seguimiento y algunos docentes.

Análisis: definidos los objetivos, en la fase de formulación, se prosiguió analizar cada uno de ellos para determinar: ¿Qué

es lo que se requiere que realice el Sistema Web?; estos se ilustran en la figura 3, este muestra el contexto general del

sistema Web mediante un diagrama de casos de usos, el cual muestra un conjunto de casos de usos, sus actores y

relaciones. Los actores que interactúan son:

Administrador, es la persona responsable del funcionamiento del sistema.

JEFATURA DEL DSC -PROFESORES

SIIA

SICOES SIREHU

CARTAS DESCRIPTIVAS

Interfaz del Sistema Web

Page 33: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 33 Alfa Omega Grupo Editor

Jefatura del DSC, es la persona responsable de realizar las asignaciones de las asignaturas cada semestre y generar

los reportes.

Comisión de seguimiento, es la encargada de mantener actualizados los catálogos de: carreras, áreas, grupos,

asignaturas, estrategias, entre otros.

Profesor, es la persona que se encarga de planear la asignatura y registrar el avance de la asignatura en el semestre.

SiCoEs, es el sistema que contiene información sobre los planes de estudio.

SiReHu, es el sistema que cuenta con la base de datos del personal académico adscritos al DSC.

Los casos de uso identificados son:

Caso de uso Planear Asignatura, permite planear el proceso enseñanza aprendizaje en la asignatura.

Caso de uso Registrar Avance, permite registrar el avance de la asignatura, según lo planeado.

Caso de uso Consultar Asignatura, permite consultar la planeación y el grado de avance de su asignatura.

Caso de uso, Asignar Asignaturas, permite asignar a cada profesor su asignatura correspondiente en el semestre.

Caso de uso Mantener Catálogos, permite controlar y administrar todo lo relacionado con profesor, planes de

estudio, asignatura, entre otros.

Caso de uso Reportes, permite generar diversos reportes del sistema.

Fig. 3. Diagrama de Casos de Uso

Modelización: compuesta de dos secuencias paralelas; la primera consistió en diseñar el contenido que forma parte de la

aplicación. En esta fase se diseñó el contenido de la aplicación a través del diagrama de clases en cual contiene: carreras

(vista obtenida de SiCoEs), áreas, grupos, asignaturas, planeaciones, bibliografías, avances, estrategias, profesores (vista

obtenida de SiReHu), usuarios, mails, asignar asignaturas, seguridad, recursos, bibliografías, dinámicas de grupo,

prácticas, criterios de evaluación, por mencionar algunas.

Y la segunda tarea es el diseño de la arquitectura, navegación e interfaz de usuario; cabe destacar que por la importancia

del diseño de interfaces se tomaron en cuenta las personas que utilizarían el sistema Web, la tarea o funciones a realizar,

así como el entorno donde se manejaría la aplicación; a cada interface se le midió la complejidad y se aseguró que fueran:

consistentes, fáciles de aprender, flexibles, robustas, entre otras.

Generación de páginas: en este proceso se integró el contenido, arquitectura, navegación para generar las páginas de la

aplicación.

Page 34: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 34 Alfa Omega Grupo Editor

En cuando a su desarrollo de interfaces se utilizó jQuery, como motor de base de datos MySQL, PHP para la conexión y

comunicación con la base de datos y el servidor Web apache 2, basándose en el patrón de diseño MVC.

Test: en esta fase se realizaron las pruebas correspondientes con la finalidad de encontrar errores en el contenido,

navegación, rendimiento; posteriormente fue evaluado por la jefatura, la comisión de seguimiento y algunos docentes.

Estas fases se realizaron de forma iterativa e incremental; es así como el desarrollo de Sistema Web siguió la metodología

de la Ingeniería del Web para asegurar su calidad.

4 Recorrido por el sistema Web

A continuación se describen las principales interfaces para la administración de las cartas descriptivas y su planeación.

Iniciar sistema, el sistema opera de modo: administrador es el responsable del funcionamiento y mantenimiento del

sistema Web; comisión de seguimiento es la encargada de administrar los catálogos (registrar, actualizar, eliminar y

consultar) y crear las cartas descriptivas en el sistema Web; jefe del DSC responsable de cargar las asignaciones de cada

semestre y fijar las fechas para la planeación de las asignaturas; profesor quien realiza las planeaciones y registra el

avance de las asignaturas asignadas en el semestre. En la fig. 4 se ilustran las interfaces de inicio de sesión y pantalla de

sistema Web en modo comisión de seguimiento (catálogos de: careras, áreas, grupos, asignaturas, planeaciones,

bibliografías, avances, estrategias, usuarios, mails, entre otras).

Asignaturas, permite administrar el contenido de las cartas descriptivas de los planes de estudio, al elegir esta opción esta

permite: 1) Realizar una búsqueda por clave o nombre, 2) Realizar acciones sobre la asignatura de editar, eliminar,

visualizar, imprimir y exportar a pdf., y 3) Crear una nueva asignatura. (Ver fig. 5).

Nueva asignatura se registra la información de la carta descriptiva de la asignatura: carrera, área de formación (básica,

profesional, terminal), área de conocimiento (p.e. ingeniería del software, tratamiento de la información, software base),

clave, nombre, semestre, seriación, créditos, horas teóricas, horas prácticas, carácter de la materia, introducción,

objetivo/competencia y luego se va a otra interfaz para editar los contenidos, siendo estos: unidades, prácticas, criterios de

evaluación y bibliografía. Para cada unidad es necesario: número, nombre y objetivo. (Ver fig. 6)

Planeación de una asignatura, cuando se inicia en modo profesor se muestran las asignaturas asignadas para el semestre,

si está en periodo de planeación se puede planear sino registrar los avances.(Ver fig.8) Al elegir la asignatura y se procede

a planear, el profesor podrá organizar en el tiempo los contenidos en función a las habilidades que el estudiante deberá

lograr de acuerdo a los aprendizajes esperados y también podrá elegir los recursos necesarios, las dinámicas y prácticas o

agregar exámenes, nuevos temas y/o ejercicios que el permitan desarrollar el proceso de enseñanza- aprendizaje, al

finalizar el profesor podrá obtener su planeación impresa o exportarla a pdf. (Ver fig.7) Al terminar el periodo de

planeación, el profesor podrá registrar los avances en la asignatura de acuerdo a lo planeado, para ello al mostrar la

planeación de la asignatura se muestran los temas y el profesor elige el grado de avance, siendo las opciones para cada

tema, practica o ejercicio: impartido, realizado o cambio de fecha (se puede introducir el motivo) (ver fig. 9); al terminar

la acción se puede visualizar su grado de avance en la asignatura a través de graficas o de manera impresa.

Page 35: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 35 Alfa Omega Grupo Editor

A lo largo de esta sección se presentaron algunas interfaces de las tareas más elementales de la cual está compuesto el

Sistema Web y su fácil navegación. Para mayor información del sistema http://dscbd.uabcs.mx/usuarios/intranet/

Fig. 4. Inicio de sesión por la comisión seguimiento Fig. 5. Módulo de asignaturas

Fig.

6.

Nueva asignatura – Carta descriptiva Fig. 7. Planeación de una asignatura

Page 36: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 36 Alfa Omega Grupo Editor

Fig. 8. Asignaturas asignadas Fig. 9. Registro de avances

5 Resultados y conclusiones

El principal resultado es el contar con un sistema Web que facilita la administración de las cartas descriptivas de los planes de estudio y

la planeación de las mismas; esté cumple con los atributos de: fiabilidad ya que se desarrolló bajo el proceso de la Ingeniería Web,

disponibilidad debido a que está accesible 24/7 y es ubicuo, seguridad porque utilizan protocolos (del tipo HTTPS) adecuados para lograr una transferencia segura de datos en Internet, además los docentes tienen asignados contraseñas para validar su ingreso; usable los

docentes lograron un dominio inmediato, escalable porque se diseñó bajo el patrón de diseño MVC.

Se puede concluir que la comisión de seguimiento considera al Sistema Web como un instrumento de información,

anticipación y previsión para la organización y actualización de las diferentes de asignaturas del plan de estudio; mientras

a la jefatura le facilita sus tareas propias pertinentes al proceso.

A su vez, gracias a su implantación se ha logrado concientizar al docente que la planeación es un recurso fundamental

para la enseñanza ya que, a partir del diagnóstico de los conocimientos y habilidades de los alumnos, permite reflexionar y

adecuar sus características y necesidades de los temas, las actividades, los recursos para la enseñanza y las estrategias de

evaluación; su uso está facilitando al docente calendarizar los temas de una asignatura e ir registrando su avance durante

el semestre.

Finalmente el desarrollo del Sistema Web especifico eficienta el proceso para la administración de las cartas descriptivas

y su planeación; concentra la información para su procesamiento, verificación y consulta; gracias a su uso el docente

realiza una planeación de la asignatura en tiempo y forma, permitiendo entregarla a los alumnos y por último destaca la

fácil obtención de reportes de manera oportuna y precisa que apoyan la toma de decisiones en mejora de los planes de

estudios del DSC.

Bibliografía

1. Cohen, D., Asín, E.: Sistemas de Información para los negocios. McGraw Hill pp.3 (2003)

2. K.C. Laudon y J.P. Laudon. Sistemas de información gerencial, organización y tecnología de la empresa conectada en

red. Prentice Hall. Sexta edición. México. (2002)

3. J.A. Senn. Análisis y diseño de sistemas de información. McGraw Hill. Segunda Edición. México. (2003)

4. Woojong Suh. “Web Engineering: Principles and Techniques”. Idea Group Inc (IGI) (2005)

5. Pressman R.S. Ingeniería del Software, un enfoque práctico. McGraw Hill. Sexta Edición (2002)

6. Rafaele Garofalo, “Building Enterprise Applications with Windows Presentation Foundation and

the Model View Viewmodel Patter.” O´Reill

Page 37: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 37 Alfa Omega Grupo Editor

Page 38: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 38 Alfa Omega Grupo Editor

Page 39: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 39 Alfa Omega Grupo Editor

Capítulo V. Herramientas de realidad virtual y e-commerce como

estrategia para la venta de artesanías

Área del conocimiento: Inteligencia de Negocios

Carmen Araceli González Aspera 1, Leticia Rubicela Rodríguez Ruiz y Alma Lilia González Aspera

2

1 Instituto Tecnológico de Morelia, Av. Tecnológico 1500, Morelia Michoacán, 58117. México

[email protected]

2 Universidad Tecnológica de Morelia, Vicepresidente Pino Suarez 750, Morelia Michoacán, 58200, México

[email protected]

Resumen. La comercialización de productos artesanales ha sido uno de los principales problemas que

afrontan los artesanos, pues el logar darse a conocer mas allá de su propia localidad y de los turistas que

personalmente visitan sus talleres o negocios ha sido su principal desventaja. Este trabajo permite

evidenciar de que forma se superan las barreras de distancia entre el productor y consumidor, por medio

de la implementación de un recorrido de Realidad Virtual (RV) de los productos que ofrece y una página

de comercio electrónico, aplicaciones web que juntas pretenden hacer llegar a los clientes productos

regionales. Esta estrategia es favorable pues genera mayor utilidad, al eliminar intermediarios en sus

ventas, al permitir extender su mercado y logrando de manera virtual presentar las características de los

productos que ofrecen.

Palabras clave: Realidad virtual, Artesanía, Comercialización, Comercio Electrónico, Mercado.

1 Introducción

Las tecnologías digitales actuales exigen su implementación en todas las áreas de la organización con fines de lograr la

competitividad, ya que el uso de herramientas web y tecnologías de realidad virtual utilizadas para dar a conocer sus

productos de manera digital por medio de la inmersión en un ambiente virtual genera certeza, comodidad y confianza en

su compra aun y cuando la empresa se encuentre distante, y permite llegar a la mayor parte de sus consumidores

potenciales que de otra forma seria muy difícil poder lograr.

Como lo refiere Gunter Dietz,” La venta de artesania es el ámbito más problemático para las familias que realizan esta

actividad, debido a las transformaciones de los sistemas de mercado ya que han ido perdiendo el acceso directo al

consumidor, dependiendo de los intermediarios que se llevan la mayor parte de las ganancias y hace imposible mantener

una relación directa y continua con el consumidor, con lo cual se les aísla de las informaciones del mercado, que

necesitarán para ampliar y diversificar su gama de productos y estilos” [1].

Debido a esta problemática se considera que este proyecto contribuye a apoyar la comercialización de las artesanías, pues

muestra las ventajas que aportan las tecnologías digitales web como una parte de la estrategia de venta, por medio del uso

Page 40: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 40 Alfa Omega Grupo Editor

del comercio electrónico y recorridos virtuales de las empresas. Ello nos permitirá observar el impacto que tienen la

herramienta en las ventas comprobando el segmento al que está llegando el producto, eliminando intermediarios, y

permitiendo además conocer el comportamiento de compra del consumidor final, logrando procesos de mejora continua y

satisfaciendo de mejor manera las necesidades del consumidor.

2 Estado del arte.

2.1 La artesanía y su trascendencia

En la antigüedad, dentro de los distintos estratos de la sociedad, se consideraba a los artesanos como un sector

privilegiado y estimados altamente por sus habilidades, a quienes recurrían el resto de la población a fin de que les

elaboraran atuendos y objetos necesarios para su vida cotidiana y para su uso en ceremonias, encontrándose hasta la fecha

vestigios de aquellos objetos realizados que dan cuenta y realidad de sus trabajos [2].

Son múltiples las ramas artesanales que se realizan en las diferentes latitudes de la República Mexicana. Son también

diversos los orígenes de estos objetos que proceden de zonas rurales, principalmente, y de zonas urbanas del país. Los

objetivos por los cuales son realizados estos objetos también son variados y van de lo cotidiano, lo ritual, lo ceremonial,

hasta el uso personal, comercial y decorativo [3].

Por lo anterior en este proyecto se considera que los artesanos son un sector empresarial que hay que apoyar, pues se

encuentra supeditado a las localidades en donde se produce la artesanía y no trasciende fuera de nuestro propio país,

siendo que es atractiva para extranjeros.

2.2 El impacto de la tecnología en el comportamiento del consumidor

Es bien sabido que hoy por hoy, el uso de la tecnología es un factor determinante en el desempeño de las actividades de

toda persona. No podemos por ningún motivo dejar de hacer énfasis en la importancia que tiene ésta en el desarrollo de

los mercados permitiendo una mayor personalización en los productos y servicios, pues conlleva a establecer y mantener

una mejor relación con los clientes, como acertadamente lo comentan Schiffman y Kanuk ,“ahora, las relaciones con los

clientes son establecidas y conservadas pero con un nivel más alto y mayor eficacia, permitiendo las mismas tecnologías

recopilar y analizar datos cada vez mas complejos de los patrones de consumo y características personales de sus clientes.

La tecnología da al consumidor la oportunidad de encontrar mayor información sobre los productos y servicios más rápida

y eficazmente y desde la comodidad de su hogar” [4]. A su vez, mencionan los cambios significativos en el ambiente de

los negocios que durante casi una década la revolución digital representó:

• Los consumidores tienen mayor poder que antes,

• Tienen mayor acceso a información que antes,

• Los vendedores ofrecen mayores servicios y productos que antes,

• El intercambio entre vendedores y consumidores es cada vez más activo e instantáneo,

• Las empresas cuentan con mayor información respecto de los consumidores más rápida y fácilmente,

• La influencia va mas allá de lo que ofrece una conexión a la web con base en una computadora personal.

Aunado a esto, mostramos a continuación una muestra esquemática de la evolución de la investigación desde sus orígenes

hasta la etapa electrónica [5].

Tabla 1. Evolución del contenido de la investigación comercial en el tiempo, [5].

Page 41: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 41 Alfa Omega Grupo Editor

Así pues, el desarrollo tecnológico orilla a las organizaciones a ir a la par en beneficio de ellas mismas en lo particular y

de la sociedad en general.

2.3 Las tecnologías de RV y comercio electrónico en las empresas

La evolución de la implementación de las tecnologías en la comercialización de productos ha durado varios años, como se

muestra en la Tabla 1. Específicamente la Realidad Virtual (RV), permite mostrar simulaciones tridimensionales

interactivas que reproducen ambientes y objetos reales, por medio de una aplicación computacional en donde el usuario

con libertad se traslada a través del espacio simulado, es altamente interactivo, el usuario participa a través del uso de una

computadora en un mundo virtualmente creado, proporcionándole una experiencia e inmersión sensorial [6].

Esta herramienta unida a las aplicaciones web de Comercio Electrónico (CE) pretenden proporcionar al cliente una

experiencia más completa de compra en la web, permitiendo conocer los productos en venta desde los 360 grados,

observando sus características reales y realizando la compra en línea.

La producción técnica de este tipo de estrategias de RV y CE, es cada día más accesible a todos los sectores, pues el

rápido acceso a las tecnologías y a la información ha permitido que sea económico invertir en una página de comercio

electrónico que puede hacer uso de recursos gratuitos como su alojamiento o su dominio. Asimismo el desarrollo de

aplicaciones de realidad virtual, aun y siendo una tecnología todavía novedosa permite encontrar en la web una cantidad

de recursos gratuitos aun y cuando varios tengan que desarrollarse por el diseñador, específicamente los productos

artesanales, utilizando técnicas y herramientas de Wordpress, Maya 3D, Unity y programas de edición de imagen.

El acceso universal a este tipo de nuevas herramientas de mercado, convierten al artesano en un empresario que

trasciende atendiendo nuevas exigencias de sus clientes, extendiendo la cultura regional a otros lugares e integrándose de

una nueva forma a la economía [3].

3 Metodología

Se aplicó una metodología de “mejora continua del proceso de venta” a través de la comparativa del proceso y su avance

en el tiempo en el cual las herramientas web estuvieron en línea (Web), cumpliendo con una serie de pasos estructurados

bajo el concepto de ciclo de mejoramiento continua de Shewhart [7], en donde se pone énfasis en cuatro pasos: planear,

hacer, verificar y Actuar [8].

Este estudio aplica una técnica cualitativa de observación respecto al comportamiento del comprador frente a una

herramienta tecnológica: el recorrido virtual a la tienda y el comercio electrónico. A continuación se detallan las etapas de

la metodología aplicada tabla 2.

3.1 Etapas

1.- Planear 2.- Hacer/ Desarrollar

Entrevistar a los propietarios de empresas

sujetas a experimentación (artesanos).

Definir los contenidos de la página de

comercio electrónico y recorrido virtual

de su empresa.

Definir la técnica mercadológica a

utilizar.

Desarrollar las herramientas digitales,

para cada empresa.

Dar seguimiento a la metodología de

desarrollo de software.

Exponer y probar el producto informático

por parte de los empresarios.

3.- Verificar 4.- Actuar

Page 42: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 42 Alfa Omega Grupo Editor

Dejar en línea las páginas web de

comercio electrónico y en ellas una liga

al recorrido virtual de la tienda.

Invitar a acceder a clientes frecuentes

observando las siguientes variables:

o Número de accesos en el periodo de

tiempo

o Número de acercamientos a

productos modelados en 3D

o Control de tiempo de navegación el

la pagina y recorrido virtual

o Comportamiento del consumidor en

la aplicación.

Registrar estadísticas y concentrar en

tablas.

Analizar resultados.

Elaborar conclusiones de lo observado.

Mejorar el producto en base a las

observaciones recabadas.

Tabla 2. Etapas metodológicas

Por medio de los datos estadísticos que arrojó la página de comercio electrónico, se controlaron las variables mencionadas

en la etapa de verificación, realizando la comparativa respecto a un periodo de tiempo de un mes, encontrándose a la fecha

en análisis hasta cumplir un periodo de un año permitiéndonos generar conclusiones al respecto.

4 Resultados

4.1 el producto digital desarrollado

Respecto a los productos digitales desarrollados se generaron los siguientes escenarios: Una feria del cobre situada en un

ambiente simulando la localidad de Santa clara del Cobre, que incluye aspectos de una ciudad con toldos en donde se

observan los productos de ofertados, el resto fueron simulaciones de la empresa como se encuentra actualmente

establecida, en la Fig. 1, se observan las fachadas de las mismas, así como el acercamiento de algunos de los productos

que ofertan los artesanos.

Fig. 1. Recorridos virtuales desarrollados

4.2 La etapa de prueba

Page 43: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 43 Alfa Omega Grupo Editor

Se aplicaron las herramientas propuestas a seis empresas artesanales de la región, de las cuales se desarrolló la

herramienta. Se subieron a servidor web por periodo de dos meses de obteniendo las siguientes estadísticas, Tabla 3.

Empresa No.Visitas

Mes uno

Tiempo de

visita.

Artículos

comprados

Acercamie

ntos

Máximos.

Venta

mes uno

1 Muebles rústicos 60 15 horas 3 5 16800

2 Arte plumario 37 9 1 5 1200

3 Arte cobre 300 28 15 3 15800

4 Esferas 430 39 490 10 75000

5 Alfarería 180 21 11 7 9000

6 Boutique artesanal 320 32 9 6 5600

Empresa No.

Visitas

Mes dos.

Tiempo de

visita.

Artículos

comprados

Acercamie

ntos

Máximos.

Venta

mes dos

1 Muebles rústicos 120 20 horas 9 5 25300

2 Arte plumario 40 5 2 2 3400

3 Arte cobre 480 31 42 7 38000

4 Esferas 715 45 731 3 26000

5 Alfarería 200 15 39 2 5000

6 Boutique artesanal 410 30 21 7 4200

Tabla 3. Concentrado de uso de la herramienta, mes uno y dos.

Esta información nos permitió hacer la comparativa respecto a las ventas realizadas de forma física en el

establecimiento de la empresa en un año anterior mismos meses. Cabe hacer mención que todas las empresas

cuentan con solo una sucursal. Tabla 3.

Empresa No

artículos

comprados

mes uno

Venta $ empresa No

artículos

comprados

mes dos

Venta $

1 25 14000 1 9 28000

2 22 17900 2 2 15000

3 110 27300 3 142 19700

4 840 45340 4 1400 75040

5 438 12000 5 539 29000

6 56 18000 6 21 9500

Tabla 3. Diagrama de ventas en establecimiento si herramienta.

Page 44: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 44 Alfa Omega Grupo Editor

5 Conclusiones y desarrollo futuro

Los siguientes son resultados parciales pues en la actualidad se sigue obteniendo información de la herramienta propuesta

que se encuentra en etapa de prueba, dado se considera que en ciertos periodos hay mayor demanda de determinadas

artesanías según la época del año y su testeo será por un periodo de un año.

Toda vez que se analizaron los resultados anteriores se afirman las siguientes conclusiones: El uso de las herramientas

digitales propuestas no conlleva a la disminución de ventas en el establecimiento de la empresa. Por lo que se esta

asegurando que está llegando a otros mercados. Y las ventas que se realicen vía el comercio electrónico son ganancias

adicionales a lo que se venía comercializando con anterioridad en el establecimiento. También se aprecia cuales son las

artesanías de mayor interés, siendo el cobre y las esferas las de mayor demanda, mas no así el arte plumario. Si mismo se

observa que 60 % las personas que ingresan a la página son extranjeras y el resto del interior del país, lo que nos evidencia

a que personas está llegando el producto y permite conocer su perfil.

Las ventajas que se considera proporciona la herramienta a este tipo de empresas son las siguientes:

1.- El mostrar sus productos por medio de una página web constituye la manera de llegar directamente al consumidor final

de las artesanías logrando por una parte quedarse con la mayor ganancia de la venta al no necesitar intermediarios y por

otra tener el contacto directo para identificar sus gustos y preferencias y elaborar productos que satisfagan de una mejor

manera las necesidades de los consumidores. Ello logrado a través de un formulario de satisfacción del cliente insertado

en la pagina.

2.- La herramienta permite llegar a un mayor número de personas y a lugares lejanos pues de otra forma sería

prácticamente imposible poder llegar a la mayoría del segmento de mercado.

3.- El costo de esta herramienta es accesible pues evidencia que por única ocasión la empresa pagaría el desarrollo del

comercio electrónico, que comparado con los gastos de promoción es mucho menor, se propone hacer uso de recursos

gratuitos para su desarrollo y conforme su crecimiento se pueda ir invirtiendo en recursos digitales como dominio propio o

aplicación de técnicas SEO (Search engine optimization) para la optimización del comercio electrónico [9].

.

4.- El consumidor puede ver y manipular de forma real en 360 grados la artesanía que está comprando desde la

comodidad de su hogar, sin trasladarse al lugar para verla físicamente. Ya que puede ingresar de manera libre sin sentirse

presionado a realizar la compra, lo que permite que haga una visita cómoda y detallada de la tienda.

Al llevarse a cabo el análisis de comportamiento del consumidor junto con la información que proporciona al concretar su

compra para el envió, se determinan los gustos y preferencias del mismo determinando el perfil del consumidor .

Por último se considera que esta estrategia permitirá evitar otro tipo de fenómenos sociales que se vienen dando entre los

empresarios artesanos, como migración de artesanos a otros lugares, pues al tener pocas ventas prefieren trabajar en otros

rubros, así como perdida de las tradiciones.

Referencias

[1] G. Dietz. Entre industrialización forzada y autogestión comunal: Balance de medio siglo a la alfarería en Michoacán,

Michoacán: América Indígena , 1994, Pg. 167-229.

Page 45: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 45 Alfa Omega Grupo Editor

[2] S. Aranda. R. Flores. Alemania como alternativa para la exportación de artesanía Michoacana, México, D.F.: IPN,

2010.

[3] P.Del Carpio-Ovando, P. & Freitag, V. Motivos para seguir haciendo artesanías en México: convergencias y

diferencias del contexto artesanal de Chiapas y Jalisco. Mexico: Ra Ximhai Revista de Sociedad, Cultura y Desarrollo

Sustentable , 2013. Pg.79-98.

[4] G. Schiffman. L. Kanuk. Comportamiento del consumidor, México: Pearson, 2009.

[5] I.Grande. E. Abascal. Fundamentos y técnicas de investigación comercial, Madrid: ESIC, 2009.

[6] A. Gonzalez. La realidad virtual en la educación, Su aplicación en caso Argentina, Buenos Aires: Palermo, 2010.

[7] E. Deming. Calidad, Productividad y Competitividad: La Salida de la Crisis, Madrid: Diaz Santos, 1989.

[8] A. Galgano. Los 7 instrumentos de la calidad total, Madrid: Díaz de Santos, 1995.

[9] M. Orenze. SEO Cómo triunfar en buscadores, Madrid: Esic, 2010.

Page 46: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 46 Alfa Omega Grupo Editor

Capítulo VI. RAINT: Aplicación interactiva con realidad aumentada

como apoyo al aprendizaje de la lectura de personas con discapacidad

auditiva utilizando Kinect

Alfonso Sánchez Orea 1, Alma Rosa García Gaona 2, Jesús Sánchez Orea 3 1,2

Facultad de Estadística e Informática, Universidad Veracruzana, Av. Xalapa esq. Manuel Ávila Camacho, s/n. C.P. 91030. Xalapa, Veracruz, México

1,3

Facultad de Instrumentación Electrónica y Ciencias Atmosféricas, Universidad Veracruzana

Circuito Gonzalo Aguirre Beltrán s/n Zona Universitaria. C.P 9100, Xalapa, Veracruz, México 1

[email protected], 2 [email protected],

3 [email protected],

Resumen. El aprendizaje de la lectura y escritura del lenguaje español para una persona sordomuda es

muy difícil, por lo general las metodologías de enseñanza están enfocadas al lenguaje de señas. Los libros

de texto de las escuelas están escritos en español impidiendo su lectura y mucho menos su lectura a

personas que no tengan esta capacidad.

El acceso a la tecnología para las personas con discapacidad auditiva es todavía complejo, principalmente

por la dificultad de comunicación con otras personas. La comunidad sordomuda utiliza principalmente el

lenguaje de señas para comunicarse.

Utilizar la realidad aumentada como medio para el proceso de enseñanza-aprendizaje de la lectura y

escritura permite un buen manejo de la presentación de los temas pero obliga a aplicar métodos eficaces

para implementarla. El uso de esta tecnología pretende apoyar a la comunidad con esta discapacidad

enfocando otras como las visuales y de memoria que han desarrollado.

Palabras Clave: Realidad Aumentada, Discapacidad Auditiva, Marcadores QR, Proceso Enseñanza –

Aprendizaje, Lectura, Escritura.

Introducción

La capacidad de leer y escribir son habilidades básicas y fundamentales para el desarrollo de cualquier persona, es

considerada una persona analfabeta quien no cuenta con ella, esto incluye a las personas sordomudas, siendo de suma

importancia que aprendan principalmente a leer en su lengua materna no solo en el lenguaje de señas, para que puedan

establecer vínculos de comunicación con otras personas, con el mundo exterior, con la tecnología, con la adquisición y

generación de conocimiento, etc. (Software XprésaT, 2012)

Las personas con alguna discapacidad auditiva se comunican primordialmente mediante el lenguaje de señas, el

problema surge cuando esta persona convive con alguien que no conoce este lenguaje y se enfrenta con la dificultad de no

poder entablar una conversación. (Características psicológicas en niños sordos, 2011)

Durante los últimos años se ha desarrollado software en varios partes del mundo incluyendo a México dirigido a las

personas con discapacidad auditiva, el cual ha sido enfocado principalmente al aprendizaje del lenguaje de señas. En las

escuelas de educación especial se han implementado este tipo de software que intenta enseñar por medio de animaciones y

videos el lenguaje de señas, así como el de ciertas palabras y verbos. Ejemplos de estas aplicaciones son TESSA (Text and

Sign Support Assistant en Madrid 2002), Proyecto Synface (Londres 2011) y Hablando con Julis (Colombia 2011)”;

Proyecto “XprésaT” (México 2010) y El DIELSEME 2 (México 2011).

Page 47: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 47 Alfa Omega Grupo Editor

En la Universidad Veracruzana en la Licenciatura en Informática plantel Xalapa han sido desarrollados algunos

prototipos como son “Prototipo de un software educativo para apoyar a la integración de niños con discapacidad auditiva

en preescolar” (Laura González y Pedro Urrieta, 2009) y “PACO: Tutorial para el Aprendizaje de Palabra Completada” (Esperanza Bonilla y Raúl Palmeros, 2009).

A pesar de que se han desarrollado aplicaciones multimedia para enseñar el lenguaje de señas, no hay un software

específico que apoye en el proceso de aprendizaje de la lectura a una persona sordomuda que incluya las características de

la realidad aumentada que sirva como medio para que a través de opciones multimedia como videos o animaciones que

representen algunos verbos del lenguaje español, para que puedan, por medio de la asociación, reconocerlas en otros

contextos y sirva de apoyo al aprendizaje de la lectura, así como el desarrollo de un método que de sustento a este tipo de

aplicaciones. (González Ramírez Laura Adriana y Urrieta Aguilar Pedro. 2009)

Estado del Arte

Uno de los mayores retos en el desarrollo de software para personas con discapacidad, es que estos sean

comprendidos, aceptados y principalmente utilizados por los usuarios en cualquier parte del mundo, por lo que se intentan

crear bajo los principios de la Ingeniería de Usabilidad, lo que conlleva aparte el uso de una metodología instruccional

adecuada para el desarrollo de contenidos que debe incluir la aplicación de una metodología multimedia que permita crear

aplicaciones que estén acordes a la realidad. (Ferrer G., Xavier. 2010).

La utilización de los conceptos de la usabilidad es de suma importancia en el desarrollo de cualquier aplicación de

software, ya que es la encargada de demostrar si un sistema es lo suficientemente bueno para satisfacer todas necesidades

del usuario. La usabilidad consta de 5 atributos principales, los cuales son: Fácil de aprender, Eficiente en su uso, Fácil de

recordar, Baja incidencia de errores y Satisfacción. (Ferrer G., Xavier. 2011)

Una alternativa para poder generar escenarios similares a la vida real es la realidad aumentada. La realidad aumentada

es un sistema que combina información virtual sincronizada y en vivo pero sobre nuestro mundo real, esta superposición

la vemos a través de una pantalla donde se mezcla la información en video que capta una cámara con la información

virtual creada previamente y sincronizada a través de marcas o patrones. Estos patrones son pequeñas imágenes simples

en blanco y negro que le dicen al sistema, a través de la cámara, la ubicación donde debe desplegar la imagen virtual.

Estas marcas también transmiten movimiento y perspectiva, haciendo que la imagen virtual y el entorno real se combinen.

(Michael Haller, Mark Billinghurst y Bruce Thomas. 2006).

La dificultad de crear contenidos con realidad aumentada hasta hace unos años era el costo de los aditamentos que se

requieren para implantarla como son: computadora, cámara web, lentes para visualización, software de diseño 3D,

librerías de identificación de video, programas de diseño para dibujar los patrones, lenguajes de programación para

manejo de video, impresora, entre otros. Además de estos elementos de hardware y software, se debe contar con los

conocimientos necesarios para implementar esta tecnología. (Stephen Cawood y Mark Fiala. 2008).

Desde hace algún tiempo que aparecieron dispositivos con sensores avanzados que fueron creados para el

entretenimiento en los juegos de consolas, estos dispositivos permiten interactuar de manera física y casi “real” con

elementos de los propios juegos, sin embargo crear aplicaciones propias era demasiado complejo, en el 2010 Microsoft

liberó el SDK del Kinect permitiendo crear aplicaciones propias. (Carlos Antonio Leal Saballos, 2013).

El Kinect (Ver Figura 1) es un dispositivo creado por Microsoft que, conectado a la consola de videojuegos XBOX

360, reconoce los movimientos del cuerpo y la voz para realizar comandos sin necesidad de tener controles. Para ello

requiere de sensores de movimiento y de profundidad con el fin de determinar cuál de los objetos que tiene enfrente es el

cuerpo humano, cuáles son sus miembros y su posición. (Netmedia.com, 2010)

Page 48: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 48 Alfa Omega Grupo Editor

Figura 1: Kinect creado por Microsoft para la consola de Videojuegos XBOX 360

Crear aplicaciones que incluyan realidad aumentada obliga a proponer un método de desarrollo eficiente que permita

construirlo, considerando los pasos que este nuevo método sugiera, para que aparte de incluir el contenido del tema, pueda

generar escenarios en los que se agregue la realidad aumentada como parte de la presentación, aumentando la usabilidad

de estas aplicaciones en cuanto a su comprensión y experimentación. (Stephen Cawood y Mark Fiala. 2008).

El método Troncoso es la base pedagógica de esta herramienta, este método fue creado por sus autoras María Victoria

Troncoso y María Mercedes del Cerro con base en sus propios conocimientos y experiencias de trabajo que han tenido, así

como de sus múltiples contactos con padres y educadores de España e Hispanoamerica que han comprobado como el

seguimiento de este método que ellas exponen les ha sido de gran ayuda a sus hijos o alumnos con síndrome de Down. Sin

embargo mencionan que el método, aunque diseñado específicamente para los niños con síndrome de Down, es

igualmente útil y eficaz para enseñar a leer y escribir a otros alumnos con o sin discapacidad. (Troncoso María Victoria y

Del Cerro María Mercedes. 2010)

El método consta de la técnica de disponer de dos tarjetas, una con la imagen (según sea el tema que se desee abordar)

la cual se pegará en una tarjeta blanca o de color marfil y en la otra tarjeta se escribe el nombre de la imagen retratada,

cuyo nombre debe ser escrito: con letra grande y clara, con contornos gruesos y en color rojo. El nombre escrito será el

que se utiliza habitualmente para llamar a esa imagen. Teniendo como fin el que el niño poco a poco, vaya reconociendo

objetos plasmados en las tarjetas. (Ver Figura 3). (Troncoso María Victoria y Del Cerro María Mercedes. 2010)

Figura 2. Asociación Dibujo – Palabra (Método Troncoso)

Metodología

Para el desarrollo de la aplicación se utilizó la metodología para desarrollo de proyectos multimedia de Brian Blum

porque puede ser utilizada en proyectos multimedia que incluyan el ámbito educativo. [Metodología Brian Blum, 2011]

Esta propuesta se compone de 4 etapas, las cuales se describirán a continuación:

1. Análisis: En esta etapa se encuentran integradas las siguientes actividades:

Análisis de necesidades, Análisis del público, Análisis del ambiente, Análisis del contenido, Análisis del sistema

Page 49: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 49 Alfa Omega Grupo Editor

2. Diseño Educativo: En esta etapa se deben delinear las siguientes actividades:

Metas Educativas, Objetivos de aprendizaje, Modelo cognitivo (Método Troncoso), Prototipo en papel

3. Diseño interactivo: En esta etapa se deben desarrollar los siguientes puntos:

Requerimientos funcionales (Configuración del Kinect), Metáforas y paradigmas, Diseño de interfaces, Mapa de

Navegación, Pantallas de esquemas, Prototipo de Trabajo.

4. Desarrollo: Esta etapa se debe desarrollar lo siguiente:

Guiones Multimedia y Producción

Es importante destacar que para que al usuario sordomudo le sea claro las instrucciones de lo que debe realizar en

cada etapa se agregaron videos donde una persona por medio del lenguaje de señas le indica lo que debe hacer.

Para el desarrollo de la aplicación se utilizó Action Script 3.0 en Adobe AIR de CS4, SDK de Microsoft Kinect y para

crear los escenarios se utilizó SketchUp 8 Pro

Resultados

Figura 3. Pantalla la aplicación multimedia con Kinect (Video de explicación)

Figura 4. Pantalla de la aplicación multimedia con Kinect (Evaluación Aprendizaje)

Se desarrolló una aplicación multimedia con realidad aumentada utilizando el Kinect como medio de

comunicación para aprendizaje de palabras y verbos.

La aplicación describirá 45 verbos y 60 palabras

La aplicación podrá ser vista en dispositivos que soporten la tecnología Adobe Flash AIR.

Las personas sordomudas podrán utilizarlo sin ningún problema siempre y cuando en algún momento de su vida

hayan usado una computadora.

Page 50: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 50 Alfa Omega Grupo Editor

Conclusiones

Al ser esta aplicación uno de los primeros esfuerzos para la creación de aplicaciones multimedia con realidad

aumentada dedicadas y aplicados específicamente hacia la comunidad sordomuda abre un nicho de oportunidad para el

desarrollo de aplicaciones que incluyan, además de computadoras personales, a dispositivos móviles que puedan utilizar y

manipular las personas con capacidades diferentes.

El abatimiento del analfabetismo en la sociedad debe forzosamente incluir a las personas con discapacidades

diferentes siendo que estas son discriminadas al no tomarlas en cuenta para el desarrollo de productos o estrategias

educativas y tecnológicas. Se debe incluir en el proceso de enseñanza aprendizaje la capacidad de leer y escribir en la

lengua materna y no solo en el lenguaje de señas para evitar caer en discriminación de estas personas cuando quieren

acceder a estudios, lugares de entretenimiento, uso y manipulación de tecnología, comunicación y adquisición del

conocimiento.

Trabajos futuros

Realizar las pruebas de usabilidad de esta aplicación con un mayor número de personas sordomudos a nivel

estatal ya que en Xalapa no hay una escuela que trabaje explícitamente con estas personas.

Agregar una mayor cantidad de palabras, verbos y escenarios que abran el abanico de posibilidades culturales

en los que una persona con capacidades diferentes convive diariamente.

Referencias Bibliográficas.

Brian Blum. Administración de Proyectos Multimedia. Extraído de:

http://fit.um.edu.mx/danielgc/admonmm/Material/Unidad%20II/Unidad2.pdf Recuperado

11/09/11

Características psicológicas en niños sordos .Cuidado Infantil. (2012). Extraído de:

http://cuidadoinfantil.net/caracteristicas-psicologicas-en-ninos-sordos.html Recuperado

08/09/12

Esperanza Bonilla Morales y Raúl Palmeros Barrientos. (2009). PACO: Tutorial para el aprendizaje de

Palabra Complementada. (Tesis para obtener el grado de licenciatura) Universidad

Veracruzana. Facultad de Estadística e Informática. Xalapa. Veracruz.

Ferrer G., Xavier. (2011). Principio Básicos de Usabilidad para Ingenieros de Software Información

extraída de la pagina web: http://is.ls.fi.upm.es/xavier/papers/usabilidad.pdf Consultado: Mayo

2012

González Ramírez Laura Adriana y Urrieta Aguilar Pedro. (2009). Prototipo de un software educativo

para apoyar a la integración de niños con discapacidad auditiva en preescolar. (Tesis para

obtener grado de licenciatura) Universidad Veracruzana. Facultad de Estadística e Informática.

Xalapa. Veracruz.

Haller Michael, Billinghurst Mark y Thomas. Bruce (2006). Tecnologías Emergentes de la Realidad Aumentada: Interfaces y Diseño. Idea Group Publishing, 2006. ISBN 1-59904-066-2, editor de revistas

Leal Saballos Carlos Antonio. Microsoft liberó el código de Kinect. (2013)

http://aulaweb.uca.edu.ni/blogs/cleal/2013/03/12/microsoft-libero-el-codigo-de-kinect/ Marzo

2013. Consultado Junio 2013

Netmedia.mx, Noviembre. (2010). Usan Kinect más allá del Xbox para robótica y realidad aumentada.

http://www.netmedia.mx/soluciones/hardware/usan-kinect-mas-alla-del-xbox-para-robotica-y-

realidad-aumentada/. Consultado Mayo 2013

Proyecto Synface. Centro de difusión tecnológica de mejorada del campo. Extraído de: 110

Page 51: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 51 Alfa Omega Grupo Editor

Software Hablando con Julis!. Hablando con Julis!. (2011). Extraído de:

http://www.hablandoconjulis.com/espanol/index.php Recuperado 10/09/11

Software XprésaT. La unión de Morelos. (2012). Extraído de:

http://www.launion.com.mx/morelos/secciones/sociedad/item/6602-alumnos-del-conacyt-

ganan-concurso-nacional-de-creatividad-tecnol%C3%B3gica.html Recuperado 07/05/12

Stephen Cawood y Mark Fiala. (2008). Realidad Aumentada: A Practical Guide, ISBN 1-934356-03-4

Tessa .Red Sorda. (2012). Extraído de: http://www.redsorda.com/animacion.htm Recuperado 11/12/12

Troncoso María Victoria y Del Cerro María Mercedes. El Método Troncoso. (2010). España Extraído

de http://www.slideshare.net/adrianalascurain/mtodo-troncoso-lecto-escritura 2010

Page 52: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 52 Alfa Omega Grupo Editor

Capítulo VII. Diseño y desarrollo de videojuegos en aplicaciones móviles

para la identificación de errores ortográficos en el aprendizaje. Caso de

Estudio: Leximania.

Alejandra Ramos Navarro1, Andrés Calderón Sacarías

2, Francisco Javier Álvarez Rodríguez

3

1Unidad Académica de Economía, Universidad Autónoma de Nayarit, Boulevard Tepix-Xalisco 325, Ciudad

de la Cultura Amado Nervo, 63155 Tepic, Nayarit, México

[email protected] 2Area Ing. Sistemas Computacionales, Instituto Tecnológico Superior de los Ríos, k 3 Carretera Balacán-

Villahermosa, Balancán, Tabasco, México

[email protected] 3Centro de Ciencias Básicas, Universidad Autónoma de Aguascalientes, Av. Universidad #940. Bosques del

Prado Sur. 20131 Aguascalientes, Ags., México

[email protected]

Resumen. Esta investigación trata del uso de tecnologías móviles para desarrollar habilidades de lecto-escritura, en el

grado de 2do de primaria, además de tomar en cuenta una investigación previa donde se explica que habilidades de lecto-

escritura ya son aplicadas de manera computacional. Para atender la habilidad de aprendizaje a mejorar en la lecto-

escritura que se ha elegido, “Identificación de errores ortográficos”, y al mismo tiempo emplear las tecnologías móviles,

se decide usar los videojuegos como una herramienta atractiva para los niños, con la cual se cree que se facilitará el

aprendizaje y el interés de quien lo utilice. Los tipos de errores ortográficos que se eligieron para la elaboración del

videojuego se basan en los porcentajes más altos de errores entre los niños de 3ero de primaria según un estudio del 2006,

donde se evalúan los conocimientos que se pretenden que los niños adquieran con el videojuego.

Palabras clave: Tecnologías móviles, videojuegos, ortografía, habilidad de aprendizaje, identificación de errores

ortográficos.

1 Introducción

El sistema ortográfico tiene una importancia medular dentro de un idioma, entre otras razones, porque posee el carácter de

normalizador y fijador de la lengua; es un instrumento esencial de cohesión y unidad del Español. Debido a lo anterior, el

dominio de la ortografía es una habilidad muy apreciada en la comunicación; un bajo nivel ortográfico implica un bajo

nivel de formación y cultura de un individuo [3].

La “Identificación de errores ortográficos”, se desarrolla inicialmente aprendiendo las reglas de ortografía enseñadas

por el profesor, así como el empleo de dictados y el traspaso de textos. Posteriormente, o de manera paralela, el profesor

le entrega textos que incluyen faltas de ortografía, lo que hace que el estudiante emplee sus conocimientos en la detección

de dichos errores [1].

Una manera de lograr aprendizaje en relación a la competencia “Identificación de errores ortográficos es por medio de

los videojuegos.

Un videojuego es una interacción constante de un usuario llamado “jugador” entre una interfaz y un dispositivo de

video. Los videojuegos recrean entornos y situaciones virtuales en los que el jugador puede controlar uno o varios

personajes para alcanzar objetivos por medio de determinadas reglas [4].

Al combinar el concepto de videojuegos con habilidades de aprendizaje, se obtiene una potencial herramienta que

logre que los niños en sus inicios con el aprendizaje ortográfico logren diferenciar palabras y también escribirlas de

manera correcta.

2 Problemática

Page 53: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 53 Alfa Omega Grupo Editor

El Instituto Nacional para la Evaluación de la Educación (INEE), a partir de información derivada de las evaluaciones

aplicadas en 2005 y 2006 a muestras nacionales de alumnos de tercero grado de primaria llega a la conclusión de que el

porcentaje promedio de palabras mal escritas por los estudiantes de tercer grado de primaria fue de 23.3%, y que los

errores ortográficos más frecuentemente reportados son: la acentuación (predominando la omisión); la sustitución de

caracteres cuyo sonido es idéntico pero representados por distintas letras (por ejemplo: c-s-z); y la adición y omisión de

grafías (siendo la más frecuente la h).

Como se puede observar en la Tabla 1, a nivel nacional, el porcentaje promedio de palabras mal escritas por los

estudiantes de tercer grado de primaria fue de 23.3 %.

Esta tabla muestra que los porcentajes de palabras escritas incorrectamente son mayores para los estudiantes del

estrato Rural pública (25.9%), seguidos de quienes estudian en Educación indígena (23.8%), después en centros Urbanos

públicos (23.3%) y, finalmente, en escuelas Privadas (16.4%) [3].

Tabla 1. Esta tabla muestra los porcentajes de errores ortográficos por estratos escolares, así como sus Desviaciones

Estándar (DE) y sus Coeficientes de Variación (CV). Entre paréntesis se muestran los Errores Estándar (EE) de cada una

de estas estimaciones [3].

El uso del ordenador desde un punto de vista didáctico pasa por el uso del denominado software educativo, estos

materiales que suponen utilizar el ordenador con una finalidad didáctica. La funcionalidad del software educativo vendrá

determinada por las características y el uso que se haga del mismo, de su adecuación al contexto y la organización de las

actividades de enseñanza.

El uso de estos materiales tiene, por tanto, potencialmente muchas ventajas como: motivación por las tareas

académicas, desarrollo de la iniciativa, aprendizaje a partir de los errores, alto grado de interdisciplinariedad,

individualización y aprendizaje autónomo, liberan al profesor de trabajos repetitivos, contacto con las nuevas tecnologías,

adaptación a alumnos con necesidades educativas especiales, presentan información de forma dinámica e interactiva,

ofrecen herramientas intelectuales para el proceso de la información, etc. [2].

En base a tablas presentadas en el artículo “Los Videojuegos como una Estrategia para Mejorar la Lectoescritura.

Estudio Exploratorio”, donde se muestran los videojuegos que hasta ahora abarcan temas y contenidos de la SEP

(Secretaria de Educación Pública), así como las habilidades a mejorar y explotar de las actividades permanentes, donde

hay una carencia de software educativo, es que se tomó la determinación de cuál sería la habilidad a desarrollar [5].

En este caso nos enfocaremos en la “Corrección de escrituras incorrectas”, desarrollando una interfaz sencilla y de

fácil interacción para los niños que cursan su educación primaria, de manera que desarrollen buenas costumbres de

escritura, que les ayudará en su futuro de manera permanente.

Nos centraremos en las 3 faltas ortográficas más comunes, ya mencionadas anteriormente en el documento, es decir,

la acentuación, el uso de las letras “c-s-z” y la letra “h”.

3 Obtención de Requerimientos para el Desarrollo del Componente.

En la Tabla 2 se describen los elementos que conforman el juego, que van desde la carga de los elementos de manera

gráfica, hasta los componentes que funcionan implícitamente, como el cálculo del puntaje cada vez que se selecciona una

respuesta.

Requerimientos Funcionales.

Nombre: RF1. Cargar pantalla con pregunta aleatoria.

Page 54: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 54 Alfa Omega Grupo Editor

Resumen: Al iniciar un nuevo nivel dentro del juego se deberá cargar una pregunta de manera aleatoria del banco de

preguntas. A su vez también deberán aparecer las posibles respuestas correspondientes a la pregunta

seleccionada.

El puntaje que se tenga hasta el momento, así como los intentos restantes se mostrará en la pantalla.

Entradas: Puntaje actual

Pregunta aleatoria

Posibles respuestas

Intentos restantes

Resultado: Pantalla cargada con una pregunta de manera aleatoria y sus posibles respuestas y puntaje.

Nombre: RF2. Mostrar intentos restantes del juego.

Resumen: En la parte superior derecha de la pantalla aparecerán los intentos restantes que se tienen en el juego. El

juego acabará cuando los 3 intentos hayan sido utilizados por seleccionar respuestas incorrectas.

Entradas: Intentos restantes

Resultado: Se mostrará los intentos restantes que se tienen antes de que el juego se termine.

Nombre: RF3. Calcular puntos por respuesta correcta o incorrecta.

Resumen: Al haber elegido la respuesta correcta, se sumarán 50 puntos al puntaje actual, en caso contrario se restarán

10 puntos y un intento.

Entradas: Selección de respuesta correcta o incorrecta

Puntaje actual

Resultado: Puntaje actual e intentos restantes.

Nombre: RF4. Mostrar puntaje final.

Resumen: Al terminar el juego se mostrará una pantalla con el puntaje que se hizo en el transcurso del juego y el nivel

al que se llegó.

Entradas: Puntaje actual

Nivel actual

Resultado: Puntaje final y el nivel del juego de la partida en curso.

Nombre: RF6. Mostrar retroalimentación por respuesta incorrecta.

Resumen: Al haberse agotado los 3 intentos pasará a mostrar una pantalla con una breve explicación del por qué la

otra opción era la correcta.

Entradas: Selección de respuesta incorrecta

Intentos restantes

Resultado: Pantalla con explicación de la respuesta correcta.

Tabla 2. Requerimientos funcionales para el juego “Leximania”.

Para comprender como estos requerimientos se relacionan entre sí, así como la interacción del usuario con el videojuego,

en este caso el niño, se usa de manera ilustrativa un caso de uso, Fig. 1, sobre el desenvolvimiento del juego “Leximania”

en una partida normal y las acciones que tiene el usuario sobre él.

Page 55: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 55 Alfa Omega Grupo Editor

Fig. 1. Caso de uso sobre el desarrollo del juego “Leximania”.

4 Elaboración del Componente

El siguiente paso es el diseño de interfaces a partir de los requerimientos funcionales y el caso de uso descrito en el

apartado anterior.

El videojuego “Leximania” ha sido desarrollado bajo el lenguaje de programación java, usando el IDE (Entorno de

desarrollo integrado) Eclipse, con el paquete de herramientas ADT (Herramientas para Desarrolladores Android). Ahora

se mostrarán las principales pantallas que conforman el juego.

En la Fig. 2 se muestra la pantalla principal, donde aparte de iniciar el juego, se puede controlar el sonido del juego,

acceder a la información del mismo, y salir de él.

Fig. 2. Menú principal de “Leximania”.

Niño

Desarrollo del juego “Leximania”

Seleccionar opción

del menú principal

Cargar Pantalla de

nivel del juego

Seleccionar opción

de respuesta

correcta

Seleccionar opción de

respuesta incorrecta

Generar

retroalimentación

Ver puntuación

final

Otorgar puntos

Quitar

puntos

Page 56: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 56 Alfa Omega Grupo Editor

La siguiente pantalla, Fig. 3, es la interfaz principal del juego, donde la oración se muestra, cargada previamente de

manera aleatoria según el banco de preguntas, a la vez que se muestran las posibles respuestas en la parte inferior de la

pantalla. También se muestra el puntaje en la parte superior centrar de la pantalla, una opción de pausa que manda a las

acciones posibles del juego, como salir o reiniciar, y finalmente, los intentos restantes en la parte superior derecha que se

pondrán en marca de agua cada vez que se elija una respuesta incorrecta.

La razón por la que la interfaz del juego sea tan sencilla de usar, dejando solo seleccionar alguna respuesta está

dada por el hecho de que se está tratando con niños de 2do y 3er grado de primaria. Si se quisiera hacer alguna interfaz

con un grado de dificultad más alto en su uso, no sería práctico para usar.

Fig. 3. Pantalla de un nivel del juego “Leximania”.

5 Resultados

A fin de evaluar la aplicación “Leximania”, se realizaron pruebas de usabilidad en las instalaciones de la Universidad

Autónoma de Aguascalientes, con 3 niños que cursan el segundo o tercer grado de primaria en los campamentos de verano

que se llevaron a cabo dentro del mismo.

La recolección de los datos permitió brindar frecuencias de conducta (estadística descriptiva). En la Tabla 3 se

describen los resultados analizados y obtenidos en la recolección de datos:

Indicador Nivel de Logro

Habilidades Los niños permanecen atentos al juego. T

Los niños permanecen en su lugar mientras utilizan el

juego.

T

Los niños se muestran desatentos ante el uso del juego. N

Los niños se muestran interesados ante las actividades T

Los niños se muestran alegres mientras utilizan el

juego.

T

Los niños prefieren hacer otra cosa que jugar al juego. N

Manipulación

del juego

Los niños se muestran seguros al manipular el juego. CT

Los niños tienen dudas en el uso del juego. T

Page 57: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 57 Alfa Omega Grupo Editor

Los niños se muestran inseguros al manipular el juego. MP

Los niños dominan el empleo del juego. T

Tabla 3. Resultados del instrumento de la guía de observación. La simbología usada dentro de la tabla fue la

siguiente: T: Todos, CT: Casi Todos, MP: Muy Pocos, N: Ninguno.

6 Conclusiones y trabajo a futuro.

A partir de la investigación acerca de los oportunidades de mejora a explotar en el aprendizaje en software según las

habilidades que la SEP quiere que los estudiantes desarrollen, se ha determinado trabajar en las faltas ortográficas en los

niños de tercer grado de primaria en México, tomando como campo de acciones para el videojuego sus tres principales

tipos de errores que son: la acentuación, el uso de las letras “c-s-z” y el de la letra “h”.

Se han podido diseñar los requerimientos principales que contendrán el videojuego, así como la secuencia lógica del

mismo, para seguidamente pasar al diseño de interfaces para dispositivos móviles, en este caso Android.

El videojuego generó respuestas positivas en los usuarios al momento de aplicar las pruebas de usabilidad. La

dinámica y la interfaz fueron acertadas, pero falta incluir instrucciones del uso y objetivo del videojuego, por lo que se

incluirán dentro de la aplicación de manera posterior.

Otras posibilidades de desarrollo incluyen una retroalimentación cuando el usuario elige una respuesta correcta; y una

versión de “Leximania” para adultos con problemas ortográficos, con lo cual se abre un abanico de posibilidades más

grande, lo que incluye el uso de un banco de palabras más complejo y extenso, así como un aumento en la complejidad

del mismo juego.

Referencias

1. García Noriega, C. (29 de Enero de 2011). Paiderex. Recuperado el 3 de Julio de 2013, de

http://revista.academiamaestre.es/2011/01/escribir-correcto-la-importancia-de-la-ortografia/

2. García-Valcárcel Muñoz-Repiso, A. (2009). Universidad de Salamanca. Recuperado el 12 de Julio de 2013, de

http://web.usal.es/~anagv/arti1.htm

3. INEE. (2008). La ortografía de los estudiantes de educación básica en México. D.F.

4. Pérez Castañeda, J. M., Álvarez Rodríguez, F. J., Muñoz Arteaga, J., & Muñoz Zavala, Á. E. (s.f.). Elaboración

del Alfabeto móvil como componente de un videojuego serio. Aguascalientes, Aguascalientes, México.

5. Toscano de la Torre, B. A., Angulo Molina, I. F., & Camacho González, M. F. (s.f.). Los Videojuegos como una

Estrategia para Mejorar la Lectoescritura. Estudio Exploratorio. Tepic, Nayarit, México.

Page 58: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 58 Alfa Omega Grupo Editor

SECCION INVESTIGACIÓN APLICADA.

Page 59: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 59 Alfa Omega Grupo Editor

Capítulo I. Diseño semiautomático de estructuras óptimas utilizando una

distribución normal de probabilidades

Ukranio Coronilla Contreras1 Jorge Cortés Galicia

2 José Netz Romero Durán

3

1 Escuela Superior de Cómputo-IPN, Av. Juan de Dios Batíz s/n, esquina con Miguel Otón de Mendizábal,

México, D.F., 07738. México

[email protected] 2 Escuela Superior de Cómputo-IPN, Av. Juan de Dios Batíz s/n, esquina con Miguel Otón de Mendizábal,

México, D.F., 07738. México

[email protected] 3 Universidad Autónoma Metropolitana unidad Cuajimalpa, Artificios 40, Col. Hidalgo, Delegación Álvaro

Obregón, México, D.F., 01120. México

[email protected]

Resumen. En el campo de la ingeniería civil existen diversas situaciones donde es necesario construir

estructuras de acero que soporten esfuerzos externos. El diseño de las mismas y su topología, dependen

tanto de la resistencia de los materiales con la que se construyen como de los esfuerzos que deben

soportar. Un diseño óptimo es complejo debido a la gran cantidad de cálculos que deben repetirse en

cada nueva topología, y a que no se conoce una función de optimización.

En el presente trabajo se desarrolla una aplicación de software que permite encontrar de manera

automática, una estructura bidimensional que trata de ocupar la menor cantidad de material posible,

partiendo de una topología inicial propuesta por el usuario. El método de optimización utiliza la

distribución normal de probabilidades y la aproximación sucesiva para ir generando los nuevos diseños.

Palabras clave: Diseño óptimo, armaduras y estática, estadística computacional.

1 Introducción

Una gran cantidad de la infraestructura arquitectónica que conforma nuestras ciudades, incorpora complejas estructuras de

materiales como el acero y el concreto. Y el trabajo de diseño y construcción de dichas estructuras ha ocupado amplios

campos de conocimiento. Arquitectos e Ingenieros son los principales actores en el desarrollo de dichas obras, las cuales

pueden ocupar espacios monumentales.

Las labores de diseño y construcción de estructuras comienzan por analizar los requerimientos del cliente.

Posteriormente es necesario considerar los espacios y métodos de cimentación o soporte, esto implica los tipos de terreno,

las dimensiones y estructura de los cimientos, así como de los elementos que van a sostener la estructura. Así mismo se

deben considerar los materiales implicados en la elaboración de la estructura, los perfiles ocupados y las formas de la

estructura. Normalmente la intención de una estructura es brindar la mayor resistencia posible a los esfuerzos externos,

haciendo un uso óptimo de los materiales que la componen. El caso que nos ocupa son un tipo de estructuras

bidimensionales conocidas como armaduras, las cuales son utilizadas comúnmente en puentes o techados y permiten

soportar cargas distribuidas sobre una línea, cuyos apoyos normalmente se ubican en los extremos.

La topología de una armadura puede tener un número infinito de posibilidades, debido a que la manera en la cual se

pueden interconectar diversos segmentos de material no tiene restricción alguna, sin embargo existen algunas soluciones

bien estudiadas que brindan resistencias altas ocupando poco material.

El objetivo de este trabajo es obtener un diseño de estructura optimizado, basándose en un una topología inicial

propuesta por el usuario y en un algoritmo de búsqueda que incorpora elementos de probabilidad y estadística.

Page 60: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 60 Alfa Omega Grupo Editor

2 Estado del arte

Al diseñarse una armadura desde el punto de vista de ingeniería solo es necesario tener en consideración el peso que va a

soportar, las dimensiones que ocupa, y los esfuerzos máximos de compresión y tensión que deben soportar cada uno de

los elementos que lo componen. Sin embargo y a pesar de existir estas restricciones, es posible encontrar distintos

patrones de estructuras que pueden cumplir con el propósito.

La búsqueda de una óptima topología en una armadura, es uno de los trabajos más abordados desde el punto de vista

práctico, debido a su amplio campo de aplicaciones. Existen en la actualidad muchos métodos meta heurísticos como los

algoritmos genéticos, colonia de hormigas, enjambre de partículas, etc…

Uno de los trabajos más representativos en cuanto al diseño automático se describe en el artículo publicado por

Yaowen[1], donde se utilizan algoritmos genéticos para encontrar el diseño óptimo de un puente. Las estructuras

generadas se muestran en la figura 1, y el procedimiento consiste básicamente en lo siguiente: Primero se generan varias

estructuras aleatorias de puentes que cumplen con requisitos mínimos, como la longitud del claro que deben cubrir y un

área máxima de dicha estructura (véase la figura 1-a). Posteriormente se evalúan dichos puentes mediante una función

que permita determinar cuáles son los mejores puentes. Los mejores puentes son los que utilizan menor material y

soportan mayor peso. Después se realizan cruzamientos entre las mejores estructuras produciendo la primera generación

de estructuras hijas. El proceso se sigue hasta encontrar la estructura óptima que se muestra en la figura 1-h en la

generación 83. Este proceso es muy tardado debido a que por ejemplo la primera generación consta de 100 individuos,

pero las siguientes generaciones son de 2000 individuos y los tiempos de cómputo para evaluación y cruzamiento son

nada despreciables.

Cabe aclarar que en este método el puente no parte de una estructura inicial, sino que su topología es generada casi por

completo al azar, pues se puede observar que los nodos en la parte inferior se mantienen en posiciones fijas debido a que

son los que soportan los largueros sobre los que se monta el piso del puente.

Page 61: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 61 Alfa Omega Grupo Editor

Fig. 1. Historia de evolución de la topología en la armadura. Fuente: Figura 5 tomada de [1]

Sin embargo y a pesar de las ventajas de los algoritmos meta heurísticos, “la baja tasa de convergencia hacia el óptimo

y la necesidad de un alto número de análisis estructurales conforman un aspecto negativo de estas técnicas” [2].

Con objeto de evitar el procesamiento excesivo y por consiguiente el tiempo de cómputo, se ha diseñado la presente

metodología, aunque a diferencia de los clásicos métodos meta heurísticos, en este caso es necesario que el usuario provea

una topología inicial de armadura.

3 Metodología

En esta sección se describe de manera general la generación semiautomática de estructuras, y el proceso de optimización

mediante la utilización de una distribución normal de probabilidades. Para la implementación es necesario considerar los

siguientes rubros.

3.1 Armadura inicial

Una de las armaduras más comunes y de las cuales se tiene una amplia clasificación y estudio son las utilizadas para

techos y puentes. Por ello y para ilustrar el procedimiento que se utilizó y las fuerzas externas implicadas, vamos a

considerar una armadura para techo como la que se muestra en la figura 2.

Page 62: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 62 Alfa Omega Grupo Editor

Fig. 2. Armadura para techo tipo Fink. Fuente: Figura 6-2 tomada de [3]

En este caso los nodos fijos que soportan los largueros se encuentran en la parte superior, y el espacio disponible para

el diseño de la armadura se encuentra debajo de estos nodos. Para nuestro ejemplo consideraremos las dimensiones y la

ubicación de los esfuerzos externos como se muestran en la figura 3.

Fig. 3. Espacio de diseño para la armadura tomada de ejemplo.

3.1 Cálculo de armaduras

Para el diseño de una armadura se requiere conocer la cantidad de peso que deberá soportar, así como el esfuerzo máximo

de tensión o compresión que puede resistir cada uno de los elementos lineales que la componen. Esto se hace posible

mediante la aplicación de las ecuaciones de equilibrio mecánico, tanto al conjunto de la estructura como a los elementos

lineales que la componen. Es posible resolver un conjunto de ecuaciones linealmente independientes en este problema si

se cumple lo siguiente:

Sea b el número de elementos lineales o barras y n el número de nodos, se deberá cumplir que b + 3 = 2n.

Considerando que se cumple la condición anterior en la armadura entonces es posible utilizar para su solución el método

matricial [4], el cual requiere resolver un sistema de 2n ecuaciones. Este método es uno de los más laboriosos sin embargo

su programación es relativamente sencilla.

3.2 Función de evaluación

Para determinar la idoneidad de una armadura o para decirlo de otra manera, que tan buena es dicha armadura, se utilizan

dos parámetros principales. El primero es la cantidad de material necesario para construir dicha armadura, y el segundo es

el esfuerzo máximo que puede soportar un elemento lineal. Cualquier elemento lineal sea metal concreto u otro material,

tiene sus límites en el esfuerzo de compresión y de tensión que puede soportar antes de fluir y posteriormente romperse.

La cantidad de material necesario no es más que la suma de todos los elementos lineales que la conforman, de modo

que la mejor armadura es aquella que ocupa la menor cantidad de material.

Por otra parte el proceso de optimización tiene una cota, debido a que el uso de menor material tiene acarreado un

incremento en los esfuerzos que debe soportar cada uno de los elementos que lo componen. Aunque cabe aclarar que cada

elemento soporta distintos esfuerzos, uno o más de ellos llegarán a una cota máxima impuesta por las necesidades del

usuario.

Page 63: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 63 Alfa Omega Grupo Editor

3.3 El método de optimización

Dada una armadura inicial propuesta por el usuario como la que se muestra en la Fig. 4, primero se evalúa su idoneidad, y

posteriormente se genera una nueva topología en la armadura para volver a evaluar su idoneidad. En el caso de que resulte

mejor la nueva armadura, se almacena en un archivo y se continúa el proceso un número finito de veces.

Fig. 4. Armadura inicial de 16 nodos. Fuente: software de elaboración propia.

Una nueva topología se genera modificando a la vez, la posición de uno de los nodos. El nodo a modificar es escogido

al azar de entre los posibles, por ejemplo en la figura 4 los únicos nodos susceptibles a modificarse en su posición, son los

de la parte inferior numerados del 1 al 7.

Para la nueva posición del nodo y haciendo eco de que la distribución normal es “una de las distribuciones de

probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales” [5]; la siguiente

nueva ubicación del nodo, será uno de los puntos que cumplen con un patrón normalmente distribuido, considerando al

nodo inicial en el origen de dicha distribución.

Para la generación computacional de pares ordenados (x , y) que cumplen con una distribución normal, se utilizó el

método de Box-Muller el cual “es un método de generación de pares de números aleatorios independientes con

distribución normal estándar (esperanza cero y varianza unitaria), a partir de una fuente de números aleatorios

uniformemente distribuidos.”[6]

El método indica que si U1 y U2 son variables aleatorias independientes que están uniformemente distribuidas en el

intervalo [0, 1], entonces

0 1 22ln cos 2Z U U

y

1 1 22ln 2Z U sen U

son variables aleatorias independientes con una distribución normal con desviación típica de 1. En la figura 5 se muestra

un patrón obtenido con el método Box-Muller, y centrada en el origen del plano cartesiano.

Page 64: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 64 Alfa Omega Grupo Editor

Fig. 5. Distribución normal de puntos en el plano. Fuente: software de elaboración propia.

Si con la nueva ubicación del nodo no mejora el valor de idoneidad, entonces se descarta y se vuelve a generar otra

ubicación. En el caso de encontrarse una mejora entonces se realizan intentos sucesivos en la misma dirección y magnitud

del desplazamiento original hasta que ya no se tengan mejoras.

4 Resultados Experimentales

En la figura 6 se muestra la sucesión de armaduras conseguidas con el software elaborado en lenguaje C++, partiendo de

la armadura propuesta en la figura 4, cuya cantidad de material ocupado es de 46.24 metros y con un esfuerzo máximo de

399.77N. Se hicieron 10,000 iteraciones que ocuparon 12 segundos en un procesador Intel Atom N570 a 1.66GHz y 2GB

de memoria RAM bajo la distribución UBUNTU de Linux. La ultima armadura encontrada tiene un esfuerzo máximo de

499.094 N en uno de sus elementos componentes (cota máxima asignada por el usuario), y la longitud total es de 37.38

metros. La cual comparada con la primera armadura propuesta llega a reducir la cantidad de material en un 19%.

Armadura 1

Armadura 2

Armadura 3

Armadura 4

Page 65: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 65 Alfa Omega Grupo Editor

Armadura 7

Armadura 11

Armadura 16

Armadura 43

Fig. 6. Evolución de la topología en la armadura. Fuente: software de elaboración propia.

5 Conclusiones y Dirección de Investigaciones Futuras

En este documento se ha presentado un algoritmo sencillo para optimizar la topología de una armadura, a partir de una

propuesta inicial. Después de diversas pruebas se pudo concluir que la operación de convergencia opera mejor si solo se

modifica un nodo a la vez. Asimismo es posible observar que la convergencia a la armadura óptima es rápida al inicio, y

posteriormente tiende a ser asintótica al óptimo en el número finito de iteraciones.

Para el ejemplo mostrado se compararon armaduras Fink, de pendolón y Howe, bajo las mismas circunstancias de

carga, resultando mejor la Fink con un menor número de nodos y de segmentos.

Como trabajo a seguir está elaborar de manera automática la topología inicial, así como la comparación del algoritmo

con uno puramente aleatorio. Esta es la ruta de nuestro trabajo actual y esperamos pronto contar con resultados

satisfactorios.

Agradecimientos. Agradecemos a los revisores por los comentarios y observaciones hechas, así como a la Escuela

Superior de Cómputo – IPN por las facilidades otorgadas en el desarrollo de esta investigación.

Referencias

[1] Yaowen Yang, Chee Kiong Soh, Automated optimum design of structures using genetic programming, Division of

Structures and Mechanics, School of Civil and Environmental Engineering, Nanyang Technological University,

Singapore. Computers & Structures 80 (2002).

[2] O. Hasançebi, S. Kazemzadeh Azad, S. Kazemzadeh Azad, Automated sizing of

truss structures using a computationally improved sopt algorithm, International journal of optimization in civil

engineering, 3(2):209-221, 2013.

[3] R. C. Hibbeler, Mecánica Vectorial para Ingenieros-Estática, Ed. Pearson, 2004.

[4] Malqui Alayo Franz Kennedy, Análisis de armadura por método de nodos y método matricial, Curso: Mecánica de

sólidos, Universidad Nacional del Callao (2012).

[5] Wussing Hans, Lecciones de Historia de las Matemáticas, Ed. Siglo XXI, 1998.

[6] Carter, E.F, The Generation and Application of Random Numbers , Forth Dimensions Vol XVI, 1994.

[7] Douglas F. Riddle, Analytic Geometry, Ed. Cengage Learning, 1995

[8] Michael J. Laszlo, Computational Geometry and Computer Graphics in C++, Ed. Prentice Hall, 1995.

Page 66: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 66 Alfa Omega Grupo Editor

Capítulo II. Paralelización del Algoritmo de Colonia de Hormigas (ACO)

para resolver problemas de ruteos

Julio Cesar Ponce Gallegos1, Humberto Muñoz Bautista

1, Alejandro Padilla Diaz

1

1 Universidad Autónoma de Aguascalientes, Av. Universidad #940 Ciudad Universitaria C.P. 20131,

Aguascalientes, Ags., México

{jcponce, apadilla}@correo.uaa.mx, [email protected]

Abstract. En la actualidad los problemas de ruteo forman parte de un amplio grupo de problemas

clásicos a resolver, debido a su constante aparición en aplicaciones de la vida real [1], por lo que

actualmente se han implementado una variedad de algoritmos para afrontar dichos problemas, como lo

es el algoritmo de Colonia de Hormigas el cual ha demostrado dar buenos resultados. Sin embargo

dichos algoritmos se encuentran limitados y consumen mucho tiempo al ser un algoritmo constructivo ya

que en problemas con instancias demasiado grandes consumen grandes recursos de cómputo por la

cantidad de cálculos que se tienen que realizar. Por lo que en este articulo se muestra un algoritmo

implementado bajo una arquitectura en Paralelo que ofrece actualmente las tarjetas de video (GPU)

usando el entorno Compute Unified Device Architecture (CUDA), el cual permite tener a nuestra

disposición una herramienta de grandes recursos utilizada para la resolución de problemas con un alto

índice de complejidad computacional [3].

Palabras Clave: Paralelización, CUDA, Problema de ruteo, Colonia de Hormigas.

1 Introducción

Los problemas de ruteo no son solamente problemas clásicos en la teoría de optimización y en el ambiento científico,

estos son problemas que tienen una gran cantidad de aplicaciones en la vida real, por ejemplo algunos problemas de ruteo

son: las rutas turísticas, de recolección de basura, ruteo de redes, rutas de distribución de productos por parte de las

empresas, ya sea de productos terminados o materias primas, etc.[4], en este caso nos enfocaremos a la solución de los

problemas de ruteo para transporte basados en el Travelling Salesman Problem (TSP) utilizando los algoritmos de

colonias de hormigas. La importancia de esta propuesta de investigación está dada por la necesidad de contar con

herramientas de software que ayuden a las empresas y organizaciones en general a optimizar recursos como son tiempo,

espacio y dinero. Actualmente se cuenta con investigación básica sobre el desarrollo de distintos algoritmos de

optimización como son el caso de los algoritmos genéticos, colonias de hormigas, algoritmos de estimación de la

distribución, entre otros. Los algoritmos de colonias de hormigas se basan en la forma en cómo estas crean rutas cortas

desde su hormiguero a una fuente de alimentación [2], estos algoritmos han demostrado dar buenos resultados en una gran

variedad de aplicaciones entre los que se encuentran los problemas del TSP y el problema de la mochila. Sin embargo

estos algoritmos están limitados en su implementación debido a los equipos donde se han realizado las pruebas, por lo que

es de suma importancia integrarlas en un sistema que permita procesar las instancias de estos problemas, con la finalidad

de aportar más en el ambiente científico, así como en aplicaciones reales que ayuden al desarrollo de las empresas dentro

de la entidad. Esto sería posible si se contara con equipo para realizar pruebas sobre arquitecturas multiprocesador/multi-

núcleo, utilizando las bondades que ofrece el procesamiento en paralelo para varios de estos algoritmos.

Es una realidad que las empresas tienen la necesidad de ser cada vez más competitivas, por lo que requieren implementar

y buscar nuevas herramientas de software que les permita cumplir este objetivo, la programación de estos algoritmos en

un entorno paralelo sobre arquitecturas multiprocesador/multinúcleo, puede ser la solución a varios de los problemas de

las industrias o incluso de instituciones públicas.

Page 67: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 67 Alfa Omega Grupo Editor

Por otro lado existe la posibilidad de explotar la capacidad de procesamiento de las nuevas supercomputadoras que

incorporan varios microprocesadores y GPUs, los que representan un aumento en el numero de procesos que realizan los

sistemas de computo actuales en breve espacio de tiempo, lo que propicia alto ahorro de energía e incremento en la

velocidad de procesamiento de algoritmos paralelizables. Así mismo se cuenta con una importante cantidad de algoritmos

para resolver problemas NP duros desarrollados por reconocidos investigadores a nivel mundial que pueden ser aplicados

para resolver una gran variedad de problemas del mundo real. La importancia de este proyecto radica en la propuesta de

paralelizar los algoritmos con los cuales se han trabajado actualmente, que serán desarrollados y funcionarán sobre

tecnología multiprocesador/multinúcleo, que los pueden llevar de su contexto teórico a distintas aplicaciones reales. Si

bien es cierto que existen varias herramientas de software, propietarias o libres, con este mismo propósito muchas de ellas

se vuelven prohibitivas en cuanto a costo, soporte técnico o infraestructura requerida para correr los procesos, más

importante aún es que no incorporan las nuevas tendencias y nuevos algoritmos con la debida prontitud. Por lo que en

este trabajo se pretende llevar dichos algoritmos a un entorno en paralelo con GPU que junto con la arquitectura CUDA

que permitirá la comunicación entre los procesos realizados entre los procesadores y la(s) GPU´s permitirá tener un

entorno con ventajas en cuanto tiempo y costo sobre el uso de la paralelización usada en los entornos de procesos en

paralelo con procesadores y sus núcleos.

2 Estado del Arte

2.1 Unidad Grafica de Procesamiento y CUDA CUDA (Compute Unified Device Architecture) es una arquitectura procesamiento en paralelo creada por la compañía

fabricante de tarjetas gráficas NVIDIA que tiene como objetivo aprovechar la potencia de procesamiento de una GPU

para lograr incrementos en el rendimiento del sistema con el cual desarrolladores, se están encontrando aplicaciones

prácticas para esta tecnología en campos como el simulación, procesamiento de vídeo, la astrofísica, la biología y la

química computacional, mecánica de fluidos, la interferencia electromagnética, el análisis sísmico o el trazado de rayos

entre otras [6].

Figura 1. Representación de unidades de procesamiento entre CPU y GPU.

La Figura 1 hace una representación entre la cantidad de unidades de procesamiento con las que cuenta una CPU y una

GPU en la que se ve una clara superioridad numérica de unidades para las pruebas de este trabajo se utilizó una GPU con

448 núcleos. Con CUDA muchas veces la CPU realiza la tarea de administrador de las instrucciones e información que se

almacenará y procesarán en la memoria de la GPU y una vez finalizado este proceso se regresará la información a la

memoria de la CPU únicamente para mostrar los resultados.

2.2 Algoritmo de Colonia de Hormigas

Para la realización del trabajo de investigación se utilizo un algoritmo de Colonia de Hormigas para afrontar los

problemas de ruteo. Simulando el comportamiento de las hormigas en la vida real, en cómo hacen rutas desde su

hormiguero a una fuente de alimentación. Estas se comunican mediante rastros de sustancias químicas llamada feromona,

la cual depositan en el camino y se van guiando a través de estas, las rutas más promisorias se van quedando con un rastro

de feromona mayor a las demás [5]. Los algoritmos de colonias de hormigas han sido utilizados para resolver diferentes

problemas de optimización combinatoria, en el algoritmo cada hormiga es un agente que puede tener un comportamiento

simple pero no siempre encontraría caminos de calidad por sí sola, es por eso que se comunica de manera global a través

de la feromona[7]. El algoritmo utilizado se muestra a continuación.

Se hace uso del procedimiento ACO para la solución al problema

Inicialización de parámetros

Page 68: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 68 Alfa Omega Grupo Editor

Leer instancia del problema

Establecer feromona inicial

Repetir

Generar Hormigas

Para k desde 1 Hasta el número de hormigas Hacer

Construir una solución para la hormiga k

Seleccionar la mejor solución

Actualizar los rastros de feromona

Hasta Alcanzar el número de iteraciones

Donde los parámetros corresponden al número de hormigas, α: importancia de la feromona, β: importancia de la

visibilidad, ρ: porcentaje de evaporación de la feromona, τ: concentración inicial de la feromona y la instancia del

problema dada por el archivo de lectura.

Construir Solución

Para la construcción de la solución se coloca en una posición inicial y a partir de ese punto se requiere obtener la

probabilidad de ir al punto siguiente, cada recorrido se obtiene utilizando la siguiente ecuación:

Donde:

τij: concentración de la feromona el punto i y el punto j.

nij: inverso de la distancia del arco entre el punto i y el punto j.

Por lo que la probabilidad de que la hormiga k valla del punto i al puto j esta dado en función de la concentración de la

feromona y la distancia.

Actualizar rastros de feromona

La actualización de la feromona se realiza mediante la siguiente ecuación:

τij(t+1)=ρ τij(t)+Δτ

donde:

τij(t+1):cantidad de feromona para la siguiente iteración

ρ: evaporación de la feromona

τij(t): cantidad de feromona antual

Page 69: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 69 Alfa Omega Grupo Editor

Δτ: incremento de la feromona

3 Algoritmo Implementado

Se desarrollo primero el algoritmo de colonia de hormigas de manera secuencial, una vez con el algoritmo completo se

procedió a realizar un análisis de cada uno de los pasos para poder determinar que procedimientos son dependientes uno

del otro, dichos procesos no podrán ser candidatos a realizar en paralelo, y cuales procedimientos son independientes estos

procesos forman parte de los candidatos a realizarse en paralelo. Para este trabajo se pudo paralelizar los procesos de:

cálculo de distancia de la instancia utilizada, colocación de la feromona inicial, actualizar feromona y el cálculo de la

probabilidad de las ciudades para cada hormiga. Las funciones realizadas bajo CUDA se muestran en el siguiente código.

/************** Start CUDA Functions *************/

/* Get the distance matrix and pheromone*/

__global__ void distanceKernel( float *x, float *y, float *d, float *ph int n)

{ float dx, dy;

int i = threadIdx.x+blockIdx.x*blockDim.x;

int j = threadIdx.y+blockIdx.y*blockDim.y;

dx = x[i] - x[j];

dy = y[i] - y[j];

d[j+i*n] = sqrt(pow(dx,2)+pow(dy,2));

ph[j*n+i] = ph[i*n+j]= ph_base;

}

/* Get the sum of every TijNij */

__global__ void sumTijNijKernel(float *c, float *p, float *res, int n, int a, int b)

{

//c-> city distance

//p-> pheromone

int i = threadIdx.x+blockIdx.x*blockDim.x;

if(i<n)

res[i]= (float)pow(p[i],a) * (float)pow(c[i],b);

}

__global__ void tijNijKernel(float *c, float *p, float *tn, int n, int a, int b, float sum)

{

Page 70: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 70 Alfa Omega Grupo Editor

//c-> city distance

//p-> pheromone

int i = threadIdx.x+blockIdx.x*blockDim.x;

if(i<n)

tn[i]= (float)((float)pow(p[i],a) * (float)pow(c[i],b)/sum);

}

/************** End CUDA Functions ***************/

4 Resultados

Se implementa un algoritmo de Colonia de Hormigas para resolver un TSP en paralelo mediante el uso de la arquitectura

CUDA, se cuenta con varios archivos .tsp los cuales son archivos benchmarks localizados en la TSPLIB que son usados

como instancias de ejemplo para este tipo de problemas [8].

Los experimentos se realizaron con los siguientes valores para las instancias de los problemas:

50 iteraciones, α: 1, β: 5, ρ: 0.01, τ: 0.001, Δτ= 1.01

Con el archivo burma14.tsp mostrado en la Tabla 1 se obtuvo el resultado que se muestra en la Fig. 2

Tabla 1. Archivo burma14.tsp

Page 71: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 71 Alfa Omega Grupo Editor

Fig. 2. Resultados del programa para el archivo burma14.tsp

Mientras que para el archivo ulysses22.tsp mostrado en la Tabla 2 se obtuvo el resultado que se muestra en la Fig. 3

Tabla 2. Archivo ulysses22.tsp

Page 72: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 72 Alfa Omega Grupo Editor

Fig. 3. Resultados del programa para el archivo ulysses22.tsp

5 Conclusiones y Trabajo Futuro

En el presente artículo se propuso la implantación de un algoritmo de colonia de hormigas en paralelo usando la

arquitectura que nos proporciona CUDA. Brindándonos la ventaja de poder utilizar los recursos tanto del CPU como de

las GPU´s de las computadoras lo cual nos permite afrontar problemas de mayor índice de complejidad computacional

con un tiempo de respuesta menor al que lo harían los sistemas en paralelo que trabajan únicamente con los CPU de las

computadoras y de la programación secuencial, ya que los GPU´s actuales cuentan con un mayor número de núcleos para

el procesamiento de datos en comparación a los CPU actuales, lo que implica que cada uno de ellos pueda trabajar con

una porción del trabajo a realizar, llevándonos a un gasto de tiempo menor en la resolución del problema .

El Sistema resultante de este proyecto se pretende poner a disposición de la comunidad académica y científica de forma

gratuita, y en su debido momento pueda considerarse su transferencia a empresas por medio del desarrollo de sistemas

hechos a la medida de las necesidades de cada una de las empresas que lo requiera.

Como trabajos futuros se pretende realizar un estudio comparativo sobre la velocidad de ejecución del algoritmo con

respecto a la mejor solución encontrada, pada determinar en qué porcentaje mejora la velocidad del algoritmo obteniendo

el mejor resultado.

Agradecimientos

Este proyecto es financiado por la SEP a través del Programa de Mejoramiento del Profesorado PROMEP/103.5/12/3780.

Page 73: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 73 Alfa Omega Grupo Editor

Referencias

[1] David de la Fuente, Jesús Lozano, Eva Ochoa de Olano y Magín Díaz. Estado del arte de algoritmos basados en

colonias de hormigas para la resolución del problema VRP. XV Congreso de Ingeniería de Organización Cartagena, 7

a 9 de Septiembre de 2011.

[2] Benjamín Barán y Marta Almirón, Colonia de Hormigas en un Ambiente Paralelo Asíncrono, consultado en

www.google.com el día 15 de marzo de 2013.

[3] Gerardo A. Laguna-Sánchez, Mauricio Olguín-Carbajal, Ricardo Barrón-Fernández, Introducción a la programación

de códigos paralelos con CUDA y su ejecución en un GPU multi-hilos. 2 de mayo de 2011.

[4] Julio Ponce, Sayuri Quezada, Alberto Hernandez, Christian Correa. Logistics for the Garbage Collection through the

use of Ant Colony Algorithms. En Logistics Management and Optimization through Hybrid Artificial Intelligence

Systems Edite by: Carlos Alberto Ochoa Ortiz Zezzatti. Publisher: IGI. ISBN13: 9781466602977, 2012.

[5] Marco Dorigo, Vittorio Maniezzo, Alberto Colorni: Ant system: optimization by a colony of cooperating agents. IEEE

Transactions on Systems, Man, and Cybernetics, Part B 26(1): 29-41, 1996.

[6] Corporation Nvidia. (2006) CUDA Computer Parallel Computing Platform. Consultado en mayo de 2012.

https://developer.nvidia.com/what-cuda

[7] Julio Ponce, Felipe Padilla, Alberto Ochoa, Alejandro Padilla, Eunice Ponce de León, Fátima Quezada. Ant Colony

Algorithm for Clustering through of Cliques. Artificial Intelligence & Applications. Gelbukh (Ed.): SMIA. ISBN-978-

607-95367-0-1. pp. 29–34, 2009.

[8] TSPLIB. Librería en internet con benchmarks reconocidos para problemas de ruteo. http://comopt.ifi.uni-

heidelberg.de/software/TSPLIB95/ consultado abril de 2012.

Page 74: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 74 Alfa Omega Grupo Editor

Capítulo III. Autenticación de Usuarios Mediante Ritmo de Escritura en

Teclado Usando Árboles de Decisión

Área de conocimiento: Cómputo aplicado

Sandra Mercado Pérez 1,2

, J. Guadalupe Lara Cisneros1,3

y José Refugio Luévano Ceballos 1,4

1 Universidad Autónoma de Zacatecas – Unidad Académica de Ingeniería Eléctrica - Campus Jalpa,

Libramiento Jalpa Km. 156 + 380, Jalpa, Zac., 99601. México.

Tel. 01 (463) 955 2345. [email protected]

[email protected]

[email protected]

Resumen. En este trabajo se presenta un enfoque basado en árboles de decisión referente al ritmo de

escritura en teclado como característica de autenticación biométrica. Se propone un sistema donde cada

uno de los usuarios registrados siga un asistente para obtener muestras de escritura y en base a éstas

mediante el algoritmo See5 crear un árbol de decisión que se utilice para autorizar o denegar el acceso a

un usuario de acuerdo a los tiempos de presión de teclas registrados en el proceso de autenticación.

Palabras Clave: Dinámica de tecleo, árboles de decisión, autenticación, sistemas biométricos.

1 Introducción

El incremento en la demanda de sistemas de seguridad más confiables que autentifiquen a un usuario antes de otorgarle

acceso a recursos restringidos ha motivado el surgimiento de nuevas métodos de autenticación. Un sistema de

autenticación confirma que un usuario es realmente quien dice ser, esto con el fin de otorgarle o denegarle el acceso a

recursos protegidos, tanto físicos como lógicos. Los sistemas de autenticación se clasifican en tres categorías: (a) Algo

que el usuario sabe. Es la manera más común de autenticación en un sistema computacional, se basa en un nombre de

usuario y una contraseña asociada, este método supone que solamente el usuario conoce la contraseña, por lo que se

vuelve vulnerable, ya que una contraseña puede ser adivinada o robada a través de diferentes estrategias, (b) algo que el

usuario tiene. Se basa en un dispositivo como tarjeta, token, etc. que únicamente el usuario posee, la desventaja de este

método es que si el usuario pierde el dispositivo deja de obtener el acceso, (c) algo que el usuario es. Se basa en datos

biométricos, es decir, características físicas o de comportamiento únicas en cada persona, por ejemplo huella dactilar o

voz.

La Biometría puede ser usada de dos modos: por identificación o por verificación. En el primero se identifica a la persona

dentro de una población registrada, buscando una igualación de sus registros en el parámetro biométrico, su relación es 1 a

N. En cambio, en el modo de verificación se identifica a la persona a partir de un patrón previamente registrado, la

relación es 1 a 1 [1].

El estudio y desarrollo científico de la identificación de usuarios mediante ritmo de escritura en teclado tiene sus inicios

en la década de 1980 [2]. La fiabilidad del uso de características de escritura en teclado se basa en observaciones de

factores neuro-fisiológicos similares a los que hacen única una firma manuscrita [3], un sistema biométrico basado en

estas características representa un método no invasivo y no requiere hardware adicional. Cuando una persona escribe en

teclado los tiempos de presión de teclas, tiempos de vuelo entre cada tecla y factores similares pueden usarse para

construir un perfil biométrico y así autenticar el acceso en base a este perfil.

Page 75: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 75 Alfa Omega Grupo Editor

En este trabajo se presenta la implementación de un sistema de autenticación basado en los tiempos de presión de teclas de

los usuarios registrados en el sistema, se presentan las pruebas realizadas al sistema y se proponen estrategias

complementarias con la finalidad de alcanzar una mejor fiabilidad del sistema.

2 Estado del arte

Existen algunas empresas que ofrecen de manera comercial sistemas de autenticación de usuarios por medio de la

dinámica de tecleo, entre ellas se puede mencionar a Admit One Security[4], en donde a través de una aplicación

demostrativa se toman las muestras de escritura del usuario mediante la captura por 15 veces del nombre de usuario y

contraseña elegidos, con restricción mínima de 8 caracteres; Behaviosec [5] ofrece también un escenario donde el usuario

presenta 10 muestras de escritura, capturando nombre, correo electrónico y código de seguridad, una vez obtenido el perfil

biométrico, cuando un usuario se intenta autentificar lo que se obtiene es el índice de probabilidad correspondiente con el

perfil almacenado.

El uso de la dinámica de tecleo como característica de autentificación biométrica se ha implementado también bajo

diferentes estrategias de manera no comercial y con fines científicos, su desempeño generalmente es medido utilizando las

tasas de error de falsos positivos (cuando se otorga el acceso a quien no es realmente quien dice ser) y falsos negativos

(cuando se niega el acceso a quien sí es realmente quien dice ser).

En [6] se realiza un análisis de la latencia entre teclas basado en funciones estadísticas de dispersión, se aplica un

experimento con 230 personas con un total de 26100 muestras y se obtiene tasa de falsos positivos de 0% y una tasa de

falsos negativos de 35%. Una aproximación mediante lógica difusa se presenta en [7], donde se tomaron muestras de 20

usuarios que escribían dos contraseñas, una fija de 12 caracteres y otra libre de por lo menos 10, se obtuvo una tasa de

falsos positivos de 2.9% y tasa de falsos negativos de 3.5%.

El análisis de la dinámica de tecleo se ha extendido hacia los dispositivos móviles, en [2] se muestra el desarrollo de

una aplicación en donde la obtención de un perfil biométrico se hace sobre una contraseña elegida de manera libre, se

realizaron pruebas en un PDA (Personal Digital Assistant, asistente digital personal) con pantalla táctil con 25 usuarios,

tomando 5 muestras por cada uno, se analiza tanto el tiempo de presión como el tiempo de cambio, los resultados

presentados indican una tasa de falso positivo de 2.66% y falso negativo 44%. [2]

3 Metodología usada

El estudio de la dinámica de tecleo se basa tradicionalmente en dos características (a) el tiempo de presión de teclas, que

es el lapso de tiempo que transcurre desde que se presiona una tecla hasta que se suelta, (b) tiempo de cambio, que

corresponde al lapso de tiempo desde que se suelta una tecla hasta que se presiona la siguiente.

Se desarrolló un asistente que guía al usuario a través del proceso de captura de muestras de escritura, donde se

adquieren los tiempos de presión de teclas; luego estos tiempos se someten al sistema See5 para obtener un árbol de

decisión para cada uno de los usuarios, que será el que se utilice cada vez que el usuario intenta autenticarse para clasificar

la muestra de tiempos obtenidos como positiva o negativa respecto al usuario que se autentica.

3.1 Asistente para la toma de muestras de escritura

Se desarrolló en lenguaje java un asistente para guiar al usuario a través del proceso de toma de muestras de escritura, bajo

este asistente se pide al usuario capturar diez veces una frase predeterminada, la cual se visualiza en la figura 1. Los

tiempos de presión de teclas se calculan en base a los tiempos registrados durante los eventos keypressed y keyreleased de

la caja de texto, se utiliza un temporizador interno como base. En la figura 1 se muestra la interfaz del asistente.

Page 76: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 76 Alfa Omega Grupo Editor

Fig. 1. Asistente para la toma de muestras

Al término de la ejecución del asistente se obtendrá un archivo con las muestras de escritura de usuario como el que se

muestra en la figura 2, en cada renglón se tiene el nombre del usuario y el tiempo de pulsación para cada una de las letras

del abecedario.

Fig. 2. Archivo con muestras de escritura

En pruebas preliminares de la aplicación se observó que el cálculo de tiempos de presión de teclas no consistía

simplemente en una resta del tiempo de liberación menos el tiempo de presión anterior, ya que algunos usuarios tienden a

presionar una tecla antes de liberar la anterior, para realizar un cálculo correcto de los tiempos de presión de teclas se

guardan en arreglos la letra correspondiente a la tecla presionada y el tiempo registrado al momento de presión de la

tecla; en el evento de soltar la tecla, se realiza una búsqueda en el arreglo para restar el tiempo de presión que corresponde

a la tecla soltada.

3.2 Creación de árboles de decisión mediante See5

See53 es un software que permite construir automáticamente un árbol de clasificación que representa la relación que existe

entre la decisión y sus atributos o variables (características) a partir de un conjunto de datos de ejemplo o entrenamiento.

El trabajo que See5 realiza es encontrar la manera de predecir la clase de un caso a partir de los valores de los otros

atributos. See5 hace esto mediante la construcción de un clasificador que hace esta predicción. See5 puede construir

clasificadores expresados como árboles de decisión. [8]

Para cada uno de los usuarios se forma un archivo con las 10 muestras obtenidas con el asistente clasificadas como

positivas y las muestras del resto de los usuarios clasificadas como negativas. Una parte del archivo con estas muestras

puede observarse en la figura 3.

3 Este algoritmo constituye una extensión de los algoritmos ID3 y C4.5. Una descripción detallada puede

verse en [9] y [10].

Page 77: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 77 Alfa Omega Grupo Editor

Fig. 3. Archivo con muestras de escritura

Al proporcionar a See5 el archivo con los casos de entrenamiento, éste crea un árbol de decisión que predice la clase para

una nueva muestra, en el caso de este trabajo, la muestra a predecir será la recabada al momento de la autenticación de

usuario, dicha muestra se clasificará como positiva o negativa.

En la figura 4 se muestra el árbol que genera See5 con los datos que se muestran parcialmente en la figura 3.

Fig. 4. Árbol de decisión generado por See5

3.3 Autenticación de usuarios

Una vez que se tienen los árboles correspondientes a cada uno de los usuarios el sistema cuenta con los elementos para

llevar a cabo la autenticación; se pide al usuario teclear una frase predeterminada y con los tiempos de presión de teclas

se crea un archivo con la muestra que se clasificará como positiva o negativa de acuerdo al árbol de decisión

correspondiente. En la figura 5 se observa un ejemplo de este tipo de archivo, el valor ‘?’ para el primer campo indica el

atributo a predecir y el resto de los valores corresponden a los tiempos de presión de cada una de las letras del abecedario.

Fig. 5. Muestra a Clasificar

Page 78: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 78 Alfa Omega Grupo Editor

4 Resultados experimentales

Las pruebas parciales realizadas al sistema consistieron en tomar diez muestras de escritura a diez usuarios,

posteriormente cada uno de los usuarios del sistema intentó autenticarse cuatro veces con él mismo y doce veces como

otros usuarios. En la tabla 1 se muestran los resultados detallados obtenidos en la fase de pruebas referente a

autenticación.

Usuario

Real Autenticado como:

Sandra

Sandra Guadalupe Ulises Jenny

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

3 1 4 0 4 0 4 0

Jenny

Jenny Sandra Carlos Reynel

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

0 4 3 1 4 0 4 0

Martha

Martha Miguel Guadalupe Jenny

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

2 2 4 0 4 0 4 0

Roberto

Roberto Osbaldo Reynel Sandra

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

1 3 4 0 4 0 4 0

Reynel

Reynel Ulises Carlos Roberto

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

4 0 4 0 4 0 3 1

Osbaldo

Osbaldo Martha Guadalupe Reynel

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

4 0 4 0 4 0 4 0

Ulises

Ulises Guadalupe Sandra Miguel

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

1 3 4 0 4 0 4 0

Guadalupe

Guadalupe Jenny Ulises Martha

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

0 4 4 0 4 0 4 0

Miguel Miguel Ulises Carlos Osbaldo

Page 79: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 79 Alfa Omega Grupo Editor

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

2 2 3 1 3 1 3 1

Carlos

Carlos Reynel Guadalupe Jenny

Denegado Aceptado Denegado Aceptado Denegado Aceptado Denegado Aceptado

2 2 4 0 4 0 4 0

Tabla 1. Resultados de las pruebas de autenticación de usuarios

Bajo las pruebas documentadas en la tabla 1 se obtuvieron resultados con tasa de error de 4.16% para falsos positivos

y de 47.5% respecto a falsos negativos, éstos resultados fueron calculados respecto a las ecuaciones (1) y (2)

respectivamente.

pfp = ( fp x 100) / mn = (5 x 100)/120 (1)

pfn=(fn x 100) /mp = (19 x 100)/40 (2)

Donde pfp es el porcentaje de falsos negativos, fp es la cantidad de muestras que resultaron falsos positivos, mn es la

cantidad de muestras donde el usuario realmente era quien se estaba autenticando, pfn es el porcentaje de falsos negativos,

fn es la cantidad de muestras que resultaron falsos negativos y mp es la cantidad de muestras donde el usuario no era

realmente quien se estaba autenticando.

5 Conclusiones y trabajo futuro

Los tiempos registrados durante la escritura en teclado pueden ser sometidos a un algoritmo de clasificación para así crear

un perfil biométrico, se pueden tomar diferentes medidas referentes al ritmo de escritura en teclado, por ejemplo el tiempo

de presión de teclas, el tiempo de vuelo entre cada tecla y el índice de errores de escritura.

El almacenamiento de perfiles biométricos en forma de árboles de decisión representa un sistema de autenticación de

bajo costo computacional, por lo cual se podría extender hacia el uso en dispositivos móviles.

Aunque la fiabilidad del sistema observada en las pruebas parciales no es la óptima, se considera aceptable, al igual

que en [11] se considera la tasa de error de falsos positivos más costosa que la de falsos negativos, ya que al producirse un

error de este tipo, se rompe el esquema de seguridad.

En el presente trabajo se utilizan únicamente los tiempo de presión de teclas, por lo que se propone complementar el

perfil biométrico de cada usuario con los tiempos transcurridos entre cada una de las teclas presionadas, además de

registrar el tiempo de presión de cada tecla asociado al contexto, es decir, cual tecla fue presionada antes y cual tecla fue

presionada después. Se propone también probar el sistema bajo diferentes cantidades de muestras de usuarios, así como

bajo diferentes cantidades de valores tomados como negativos en cada uno de los perfiles del usuario.

Referencias

[1] F. Podio y J. Dunn. Biometric Consortium Before the Commission on Online Child Protection, 2000 Washington,

D.C.

[2] G. Iglesias, F. Rodríguez y C. Villegas. Sistema de Autenticación para Dispositivos Móviles basado en Biometría de

comportamiento de Tecleo. Instituto Tecnológico de Morelia, 2007.

[3] R. Joyce, G. Gupta, Identity authorization based on keystroke latencies, ACM 33, 1990.

[4] AdmitOne Security Inc. [En línea]. http://www.biopassword.com/. [Último acceso: 16 Octubre 2011].

[5] Behaviosec. [En línea]. http://demo.behaviosec.com/BehavioWebDemo/welcome.jsf. [Último acceso: 2 Noviembre

2011].

Page 80: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 80 Alfa Omega Grupo Editor

[6] J. Aguilar y L. Lizama. Autenticación de usuarios a través de Biometría de Tecleo. Mexican Conference on

Informatics Security, 2006.

[7] L. Araújo, M. Lizárraga y L. Sucupira. Autentificación Personal por Dinámica de Tecleo Basada en Lógica Difusa.

Revista IEEE América Latina, 2(1), Marzo 2004.

[8] Z. Díaz y J. Fernández. Predicción de crisis empresariales en seguros no-vida. Una aplicación del algoritmo See5.

Universidad Complutense de Madrid.

[9] J. Ross. C4.5: Programs for machine learning. Morgan Kaufmann Publishers, 1993

[10] See5. http:www.rulequest.com/see5-info.html.

[11] J. Ashbourn. Biometrics: Advanced Identity Verification: The Complete Guide. Springer, 2000.

Page 81: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 81 Alfa Omega Grupo Editor

Capítulo IV. Introducción de la fase de especificación para la

construcción de Sistemas multi-agentes

Erik Hernández Luna1, Cora Beatriz Excelente Toledo

2 and Edmundo Bonilla Huerta

3.

1,3 Departamento de Posgrado e Investigación, Instituto Tecnológico de Apizaco. Av. Instituto Tecnológico

s/n, Apizaco Tlaxcala. C.P. 90300

{kire720, edbonn}@hotmail.com 2Laboratorio Nacional de Informática Avanzada, LANIA. Rébsamen No. 80, esq. Circuito Presidentes, Col.

Centro, C.P. 91000 A.P. 696, Xalapa, Veracruz, México

[email protected] Resumen. Este trabajo da a conocer los resultados y experiencias de incluir la fase de especificación como apoyo a la

conceptualización y clarificación en el tratamiento de un sistema complejo para su eventual tratamiento como un sistema

multi-agentes (SMA). Esta fase además apoya el proceso de descomposición, y abstracción que inducen los elementos

básicos inmersos en la teoría de agentes (actores, interacciones y ambiente). Las conclusiones se fundamentan en el

modelado de un caso de estudio de un SMA orientado a cadenas de suministro y donde los resultados de esta fase

propuesta se utilizan como entrada a una metodología de ingeniería de software orientada a agentes (ISOA),

específicamente INGENIAS, para el modelado del sistema multi-agente.

Palabras clave. Sistemas Multi-agentes (SMA), ingeniería de software orientada a agentes (ISOA), INGENIAS.

1 Introducción

Los sistemas multi-agentes (SMA) es una tecnología emergente que tiene cada vez más aceptación, pero al encontrarse

aún en una fase de desarrollo, no es actualmente posible contar con todos los elementos para lograr su correcta definición

o modelación o su implementación dentro de un problema específico [1]. Aunado a la propia naturaleza compleja de los

sistemas, la falta de consenso entre investigadores y la cantidad de metodologías de ingeniería de software orientada a

agentes (ISOA) que se han propuesto, resulta complejo para un interesado en el área, determinar que tanto un problema de

dominio específico se puede atacar como un SMA [2].

El presente artículo explora y presenta las resultados de introducir la fase de especificación, previa a la aplicación de una

metodología ISOA, que permita primero que nada definir y conceptualizar los términos propios del dominio, de modo que

a) se identifiquen los elementos relevantes y su conceptualización inicial de un sistema de software, b) se visualicen los

conceptos teóricos relevantes de la teoría de agentes c) se cuente con elementos para aplicar todo el proceso de desarrollo

de software de una metodología ISOA.

El documento se estructura de la siguiente manera: en la sección 2 se presenta parte del estado del arte que refiere a

críticas y propuestas referentes a la adopción de metodologías SMA, La sección 3 se presenta la propuesta de fase de

especificación, describiendo el objetivo y ejemplos de resultados esperados. La sección 4 muestra, los resultados de seguir

todo el proceso de construcción de la metodología ISOA. Finalmente, la sección 5, cubre conclusiones y trabajos futuros.

2 Estado del arte

En la literatura existen diversas propuestas de metodología orientada al diseño de SMA´s, cada una con un enfoque que la

caracteriza, pero así mismo con alguna carencia o debilidad que por abandono del proyecto o estar aun en un proceso de

análisis no se ha cubierto dejando una brecha que puede retrasar el trabajo del investigador, o en la peor de las situaciones,

obligar al investigador a replantear la perspectiva e iniciar el trabajo desde un punto casi inicial. Ante esta problemática se

han presentado algunos trabajos de investigación que hacen mención de una parte de los problemas que se presentan al

adoptar una metodología como los que se muestran a continuación:

Page 82: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 82 Alfa Omega Grupo Editor

[3] Orienta su trabajo a una revisión de la ingeniería de software orientado a agentes (ISOA) haciendo mención de las

carencias y debilidades que aun presentan las metodologías propuestas en la actualidad, aunque hace mención de que no

por el hecho de tener ciertas carencias las metodologías son erróneas, sino más bien se requiere trabajarlas más a fondo de

modo que cubran el ciclo de vida del software y se aborde de forma adecuada el diseño de SMA.

[2] Toma como base el concepto de organización, partiendo de ello genera diversos enfoques, los cuales pueden ser

adaptados según el dominio en el que se desee implementar el SMA.

[1] Pese a que la orientación del documento es hacia una perspectiva general de SMA en una de sus secciones hace

mención de la problemática en cuestión, referente a que los SMA aún se encuentran en una fase muy temprana de

desarrollo y no existe un consenso claro de cuál es la mejor forma de abordarlos dada su complejidad.

3 Propuesta

Con el fin de aportar elementos a la conceptualización de un sistema complejo, se propone la identificación de conceptos

teniendo siempre presente: el problema que se lo que se resolver en el dominio y los principales elementos involucrados

tanto humanos como computaciones. Concretamente, los conceptos básicos a identificar a través de actividades de

descomposición y abstracción son:

1. Los procesos involucrados en el caso de estudio

2. Los actores y/o responsables en el caso de estudio

3. Las relaciones entre las metas de los actores involucrados.

4. La secuencia de interacción entre los actores.

Es importante aclarar que la intención al llevar a cabo esta fase no es obtener un modelo de SMA, éste será el resultado al

aplicar la metodología ISOA que se adopte. El propósito de esta fase es llevar a cabo una primera especificación y

definición de un sistema de software que se focaliza en identificar procesos, actores, componentes, sistemas, relaciones

entre componentes, insumos resultados, etc. que permita identificar en una versión preliminar los elementos

computacionales que eventualmente podrían concebirse como unidades en sistema SMA. Así, al elegir una metodología

ISOA el proceso de adopción será más sencillo.

3.1 Identificación de procesos

Como premisa en toda investigación es necesario establecer claramente el objetivo de ésta, así como los requerimientos y

metas necesarios para poder cumplir con ellos. Partiendo de esta premisa, este primer paso permite la identificación de los

procesos en el dominio y realizar un análisis desde la perspectiva del área del problema. Para ello, se requiere de un

involucramiento y conocimiento del caso de estudio que puede llevarse a cabo por medio de varias herramientas, en

nuestro caso se realizó un levantamiento de datos inicial a través de entrevistas y observación.

Para llevar a cabo la representación de dichos procedimientos que permitiera y facilitara la validación con los principales

involucrados en el caso de estudio se utilizaron diagramas de procesos. Así, estos diagramas representan los

procedimientos involucrados en toda la cadena de suministro, así como los materiales requeridos y productos obtenidos.

De igual forma se obtuvieron casos de uso que representan en general el sistema [4]. La figura 1 presenta un ejemplo de

un diagrama de proceso donde los nodos representan las actividades a ejecutar a través de las diversas máquinas. Como

parte de los resultados se modelaron todos los procesos (por ejemplo bobina húmeda, paquete, greña, etc.).

Fig. 1. Ejemplo de diagrama de procesos.

Page 83: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 83 Alfa Omega Grupo Editor

3.2 Identificación de los actores.

Una vez que se ha obtenido una vista o perspectiva del problema y se cuenta con documentación inicial de los procesos

inmersos en el problema, se hace necesaria la identificación de los actores responsables de los procesos a través del

esclarecimiento de objetivos y tareas necesarios para satisfacer así como las actividades que se requiere ejecutar. Esta

vista tiene como finalidad obtener una primera perspectiva de componentes, sistemas, subsistemas, metas,

responsabilidades y la relación de unos con otros.

Para apoyar esta tarea se recurre al uso de diagramas de actores, en la cual, en este caso de estudio, además se adiciona la

representación de actividades a ejecutar utilizando una representación similar a la de la planeación clásica que consiste del

diseño del plan o secuencia de acciones resultado de la abstracción de operadores, de precondiciones que deben cumplirse

o satisfacerse para aplicar el operador (acción) y de indicar el estado en el mundo resultado de la aplicación del operador.

La figura 2 muestra las precondiciones, acciones y postcondiciones del responsable de administrar los recursos humanos

involucrados en la planeación de tareas, uno de los componentes del sistema (de un total de cinco).

Actor: Recursos Humanos I) Precondiciones.

i) Orden de ejecución (OrdEjec(MsjAgCo5.1i)) de Coordinador.

ii) Maquinas disponibles, tareas alternas y tiempos requeridos durante el plan (R3.2) de

Maquinaria.

II) Acciones - Calculo del personal necesario por área (maquina) y personal canalizado a otras tareas

durante la producción (limpieza, mantenimiento, etc.) (RecursosHumanosG1).

Actividades realizadas en el procesamiento 1) Recibir orden de ejecución (OrdEjec(R5.1i)).

2) Recibir el (R3.2).

3) En base al recurso (R3.2), calcular el número de personas necesarias para cada área y la cantidad de personal canalizado en actividades diversas.

III) Post-condiciones.

i) Número de personas canalizadas a las diversas áreas y labores asignadas durante la producción (R4.1) para Coordinador

Fig. 2. Ejemplo de diagrama de actor de Recursos Humanos.

3.3 Identificación de relaciones entre metas

En el proceso de identificación de actores, metas y objetivos se determinan las tareas que llevan a cabo los actores para

cumplir con objetivos de forma individual, que en conjunto contribuyen a satisfacer el objetivo principal del sistema. Una

vez identificadas las tareas que se ejecutan dentro del entorno y los cambios que se generan en él, corresponde ahora

determinar la relación existente entre cada actor y sus metas, es decir hacer explícita la interrelación entre las metas, lo

cual puede ser expresado por medio de tablas de relación entre metas [5]. La tabla 1 muestra las relaciones existentes entre

las metas indicando el actor que es responsable de llevarlas a cabo (columna: Actor), la meta u objetivo principal que

persigue (columna: Meta/Objetivo), los recursos o información que genera (columna: Recursos) y por último la columna

Plan donde se hace explícito el plan de ejecución que cada uno de los actores implementa.

Actor. Meta/Objetivo. Recursos Plan.

Clientes ClientesG1 R1.1

R1.2

ClientesG1:=Coordinador(MsjCoordinador5.1i),

Coordinador(R5.1).

Almacén AlmacénG1

AlmacénG2

R2.1v1

R2.1v2 R2.2

MsjAlmacén1

MsjAlmacén2

ClientesG1:=Coordinador(Coordinador5.1i),

Clientes(R1.2). AlmacénG2:=Clientes(R1.2).

Maquinaria MaquinariaG1

MaquinariaG2

R3.1

R3.2

MaquinariaG1:=Coordinador(Coordinador5.1i),

Coordinador(R5.3). MaquinariaG2:=Almacén (R2.2).

RecursosHum

anos

RecursosHuma

nosG1

R4.1 RecursosHumanosG1:=Coordinador(Coordinado

r5.1i), Maquinaria(3.2)

Page 84: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 84 Alfa Omega Grupo Editor

Tabla 1. Tabla de relación entre metas.

3.3 Definición de interacciones.

Una vez identificada la relación entre las metas, se procede con la generación de diagramas de interacción o de relaciones

que permiten ejemplificar de forma más clara como se realiza la comunicación entre los actores dadas las metas que se

persiguen. Para la representación de estas relaciones se muestra en la figura 3 los principales actores y donde, a través de

líneas dirigidas se muestra el sentido de la comunicación y el orden en el que se lleva a cabo. Este diagrama también

indica gráficamente la ejecución de acciones a lo largo del tiempo.

Fig. 3 Diagrama de interacción

4 Resultados experimentales

El interés de este trabajo es proporcionar elementos que faciliten la construcción de SMA por lo que, resultado de la fase

de identificación, ya se cuenta con un primer bosquejo de sistema computacional que incorpora los siguientes elementos:

procesos, actores, relaciones e interacciones. Es importante dejar claro que a este nivel no es posible determinar, cuál de

estos elementos será un agente de software, mucho menos que arquitectura deberá de tener ni el grado de complejidad del

sistema en su totalidad, esta fase aporta elementos útiles y necesarios para la ejecución de una ISOA.

Ahora bien, el estado del arte indica un número importante de trabajo en esta área [3], es claro también que un número

limitado de ellas han iniciado un proceso de maduración, éstas son aquellas donde principalmente se involucra todo el

proceso de desarrollo de un SMA como un producto de software, es decir, desde la fase de análisis hasta la

implementación. Así, para esta investigación se optó por la metodología de INGENIAS [6] que permite diferentes niveles

de especificación, su modelado es gráfico y cubre todo el ciclo de vida del software.

A continuación se presentan los resultados del modelado bajo las especificaciones de la metodología y obteniendo los

diagramas correspondientes a los cinco modelos que propone INGENIAS: agentes, interacción, tareas y objetivos,

ambiente y organización [6].

Modelo de agente Modelo de interacción

Coordinador CoordinadorG1

CoordinadorG2

MsjCoordinador5.1i

R5.1 R5.2

CoordinadorG1:=AgHuman(R0).

CoordinadorG2:=Clientes(R1.1), Almacén(2.1v1, MsjAlmacén1), Maquinaria(3.1),

RecursosHumanos(4.1).

CoordinadorG2:=Clientes(R1.1), Almacén(R2.1v2, MsjAlmacén2),

Maquinaria(3.1), RecursosHumanos(4.1).

Page 85: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 85 Alfa Omega Grupo Editor

Modelo de especificación GRASIA para

interacción

Modelo de tareas y objetivos

Modelo de organización Modelo de ambiente

Fig. 4 Modelos bajo especificación de INGENIAS

A partir de aplicar el proceso de la metodología INGENIAS, se descubrió que la información requerida para construir

cada uno de los distintos modelos había sido ya identificada, aunque de manera incipiente, en la primera abstracción de la

fase de especificación. Es importante también indicar que cada uno de los elementos resultado de la fase de especificación

aporta a los modelos de INGENIAS y donde la relación no es uno a uno, es decir la identificación de actores no implica

información para construir el modelo de Agentes, por el contrario, los resultados del ejercicio de descomposición y

abstracción apoyan a la construcción de todos los modelos en INGENIAS. A continuación en la tabla 2, se describen los

elementos identificados en la fase de especificación y el modelo en INGENIAS donde se tiene mayor impacto.

Desde la perspectiva de este trabajo, la fase especificación permite entender el problema con mayor claridad, por ejemplo

con los diagramas de procesos es posible identificar como está organizado el dominio, que variables participan y que

actores las requieren, permitiendo el modelado del diagrama de ambiente y organización. Al identificar actores y sus

tareas y objetivos, se puede diseñar el modelo de agente y tareas y objetivos. Por ultimo al identificar las relaciones y en

qué orden se realiza dicha relación es posible realizar los modelos de interacción junto con su especificación GRASIA [7].

Fase Especificación Modelo en INGENIAS Procesos involucrados Modelo de ambiente y organización

Actores y/o responsables Modelo de agentes y modelo de tareas y objetivos

Relaciones entre metas Modelo de interacción y especificación GRASIA

Interacción entre actores Modelo de interacción y especificación GRASIA

Tabla. 2 Relación entre fases de especificación y modelos de INGENIAS.

5 Conclusiones y trabajos futuros.

Esta investigación y propuesta aporta con los siguientes resultados a) el incluir la fase de especificación permite abstraer

el problema del dominio al inducir la identificación de elementos fundamentales de un sistema de software, b) los

elementos procesos, actores, metas y relaciones son los conceptos más importante en el modelado de sistemas complejos,

Page 86: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 86 Alfa Omega Grupo Editor

c) se proponen diagramas y tablas que apoyan la identificación de los elementos discutidos, d) se facilitó la aplicación de

INGENIAS y posiblemente la aplicación de cualquier otra ISOA.

Desde luego, estos resultados no pueden generalizarse dado el tamaño del sistema que se usó como caso de estudio y,

mayor investigación es necesaria para poder obtener conclusiones más importantes, por ejemplo, las herramientas elegidas

pueden no ser las más adecuadas para extraer la información que se busca, no estamos claros de en qué medida los

conceptos de la teoría de agentes deben incorporarse en esta fase. También es necesario estar claro que este trabajo es

resultado del interés de introducirse en la teoría y uso de ISOAS y SMA, donde normalmente esto se facilita cuando se

cuenta con conocimiento considerable del área, pero, por otro lado, si queremos que esta tecnología tenga mayor

aplicabilidad, es necesario aportar elementos donde estos conocimientos se vayan adquiriendo y no partir de que son

necesarios e imprescindibles para construir este tipo de sistemas.

6 Referencias

[1] Michael Luck, Peter McBurney, Onn Shehory, Steve Willmott and the AgentLink Community. Agent Technology:

Computing as Interaction. A Roadmap for Agent Based Computing. pp. 48 – 5. Septiembre 2005.

[2] Virginia Dignum, Huib Aldewereld, and Frank Dignum. On the Engineering of Multi Agent Organizations. 12th

International Workshop on Agent-Oriented Software Engineering, 2011.

[3] Jorge J. Gomez-Sanz, Rubén Fuentes-Fernández, Juan Pavón. Understanding Agent Oriented Software Engineering

Methodologies. 12th International Workshop on Agent-Oriented Software Engineering, 2011.

[4] Miguel Vega. Casos de uso UML. Universidad de Granada. Octubre 2010.

[5] Ghallab, Nau, Traverso. Automated Planning: Theory & Practice Intelligence, EU. The Morgan Kaufmann Series in

Artificial. Mayo 2004.

[6] Jorge J. Gómez Sanz. Modelado de sistemas multi-agente. Tesis Doctoral. Universidad Computense de Madrid. 2002.

[7] GRASIA. Research Groupon Intelligent Agents – Engineering and Applications. http://grasia.fdi.ucm.es/main/. Fecha

de consulta Enero 2013.

Page 87: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 87 Alfa Omega Grupo Editor

Capítulo V. Controlador difuso PID + controlador Inmune Artificial

Arturo Valdivia González1 y Daniel Zaldívar Navarro

2

1,2Universidad de Guadalajara, CUCEI, Blvd. Marcelino García Barragán #1421, Guadalajara, Jalisco,

México C.P. 44430,

[email protected], [email protected]

Resumen. En este trabajo se presenta un sistema híbrido compuesto por un controlador difuso (CDPID)

y un controlador inmune artificial (CIA) conectados en cascada, los parámetros de cada controlador

fueron ajustados por el algoritmo de optimización de búsqueda gravitacional (GSA). El sistema

propuesto fue probado en una planta de tercer orden. Los resultados de las simulaciones demostraron que

el desempeño de este sistema híbrido es mejor que el de un PID convencional.

Palabras clave: Controlador difuso PID, controlador inmune, sistema inmune artificial, optimización de

ganancias, GSA.

1 Introducción

El controlador PID es uno de los controladores populares de la industria. Debido a su estructura simple y buena robustez

en una amplia gama de condiciones de funcionamiento. Sin embargo, el controlador PID no funciona bien bajo retardos de

tiempo y perturbaciones. El control mediante lógica difusa es un tema tratado ampliamente en la literatura, combina el

razonamiento humano con la experiencia de expertos, ha mostrado satisfactoriamente su funcionamiento en varios campos

de la investigación científica[1]. La lógica difusa ha demostrado tener la capacidad de hacer frente a sistemas complejos

donde se carece del modelo matemático completo o donde se sufren de complejas no linealidad.

El sistema inmune biológico (SIB) es un tipo de sistema biológicamente complejo de procesamiento de información.

Operan en base a la capacidad de la respuesta inmune para identificar la intrusión de antígenos y generan anticuerpos para

eliminar antígenos con el fin de mantener la salud dinámicamente equilibrada. Los sistemas inmunes artificiales (SIA)

están basados en el comportamiento del SIB y son una rama de la inteligencia artificial que ha demostrado una gran

robustez y flexibilidad para lidiar con problemas dinámicos. Se combinó este controlador inmune artificial [5] en cascada

con el CDPID. Mediante el algoritmo de optimización de búsqueda gravitacional (GSA) se ajustaron primero los

parámetros del CDPID para tener el mejor funcionamiento con la planta y posteriormente se conectó en cascada el CIA y

se ajustaron sus parámetros.

2 Estado del arte

Las técnicas de control de lógica difusa tiene un enfoque no lineal inherentemente dado que involucran tres fuentes de no

linealidades: la base de reglas, el motor de inferencia y fusificación, y el bloque de defusificación. Este paradigma de

control ha demostrado tener éxito en el control de muchos sistemas no lineales, y se ha sugerido como una alternativa a

las técnicas de control convencionales.

Page 88: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 88 Alfa Omega Grupo Editor

En [2] y [3] los autores propusieron un controlador PID inmune y controlador PID inmune difuso respectivamente en

donde tanto los parámetros del controlador PID y la parte inmune artificial de sistema en ambos casos su parámetros son

ajustados por métodos tradicionales como Ziegler–Nichols y de forma experimental empírica.

Anteriormente varios algoritmos de optimización como: PSO [4] y GA [5] han obtenido los mejores parámetros de vario

tipos de controladores. En algoritmo optimización contemporáneo a estos es el GSA que actualmente se está incorporando

al área optimización de parámetros de controladores [6].

La propuesta es combinar estos 2 controladores para obtener lo mejor de ambas técnicas de control y ajustar los

parámetros con el GSA . En años recientes el GSA es un algoritmo que ha demostrado tener una buena eficacia y una

buena aproximación a las mejores soluciones sobre otros algoritmos [7].

3 Metodología usada

3.1 Estructura del CDPID Controlador difuso PID se menciona a menudo como una alternativa a los clásicos controladores PID para casos

complejos y de alta no linealidad. Sin pérdida de generalidad, presentamos la estructura del controlador difuso PID [2] en

la Figura 1, donde los parámetros , , , , , Kp Ki Kd K Kud Kupi son los parámetros a optimizar. Tal controlador tiene una

estructura PI+D. Donde la ley de control de este controlador:

( ) ( ) ( ) ( ) ( )U nT u nT T K nT u nT T K nTPID PI uPI uPI D uD uD (1)

Después de establecer la ley de control del CDPID es necesaria la fusificación de los componentes tanto del controlador

PI y D.

Figura 1.Estructura del CDPID.

Reglas del CDPID

Las cuatro reglas de control para el controlador PI difuso se definen en tabla 1 y para el controlador D en la tabla 2:

Page 89: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 89 Alfa Omega Grupo Editor

Tabla 1

v/ee

p n p

n n z p z p

Tabla 2

/yd

y n p

n z n

p p z

Defussicación

En la etapa de defusificación de ambos controladores , representa el cálculo del valor exacto de salida obtenido usando la

fórmula del Centro de Gravedad o centroide.

3.2 Controlador immune artificial

Las células básicas involucradas en este proceso son el antígeno Ag, Anticuerpos Ab, células B, el estimulador de células

Th, y supresor de células Ts. La respuesta inmune adaptativa es la realizada por las células B y las células T de la

siguiente manera: Conforme a la Figura 2 los antígenos son reconocidos por las de células presentadoras antígenas (APC),

cuando ellos invaden un organismo. El mensaje de reconocimiento de los antígenos es enviado a las células T.

Figura 2. Esquema de funcionamiento del sistema inmune artificial.

Las células B son estimuladas por las células T y ellas inmediatamente crean anticuerpos nuevos para eliminar los

antígenos invasores. Cuando el número de antígenos crece, el número de las células Th también se incrementa y el cuerpo

puede crear más células B para protegerse el mismo. Por otra parte, según los antígenos vayan disminuyendo, la cantidad

de células Ts se incrementa, y el número de células B se reduce en consecuencia. Finalmente el sistema inmune alcanza el

punto de equilibrio. Para evitar la pérdida de generalidad el CIA se encuentra descrito por completo en [3]. El controlador

inmune se define de la siguiente expresión:

1 U(k), (k)Kp K f U (2)

U(k) Kp e(k) (3)

Entonces el CIA está representado por (k)U que puede ser considerado un controlador no lineal tipo P, donde Kp varia a

medida cambia la salida del controlador. El desempeño del controlador depende en suma medida de los parámetros

elegidos de ,K y la función no lineal ( )f . En este trabajo la función no lineal usada es la función Hill [8]. Ahora que

ya se tiene definido el CDPID (1) y CIA (2) se presenta el esquema general del CDPID + CIA en la Figura 3:

Page 90: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 90 Alfa Omega Grupo Editor

Figura 3. Esquema general de CD PID + CIA.

3.3 Optimización de parámetros

El algoritmo de búsqueda gravitacional (GSA), es un algoritmo de optimización creado por Esmat Rashedi en 2009.

Basado en la ley de la gravedad y la interacción entre masas. Una masa con mayor peso atraen con mayor fuerza otras

masas. Donde las masas con mayor peso representan buenas soluciones en la generación actual. El principal atributo del

GSA es la capacidad equilibrada entre la exploración y explotación de las soluciones [7].

El GSA puede ser considerado como un sistema aislado de masas. Es como un pequeño mundo artificial de masas que

obedecen las leyes de movimiento y gravitación de Newton.

Para describir el GSA considera un sistema con s masas cuya posición de la i-ésima masa está definido como:

1(x ,...,x ,...,x ), i 1,2,...,sd nXi i i i (4)

Donde, xd

ies la posición de la i-ésima masa de la d-ésima dimensión donde el espacio de búsqueda es de dimensión n. La

masa de cada agente es calculada después de la evaluación del fitness como se muestra:

(t)

(t)

1

(t)qi

sqi

j

Mi

(4)

Donde, (t)iM es el valor de masa del agente i en el momento t.

(t) worst(t)(t)

(t) (t)

fitiqibest worst

(5)

Donde (t)fiti es el valor de fitness del agente i en el momento t, y worst(t) y (t)best están definidos para el problema

de minimización. Para calcular la aceleración de un agente, el total atracciones sobre una partícula especifica generan un

vector resultante de fuerza que se transforma en una aceleración en cierta dirección del especio de búsqueda, La velocidad

del estado siguiente del agente es calculado con una fracción de su velocidad actual sumado a su aceleración Entonces, su

posición del estado siguiente puede ser calculada por :

,

(t) (t)(t) (t) (x (t) x (t))d d d

i i j i

j kbest j i ij

Mj MiF rand G

R

(6)

Page 91: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 91 Alfa Omega Grupo Editor

,

(t) (t)(t) (t) (x (t) x (t))

(t)

d

d d di

i j j i

j kbest j ii ij

F Mja rand G

M R

(7)

(t 1) (t) a (t)d d d

i i i iV rand v (8) , (t 1) (t) (t 1)d d d

i i ix x v (9)

Donde randi y jrand son números uniformemente distribuidos en el intervalo de [0,1], es un valor

pequeño, (t) (t),X (t)j 2

R Xij i

, kbest es el conjunto K de agentes con los mejores fitness y mayores masas, cuya función tiene

un función a lo largo de la búsqueda, inicializada en 0k al inicio y va decreciendo con el tiempo. En donde

0k tiene el

valor de s (el total de agentes) y decrece linealmente hasta 1.

En GSA , la constate de gravedad G , tomara un valor inicial, 0G , y se estará reduciendo con el tiempo de esta manera:

0(t) G(G , t)G

Figura 4. Pseudocódigo del GSA.

La Figura 4 muestra el pseudocódigo del GSA. Existen varios criterios para comparar el despeño y calidad de los

controladores uno de los más confiables es la integral del valor absoluto del error (IAE), que es la base de la función de

costo o fitness, que se define en la ecuación (10). Como fue visto los parámetros del CDPID son:

, , , , , Kp Ki Kd K Kud Kupi y del CIA son: K y . Estos son los parámetros a optimizar en ese orden.

0

T

IAE e dt= ò (10)

4 Resultados experimentales.

Para simular la optimización de los parámetros del CDPID+CIA usando GSA se selecciono la siguiente planta: 150

(s)3 22 9 57

Gs s s

=+ + +

Page 92: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 92 Alfa Omega Grupo Editor

En la tabla 2 se presentan los parámetros del CDPID+CIA y controlador PID convencional que fueron obtenidos por el

métodos Ziegler–Nichols, ambos para la planta sin perturbaciones. En la tabla 3 se presentan los parámetros obtenidos del

CDPID+CIA y controlador PID convencional para la planta con perturbaciones (retrasos en el tiempo, ruido constante y

temporal).

CDPID+CIA PID

Kp Ki Kd K Kud Kupi K η Kp Ki Kd

0.0323 0.0185 1.0122 1.3239 0.8369 1.87 0.93 2.1 0.75 4.03 0.366

Tabla 2.Tabla de comparación de resultados.

CDPID+CIA PID

Kp Ki Kd K Kud Kupi K η Kp Ki Kd

0.22 0.22 0.3426 0.4436 0.0225 0.2011 0.738 3.531 0.75 4.03 0.366

Tabla 3.Tabla de comparación de resultados.

Los resultados comparativos se presentan en la tabla 4. Planta Rise Time Overshoot Settling Time

CDPID+CIA 0.643179 0.931366 1.062969

PID 0.375698 29.277331 2.517614

Planta con retrasos Rise Time Overshoot Settling Time

CDPID+CIA 0.800676 3.684022 2.266407

PID 0.205020 4.931113 3.175652

Planta con ruido Rise Time Overshoot Settling Time

CDPID+CIA 1.063308 0.684069 2.266407

PID 0.376266 28.904976 56.998201

Planta

con ruido en t=2-2.5

Rise Time Overshoot Settling Time

CDPID+CIA 1.074456 0.879780 2.432679

PID 0.376268 28.904405 2.533552

Tabla 4.Tabla de comparación de resultados.

Page 93: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 93 Alfa Omega Grupo Editor

En la Figura 7 se muestra, la respuesta obtenida con los parámetros de la tabla 2 tanto para CDPID+CIA comparado con

el PID convencional. En la Figura 8 esta la respuesta obtenida con los parámetros de la tabla 3 bajo la perturbación de

retraso en la planta de 0.125 segundos .Se observa en la Figura 9, la respuesta de los controladores parámetros de la tabla

3 bajo la perturbación de ruido de una magnitud 0.1 respecto a una referencia de 1.En la Figura 10, la respuesta obtenida

con los parámetros de la tabla 3 tanto bajo la perturbación de ruido de una magnitud 0.1 en el intervalo de t=2seg. hasta

t=2.5 seg.

Figura 5. Respuesta de la planta sin perturbaciones. Figura 6. Respuesta de la planta son retraso.

Figura 7. Respuesta de la planta con ruido. Figura 8.Respuesta de la planta son retraso temporal.

5 Conclusiones.

En este artículo, se presentó la combinación de dos controladores en cascada que son CDPID+CIA y mediante el

algoritmo GSA de optimización los mejores parámetros fueron encontrados para este controlador híbrido. Mediante las

simulaciones se puede concluir que este controlador reduce el rise time, evita el overshoot y ante el efecto de los retrasos

muestra un desempeño superior al PID convencional. Además las simulaciones indican claramente la eficacia del

CDPID+CIA respecto controlador PID convencional.

Page 94: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 94 Alfa Omega Grupo Editor

Referencias

[1] M. MichaelA.Johnson, “PID Control:New Identification and Design Methods”. Springer-Verlag, 2005,pp. 339- 365 .

[2] G. Dimirovski, “Fuzzy immune controller synthesis for abr traffic control in high-speed networks,” ser. Studies in

Computational Intelligence. Springer Berlin Heidelberg, 2009, vol. 241, pp. 205–222.

[3] D. Liu, Z. Xu, “Fuzzy immune pid temperature control of hvac systems,” in Advances in Neural Networks. Springer

Berlin Heidelberg, 2009, vol. 5552, pp. 1138–1144.

[4] A. El-Zonkoly, “Optimal tunning of lead-lag and fuzzy logic power system stabilizers using particle swarm

optimization,” Expert Systems with Applications, vol. 36, pp. 2097 – 2106, 2009.

[5] C. D. Boesack, “On the application of bezier surfaces for ga-fuzzy controller design for use in automatic generation

control,” Energy Procedia, vol. 14, no. 0, pp. 457 – 463, 2012.

[6] R. Precup, “Novel adaptive gravitational search algorithm for fuzzy controlled servo systems,” Industrial Informatics,

IEEE Trans. on, vol. 8, no. 4, pp. 791–800, 2012.

[7] E. Rashedi, H. Nezamabadi-pour, and S. Saryazdi, “Gsa: A gravitational search algorithm,” Information Sciences, vol.

179, no. 13, pp. 2232 – 2248, 2009.

[8] F. R. Sylvain Goutelle, “The hill equation: a review of its capabilities in pharmacological modelling,” Fundamental &

Clinical Pharmacology, vol. 22, pp. 633–648, 2008.

Page 95: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 95 Alfa Omega Grupo Editor

Capítulo VI. Propuesta de una arquitectura avanzada para aplicaciones

Web educativas con tecnologías de Web Semántica bajo el paradigma de

Educación Basada en Web

Rubén Peredo Valderrama 1 Iván Peredo Valderrama

2

1 Escuela Superior de Cómputo del Instituto Politécnico Nacional, Av. Juan de Dios Bátiz S/N esquina con

Miguel Othón de Mendizábal, México, D.F., 07738. México

[email protected] 2 Universidad Politécnica de Querétaro, Carretera Estatal 420 S/N el Rosario el Marqués, México, Querétaro,

CP. 76240.

[email protected]

Resumen. La presente propuesta presenta una arquitectura avanzada para aplicaciones Web educativas

con tecnologías de Web Semántica bajo el paradigma de Educación Basada en Web, la arquitectura

propuesta nos muestran la integración de las tecnologías de Web Semántica utilizadas para publicar datos

procesables por la computadora, y el desarrollo de sistemas asistenciales que puedan procesar los datos a

través de las computadoras para la aplicación Web, posibilitando a los profesores y alumnos una

personalización más adecuados a su necesidades. Hay tres partes fundamentales en nuestra propuesta de

arquitectura: meta datos, ontologías y un Sistema Multi-Agente, en conjunción con un grupo de Patrones

de Diseño de Software que hemos utilizado y mejorando en diversas aplicaciones Web educativas a lo

largo de los años mejorando la arquitectura, los cuales nos ha permitido robustecer la arquitectura,

facilitándonos los cambios a lo largo de la vida del proyecto y maximizando el reusó de las partes.

Palabras clave: Arquitectura, Web Semántica, Patrones de diseño de software, Educación Basada en

Web.

1 Introducción

La Web Semántica utiliza la palabra semántica la cual expresa significado. El significado posibilita un mejor uso de los

datos, este significado regularmente está ausente muy frecuentemente en las diversas fuentes de información, necesitando

una programación adicional para proveerla. Las páginas Web por ejemplo utilizan etiquetas del Lenguaje de Marcado de

Hiper Texto (Hyper Text Markup Language, HTML por sus siglas en inglés), que sirve para dar formateo para la

presentación de la información en la página Web la cual es interpretada por el usuario, pero no es procesable por las

computadoras, siendo necesario agregar datos adicionales por medio de una capa de metadatos, con la finalidad de hacer a

los datos procesables por las computadoras, y siendo una de las partes fundamentales de la Web Semántica. La Web

Semántica da a las palabras clave significado a través del establecimiento de las relaciones, a través de las ontologías. Las

ontologías especifican un dominio del conocimiento.

La Web Semántica plantea muchos desafíos en la integración de las tecnologías involucradas además de los servicios

involucrados, que van desde la representación de conocimiento con tecnologías como: Marco de Trabajo de Descripción

de Recursos (Resource Description Framework, RDF por sus siglas en inglés) [1], Esquemas RDF (RDF Schema, RDFS

por sus siglas en inglés) [2], Lenguaje de Ontología Web (Web Ontology Language, OWL por sus siglas en inglés) [3] ,

OWL 2 [4], Lenguaje de Reglas Web Semántico (Semantic Web Rule Language, SWRL por sus siglas en inglés) [5].

Los Sistemas Multi-Agente (Multi-Agent System, MAS por sus siglas en inglés), han tenido un renacimiento y están

siendo implementados en una gran diversidad de aplicaciones, adoptar el paradigma de Programación Orientado a Agente

(Agent Oriented Programming, AOP por sus siglas en inglés) no es una tarea fácil, debido a los numerosos problemas que

deben de ser resueltos para lograrlo.

Page 96: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 96 Alfa Omega Grupo Editor

Actualmente no basta para el desarrollo de grandes y complejos proyectos de software con la utilización del paradigma de

Programación Orientada a Objetos (POO), la denominada crisis del software ha puesto de manifiesto esta situación. La

crisis del software tiene tres características principales: desbordamiento de los tiempos de entrega de los proyectos de

software, la calidad no está garantizada, y limitada reutilización de las partes del proyecto [6]. Para hacer frente a la crisis

del software el paradigma de Programación Orientada a Componentes (Component Oriented Programming, COP por sus

siglas en inglés), ofrece una alta reusabilidad y una organización modular.

Los Patrones de Diseño Software (PDS) buscan codificar código en términos generales que sea: flexible, reusable, de fácil

mantenimiento y actualizable.

Un paradigma que ha crecido de manera importante en los últimos años es la Educación Basada en Web (EBW), y brinda

las siguientes ventajas principales a los estudiantes: conectarse a la Internet/Web desde donde sea, a la hora que quieran,

personalización de los materiales educativos en tiempo de ejecución a sus necesidades, y progresar a su propio ritmo. El

paradigma EBW es flexible con los diferentes tipos de recursos de aprendizaje. La investigación en tiene tres iniciativas

principales en el desarrollo y establecimientos de estándares: Aprendizaje Distribuido Avanzado (Advanced Distributed

Learning, ADL por sus siglas en inglés) [7], Iniciativa de Conocimiento Abierto del MIT (Open Knowledge Initiative,

OKI por sus siglas en inglés) [8], y el Consorcio de Aprendizaje Global IMS [9].

La propuesta de aplicación Web aplica la Web Semántica a soluciones reales. La propuesta presenta los resultados de

integración de estas tecnologías en la resolución de los desafíos tecnológicos que enfrentamos para desarrollar e

implementar nuestra aplicación Web Semántica.

2 Estado del Arte

Muchos tipos de instituciones del sector público y privado están envueltos en la búsqueda de mejores formas de

integración de tecnología y pedagogía. Una iniciativa sobresaliente es la de ADL junto con su modelo de Referencia de

Objeto de Contenido Compartido (Sharable Content Object Reference Model, SCORM por sus siglas en inglés), siendo

una referencia a nivel mundial, razón por la cual nuestra propuesta se basa en ADL/SCORM. IEEE tiene una arquitectura

reconocida mundialmente denominada Arquitectura de Sistemas Tecnológicos de Aprendizaje (Learning Technology

System Architecture, LTSA por sus siglas en inglés) [10], siendo un marco de referencia esencial para aplicaciones Web.

La personalización de los ambientes virtuales de aprendizaje es una de las áreas fundamentales de investigación,

aprovechando el canal de comunicación bidireccional que ofrece la Web. Para lograr una mejor personalización se

requiere desarrollar una capa de metadatos que apoyen la personalización de las aplicaciones Web con tecnologías como:

RDF, RDFS, OWL, SWRL, etc., que puedan aprovechar los MAS para mejorar los resultados de personalización en las

aplicaciones Web. Los Marcos de Trabajo Desarrollo Agente Java (Java Agent DEvelopment, JADE por sus siglas en

inglés) [11], y Extensión JADE (JADEXtension, JADEX por sus siglas en inglés) [12] son ampliamente utilizados con la

finalidad de simplificar la implementación del paradigma AOP. Además se requiere de un Marco de Trabajo para

programar la Web Semántica, en nuestro caso para nuestra propuesta utilizamos JENA, basado en Java para construir

aplicaciones de Web Semántica. JENA es un conjunto de herramientas y librerías Java para apoyar el desarrollo de

aplicaciones de Web Semántica, el Marco de Trabajo incluye: una Interfaz de Programación de Aplicación (Application

Programming Interface, API por sus siglas en inglés) para lectura, escritura y procesamiento de datos en formato basados

en XML como: RDF, triples, y turtle; una API para manejar ontologías; un motor de inferencias para razonamiento con

fuentes de datos RDF/OWL, almacenaje para manejar grandes volúmenes de triples RDF de manera eficiente en disco; un

motor de consultas compatible con las especificaciones del Lenguaje de Consulta RDF y Protocolo SPARQL (SPARQL

Protocol and RDF Query Language, SPARQL por sus siglas en inglés); y servidores para publicar datos RDF [13]. En

abril del 2012 fue aprobado como un proyecto Apache de alto nivel [13]. En nuestra propuesta estudiamos múltiples

tecnologías para entender sus funcionalidades y cualidades para resolver problemas del mundo real. La Web Semántica es

una forma de accesar, usar y compartir la información. Los Componentes de Aprendizaje Reusable Inteligente Orientados

a Objetos (Intelligent Reusable Learning Components Object Oriented, IRLCOO por sus siglas en inglés) son un tipo

especial de Objeto de Contenido Compartido (Shareable Content Object, SCO por sus siglas en inglés), propuesto por

nosotros, desarrollados y actualizados constantemente para desarrollar aplicaciones educativas [14-17]. El patrón de

composición posibilita construir componentes compuestos en tiempo de ejecución, usando componentes indivisibles y

Page 97: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 97 Alfa Omega Grupo Editor

compuestos. Los componentes IRLCOO son configurados a través archivos basados en el Lenguaje de Marcado

Extensible (eXtensible Markup Language, XML por sus siglas en inglés), los archivos XML son rescritos en tiempo de

ejecución por la aplicación Web, con la finalidad de mejorar la personalización en el ambiente virtual.

3 Metodología usada

Esta sección se enfocara principalmente en los aspectos de la implementación de las tecnologías de Web Semántica en la

arquitectura de nuestra propuesta, mientras que en trabajos anteriores se ha expuesto la arquitectura basada en

componentes de software y MAS usados en nuestra propuesta [14-17], y PDS [18].

3.1 Metadatos y ontología en la arquitectura propuesta

En nuestra propuesta sobresale el uso del PDS Modelo-Vista-Controlador (Model-View-Controller, MVC por sus siglas

en inglés), que en esta propuesta ha sido mejorado respecto a propuestas previas.

Los metadatos en la propuesta son un conjunto de aseveraciones denominadas triples, estos están compuestos de tres

partes: sujeto, predicado y objeto. El lenguaje RDF es usado para representar los triples, ya que es un modelo de datos

perfeccionado para el intercambio y compartición de información [19]. La serialización RDF es implementada a través del

Marco de Trabajo JENA utilizando los componentes IRLCOO. El modelo abstracto RDF se convierte en un formato

concreto basado en la ontología Amigo de un Amigo (Friend of a Friend, FOAF por sus siglas en inglés). FOAF es una

ontología que enlaza la información, construida usando tecnologías de Web Semántica. El proyecto FOAF fue creado por

Brickley y Miller en el año 2000, teniendo como meta desarrollar un formato procesable por la computadora describiendo

personas, los enlaces entre los nodos representan las relaciones [20]. El documento FOAF es creado en el módulo de meta

etiquetado de la propuesta, es escrito con formato RDF y XML, adoptando las convenciones RDF y XML. La parte más

importante de un documento FOAF es su vocabulario, identificado por su espacio de nombres (Name Space, NS por sus

siglas en inglés). El módulo de meta etiquetado de nuestra propuesta a través de una forma crea el perfil RDF del

estudiante, la aplicación Web serializa el perfil RDF del estudiante y lo publica, así como sus métricas capturadas a través

de los componentes IRLCOO, conformando la Base de Conocimientos de la propuesta, con la finalidad de ser utilizada

por el MAS con la finalidad de personalizar el ambiente virtual del estudiante en tiempo de ejecución. La ontología FOAF

describe personas, sus actividades y relaciones entre personas y objetos. FOAF es procesable por la computadora y en la

propuesta es serializada en el módulo de meta etiquetado en formato RDF, con la finalidad de que las computadoras

puedan interpretar y procesar la capa de meta datos, y los MAS de la propuesta puedan crear sistemas asistenciales de

apoyo al estudiante, con la finalidad de personalizar su ambiente virtual en tiempo de ejecución. Es importante mencionar

que RDF a pesar de su expresividad y flexibilidad no es suficiente, debido a la carencia de soporte explicito para

especificar el significado detrás de las descripciones, razón por la cual se utilizaron los RDFS para proveer a la propuesta

con la capacidad de agregar significado a la aplicación Web basado en datos RDF. Las Bases de Conocimientos de nuestra

propuesta son: Recursos Aprendiz, Registros Aprendiz, que almacenan las métricas del estudiante en formato RDF a

través del ambiente virtual, y capturadas por medio de los componentes IRLCOO, procesadas por el Agente Coach, el

middleware de la propuesta, y el Marco de Trabajo JENA para proveer el almacenaje y recuperación RDF.

Las Bases de Conocimientos de nuestra propuesta son componentes que representan nuestra colección de información

RDF de los estudiantes en la aplicación Web Semántica, que es accesada por medio de los sistemas asistenciales

implementados con el MAS. Estas Bases de Conocimientos son colecciones de hechos del estudiante en el ambiente

virtual, representadas por medio de declaraciones de las métricas del estudiante colectadas por los componentes IRLCOO.

3.2 Sistema Multi-Agente Asistencial

Para la implementación del MAS se usaron dos Marcos de Trabajo: JADE, y JADEX, estos redujeron la complejidad de

implementación del sistema asistencial basado en el MAS, apegada a la Fundación para Agentes Físicos Inteligentes

(Foundation for Intelligent Physical Agents, FIPA por sus siglas en inglés) [21], además JADEX nos simplifico la

implementación del sistema asistencial basado en un MAS con un modelo: Creencias-Deseos-Intenciones (Belief-Desire-

Intention, BDI por sus siglas en inglés) [12], habilitando a nuestra propuesta de una aplicación Web Semántica un motor

de razonamiento, además de habilitar los servicios de una plataforma MAS, y la infraestructura para simplificar el

paradigma AOP. Como se mencionó anteriormente se tomó como arquitectura base la IEEE - 1484 LTSA, pero la

Page 98: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 98 Alfa Omega Grupo Editor

presente propuesta mejora la misma en dos puntos fundamentales, el primero sustituye los procesos: Entrega, Coach,

Evaluación y Aprendiz; por los agentes: Entrega, Coach, Evaluación y Aprendiz; el segundo aspecto es que se

implementó un flujo de datos no presente en la propuesta original IEEE - 1484 LTSA, que permitió capturar las métricas

de los estudiantes en tiempo real en el ambiente virtual, serializarlas y almacenarlas en las Bases de Conocimiento de la

propuesta, sin modificar la arquitectura original IEEE - 1484 LTSA, pero complementándola con un sistema asistencial

basado en un MAS y agregando una capa de meta datos basados en RDF y ontologías. Esto con la finalidad de desarrollar

un sistema asistencial basado en un MAS, para la personalización del ambiente virtual para el estudiante. Además se

mejoró sustancialmente la implementación del patrón MVC respecto a trabajos anteriores [14-17].

El Marco de Trabajo Webbridge como su nombre lo indica es un puente entre la plataforma de agentes, donde reside

nuestro sistema asistencial basado en un MAS, y el servidor Web [12].

La Fig. 1 muestra nuestra de forma integral nuestra propuesta de arquitectura avanzada bajo el paradigma EBW para

aplicaciones educativas implementando tecnología de Web Semántica. La parte superior izquierda de la Fig. 1 muestra la

sección de PDS del lado del servidor que son: Singleton, Observador y MVC. Destacando la mejora de la arquitectura del

patrón MVC respecto a trabajos anteriores, agregando un conjunto de interceptores para preprocesamiento y

posprocesamiento de las peticiones a la aplicación Web Semántica. La parte superior derecha de la Fig. 1 muestra el

módulo de meta etiquetado, el cual construye la capa de metadatos de la propuesta basada en ontologías y RDF a través

del Marco de Trabajo JENA, y construye el archivo de configuración imsmanifest.xml para mantener compatibilidad con

ADL/SCORM a través del Marco de Trabajo JDOM [22]. La parte inferior derecha de la Fig. 1 muestra la plataforma

MAS basada en JADE/JADEX/Webbridge, como se puede ver el sistema asistencial está constituido por: Agente

Aprendiz, Agente Entrega, Agente Coach, y Agente Evaluación, este sistema asistencial personaliza el ambiente virtual de

aprendizaje del estudiante, haciendo consultas a la capa de Base de Datos compuesta por las bases de datos: Recursos

Aprendiz y Registro Aprendiz, y haciendo también consultas a la capa de metadatos de nuestra propuesta compuesta por

las bases de conocimiento: Recursos Aprendiz y Registro Aprendiz, conformadas por colecciones de hechos del estudiante

en el ambiente virtual, representadas por medio de declaraciones de las métricas del estudiante colectadas por los

componentes IRLCOO. También se muestra el Webbridge conformado por el servlet Delegador y el agente Coordinador,

para el intercambio de datos entre la plataforma MAS y el servidor Web. La parte media derecha de la Fig. 1 muestra el

middleware del sistema con los servicios más importantes para que la aplicación Web Semántica pueda llevar a cabo sus

funciones.

Page 99: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 99 Alfa Omega Grupo Editor

Fig. 1. Propuesta de una Arquitectura avanzada bajo el paradigma EBW para aplicaciones educativas implementando

tecnologías de Web Semántica.

El framework Webbridge nos proveyó una solución de integración entre la tecnología de agentes y la presentación en la

Web en nuestra aplicación Web [12]. La arquitectura del Webbridge está basada en el patrón de diseño MVC. La Fig. 1 en

la parte inferior muestra el MAS y el Webbridge integrados en la aplicación Web con los patrones de diseño.

4 Conclusiones y Trabajo Futuro

La propuesta de una arquitectura avanzada bajo el paradigma EWB para aplicaciones educativas está basada en dos

estándares internacionales: ADL/SCORM y IEEE -1484 LTSA, agregando dos mejoras no contempladas en el diseño

original, la primera es un canal de datos para la captura de las métricas del estudiante en tiempo de ejecución a través de

los componentes IRLCOO, y la segunda es la sustitución de los procesos por agentes, además de implementar tecnologías

de Web Semántica innovadoras, con la finalidad de mejorar la personalización de los materiales educativos y del mismo

ambiente virtual de aprendizaje. La propuesta integra tecnologías como: componentes, PDS, MAS, meta datos, AJAX,

Struts 2, Hibernate, Servicios Web, JADE/JADEX/Webbridge, JENA, y Motor de Inferencias. Además de incorporar

comunicación asíncrona/síncrona.

Las aplicaciones Web Semántica desarrollada bajo esta propuesta mejoran la personalización de los materiales educativos

y del ambiente virtual para los estudiantes. Posibilitándonos desarrollar materiales educativos adaptativos, con

secuenciación y composición dinámica, y comunicación asíncrona/síncrona. Esto logra una mejor adaptación a las

necesidades del estudiante en tiempo de ejecución, al agregar una capa de meta datos capturados del estudiante en el

ambiente virtual a través de los componentes IRLCOO, y serializadas en formato RDF utilizando la ontología FOAF, e

interpretadas por el sistema asistencial basado en un MAS para llevar a cabo la personalización, por medio de consultas a

la capa de Base de Datos y Base de Conocimientos, estas últimas a través del motor de inferencias de JENA.

Page 100: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 100 Alfa Omega Grupo Editor

La arquitectura de la aplicación Web con tecnologías de Web Semántica permiten la adquisición de métricas de manera

automatizada, para almacenaje y recuperación, permitiendo al profesor tener diferentes vistas de los estudiantes de manera

automática, proporcionando nuevas visiones de sus estados a lo largo del curso en tiempo de ejecución, utilizando el

sistema asistencial basado en agentes propuesto, además de posibilitar la inferencia de datos de los estudiantes. La Web

Semántica es una nueva visión que está transformando la información masiva hacia soluciones reales, dándole a las

métricas de los estudiantes una nueva dimensión.

La última actualización a los PDS y más específicamente al patrón MVC ayudo a mejorar y rediseñar la arquitectura de la

propuesta.

Agradecimientos. Los autores de este trabajo agradecen a la Escuela Superior de Cómputo (ESCOM) del Instituto

Politécnico Nacional (IPN) y a la Universidad Politécnica de Querétaro, por su soporte parcial a este trabajo, dentro del

proyecto IPN-SIP 20131560.

Referencias

[1] RDF specification, URL: http://www.w3.org/RDF/.

[2] RDFS specification, URL: http://www.w3.org/TR/rdf-schema/.

[3] OWL specification, URL: http://www.w3.org/TR/owl-features/.

[4] OWL 2 specification, URL: http://www.w3.org/TR/owl2-primer/.

[5] SWRL specification, URL: http://www.w3.org/Submission/SWRL/.

[6] C.Szyperski, Component Software -Beyond Object-Oriented Programming (Addison-Wesley 1999).

[7] Advanced Distributed Learning Initiative, URL: http://www.adlnet.org.

[8] Open Knowledge Initiative, MIT, URL: http://web.mit.edu/oki/.

[9] Global IMS Learning Consortium, URL: http://www.imsproject.org/.

[10] IEEE 1484.1/D9 LTSA: Draft Standard for Learning Technology - Learning Technology Systems Architecture

(LTSA). New York, USA (2001). URL: http://ieee.ltsc.org/wg1.

[11] JADE (2010). Java Agent DEvelopment Framework. URL: http://jade.tilab.com/.

[12] JADEX (2010), URL: http://vsis-www.informatik.uni-hamburg.de/projects/jadex/download.php

[13] JENA, URL: http://jena.apache.org/.

[14] Rubén Peredo Valderrama, Iván Peredo Valderrama: Patrones de diseño de software en el desarrollo de materiales

educativos bidireccionales bajo el paradigma de EBW. CNCIIC-ANIEI 2012.

[15] Peredo, R., Balladares, L., Sheremetov, L.: Development of intelligent reusable learning objects for Web-based

education systems. Expert Systems with Applications. 28(2). (2005) 273-283.

[16] Canales, A., Peña, A., Peredo, R., Sossa, H., Gutiérrez, A.: Adaptive and intelligent Web based education system:

Towards an integral architecture and framework. Expert Systems with Applications. 33(4). (2007) 1076-1089.

[17] Peredo, R., et al. Intelligent Web-based education system for adaptive learning. Expert Systems with Applications

(2011), doi:10.1016/j.ESWA.2011.05.013.

[18] Rubén Peredo Valderrama, Alejandro Canales Cruz, Adriana N. Ramírez Salazar, Juan Carlos Caravantes Ramírez:

Personalized knowledge management in environments of web-based education. International Journal of Information

Technology & Decision Making. Vol. 12, No. 2 (2013) 277-307.

[19] Shelley Powers, Practical RDF (O'Reilly Media 2003).

[20] FOAF, URL: http://www.foaf-project.org/.

[21] FIPA specification, URL: http://www.fipa.org.

[22] JDOM, URL: http://www.jdom.org/.

Page 101: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 101 Alfa Omega Grupo Editor

Descomposición de Datos Multivariados mediante Factorización No

Negativa de Matrices de Imágenes

Cristhian Torres Millarez 1

1 Instituto Tecnológico de Morelia, Avenida Tecnológico 1500, Col. Lomas de Santiaguito, Morelia,

Michoacán, 58120. México

[email protected]

Abstract. La Factorización No Negativa de Matrices (NMF) ha mostrado ser útil en la descomposición

de datos multivariados. NMF intenta encontrar dos matrices no negativas cuyo producto aproxime bien

una matriz original. En este trabajo se realizan análisis comparativos entre Factorización No-Negativa de

Matrices (NMF) y Análisis de Componentes Principales (PCA), aplicados sobre una base de datos de

rostros humanos.

Palabras Clave: Factorización No Negativa de Matrices, Análisis de Componentes Principales,

Machine Learning.

1 Introducción

La restricción de no-negatividad es útil para la factorización de matrices. Esta restricción conduce a una representación

basada en partes debido a que solo permite combinaciones aditivas [1]. Los vectores base no negativos aprendidos son

usados en combinaciones distribuidas para generar expresividad en las reconstrucciones. NMF busca encontrar dos

matrices no negativas cuyo producto pueda aproximar adecuadamente una matriz original. De acuerdo a NMF, dada una

matriz no negativa V, encuentra factores matriciales no negativos W y H tal que:

(1)

NMF puede ser aplicado a análisis estadístico de datos multivariados de la siguiente manera. Dado un conjunto de

vectores de datos multivariados n-dimensional, los vectores son colocados en las columnas de una matriz V, de n x m,

donde m es el número de muestras en el conjunto de datos. Esta matriz es luego aproximada factorizándola en una matriz

W de n x r y una matriz H de r x m. Usualmente r es elegida de modo que sea menor que n o m, de manera que W y H son

menores que la matriz original V. Esto resulta en una versión comprimida de los datos de la matriz original.

La aproximación descrita en la ecuación (1) puede ser rescrita columna a columna como v ≈ Wh, donde v y h son las

correspondientes columnas de V y H. En otras palabras, cada vector de datos v es aproximado por una combinación lineal

de las columnas de W, pesadas por los componentes de h. De esta manera W puede ser considerada como un conjunto de

bases que están optimizadas para la aproximación lineal de los datos en V. Debido a que relativamente pocos vectores

WHV

Page 102: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 102 Alfa Omega Grupo Editor

base son usados para representar muchos vectores de datos, una buena aproximación sólo puede ser alcanzada si los

vectores base descubren la estructura subyacente en los datos.

2 Estado del Arte

Las técnicas de factorización de matrices han cobrado popularidad en años recientes para la representación de datos. En

muchos problemas de recuperación de información, visión computacional y reconocimiento de patrones, la matriz de

datos de entrada es de muy alta dimensión. Esto hace que el aprendizaje supervisado sea infactible. El objetivo entonces

gira en encontrar dos o más matrices de menor dimensionalidad cuyo producto genere una buena aproximación a la matriz

original.

Existen técnicas de factorización para matrices canónicas como la descomposición LU, descomposición QR,

descomposición de Cholesky y la descomposición de valores singulares [2].

En el área de Machine Learning, se tienen tres algoritmos que han sido bien estudiados en la literatura: Análisis de

Componentes Principales (PCA), Análisis Lineal Discriminante (LDA) y Correspondencia entre Agrupaciones de Grafos

Elásticos (EBGM) [3].

Análisis de Componentes Principales es sin duda, el más reconocido y que ha tenido mayor aceptación de todos ellos. La

factorización no negativa de matrices es una alternativa reciente que aproxima a PCA, para los casos en que los datos y

sus componentes se asume que no son negativos.

3 Metodología

En vista de que la literatura ha reportado que la factorización no negativa de matrices conduce a buenas aproximaciones

de resultados obtenidos con análisis de componentes principales, en los casos cuando la matriz de datos tiene solo valores

no negativos, se aplicará esta técnica a una base de datos de imágenes de rostros humanos disponible en [4], que contiene

2,429 imágenes de 19x19 pixeles para aprendizaje en formato PGM en escala de grises.

De esta manera, se determinará cualitativamente el nivel de precisión de las aproximaciones sucesivas y se podrá validar

su uso para la inclusión en el Proyecto del Sistema Inteligente de Administración de Archivo sin Papel para

Departamentos de Servicios Escolares del SNEST.

3.1 Aspectos Técnicos de Análisis de Componentes Principales

Sea una imagen de un rostro yxI , un arreglo bi-dimensional de N por N valores de intensidad, o un vector de

dimensión N2. Un tamaño típico de una imagen de 256 por 256 describe un vector de dimensión 65, 536 o

equivalentemente, un punto en el espacio 65, 536-dimensional. Un conjunto de imágenes, luego, mapea a una colección

de puntos en este gran espacio.

Las imágenes de rostros, siendo similares en una configuración general, no se encontrarán distribuidas de manera

aleatoria en este gran espacio, por lo que pueden ser descritas por un sub-espacio de relativa baja dimensión. La idea

Page 103: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 103 Alfa Omega Grupo Editor

principal de Análisis de Componentes Principales (o expansión Karhunen-Loeve) es encontrar los vectores que mejor

representan la distribución de las imágenes de rostros en el espacio entero de imágenes.

Estos vectores definen un sub-espacio de imágenes de rostros. Cada vector de longitud N2, describe una imagen de N por

N, y es una combinación lineal de las imágenes de rostros originales. Debido a que estos vectores son los eigenvectores de

la matriz de covarianza correspondiente a las imágenes de rostros originales, y debido a que parecen rostros, es apropiado

referirse a ellos como eigenrostros [5].

Sea el conjunto de imágenes de rostros de entrenamiento M ...,, 321 . El rostro promedio del conjunto es definido

por

(2)

Cada rostro difiere del promedio por el vector

(3)

Este conjunto de vectores muy largos es luego sujeto a PCA, el cual busca un conjunto de vectores ortonormales ku y sus

eigenvalores asociados kλ que mejor describen la distribución de los datos. Los vectores ku y escalares kλ son los

eigenvectores y eigenvalores, respectivamente de la matriz de covarianza

(4)

Donde la matriz ... 21 MA , de modo que la matriz C es de N2 por N2, y a partir de ella pueden ser

determinados los N2 eigenvectores 2N21 u,...,u,u y sus eigenvalores asociados de modo que 2N21 λ...λλ .

M

n

nM 1

1

ii

T

T

n

m

n

n

AA

MC

1

1

Page 104: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 104 Alfa Omega Grupo Editor

Debido a que C es simétrica, el conjunto de vectores 2N21 u,...,u,u forman una base, (cualquier vector i o de hecho

i , puede ser escrito como una combinación lineal de eigenvectores), de modo que manteniendo los K

eigenvectores con los mayores eigenvalores asociados podemos efectuar una reducción de la dimensionalidad. Para un

vector i siendo K21 u...uu U ; la transformación lineal que efectúa reducción de dimensionalidad es,

(5)

Una vez se ha obtenido B, un vector original i puede ser reconstruido usando sus componentes principales,

(6)

3.2 Aspectos Técnicos de Factorización No Negativa de Matrices

Para encontrar una factorización aproximada WHV , se necesita definir las funciones de costo que cuantifican la

calidad de la aproximación. Una función de costo puede ser construida usando alguna medida de la distancia entre dos

matrices no negativas A y B. Una medida útil es simplemente el cuadrado de la distancia Euclidiana entre A y B,

(7)

Esta es acotada por abajo por cero, y claramente se cancela si y solo si .BA Ahora empleando una formulación

alternativa como un problema de optimización de NMF,

(8)

La función 2

WHV es convexa sólo en W o sólo en H, pero no es convexa en ambas variables a la vez. De donde es

ingenuo esperar un algoritmo que resuelve el problema expresado por (8) en el sentido de que encuentre el mínimo global.

Las siguientes reglas de actualización multiplicativas son un buen compromiso entre velocidad y facilidad de

implementación para resolver el problema (8),

K

i

iB1

TU

K

n

nni ub1

ˆ

ij

ijij BABA22

0 W,HHW

V-WH

s.t. ,

min arg2

Page 105: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 105 Alfa Omega Grupo Editor

La distancia Euclidiana WHV es no ascendente bajo las siguientes reglas de actualización

(9)

La distancia Euclidiana es

invariante bajo estas actualizaciones si y solo si W y H están en un punto estacionario de la distancia.

Durante las actualizaciones descritas se debe actualizar W y H de manera simultánea. Después de actualizar una fila de H,

tenemos que actualizar la correspondiente columna de W. No se necesita calcular los productos matriciales completos

WTV, WTWH, VHT y WHHT, dado que solo necesitamos una fila (o columna) de estas matrices durante una actualización

[1].

4 Resultados Experimentales

Se aplicó NMF y PCA a una base de datos de rostros humanos como se muestra en la Fig. 1. Ambos métodos aprenden a

representar un rostro como una combinación lineal de imágenes base, pero con resultados cualitativamente diferentes. Las

imágenes base de PCA son eigenrostros, algunos de los cuales son versiones distorsionadas de rostros completos. Las

bases de NMF son radicalmente diferentes: en sus imágenes se encuentran características que corresponden mejor con

nociones intuitivas de partes de rostros.

En la Fig. 1 los valores positivos son ilustrados con pixeles en escala de grises siendo el negro el valor máximo, mientras

que los valores negativos son ilustrados con pixeles rojizos. Al colorear con rojo para distinguir los valores positivos de

los negativos se pierde la percepción de eigenrostros, para PCA. En la Fig. 2 se aprecian las bases obtenidas por PCA sin

colorear para distinguir valores negativos.

ia

T

ia

T

iaia

a

T

a

T

aaWHH

VHWW

WHW

VWHH

Page 106: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 106 Alfa Omega Grupo Editor

NMF

PCA

x =

x =

Original

Fig. 1. NMF aprende una representación basada en partes y PCA aprende una representación holística.

Fig. 2. Los eigenrostros obtenidos por PCA sin colorear para distinguir valores negativos y positivos.

Describiendo a NMF y PCA en el contexto de factorización de matrices, tenemos que la base de datos de imágenes es

considerada como una matriz V de n x m, donde cada una de sus columnas contiene los valores no negativos de pixeles de

una de las m imágenes de rostros. Luego ambos métodos construyen factorizaciones aproximadas de la forma

WHV , o

(10)

r

a

aiaii HWWHV1

Page 107: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 107 Alfa Omega Grupo Editor

Las r columnas de W son llamadas imágenes base. Cada columna de H se le llama codificación y tiene una

correspondencia uno a uno con una imagen de rostro en V. Un codificación está formado por los coeficientes para los

cuales un rostro es representado con una combinación lineal de imágenes base.

Las diferencias entre PCA y NMF provienen de diferentes restricciones impuestas sobre las matrices factor W y H. PCA

restringe las columnas de W a que sean ortonormales y las filas de H a que sean ortogonales entre sí. Esto permite una

representación distribuida en la cual cada uno de los rostros es aproximado por una combinación lineal de todas las

imágenes base o eigenrostros. Si bien los eigenrostros tienen una interpretación estadística como las direcciones de mayor

varianza, muchos de ellos no tienen una interpretación visual obvia. Esto se debe a que PCA permite que las entradas en

W y H sean de signo arbitrario. Como los eigenrostros son usados en las combinaciones lineales que generalmente

implican cancelaciones complejas entre números positivos y negativos, muchos eigenrostros adolecen de significado

intuitivo.

NMF no permite entradas negativas en las matrices factor W y H. Esta restricción de no negatividad permite la

combinación de múltiples imágenes base para representar un rostro. En contraste con PCA, no pueden ocurrir

sustracciones. Debido a esto, la restricción de no negatividad es compatible con la noción de combinar las partes para

formar el todo, la cual es la forma en que NMF aprende una representación basada en partes. Como se ve en la Fig. 3 las

imágenes base y de codificación de NMF contienen una gran cantidad de coeficientes nulos, por lo que tanto las imágenes

base y de codificación están esparcidas. Las imágenes base están esparcidas debido a que son no globales y contienen

muchas versiones de bocas, narices y otras partes de rostro.

NMF

x =

Fig. 3. Las imágenes base y de codificación de NMF contienen una gran cantidad de coeficientes nulos.

La variabilidad de un rostro completo es generada por la combinación de estas diferentes partes. Aunque todas las partes

son usadas por al menos un rostro, cualquier rostro dado no usa todas las partes disponibles. Esto resulta en una

distribución esparcida de la imagen codificación en contraste con el de codificación de PCA totalmente distribuido, como

se aprecia en la Fig. 4.

Page 108: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 108 Alfa Omega Grupo Editor

PCA

x =

Fig. 4. Las imágenes de codificación de PCA se encuentran totalmente distribuidas.

5 Conclusiones y Trabajo Futuro

En este trabajo se revisó la Factorización No Negativa de Matrices como una aproximación a los resultados obtenidos

por Análisis de Componentes Principales en una base de datos de imágenes de rostros humanos. La ventaja de emplear

NMF es su velocidad de procesamiento, muy por debajo del tiempo de cómputo que requiere PCA. En general los tiempos

nos indican que cerca de una quinta parte del tiempo de cómputo de PCA es el necesario para NMF sobre igual conjunto

de datos ejecutando en idéntica arquitectura. Por inspección se ha determinado que la calidad de la reconstrucción es

equiparable a la obtenida con PCA cuando se aplica NMF. Por la manera en la que se desarrolla PCA (mediante el

Método de Potencias) tenemos una buena idea de cuáles son las imágenes base que mayor aporte o relevancia tienen en la

reconstrucción de la base de datos de imágenes de rostro. Sin embargo, en Factorización No Negativa de Matrices no se

cuenta con una referencia de relevancia de este tipo. Como trabajo futuro se encuentra el determinar cuál puede ser esa

medida que nos permita identificar cuáles son esas imágenes base que realizan mayor aporte. Se pretende emplear una

medida de autoinformación, de entropía o bien aproximar una medida de log-verosimilitud.

Referencias

[1] D.D. Lee and H.S. Seung. Algorithms for non-negative matrix factorization. In Advances in Neural Information

Processing Systems 13. 2001

[2] G. H Golub and C.F. Van Loan. Matrix Computations. University Press, pp. 48-206, Johns Hopkins, 2012.

[3] T. Hastie, R. Tibshirani and J. Friedman. The Elements of Statistical Learning. Second Edition, pp. 4919-4930,

Springer, 2009.

[4] MIT Center For Biological and Computation Learning. CBCL Face Database #1.

http://cbcl.mit.edu/projects/cbcl/software-datasets/FaceData2.html, 2013

[5] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of. Cognitive Neuroscience. 3, pp. 71-86, 1991.

Page 109: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 109 Alfa Omega Grupo Editor

SEMBLANZA EDITORES.

Alma Rosa García Gaona es profesor de tiempo completo de la Facultad de Estadística e Informática de la Universidad Veracruzana. Cuenta con la licenciatura en Estadística (1982) de la Universidad Veracruzana, Maestría en Ciencias de la Computación (1996) de la Universidad Nacional Autónoma de México, Grado de Doctor en Educación Internacional con especialidad en Tecnología Educativa (2004) de la Universidad Autónoma de Tamaulipas. Recientemente obtuvo el Premio al Decano 2012, máxima distinción que otorga la Universidad Veracruzana. Cuenta con Perfil PROMEP. Ha publicado ha publicado diversos capítulos de libros, artículos en revistas y congresos de reconocido prestigio, en las áreas de ingeniería de software, bases de

datos y educación.

Francisco Javier Álvarez Rodríguez es profesor asociado de Ingeniería de Software de la Universidad Autónoma de Aguascalientes. Tiene una licenciatura en Informática (1994), una maestría (1997) de la Universidad Autónoma de Aguascalientes, un grado EdD del Instituto de Educación de Tamaulipas, México y es Ph(c) de la Universidad Nacional Autónoma de México. Ha publicado artículos de investigación en varias conferencias internacionales en los temas de e-Learning e Ingeniería de Software. Sus intereses de investigación son la Ingeniería de Software para el ciclo de vida de las pequeñas y medianas empresas y el proceso de Ingeniería de Software para e-Learning.

La M. en C. Ma. de Lourdes Sánchez Guerrero es profesor investigador

Titular “C” en la Universidad Autónoma Metropolitana con estudios de

Licenciatura en Computación en la UAM Unidad Iztapalapa y Maestría

en Ciencias de la Computación en la UAM Unidad Azcapotzalco. Es la

Presidenta de la Asociación Nacional de Instituciones de Educación en

Tecnologías de la Información A.C. (ANIEI). Es miembro de los

comités: Comité de Acreditación del Consejo Nacional de Acreditación

de Informática y Computación (CONAIC). Representante de México en

el Centro Latinoamericano de Estudios en Informática CLEI.

Page 110: Avances en el desarrollo tecnológico e investigación en el ...aniei.org.mx/Archivos/Memorias/LIBROaniei2013f.pdfusuario (Simpson [8]; Shneiderman [10]) y en particular los principios

P á g i n a | 110 Alfa Omega Grupo Editor

AGRADECIMIENTOS.

Lic. Alberto Umaña, Director General, Grupo Alfa Omega

Grupo Editor.

IMPRESIÓN.

Grupo Alfa Omega Grupo Editor.

DERECHOS RESERVADOS.

Asociación Nacional de Instituciones de Educación en

Tecnologías de la Información A.C.

102 páginas, Avances en el desarrollo tecnológico e

investigación en el área de Tecnologías de la Información y

Comunicación en México.

ISBN.- 978-607-707-839-5