[architecture ebook] aplicaciones as en arquitectura

403
ARQUITEXT Javier Monedero Isorna Aplicaciones informáticas en arquitectura EDICIONS UPC

Upload: marc-escobar-pallares

Post on 26-Jun-2015

844 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: [Architecture eBook] Aplicaciones as en Arquitectura

ARQUITEXT

Javier Monedero Isorna

Aplicaciones informáticasen arquitectura

EDICIONS UPC

Page 2: [Architecture eBook] Aplicaciones as en Arquitectura

La presente obra fue galardonada en el sexto concurso"Ajuts a l'elaboració de material docent" convocado por la UPC.

Primera edición: diciembre de 1999

Diseño de la cubieta: Manuel Andreu

© Javier Monedero, 1999

© Edicions UPC, 1999© Edicions de la Universitat Politècnica de Catalunya, SL

Jordi Girona Salgado 31, 08034 BarcelonaTel. 934 016 883 Fax. 934 015 885Edicions Virtuals: www.edicionsupc.ese-mail: [email protected]

Producción: CBS - Impressió digitalPintor Fortuny 151, 08224 Terrassa (Barcelona)

Depósito legal:ISBN: 84-8301-328-2

Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del copyright, bajo las san-ciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o pro-cedimiento, comprendidos la reprografía y el tratamiento informático y la distribución de ejemplares deella mediante alquiler o préstamo públicos, así como la exportación e importación de ejemplares para sudistribución y venta fuera del ámbito de la Unión Europea.

Page 3: [Architecture eBook] Aplicaciones as en Arquitectura

Agradecimientos

Este libro nació, en su primera versión, como unosapuntes para la asignatura AplicacionesInformáticas que se comenzó a impartir, tras la re-forma del plan de estudios de la ETS de Arquitec-tura de Barcelona, durante el curso 1994-95. Enaquellos primeros apuntes, y en las clases que sehan impartido desde entonces, colaboraron los pro-fesores Andrés de Mesa, Ernest Redondo, JoaquínRegot, Jorge Sutrías, Jorge Vila, Lluís Comerón yManuel Luque. A todos ellos mi reconocimientopor su trabajo, del que las páginas que siguen sehan beneficiado extensamente. Y muy especialmen-te a Andrés, Joaquín y Ernest, con quienes he cola-borado estrechamente en un gran número de cur-sos, convenios y ponencias durante estos años yque, en justicia, deberían ser consideradoscoautores de algunas partes de este libro.

Dicha asignatura nació, por otro lado, como unaversión drásticamente reducida (de 500 a 30 ho-ras) de un programa de máster sobre"Informatización de proyectos de arquitectura" quecomenzamos a impartir ese mismo curso, comoextensión de un programa de postgrado que habíacomenzado a su vez dos años antes. En este pro-grama han colaborado, además de los menciona-dos, Helena Coch, Jaume Roset, Pilar GarcíaAlmirall, Montserrat Moix, Felix Solaguren,Xavier Pouplana, Ramón Sastre y Joan Quilez,entre otros. De nuevo debo hacer constar aquí mireconocimiento por lo que he podido aprender enreuniones de todo tipo, como coordinador delmáster, con los responsables de los distintos cur-sos.

Y a su vez, este máster nació del impulso dealgunas asignaturas que comenzaron a impartirseen la ETSAB hace ya bastante años. En una de lasprimeras, una optativa de 5º curso que transforma-mos en un curso sobre creación de modelos 3D,

pude contar con la desinteresada y estimulante co-laboración de Antoni Casaús y Jaume Coll, quie-nes posteriormente me ayudaron, entre otros, a or-ganizar, bajo la magnífica dirección de LluísCantallops, el primer congreso internacional deinformática aplicada a la arquitectura que se cele-bró en nuestra escuela y probablemente en España,en 1992: el Xº Congreso de ECAADE (Educationin Computer Aided Architectural Design in Europe)que contribuyó considerablemente a ampliar nues-tras perspectivas de los diversos modos en que lainformática puede incidir en el proceso de crea-ción arquitectónica.

Mi relación con las máquinas nunca ha sido, pesea todo esto, demasiado cordial. En las numerosasocasiones en que me han fallado, a lo largo de es-tos años, he recurrido numerosas veces a DanielMarsà, responsable del Centro de Cálculo de laETSAB, quien, el 90% de las veces, ha soluciona-do con rapidez el problema. El precio a pagar hasido, con frecuencia, un severo sermón sobre losaficionados que se dedican a instalar programas odispositivos sin haber estudiado el manual a fondoo sin conocer muy bien los límites del sistema queusan, sermones que me han sido muy útiles paracalibrar cada vez mejor la magnitud de mis limita-ciones. Mi agradecimiento a Daniel debe extendersetambién a Alberto Callizo y a los becarios que, enuno u otro momento, han trabajado en el Centro deCálculo.

Mi relación con la programación, por el contra-rio, ha sido la de un amor pocas veces correspon-dido debido, justamente, a la irregularidad y esca-sez del cortejo. En mis incursiones en AutoLisp yC++ que me han servido para producir algún pe-queño programa y, sobre todo, para entender me-jor la lógica interna de otros programas, he podidocontar en todo momento con la inestimable ayuda

Agradecimientos 7

Page 4: [Architecture eBook] Aplicaciones as en Arquitectura

de Joan Quilez capaz de resolver en diez minutoslo que a mi me hubiera costado dos (o infinitas)horas.

La mayoría de las ilustraciones de este libro hansido realizadas con notable celeridad y precisiónpor Hector Zapata a partir de bocetos en ocasionesindescifrables. El resto las he ejecutado, en el másamplio sentido del término, yo mismo. En versio-nes posteriores espero poder corregir alguna que,por razones de tiempo, no ha quedado tan biencomo me gustaría.

Muchos profesores de la ETSAB me han ayu-dado a resolver dudas sobre cuestiones diversasrelacionadas indirectamente con el tema de este li-bro. Seguro que me dejo alguno pero quiere men-cionar al menos a Ignacio Paricio, Francisco Fayos,Jordi Maristany, Pancho Muñoz, Francisco LopezAlmansa, Josefa Gómez, Joan Jacas, Claudi Alsina,Amadeo Monreal y Jaime Luis García Roig.

En fin, la asignatura Aplicaciones Informáticas,destinataria inicial de este libro, tampoco me hu-biera permitido poner a prueba la pertinencia de laestructura temática que aquí se desarrolla si nohubiera contado con la confianza, que también agra-dezco, de los dos directores de escuela, Manel deSolà-Morales y Eduard Bru, durante este periodo.

Y, last but not least, debo agradecer a laUniversitat Politècnica de Catalunya el premio queha permitido confeccionar este libro y el no menosimportante apoyo para su publicación.

8 Aplicaciones informáticas en arquitectura

Page 5: [Architecture eBook] Aplicaciones as en Arquitectura

Este libro considera tres tipos posibles de lecto-res. Los que quieran utilizarlo como una referen-cia práctica sobre los programas y las máquinascon que deba contar un arquitecto en su despacho,pueden saltarse el primero y el último capítulo.Los que sientan curiosidad por las implicacionesculturales de la informática deberían hacer lo con-trario: leer con atención el primero y último capí-tulo, saltar de ahí a la bibliografía y leer en diago-nal el resto de los capítulos para encuadrar los di-versos modos en que los desarrollos informáticoshan penetrado y seguirán penetrando en el mundode los arquitectos. El lector ideal, sin embargo,sería el tercero: arquitectos y estudiantes de ar-quitectura que consideren la informática como algomás que la etiqueta asociada a una serie de arte-factos que han irrumpido en sus casas y en susestudios, sustituyendo, para bien y para mal, a otrosartefactos más familiares.

La intención principal, por consiguiente, es in-tentar llenar un hueco que, por otra parte, se re-siste a ser llenado por razones de peso. Quien hayavagabundeado por la sección de informática decualquier librería más o menos especializada sehabrá encontrado con numerosas obras que des-criben el funcionamiento de diversos programas,pero muy pocas que expliquen los principios sub-yacentes a estos programas, y a las máquinas so-bre las que funcionan, de un modo lo suficiente-mente general como para resultar asimilable porquienes no están interesados en convertirse en téc-nicos, pero sienten la necesidad de comprender lalógica interna de lo que es algo más que una má-quina o una técnica.

Las razones para esta falta de oferta son variasy, como he dicho, de peso. En primer lugar hay,

Prefacio

seguramente, una falta de demanda. Los usuariosde ordenadores quieren saber cómo utilizar un pro-grama determinado y consideran, en muchos ca-sos con razón, que esto es algo que ya les da sufi-ciente trabajo como para aumentarlo con más in-formación que no necesitan de modo inmedia-to. En segundo lugar hay una falta de oferta. Sonmuy pocos los arquitectos que se hayan especiali-zado en este área, aún menos los que cuentan conuna experiencia y una visión general adecuadaspara abordar este tema y, de éstos, son menos aúnlos que tienen tiempo, ganas, o incentivos sufi-cientes como para escribir un libro. A esto hay queañadir que tal esfuerzo corre el riesgo adicionalde quedar anticuado con excesiva rapidez.

Sin embargo hay otras razones de suficientefuerza como para correr ese riesgo. La informáti-ca es, según la opinión que se ha adelantado másarriba, algo más que la etiqueta asociada a deter-minados objetos supuestamente útiles. Es un con-cepto poderoso que forma parte indisociable de lacultura occidental de la segunda mitad de este si-glo. Implica un giro fundamental en el modo deentender la organización del trabajo, los modosde colaboración, el valor de los datos.

El motivo fundamental de este empeño es, porconsiguiente, la firme creencia en que no se debeseparar cultura y tecnología. Y mucho menos enun área de trabajo como la de los arquitectos. Pordesgracia, las cosas no van, al menos por el mo-mento, por ahí. Y la profesión de arquitecto haido cediendo terreno progresivamente ante losavances tecnológicos refugiándose en una infladavaloración pública que descansa sobre unas pocasfiguras de prestigio pero que no se correspondecon la actividad real de la mayoría de los profe-

Prefacio 9

Page 6: [Architecture eBook] Aplicaciones as en Arquitectura

sionales que trabajan en este área, ni con el cre-ciente paro profesional, ni con la competencia,cada vez más agresiva, de otros profesionales queencuentran no pocas fisuras, grietas y agujeros pordonde penetrar en la brillante fortaleza de los ar-quitectos.

Desde esta perspectiva, la informática puedeaparecer para muchos más como una herramientaamenzadora que como una tabla de salvación. Larespuesta debería ser que, como dijo un gran poe-ta alemán que "aquello que salva crece en el peli-gro". Es, seguramente, un peligro porque su sor-prendente capacidad de generar automáticamentemúltiples variantes de un mismo tipo, pone encuestión la noción de autoría sobre la que se afianzael fundamento social de la profesión. Es, al mis-mo tiempo, tabla de salvación, porque permiteafrontar la gestión de proyectos progresivamentemás complejos y exigentes, con métodos que mul-tiplican el rendimiento y permiten a pequeños des-pachos llevar a cabo tareas que antes requeriríanel concurso de un número de personas cuatro ocinco veces mayor.

Sobre esta dicotomía se volverá al final de laspáginas que siguen, en el último capítulo. Mien-tras tanto quisiera subrayar la finalidad principal;proporcionar una guía inicial para quien crea queel mejor modo de convertirse en un inculto inde-fenso es tomarse demasiado en serio las fronterasacadémicas que separan a arquitectos de ingenie-ros, informáticos, pintores o filósofos.

Dada la temática de este libro, puede que noesté de más indicar qué medios informáticos sehan utilizado para escribirlo pues a mucho de suslectores les interesará saberlo. La composición seha realizado integramente con Page Maker. El tex-to proviene de diversos programas: parte está con-feccionado con el propio Page Maker, parte conWord y parte con editores ASCII. Los dibujos sehan confeccionado con AutoCad y se han llevadoa la composición en formato WMF. Las imágenesprovienen de diversas fuentes, tanto internas, comopor ejemplo, 3DStudio Max, como externas,digitalizando fotografías con un escáner de sobre-mesa, pero, en general, se han generado o se hanretocado con Photoshop y se han llevado a la com-posición en formato TIF con una resolución de600 dpi.

10 Aplicaciones informáticas en arquitectura

Page 7: [Architecture eBook] Aplicaciones as en Arquitectura

Índice general

Agradecimientos ...................................................................................................................... 7Prefacio ..................................................................................................................................... 9

Introducción

Capítulo 1. Sobre algunos conceptos fundamentales en la evolución de la informática . 211 Prehistoria de la informática ...................................................................................................... 212 Norbert Wiener ............................................................................................................................ 23

La noción de cibernética ........................................................................................................ 25Retroalimentación y aprendizaje ........................................................................................... 26Cibernética y sociedad ........................................................................................................... 28

3 John Von Neumann ...................................................................................................................... 29El diseño lógico de un ordenador .......................................................................................... 31Programación. Diagramas de flujo ........................................................................................ 33La teoría de autómatas programables. El ordenador y el cerebro .......................................... 34

4 Alan Turing ................................................................................................................................... 36Las nociones de algoritmo y proceso computable ................................................................ 38La Universal Turing Machine ............................................................................................... 41El test de Turing ..................................................................................................................... 42

5 Claude Shannon ........................................................................................................................... 44Un álgebra de circuitos .......................................................................................................... 45La teoría de la información .................................................................................................... 47Entropía e información .......................................................................................................... 50

Primera parteSistemas de generación de formas e imágenes.

Anteproyecto

Capítulo 2 . Recursos básicos. Programas y máquinas ..................................................... 551 Información. Bits. Parámetros básicos ...................................................................................... 55

Modos y velocidades de transmisión. .................................................................................... 57Codificación y Normalización ............................................................................................... 59

2 El soporte lógico ........................................................................................................................... 60Lenguajes ............................................................................................................................... 61

Índice general 11

Page 8: [Architecture eBook] Aplicaciones as en Arquitectura

Programas .............................................................................................................................. 653 El soporte físico ............................................................................................................................ 65

Tipos de plataformas ............................................................................................................. 65Configuración ........................................................................................................................ 65Placa base. Chips ................................................................................................................... 68Buses, puertos ........................................................................................................................ 71Memoria principal ................................................................................................................. 73Dispositivos de entrada y salida ............................................................................................ 74Monitores ............................................................................................................................... 76La placa gráfica ..................................................................................................................... 79Impresoras, plotters y filmadoras .......................................................................................... 80Dispositivos de almacenamiento ........................................................................................... 83

4 Sistemas operativos ...................................................................................................................... 87Funciones ............................................................................................................................... 88Formatos ................................................................................................................................ 89Complementos operativos ..................................................................................................... 90

Capítulo 3. CAD2D ................................................................................................................ 911 Interfaz .......................................................................................................................................... 91

Recursos gráficos principales ................................................................................................ 92Otros recursos gráficos. Controles de ventana ...................................................................... 94Organización básica ............................................................................................................... 95

2 Visualización ................................................................................................................................. 97Sistemas de coordenadas normalizadas ................................................................................. 97Configuración de ventanas y selección de vistas ................................................................... 97Desplazamientos y tipos de vistas ......................................................................................... 98

3 Creación de entidades 2D ............................................................................................................ 99Primitivas gráficas en sentido estricto ................................................................................... 99Representación vectorial y raster .......................................................................................... 99Primitivas del programa ....................................................................................................... 100Primitivas de usuario. Bloques o células. Formas paramétricas .......................................... 102

4 Propiedades ................................................................................................................................103Tipos de línea ....................................................................................................................... 104Color .................................................................................................................................... 105Estilos de texto .................................................................................................................... 106

5 Transformación y modificación de entidades 2D ....................................................................106Operaciones básicas ............................................................................................................. 106Otras operaciones ................................................................................................................ 107

6 Entidades compuestas ................................................................................................................ 108Polilíneas ............................................................................................................................. 108Grupos ................................................................................................................................. 109Bloques ................................................................................................................................ 109Capas ................................................................................................................................... 110

7 Organización y vinculación de archivos .................................................................................. 110Archivos de planos .............................................................................................................. 111Archivos de modelos ........................................................................................................... 111

8 Personalización. Diseño paramétrico ....................................................................................... 112

12 Aplicaciones informáticas en arquitectura

Page 9: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 413

Bibliografía

ABRAMSON, N. Information Theory and Coding.Nueva York, MacGraw-Hill, 1963.

AHO, A.V.; HOPCROFT, J. E.; ULLMAN, J. D. DataStructures and Algorithms. Reading, Mass, Addison-Wesley. Trad.cast.: Estructuras de datos yalgoritmos. Wilmington, Delaware, Addison-WeselyIberoamericana, 1983.

AIA (American Institute of Architecture). CAD LayerGuidelines. Washington D.C., The American Instituteof Architects Press, 1998.

AKIMOTO, T. et al. «Pixel selected Ray Tracing».IEEE CG&A, julio, 1991, p.15.

ALDEFELD, B. «Variation of Geometries based on ageometric-reasoning method». CAD, vol. 20, nº 3,abril, pp. 117-126, 1988.

ALEXANDER, CH. Notes on the Synthesis of Form.Harvard University Press. Trad.cast.: Ensayo sobrela síntesis de la forma. Buenos Aires, Infinito, 1969.

ALEXANDER, CH. «A much asked question aboutcomputers and design». Trad. incluida en: Laestructura del medio ambiente. Barcelona, Tusquets,1971.

ALEXANDER, CH. «A City is not a tree». TheArchitectural Forum. Mayo 1965. Trad. incluída en:La estructura del medio ambiente. Barcelona,Tusquets, 1971.

ANANTHA, R.; KRAMER, G.A. ; CRAWFORD,R.H. «Assembly modelling by geometric constraintsatisfaction». Computer Aided Design, vol. 28, nº 9,pp 707-722, 1996.

ANGELL, I.O. A Practical Introduction to ComputerGraphics. Nueva York, Halsted Press (J. Wiley &Sons), 1981.

APPEL, A. «Some techniques for machine renderingof solids». AFIPS Conference Proc. vol. 32, pp 37-45, 1968.

ASHBY, W.R. Design for a Brain. Nueva York, Wiley,1952.

ASPRAY, W. John von Neumann and the origins ofmodern computing. MIT Press, 1990. Trad. cast.:John von Neumann y los orígenes de la computaciónmoderna. Barcelona, Gedisa. 1990.

ATKINSON, M. et al. «The Object-Oriented Dabasesystem Manifesto». Deductive and Object-OrientedDatabases. Amsterdam, Elsevier, 1989.

AYALA, D.P.; BRUNET,P.; JUAN, R.; NAVAZO, I.«Object Representation by Means of NonminimalDivision Quadtrees and Octrees». ACM TOG, 4 (1),enero, pp 41-59, 1985.

BABBAGE, CH. en: MORRISON, P. & E.: CharlesBabbage on the Principles and Development of theCalculator. Nueva York, Dover, 1961.

BACKUS, J.W. «Can programming be liberated fromthe Von Neumann style?». Comm. ACM, vol 21, nº 8,pp 613-641, 1978.

BACHMAN,C. «Data Structure Diagrams». DataBase (Bulletin of the ACM SIGFIDET) 1:2, marzo1969.

BAKER, M.P.; HEARN, D. Computer Graphics.México, Prentice-Hall. Reed.: 1994. Trad. cast.:Gráficas por computadora. Hispanoamericana, S.A.,1986.

BARNHILL, R.E.; BOEHM, W. eds. Surfaces inComputer Aided Geometric Design. Nueva York,North Holland, 1983.

BARNHILL, R.E., RIESENFELD, R. ComputerAided Geometric Design. San Francisco, AcademicPresss, 1974.

BARSKY, B. Computer Graphics and GeometricModeling using Beta-Splines. Nueva York, Springer-Verlag, 1988.

Page 10: [Architecture eBook] Aplicaciones as en Arquitectura

414 Aplicaciones informáticas en arquitectura

BARTELD, R.H.; BEATTY, J.C.; BARSKY, B.A. AnIntroduction to Splines for use in ComputerGraphics and Geometric Modeling. MorganKaufmann, Los Altos, CA, 1987.

BARTLETT, J. Thinking: An Experimental and SocialStudy. Londres, Allen & Unwin, 1958.

BATES, R.H. Image Restoration and Reconstruction.Nueva York, Oxford University Press, 1986.

BATTY, M.; LONGLEY, P.A. «Fractal-baseddescription of urban form». Environment andPlanning B, vol. 14, pp 123-134, 1987.

BAUM, D.R., et al. «Making Radiosity Usable:Automatic Preprocessing and Meshing Techniquesfor the Generation of Accurate Radiosity solutions».Computer Graphics (Proc. SIGGRAPH 91), vol.25,nº 4, julio, pp 51-60, 1991.

BAYBARS, J. «The generation of floor plans withcirculation spaces». Environment and Planning B,vol. 9, pp 445-456, 1982.

BAYBARS, J.; EASTMAN, C.M. «Enumeratingarchitectural arrangements by generating theirunderlying graphs». Environment and Planning B.Vol 7, pp 289-310, 1980.

BECHTEL, W. Philosopy of Mind. An Overview forCognitive Science, 1988. Trad.cast.: Filosofía de laMente. Una panorámica para la ciencia cognitiva.Madrid, Tecnos, 1991.

BEZIER, P. Emploi des Machines à commandnumérique. París, Masson, 1970. Trad. ingl.:Numerical Control: Mathematics and Applications.Londres, Wiley, 1972.

BLAHUT, R.E. Principles and Practice ofInformation Theory. Reading, Mass., Addison-Wesley, 1987.

BLINN, J. «NTSC: Nice Technology Super Color».IEEE CG&A, marzo, p. 17, 1993.

BLINN, J.F. «Models of light reflection for computersynthesised pictures». Computer Graphics, 11 (2),pp 192-198, 1977.

BLINN, J.F. «Simulation of Wrinkled Surfaces».SIGGRAPH 78, pp 286-292, 1978.

BLINN, J.F. Computer Display of Curved Surfaces.University of Utah, Ph. D. Dissertation, 1978.

BLINN, J.F. & NEWELL, M.E. «Texture andReflection in Computer Generated Images».Communications of the ACM, 19 (10), pp 542-547,1976.

BODEN, M. Artificial Intelligence and Natural Man.Nueva York, Basic Books, 1977. Trad. cast.:Inteligencia artificial y hombre natural. Madrid,Tecnos, 1984.

BODEN, M. Minds and Mechanisms. Ithaca, NuevaYork, Cornell University Press, 1981.

BOUMA, W. et al. «Geometric constraint solver»,Computer Aided Design, vol. 27, nº 6, junio, pp 487-501, 1995.

BRATKO, I. Prolog Programming for ArtificialIntelligence. Addison-Wesley, 1988.

BRATKO, I. «Applications of Machine LearningTowards Knowledge Synthesis». Proceedings of theInternational Conference on Fifth GenerationComputer Systems.Tokyo, Institute for NewGeneration Computer Technology, 1992.

BRET, M. Image Synthesis. Kluwer AcademicPublishers, Dordrecht, The Netherlands, 1992.

BRETON, P. Histoire de l’Informatique. París, 1987.Trad. cast.: Historia y crítica de la informática.Madrid, Cátedra, 1989.

BRONOWSKI, J. The Ascent of Man. Boston, Little,Brown, 1973.

BROWN, C.W.; SHEPHERD, B. J. Graphics FileFormats. Reference and Guide. Manning,Greenwich, 1995.

BROWN, F. E.; STEADMAN, J. P. «The analysis andinterpretation of small house plans: somecontemporary examples». Environment and PlanningB, vol 14, pp 407-438, 1987.

BRÜDERLIN, B. «Using Prolog for constructinggeometric objects defined by constraints».Proceedings of European Conference on ComputerAlgebra, 1985.

BU-QING, S.; DING-YUAN, L. ComputationalGeometry: Curve and Surface Modeling. NuevaYork, Academic Press, 1989.

BURKS, A.W. Theory of Self-Reproducing AutomataUrbana. University of Illinois Press, 1966.

BURROUGH, P.A. “The application of fractal ideas togeophysical phenomena». Journal of the Institute ofMathematics and its Applications, vol 20, pp 36-42,1984.

CAMPBELL III, A.T. Modeling Global DiffuseIllumination for Image Synthesis. University ofTexas, PhD Dissertation, diciembre, 1991.

Page 11: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 415

CAMPBELL III, A.T.; FUSSELL, D.S. «AdaptiveMesh Generation for Global Diffuse Illumination».Computer Graphics (Proc. SIGGRAPH 90) vol.24,nº 4, agosto, pp.155-164, 1990.

CAREY, M.; STONEBRAKER, M. et al. «Third-Generation Database System Manifesto». SigmodRecord. 18:3, 1990.

CARLBOM, I. & PACIORECK, J. «Planar GeometricProjections and Viewing Transformations».Computing Surveys 10 (4), diciembre, pp 465-502,1978.

CARPENTER, L.; CATMULL, E.; COOK, R.L. «TheREYES image rendering architecture». ComputerGraphics, 21 (4), 95-102, 1987.

CARPENTER, L., COOK, R.L.& PORTER, T.«Distributed ray tracing». Computer Graphics, 18(3), pp 137-45, 1984.

CARPENTER, L.; FOURNIER, A.; FUSELL, D.«Computer rendering of stochastic models».Communications of the ACM. 25 (6), pp 371-84,1982.

CATMULL, E. A Subdivisión algorithm for thedisplay of curved surfaces. University of Utah, PhDDissertation, 1974.

CATMULL, E. «Computer display of curvedsurfaces». Proc. IEEE Conf. on Computer Graphics,Pattern Recognition and Data Structures. Mayo,1975 Reeditado en: Tutorial and Selected Readingsin Interactive Computer Graphics. Freeman H. ed(1980), Nueva York (IEEE) pp 309-15, 1975.

CATMULL, E. «A hidden surface algorithm with anti-aliasing». Computer Graphics, 12 (3), pp 6-10,1978.

CATMULL, E., CLARK, J. «Recurseviley GeneratedB-Spline Surfaces on Arbitrary TopologicalMeshes». Computer Aided Design, vol 10, nº 6, pp350-355, 1978.

CATTELL, R.G. G. Object Data Management. Object-Oriented and Extended Relational DatabaseSystems. Reading, Mass., Addison-Wesley, 1994.

CAVENDISH, J.C. «Integrating feature-based surfacedesign freeform deformation», Computer AidedDesign, vol 27, nº 9, septiembre, pp 703-711, 1995.

CLOCKSIN,W.F.; MELLISH, C. S. Programming inPROLOG, Berlin, Springer, 1981.

CODASYL «Codasyl DDL. Data DescriptionLanguage». Journal of Development. USGovernment Printing Office, 1978.

CODD, E.F. Cellular Automata. Nueva York,Academic Press, 1968.

CODD, E. F. «A Relational Model of Data for LargeShared Data Banks». Communications of the ACM,13:6, 1970.

CODD, E.F. «Extending the Data Base RelationalModel to Capture More Meaning». ACM TODS, 4:4,1979.

CODD, E. F. «Is Your DBMS Really Relational?».Computer World, 15 octubre, 1985.

CODD, E. F. «Does Your DBMS Run by the Rules?»Computer World, 21 octubre, 1985.

CODD, E. F. The Relational model for databasemanagement. Version2. Reading, MA, Addison-Wesley, 1990.

COHEN, M.F.; GREENBERG, D.P. «The Hemi-Cube.A Radiosity Solution for Complex Environments».SIGGRAPH 85, 31, 1985.

COHEN, M.F.; CHEN, S.E.; GREENBERG, D.P.;WALLACE, J.R. «A progresive refinement approachto fast radiosity image generation». ComputerGraphics, 22 (4), 75-84, 1988.

COHEN, M.F.; GREENBERG, D.F.; IMMEL, D. S.«An efficient radiosity approach for realistic imagesynthesis». IEEE Computer Graphics andApplications, vol.6, nº 2, pp.26-35, 1986.

COLMERAUER, A.; KANOUI, H.; PASERO, R;ROUSSEL, P. «Un système de communicationhomme-machine en Français». Research Report,Groupe d’Intelligence Artificielle, Université d’Aix-Marseille II, Luminy, 1973.

COOK, R.L. «Shade Trees». Computer Graphics,vol.18, nº 3, pp.223-231, 1984.

COOK, R.L. «Stochastic sampling in computergraphics». ACM Transactions on ComputerGraphics, 5 (1), pp 51-72, 1986.

COOK, R.L.; TORRANCE, K.E. «A ReflectanceModel for Computer Graphics». Computer Graphics.15: 3, pp 307-316, 1982.

COOK, R.L.; PORTER, T.; CARPENTER, L.«Distributed Ray Tracing». SIGGRAPH 84, 1984.

COONS, S.A. «Surfaces for Computer Aided Designof Space Forms». Cambridge, Mass., MIT ProjectMac, Technical Report. nº4I, 1967.

COYNE, R.D.; GERO, J.S. «Design Knowledge andSequential Plans». Environment and Planning B, 12,pp 401-418, 1985.

Page 12: [Architecture eBook] Aplicaciones as en Arquitectura

416 Aplicaciones informáticas en arquitectura

COYNE, R.D. & GERO, J.S. «Semantics and theOrganization of Knowledge in Design». DesignComputing 1, (1), pp 68-69, 1986.

CREVIER,D. AI: the tumultuous history of the searchfor artificial intelligence. Nueva York, Basic Books,1993. Trad.cast.: Inteligencia Artificial. Madrid,Acento Ed., 1996.

CROW, F.C. «Shadow algorithms for computergraphics». Computer Graphics, 13 (2), pp 242-248,1977.

CROW, F.C. «A comparison of anti-aliasingtechniques». IEEE Computer Graphics andApplications. 1 (1), pp 40-48, 1981.

CROW, F.C. «Summed-area tables for texturemapping». Computer Graphics, 8 (3), pp 207-221,1984.

CSURI, C. et al. «Towards an interactive high visualcomplexity animation system». Computer Graphics(Proc. SIGGRAPH 79), vol. 13, pp 289-299, 1979.

CUGINI, U.; FOLINI, F.; VICINI, I. «A proceduralsystem for the definition and storage of technicaldrawings in parametric form». Proceedings ofEurographics ‘88, North-Holland, pp 183-196,1988.

CHAMBERLIN, D. D. «SEQUEL2: A UnifiedApproach to Data Definition, Manipulation andControl». IBM Journal of Research andDevelopment, 20:6, noviembre, 1976.

CHASEN, S.H. Geometric Principles and Proceduresfor Computer Graphics Applications. EnglewoodCliffs, NJ: Prentice-Hall, 1978.

CHASEN, S.H.; DOW, J. W. The Guide for theEvaluation and Implementation of CAD/CAMSystems. Atlanta, CAD/CAM Decisions, 1979.

CHEN, X.; HOFFMANN, C. M. «Towards featureattachment». Computer Aided Design, vol. 27, nº 9,septiembre, pp 695-702, 1995.

CHEN, X.; HOFFMANN, C. M. «On editability offeature-based design». Computer Aided Design, vol.27, nº 27, diciembre, pp 905-914, 1995.

CHEN, P.P. Entity Relationship Approach to SystemAnalysis and Design. North Holland, 1979.

CHEN, P. P. «The Entity Relationship Model: Towarda Unified view of Data». ACM TODS, 1:1, marzo,1976.

CHIYOKURA, H.; KIMURA, F. «Design of Solidswith Free-form Surfaces». Proceedings ACMSIGGRAPH 83, 17(3), pp 289-298, 1983.

CHOMSKY, N. Aspects of the Theory of Syntax. 1965.Trad. cast.: Aspectos de la teoría de la sintaxis.Madrid, Aguilar, 1971.

CHOMSKY, N.; MILLER, G.A. Introduction to theFormal Analysis of Natural Languages. 1963. Trad.cast.: El análisis formal de los lenguajes naturales.Madrid, Comunicación, 1972.

DASGUPTA, S. Creativity in Invention and Design.Cambridge UP, 1994.

DATE, C.J. An Introduction to Data Base Systems.Reading, Mass, Addison-Wesley, 1990. Trad. cast.:Introducción a los sistemas de bases de datos.Addison-Wesley Iberoamericana, 1993.

DATE, C. J.; DARWEN, H. «The Third Manifesto».Sigmod Record. 24:1, marzo, 1995.

DAVENPORT, W.B. An Introduction to the Theory ofRandom Signals and Noise. Nueva York, Mc Graw-Hill, 1958.

DE BOR, C. A Practical Guide to Splines. NuevaYork, Applied Math. Sciences, vol. 27, Springer-Verlag, 1978.

DOWNING, F.; FLEMMING, U. «The bungalows ofBuffalo». Environment and Planning B, 8, pp 269-293, 1981.

DREYFUS, H.L. What Computers Can’t Do: ACritique of Artificial Reason. Nueva York,Harper&Row, 1972.

DUAN, W.; ZHOU, J.; UAI, K. «FSTM: a featuresolid-modelling tool for freature-based design andmanufacture». Computer Aided Design, vol 25, nº 1,enero, pp 29-38, 1993.

EARNSHAW, R.A.; ROGERS, D.F. ComputerGraphics Techniques. Theory and Practice. HongKong, Springer- Verlag, Nueva-York, 1990.

EASTMAN, C.M. «On the Analysis of IntuitiveDesign Process». Emerging Methods inEnvironmental Design and Planning. MIT Press,Cambridge, Mass., pp 21-37, cap. 3, 1970.

EASTMAN, C.M. «A Conceptual Approach forStructuring Interaction with Interactive CADSystems». Computers and Graphics, 9 (2), pp 97-105, 1985.

EASTMAN, C.M. «Fundamental Problems in thedevelopement of computer-based architectural designmodels». Computability in Design, 1987.

EASTMAN, C.M. «Use of Data Modeling in theConceptual Structuring of Design Problems». CAADFutures 91, Proceedings of the International

Page 13: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 417

Conference for Computer Aided ArchitecturalDesign, G. N. Schmitt., ETH, Zurich, 1991.

EASTMAN, C.M. «The Evolution of CAD:integrating multiple representations». Building andEnvironment, vol.26, nº 1, pp 17-24, 1991.

EASTMAN, C.M.; HENRION, M. «GLIDE: alanguage for design information systems». ComputerGraphics (Proc. SIGGRAPH 77), 11 (2), pp 24-33,1976.

ELMASRI, R.A.; NAVATHE, S.N. Fundamentals ofDatabase Systems. Reading, Mass, Addison-Wesley.Trad. cast.: Sistemas de bases de datos. Conceptosfundamentales. Buenos Aires, Addison-WesleyIberoamericana, 1997.

EMMERICK, M.J.G.M. VAN. «A system for graphicalinteraction on parametrized solid models».Proceedings of Eurographics ‘88, Elsevier SciencePublishers, pp. 233-242, 1988.

EMMERICK, M.J.G.M. VAN. Interactive design ofparameterized 3D models by direct manipulation.Delft University Press, 1990.

ENCARNAÇÃO, R.; LINDNER, E.G.;SCHLECHTENDAHL, E.G. Computer AidedDesign. Fundamentals and System Architectures. 2ºed. rev. y amp. Berlín, Springer-Verlag, 1990.

FARIN, G. Geometric Modeling. Algorithms and NewTrends. SIAM (Society for Industry and AppliedMathematics), Philadelphia, 1987.

FARIN, G. Curves and Surfaces for Computer AidedGeometric Design. San Diego, Academic Press,1988.

FAUX, I.D.; PRATT, M. J. Computational Geometryfor Design and Manufacture. Nueva York, Wiley,1979.

FEIBUSH, E.A.; LEVOY, M.; COOK, R.L.«Synthetic Texturing Using Digital Filters».Computer Graphics, vol.14, nº 3, julio, pp 294-301,1980.

FEIGENBAUM, E.A.; MCCORDUCK, P. The fifthGeneration: Artificial Intelligence and Japan’sComputer Challenge to the World. Reading, Mass.,Addison-Wesley, 1983.

FEIGENBAUM, E.A.; BARR, A.; COHEN, P. TheHandbook of Artificial Intelligence, vol I, Los Altos,CA, W.Kaufman, 1981.

FENG, C.; KUSIAK, A. «Constraint-based design ofparts». Computer Aided Design, vol 27, nº 5, mayo,pp 343-352, 1995.

FERGUSON, J. «Multivariate Curve Interpolation».JACM, 11 (2), abril, pp 221-228, 1964.

FLEMMING, U. «Wall representations of rectangulardissections and their use in automated spaceallocation». Environment and Planning B, vol 5, pp215-232, 1979.

FLEMMING, U. «On the representation andgeneration of loosely-packed arrangements ofrectangles». Planning and Design December, 1985.

FLEMMING, U. «More than the Sum of Parts: TheGrammar of Queen Anne Houses». Environmentaland Planning B, vol.14, nº 3, pp 323-350, 1986.

FLEMMING, U. «The Role of Shape Grammars in theAnalysis and Creation of Designs». En: KALAY, Y.(ed.): The Computability of Design. Nueva York,Wiley Interscience, 1987.

FLEMMING,U. «The secret of the Casa GiulianiFrigerio». Environment and Planning B, vol 8, pp87-96, 1981.

FLEMMING,U.; DOWNING, F. «The bungalows ofBuffalo». Environment and Planning B, vol 8, pp257-267, 1981.

FODOR, J.A. The Language of Thought. Nueva York,T.Y. Crowell, 1975.

FODOR, J.A. Representations: Philosophical Essayson the Foundations of Cognitive Science.Cambridge, Mass., MIT Press, 1981.

FODOR, J.A. The Modularity of Mind. Cambridge,Mass., MIT/Bradford Press, 1983.

FOLEY, J.D.; VAN DAM, A.; FEINER, S.K.STEVEN; HUGHES, J.F. Computer Graphics.Principles and Practice. Addison and Wesley, 1990,reed. 1996.

FOURNIER, A.; FUSSELL, D.; CARPENTER, R.L.«Computer rendering of stochastic models».Communications of the ACM, vol.25, pp. 371-384,1982.

FROST, R. Introduction to Knowledge Base Systems.Trad. cast.: Bases de datos y sistemas expertos.Madrid, Díaz de Santos, 1986.

GALLE, P. «An algorithm for exhaustive generation ofbuilding floor plans». Communications of the ACM,24, pp 813-825, 1981.

GARDNER, H. The Minds New Science: A History ofthe Cognitive Revolution. Nueva York, Basic Books,1985. Trad.cast.: La nueva ciencia de la mente.Historia de la revolución cognitiva. Barcelona,Paidos, 1988.

Page 14: [Architecture eBook] Aplicaciones as en Arquitectura

418 Aplicaciones informáticas en arquitectura

GARDNER, M. Logic Machines and Diagrams.Chicago, 1958. Trad. cast.: Máquinas y diagramaslógicos. Madrid, Alianza, 1985.

GARRIDO, M. Lógica simbólica. Madrid, Tecnos,1974.

GAZZANIGA, M. S. The Social Brain. Discoveringthe Networks of the Mind. 1985. Trad. cast.: Elcerebro social. Madrid, Alianza, 1993.

GERO, J.S. (ed) Knowledge engineering in computer-aided design. Amsterdam, Elsevier North Holland,1985.

GERO,J.S.; COYNE, R.D. «Logic programming as ameans of representing semantic in designlanguages». Environment and Planning B, vol 12, pp351-369, 1985.

GILLIES, D. Artificial Intelligence and ScientificMethod. Oxford, Oxford University Press, 1996.

GLASSNER, A.S. «Space subdivision for fast raytracing». IEEE Computer Graphics andApplications, 14 (10), pp 15-22, 1984.

GLASSNER, A.S. «Adaptive precission in texturemapping». Computer Graphics (proc. SIGGRAPH86), vol.20, pp 297-306, 1986.

GLASSNER, A.S. Principles of Digital ImageSynthesis. San Francisco, Kaufmann, 1995.

GLASSNER, A.S. (ed.) An Introduction to RayTracing. Londres, Academic Press, 1989.

GONZALEZ, R.C.; WOODS, R.E. Digital ImageProcessing. Reading, Mass, Addison-Wesley, 1992.

GORAL, C. M.; TORRANCE, K.E.; GREENBERG,D. P.; BATTAILE, B. «Modeling the Interacion ofLight Between Diffuse Surfaces». ComputerGraphics (Proc. Siggraph), vol. 18, nº 3, julio, pp213-222, 1984.

GORDON, R. «Free Form surface interpolationthrough curve networks». GMR-921, GM ResearchLabs, 1969.

GORDON, R. «B-spline curves and surfaces». En:BARNHILL-RIESENFELD (eds): Computer AidedGeometric Design. Nueva York, Academic Press, pp95-126, 1974.

GOSSARD, D.; ZUFFANTE, R.; SAKURAI, H.«Representing dimensions, tolerances and features inMCAE systems». IEEE Computer Graphics andApplications, marzo, pp 51-59, 1988.

GOURAUD, H. «Computer Shading of CurvedSurfaces». Ph. D. Dissertation, University of Utah.

Reed.: IEEE Transaction on Computers, vol. TC-20,junio, I971.

GREEN, N. «Environment Mapping and OtherApplications of World Projections». IEEE ComputerGraphics and Applications, vol. 6, nº 11, noviembre,pp 108-114, 1986.

GREENBERG, D.P. «Light Reflection Models forComputer Graphics». Science, vol. 244, nº 14, pp166-173, 1989.

GREENBERG, D.P. «Computer Graphics andArchitecture». Scientific American, vol. 264, nº 2, pp104-109, 1991.

GREENBERG, D.P.; GORTER, V.; MARCUS, A.;SCHMIDT, A.H. The computer Image: Applicationof computer graphics. Medford, MA: Addison-Wesley, 1982.

HAGEN, M.; ROLLER, D. (eds.) GeometricModeling. Berlín, Springer-Verlag, 1991.

HAINES, E.A. «Ronchamp: A case Study forRadiosity». SIGGRAPH 91. Frontiers in RenderingCourse Notes, julio, 1991.

HALL, E.L. Computer Image Processing andRecognition. Nueva York, Academic Press, 1979.

HALL, R. Illumination and Color in ComputerGenerated Imagery. Nueva York, Springer-Verlag,1989.

HANRAHAN, P.; SALZMAN, D.; AUPPERLE, L. «ARapid Hierarchical Radiosity Algorithm». ComputerGraphics (Proc. Siggraph), vol.25, nº 4, julio, pp197-206, 1991.

HARARY, F. Graph Theory. Reading, MA, Addison-Wesley, 1972.

HARMON, P.; KING, D. Expert Systems: ArtificialIntelligence in Business. Nueva York, J.Wiley, 1985.Trad. cast.: Sistemas expertos. Díaz de Santos, 1988.

HARTLEY, R.V.L. «The transmission of information».Bell Syst. Tech. Journal, vol. 3, julio, pp 535-564,1928.

HAUGELAND, J. Artificial Intelligence. The VeryIdea. Cambridge, Mass., MIT Press, BradfordBooks, 1987.

HAYES-ROTH, F.; WATERMAN, D. A.; LENAT,D.B. Building Expert Systems. Addison-Wesley,Reading, Mass, 1983.

HEBB, D.O. The Organization of Behavior. NuevaYork, J.Wiley, 1949. Trad. cast.: La organización dela conducta. Madrid, Debate, 1985.

Page 15: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 419

HECKBERT, P. «Color Image Quantization for FrameBuffer Display». Computer Graphics. 16 (3), p. 297,1982.

HECKBERT, P.S. «Survey of Texture Mapping».IEEE Computer Graphics & Applications, vol. 6, nº11, noviembre, pp 56-67, 1984.

HECKBERT, P.S. Simulating Global IlluminationUsing Adaptive Meshing. University of California atBerkeley, PhD Dissertation, Dep. EECS, Junio,1991.

HECKBERT, P.S. «Discontinuity Meshing forRadiosity». Eurographics Workshop on Rendering,mayo, pp 203-216, 1992.

HECKBERT, P. S.; HANRAHAN, P. «Beam tracingPolygonal Objects». Computer Graphics, 18, (3), pp119-145, 1984.

HEILEMAN, G. L. Data Structures, Algorithms andObject-Oriented Programming. 1996. Trad. cast.:Estructuras de datos, algoritmos y programaciónorientada a objetos. Madrid, McGraw-HillInteramericana, 1997.

HERMES, H. Aufzählbarkeit, Entscheidbarkeit,Berechenbarkeit. Berlín, Springer, 1961. Trad. cast.:Introducción a la teoría de la computabilidad.Madrid, Tecnos, 1984.

HILLIER, B.; MUSGROVE, J.; O’SULLIVAN«Knowledge and Design». En: CROSS, N. (ed.).Developments in Design Methodology. J. Wiley, pp254-264, 1984.

HILLYARD, R.; BRAID, I. «Analysis of dimensionsand tolerances in computer-aided mechanicaldesign». CAD, vol. 10, nº 3, mayo, pp 161-166,1978.

HILLYARD, R.; BRAID, I. «Characterizing non idealshapes in terms of dimensions and tolerances».Computer Graphics, vol. 12, nº 3, agosto, pp 234-238, 1978.

HILLYARD, R.C. «The Build Group of SolidModellers». IEEE-Computer Graphics andApplications, 2(2), pp 43-52, marzo, 1982.

HOARE, C.A.R. «The emperor’s old clothes».Communications of the ACM, vol. 24, nº 2, pp 755-783, 1981.

HOFFAMN, C.M. Geometric and Solid Modeling.California, Morgan Kaufmann, San Mateo, 1989.

HOFFMANN, C.M.; JUAN, R. ERep. An editablehigh level representation for geometric design andanalysis. Technical Report CSD-TR-92-055. CAPO

Report CER-92-24. Department of ComputerScience. Purdue University, agosto, 1992.

IMMEL, D. S.; COHEN, M. F., GREENBERG, D. P.«A Radiosity Method for Non-DiffuseEnvironments». Computer Graphics (Proc.Siggraph), vol. 20, nº 4, agosto, pp 133-142, 1986.

JOHNSON, R.H. Solid Modeling: A State of the ArtReport. CAD/CAM Alert, Management Roundtable,Inc., 2ª ed. rev. 1986.

KAJIYA, J.T. «Ray tracing parametric patches».Computer Graphics, 16, (3), pp 245-254, 1981.

KAJIYA, J.T. «New techniques for ray tracingprocedurally defined objects». Computer Graphics,17 (3), pp 91-102, 1983.

KAJIYA, J.T. «Anisotropic reflection models».Computer Graphics, 19 (3), pp 15-21, 1985.

KAJIYA, J.T. «The rendering equation». ComputerGraphics, 20 (4), pp 143-50, 1986.

KAJIYA, J.T.; KAY, T.L. «Ray tracing complexscenes». Computer Graphics, 20 (4), pp 269-78,1986.

KALAY, Y. E. Modeling Objects and Environments.Nueva York, Wiley, 1989.

KAY, D.S. Transparency, refraction and ray tracingfor computer synthesised images. Masters Thesis,Cornell University, 1979.

KAY, D.S.; GREENBERG, D.P. «Transparency forcomputer synthesised objects». Computer Graphics,13 (2), pp 158-64, 1979.

KOENDERINK, J.J. Solid Shape. Cambridge, TheMIT Press, 1990.

KONING, J.; EIZENBERG, J. «The language of theprairie: Frank Lloyd Wright’s prairie houses».Environment and Planning B, 8, pp 295-323, 1981.

KOWALSKI, R. A. Logic for Problem Solving.Amsterdam, Elsevier, 1979.

KRAMER, G. «Using Degrees of Freedom Analysis toSolve Geometric Constraint Systems». ProceedingsACM Solid Modelling Conference. Austin, Texas,1991.

LAIDLAW, D.H.; TRUMBORE, W.B.;HUGHES, J.F.«Constructive Solid Geometry for PolyhedralObjects». SIGGRAPH 86, 1986.

LASZLO, M.J. Computational Geometry andComputer Graphics in C++. New Jersey, PrenticeHall, 1996.

Page 16: [Architecture eBook] Aplicaciones as en Arquitectura

420 Aplicaciones informáticas en arquitectura

LEAVITT, R. (ed.). Artist and Computer. Nueva York,Harmony Books, 1976.

LEE, E.A.; MESSERSCHMITT, D.G. DigitalCommunication. Boston, Kluwer, 1994.

LETCHER, J.S.; SHOOK, D.M.; SHPHERD, S.G.«Relational Geometry Synthesis», Computer AidedDesign, vol 27, nº 11, noviembre, pp 821-832, 1995.

LEVITAN, E.L. Electronic Imaging Tecniques. NuevaYork, Van Nostrand Reinhold Company, 1977.

LIGHT, R.; GOSSARD, D. «Variational Geometry inCAD». Computer Graphics, vol. 15, nº 3, agosto, pp171-177, 1981.

LIGHT, R.; GOSSARD, D. «Modification ofgeometric models through variational geometry».Computer Aided Design, vol. 14, nº 4, julio, 1982.

LISCHINSKI, D.; TAMPIERI, F.; GREENBERG, D.P.«Discontinuity Meshing for Accurate Radiosity».IEE Computer Graphics & Application, noviembre,pp 25-38, 1992.

MADRAZO, L. «The Integration of ComputerModeling in Architectural Design». ACADIA 90.Research and Practice, P. Jordan (ed.), University ofMontana, 1990.

MADRAZO, L. «Designing with Computers».ARECDAO 91. Barcelona, ITEC, 1991.

MAGNENAT-THALMANN, N.; THALMANN, D.Principles of Computer Animation. Tokyo, Springer-Verlag, 1985.

MÄNTYLÄ M.; SULONEN, R. «GWB: A solidmodeler with Euler operators». IEEE ComputerGraphics and Applications, 1982.

MÄNTYLÄ, M. Introduction to Solid Modeling.Computer Science Press, Rockville, MD, 1988.

MARCH, L. «A class of grids». Environment andPlanning B, 8, pp 325-332, 1981.

MARCH, L.; EARL, C. F. «On counting architecturalplans». Environment and Planning B, vol 4, pp 57-80, 1977.

MARION, A. Introduction aux techniques detraitement d‘images. París, Editions Eyrolles. Trad.ingl. : An introduction to image processing.Cornwall,T. Padstow, T.J Press Ltd, 1991.

MARR, D. Vision: A Computational Investigation intothe Human Representation. San Francisco, W.H.Freeman, 1982. Trad. cast.: La visión .Unainvestigación basada en el cálculo acerca de larepresentación y el procesamiento humano de lainformación visual. Madrid, Alianza, 1985.

MARTIN, W.R. Network planning for buildingconstruction. Londres, Heinemann, 1969. Trad. cast.:Aplicación de las técnicas PERT/CPM a laconstrucción. Barcelona, Blume, 1972.

MARTINI, K. «Hierarchical geometric constraints forbuilding design», Computer Aided Design, vol 27, nº3, marzo, pp 181-192, 1995.

MAVER, T. «Building Appraisal». En: GERO, J. S.(ed.). Computer Applications in Architecture.Londres, Applied Sciences Publishers, 1977.

MCCARTHY, J. et al. Lisp 1.5 Programmer’s Manual.Cambridge, Mass, MIT Press, 1962.

MCCARTHY, J.; HAYES, P. J. «Some PhilosophicalProblems from the Standpoint of ArtificialIntelligence». En: MELTZER, B.; MICHIE, D.(eds.): Machine Intelligence 4. Edimburgh,Edinburgh U.P., 1969.

MCCORDUCK, P. Machines Who Think. SanFrancisco, W.H.Freeman, 1979. Trad. cast.:Máquinas que piensan. Madrid, Tecnos, 1991.

MCCULLOCH, W. «How We Know Universals: Theperception of Auditory and Visual forms». Bulletin ofMathematical Biophysics, 9, pp 127-147, 1947.

MCCULLOCH, W. «Biological Computers».Transactions of the Institute of Radio Engineers.Septiembre, pp 190-192, 1957.

MCCULLOCH, W. Embodiments of Mind. CambridgeMA, MIT Press, 1965.

MCCULLOCH, W.; PITTS, W. «A logical calculus ofthe Ideas Immanent in Nervous Activity». Bulletin ofMathematical Biophysics, 5, pp 115-133, 1943.

MCCULLOUGH, M.; MITCHELL, M.; PURCELL,P. (eds.) The Electronic Design Studio. Cambridge,MA, MIT Press, 1990.

MEAGHER, D. «Geometric Modeling using octreeencoding». Computer Graphics and ImageProcessing, 19 (2), pp 129-147, 1982.

MEERAN, S.; PRATT, M. J. «Automated featurerecognition from 2D drawings». Computer AidedDesign, vol 25, nº 1, enero, pp 7-18, 1993.

METROPOLIS, N. et al. A History of Computing inthe Twentieth Century. Nueva York, Academic Press,1980.

MILLER, G.A. «The Magical Number Seven, Plus orMinus Two: Some Limits on Our Capacity forProcessing Information». Psychological Review, 63,81-97, 1956.

Page 17: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 421

MILLER, J.R. «Architectural Issues in SolidModelers». IEEE Computer Graphics andApplications, 1989.

MINSKY, M. «Steps towards Artificial Intelligence».en: FEIGENBAUM, E.A. ; FELDMAN J. (eds.).Computers and Thought. Nueva York, McGraw-Hill.1963.

MINSKY, M. Semantic Information Processing.Cambridge, Mass, MIT Press, 1968.

MINSKY, M.; PAPERT, S. Perceptrons. Cambridge,Mass, MIT Press, 1968

MINSKY, M. «A framework for representingknowledge». En: WINSTON, P.H.: The Psychologyof Computer Vision. Nueva York, McGraw-Hill,1975

MINSKY, M. «Artificial Intelligence». ScientificAmerican. 215, pp 247-260, septiembre, 1966.

MINSKY,M. The Society of Mind. Nueva York, Simon& Schuster, 1985.

MITCHELL, W.J., STEADMAN, P. & LIGGET, R.S.«Synthesis and Optimization of Small RectangularFloor Plans». Environment and Planning B, 3 (1), pp37-70, junio, 1976.

MITCHELL, W.J. Computer Aided ArchitecturalDesign. Nueva York, Van Nostrand Reinhold, 1977.

MITCHELL,G.&STINY,G. «The Palladian Grammar».Environment and Planning B. Vol 5, pp 5-18, 1978.

MITCHELL,G.; STINY, G. «Counting Palladianplans». Environment and Planning B, vol 5, pp 189-198, 1978.

MITCHELL, W.J. «Formal Representations: AFoundation for Computer Aided ArchitecturalDesign». Environment and Planning B, vol. 13, pp133-162, 1986.

MITCHELL, W.J.; LIGGET, R.S.; KVAN, T. The Artof Computer Graphics Programming. A structuredIntroduction for Architects and Designers. NuevaYork, Van Nostrand, 1987.

MITCHELL, W.J. The Logic of Architecture.Cambridge, MA, MIT Press, 1990.

MITCHELL, W.J. City of Bits. Space, place and theInfobahn. Cambridge, MA, MIT Press, 1995.

MONEDERO, J. «Notas sobre la apreciación visual dela arquitectura en relación con algunas obras deMichael Graves y de Aldo Rossi» Anales, Barcelona,ETSAB, nº 1, 1981.

MONEDERO, J. «Tecnología. Técnica. Tekné.

Consideraciones intempestivas en torno a lainformática gráfica». IVº Congreso Nacional deExpresión Gráfica Arquitectónica, Valencia, 1990.

MONEDERO, J.; CASAUS, A.; COLL, J. «FromBarcelona. Chronicle and provisional evaluation of anew course of Computer Aided ArchitecturalDesign.». ECAADE 92. Xº International Congress inEducation in Computer Aided Architectural Designin Europe, Barcelona, 1992

MONEDERO, J.; REDONDO, E. «ElectronicCollage». ECAADE 92, Barcelona, 1992.

MONEDERO, J.; CASAUS, A. «Datos estructuradosversus datos abiertos». ARECDAO 93, Barcelona,1993.

MONEDERO, J. «Sobre el papel del azar en losmétodos de creación formal». Bienal de Arquitecturay Urbanismo de Zaragoza. 1ª edición. Madrid,Electra, 1993.

MONEDERO, J. «Renderings. Some Technical andnon technical questions raised by the use ofComputers in the Visual Analysis of Architecture».ECAADE 93, Eindhoven, 1993.

MONEDERO, J. «Nota sobre la idea de analogía y suposición fundamental para una teoría de la expresióngráfica». EGA. Revista de Expresión GráficaArquitectónica. Valencia, nº1, 1993.

MONEDERO, J.; REDONDO, E. «La manipulaciód’imatges fixes per mitjans informàtics de baix costen les avaluacions sobre l’impacte ambiental».L’arquitectura del territori. Planejament territorial imedi ambiental de la Diputació de Barcelona.Barcelona, Diputació de Barcelona, 1993.

MONEDERO, J; REGOT, J.; DE MESA, A.;REDONDO, E. «From Model Space to Image Spaceand back again». The Virtual Studio. ECAADE 1994Glasgow, University of Strathclyde, 1994.

MONEDERO, J. «Consecuencias conceptuales de lasTécnicas Informáticas». La formación culturalarquitectónica en la enseñanza del dibujo. LasPalmas, Vº Congreso EGA, 1994.

MONEDERO, J.; REDONDO, E. «Images to save ariver». Multimedia and Architectural Disciplines.ECAADE 95, Palermo, Università di Palermo,1995.

MONEDERO, J.; REGOT, J. Modelado Geométricoen Arquitectura por medios Informatizados.Barcelona, ETSAB, Monografía nº 2 del Laboratoriode Técnicas Gráficas, 1997.

Page 18: [Architecture eBook] Aplicaciones as en Arquitectura

422 Aplicaciones informáticas en arquitectura

MONEDERO, J. «Parametric Design. A review andsome experiences». En: Challenges of the future.Collaborative Teamwork. Digital Design Process.Spatial Modeling. ECAADE 97, Viena, 1997.

MONEDERO, J; REGOT, J.; DE MESA, A.;REDONDO, E. «Transfer of Architectural 2DImages to 3D Models by a Simplified andSemiauthomatic Process». Mathematics & Design98. San Sebastian, The University of the BasqueCountry, 1998.

MONTREUL, B. «Requirements for representation ofdomain knowledge in intelligen environments forlayout design». Computer Aided Design, vol 22, nº 2,marzo, pp 97-108, 1990.

MORTENSON, M. Geometric Modeling. Nueva York,Wiley, 1985.

MOTO-OKA,T.; KITSUREGAWA, M. El ordenadorde quinta generación. Madrid, Ariel, 1986 (originaljaponés, 1984).

MULLINEUX, G. CAD: Computational Concepts andMethods. Nueva York, MacMillan, 1986.

NASH, S. G. A History of Scientific Computation.Reading MA, Addison-Wesley, 1990.

NEGROPONTE, N. The Architecture Machine. MITPress, Cambridge, Mass., 1970.

NEGROPONTE, N. Being digital. 1995. Trad. cast.:El mundo digital. Barcelona, Ediciones B, 1995

NEWELL, A. «GPS: A program that simulates humanthought». En: FEIGENBAUM, E. A.; FELDMAN, J.(eds.). Computers and thought. Nueva York,McGraw Hill, pp 279-293, 1963.

NEWELL, A. & SIMON, A.H. Human ProblemSolving. N.J., Englewood Cliffs, Prentice Hall, 1972.

NEWMAN, W. M.; SPROULL, R.F. Principles ofInteractive Computer Graphics. Nueva York,McGraw-Hill, 1979.

NIELSEN, N. Multimedia and Hypertext. The Internetand beyond. UK, Academic Press, 1995.

NISHITA, T. «A shading model for AtmosphericScattering Considering Luminous IntensityDistribution of Light Sources». Computer Graphics(Proc. SIGGRAPH 87), vol. 21, nº 4, pp 303-310,1987.

NISHITA, T.; NAKAMAE, E. «Continuous ToneRepresentation of Three-Dimensional ObjectsIlluminated by Sky Light». Communications of theACM, vol. 20, nº 4, pp 125-132, 1986.

NISHITA, T., NAKAMAE, E. «Continuous ToneRepresentation of three Dimensional Objects takingaccount of Shadows and Interreflection». ComputerGraphics (Proc. SIGGRAPH 85), vol 19, nº 3, pp23-30, 1985.

NORMAN, A.D. Perspectives on cognitive science.New Jersey, Alex Pub. Corp., 1981. Trad. cast.:Perspectivas de la ciencia cognitiva. Barcelona,Paidós, 1987.

NYQUIST, H. «Certain factors affecting telegraphspeed». Bell Syst. Tech. Journal, vol 3, abril, p 324,1924.

OLFE, D. B. Computer Graphics for Design. FromAlgorithms to AutoCad. New Jersey, Prentice Hall,1995.

OPPENHEIM, A.; SCHAFER, R. W. Digital SignalProcessing. Englewood Cliffs, Prentice Hall, 1975.

OWEN, J.C. «Algebraic Solution for Geometry fromDimensional Constraints. En: ROSSIGNAC, J.;TURNER, J. (eds.): Proceedings of Symposium onSolid Modelling Foundations and CAD/CamApplications. Austin, ACM Press, 5 a 7 de junio, pp397-407, 1991.

PAPERT, S. Uses of Technology to EnhanceEducation. Cambridge, Mass, MIT AI Lab, 1973.

PEACHEY, D. R. «Solid Texturing of complexsurfaces». Computer Graphics (Proc. SIGGRAPH85), vol. 20, nº 4, pp 55-64, 1985.

PENROSE, R. The Emperor’s New Mind. Oxford U.Press, 1991. Trad. cast.: La Nueva mente delemperador. Madrid, Mondadori, 1989.

PENROSE, R. Shadows of the Mind: An Approach tothe Missing Science of Consciousness. Oxford,Oxford UP, 1994. Trad. cast.: Las sombras de lamente. Barcelona, Crítica, 1996.

PENROSE, R. The Large, the Small and the HumanMind. Cambridge, Cambridge UP, 1997. Trad. cast.:Lo grande, lo pequeño y la mente humana. Madrid,Cambridge UP, 1999.

PERLIN, K. «An Image Synthesizer». ComputerGraphics, vol. 19, nº 3, pp 279-286, 1985.

PERRAULT, D. "La transformation des pratiques de lamaîtrise d'oeuvre". En: La Gestion de Projet dans laConstruction. Actes des journées d'etudes organiséespara l'Ecole National des Ponts et Chaussées, le 12 et13 octobre, 1993. París, Presses de l'Ecole Nationaldes Ponts et Chaussées, 1993.

Page 19: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 423

PHIGS. «PHIGS + functional description». ComputerGraphics. 22 (3), 1988.

PHONG, B.T. «Illumination for Computer GeneratedPictures». Communications of the ACM,18 (6), junio,pp 311-317, 1975.

PICOTT, K.P. «Extensions of the Linear and AreaLighting Models». IEEE Computer Graphics andApp, marzo, pp 31-38, 1992.

POLYA, G. How to Solve It. Princenton, New Jersey,Princenton UP, 1945.

POST, E. “Formal reduction of the generalcombinatorial decision problem». American Journalof Mathematics, 65, pp 197-268, 1943.

PRATT, M.J. «Aspects of Form Feature Modelling».En: HAGEN, H.; ROLLER, D. (eds.). GeometricModelling, Methods and Applications. Springer, pp.227-250, 1991.

PRATT, W.K. Digital Image Processing. Nueva York,Wiley, 1978.

PREPARATA, F; SHAMOS, M. I. ComputationalGeometry. An Introduction. Berlín, Springer, 1985.

QUENDERF, P. "CAD/CAM use in AerospatialAircraft Division", ArecDao 93, IV SimposioInternacional sobre Diseño Asistido por Ordenadoren lla Arquitectura y la Ingeniería Civil, Barcelona,ITEC, 1993.

RADFORD, A.; STEVENS, A. CADD Made Easy. AComprehensive Guide for Architects and Designers.Nueva York, McGraw Hill, 1987.

REEVES, W.T.; SALESIN, D.H. «RenderingAntialiased Shadows with Depth Maps». ComputerGraphics, vol. 21, nº 4, pp 283-291, 1985.

REGLI, W.C.; GUPTA, S.K.; NAU, D.S. «Towardsmultiprocessor feature recognition». Computer AidedDesign, vol 29, nº 1, pp 37-51, 1997.

REICHARDT, J. (ed.) Cybernetics, Art and Ideas.Londres, Studio Vista, 1971.

REQUICHA, A.A.G. «Representations for RigidSolids: Theory, Methods, and Systems». ACMComputing Surveys, 12 (4), diciembre, pp 437-464,1980.

REQUICHA, A.A.G.; VOELCKER, H.B. «SolidModeling : A Historical Summary and ContemporaryAssesment». IEEE Computer Graphics andApplications, 2 (2), marzo, pp 9-24, 1982.

REQUICHA, A.A.G.; VOELCKER, H.B. «SolidModeling : Current Status and Research Directions».

IEEE Computer Graphics and Applications, vol 3(7), octubre, pp 25- 37, 1983.

REQUICHA, A. A. G.; VOELCKER, H. B. «BooleanOperations in Solid Modeling: Boundary Evaluationand Merging Algorithms». Proceedings IEEE, vol 73(1), enero, pp 30-44, 1985.

RICH, E.; KNIGHT, K. Artificial Intelligence. NuevaYork, McGraw Hill, 1991. Trad. cast.: InteligenciaArtificial. Madrid, McGraw Hill Interamericana,1994.

RITTEL, H. W.; WEBBER, M. M. «PlanningProblems are wicked problems». En: CROSS, N.(ed.): Developments in Design Methodology. JohnWiley, pp 135-166, 1984.

RIVEST, L.; FORTIN, C.; MOREL, C. «Toleracing asolid model with kinematic formulation». ComputerAided Design, vol 26, nº 6, junio, pp 465-476, 1994.

ROGERS, D.E.; EARNSHAW, R.A. (eds.).Techniques for Computer Graphics. Nueva York,Springer, 1987.

ROGERS, D.F. Procedural Elements for ComputerGraphics. Nueva York, McGraw-Hill, 1985

ROLLER, D. «A system for interactive variationdesign». En: WOZNY, J, et al. (eds.): GeometricModelling for Product Engineering. Elsevier, NorthHolland, pp 207-219, 1990.

ROLLER, D. «An approach to computer aidedparametric design». Computer Aided Design, vol 23,nº 5, junio, pp 385-391, 1991.

ROLLER, D.; SCHONEK, F.; VERROUST, A.«Dimension driven geometry in CAD: a survey».En: STRASSER, W.; SEIDEL, H.P. (eds.): Theoryand Practice of Geometric Modeling. Nueva York,Springer, 1989.

RONEY, J., STEADMAN, P. (eds.) ComputerGraphics Principles and Practice. Addison-Wesley,Reading, Mass, 1990.

ROSENBLATT, F. Neurodynamics: Perceptrons andthe Theory of Brain Mechanisms. Washington DC,Spartan, 1962.

ROSSIGNAC, J.R. «Constraints in constructive solidgeometry». ACM Worshop on Interactive 3DGraphics, University of North Carolina, Chapel Hill,1986.

ROTH, J.; HASHIMSHONY, R. «Comparison ofexisting three-room apartment plans with computer-generated layouts». Environment and Planning B,vol 14, pp 149-161, 1987.

Page 20: [Architecture eBook] Aplicaciones as en Arquitectura

424 Aplicaciones informáticas en arquitectura

RUITER, M.M. «Parametric Design». En: Advances inComputer Graphics. III Eurographics Seminars,Springer, 1988.

RYAN, D.L. Computer-Aided Graphics and Design.Nueva York, Marcel Dekker, 1979.

RYLE, G. The Concept of Mind. Londres, Hutchinson,1949.

SAKURAI, H. «Volume decomposition and featurerecognition. Part I - Polyhedral objects». ComputerAided Design, vol 27, nº 11, noviembre, pp 833-844,1995.

SAKURAI, H. & DAVE, P. «Volume decompositionand feature recognition. Part II - Curved objects».Computer Aided Design, vol 28, nº 6/7, pp 519-537,1996.

SANDERS, K. The Digital Architect. A Common-Sense Guide to Using Computer Technology inDesign Practice. Nueva York, J.Wiley, 1996.

SCHACHTER, B. J. Computer Image Generation.Nueva York, Wiley, 1983.

SCHANK, R.C. Scripts, Plans, Goals andUnderstanding. Hillsdale, N.J., Lawrende Erlbaum,1977. Trad. cast.: Guiones, planes, metas yentendimiento. Barcelona, Paidós, 1988.

SCHANK, R.C. The Cognitive Computer: OnLanguage, Learning and Artificial Intelligence.Reading, Mass, Addison & Wesley, 1985. Trad.: Elordenador inteligente. Barcelona, A.Bosch, 1986.

SCHMITT, G. «Expert systems in Design Abstractionand Evaluation». En: KALAY, Y.E. (ed.):Computability of Design. Nueva York, J. Wiley,1987.

SCHMITT, G. Microcomputer Aided Design forArchitects and Designers. Nueva York, J. Wiley,1988.

SCHUMACKER, R.; SPROYLL, R.F.;SUTHERLAND, I.E. «A characterization of tenhidden-surface algorithms». Computings Surveys, 6(1), pp 1-55, 1974.

SEARLE, J. «Minds, Brains and Programas».Behavorial and Brain Sciences, vol 3, pp 442-444,1980.

SEARLE, J.R. Intentionality, an Essay in thePhilosophy of Mind. Cambridge, England,Cambridge University Press, 1983.

SEARLE, J.R. Minds, Brains and Science. The 1984Reith Lectures. 1984. Trad.cast.: Mentes, cerebros yciencia. Madrid, Cátedra, 1994.

SEBESTA, R.W. Concepts of ProgrammingLanguages. Reading, Mass., Addison-Wesley, 1996.

SETHI, R. Programming Languages. Concepts andConstructs. Reading, Mass., Addison-Wesley. Trad.cast.: Lenguajes de programación. Conceptos yconstructores. Wilmington, USA, Addison-WesleyIberoamericana, 1992.

SHANNON, C. Collected Papers. Sloane, N.Y.A.;Wyner, A.D. (eds.). Nueva York, IEEE, 1993.

SHANNON, C.; WEAVER, W. The MathermaticalTheory of Communication. Urbana, University ofIllinois Press, 1948.

SHAVIV, E. «Generative and Evaluative CAAD Toolsfor Spatial Allocation Problems». En: KALAY, Y.E.(ed.): Computability of Design. Nueva York, J.Wiley, 1987.

SILLION, F.X., et al. «A Global Illumination Solutionfor General Reflectance Distributions». ComputerGraphics (Proc. Siggraph), vol. 25, nº 4, julio, pp187-196, 1991.

SILLION, F.X.; PUECH, C. «A General Two-PassSolution to the Rendering Equation: A Synthesis ofRay Tracing and Radiosity Methods». ComputerGraphics (Proc. Siggraph), vol. 23, nº 3, julio, pp335-344, 1989.

SIMON, H. Administrative Behavior. 1947. Trad.cast.:El comportamiento administrativo. Madrid, Aguilar,1971.

SIMON, H. The Sciences of the Artificial. Cambridge,Mass, MIT Press, 1967. Trad. cast.: Las Ciencias delo Artificial. Asesoría Técnica de Ediciones, 1979.

SIMON, H.A. «The structure of ill-structuredproblems». En: CROSS, N. (ed.): Developments inDesign Methodology. Nueva York, J. Wiley, pp 135-166, 1984.

SIMONS, G. L. Towards fifth-Generation Computers.The National Computers Centre Ltd. 1983. Trad.cast.: Los Ordenadores de la quinta generación.Madrid, Díaz de Santos, 1984.

SMITHERS, T. «AI-based design versus geometry-based design or why design cannot be supported bygeometry alone». Computer Aided Design, vol 22, nº3, marzo, pp 97-108, 1989.

SNYDER, H. «Image Quality: Measures and VisualPerfomance». En : TANNAS, L. Jr (ed.).: Flat-PanelDisplays and CRTs. Nueva York, Van NostrandReinhold, 1985.

SOLANO, LL.; BRUNET, P. «Constructive constraint-

Page 21: [Architecture eBook] Aplicaciones as en Arquitectura

Bibliografía 425

based model for parametric CAD systems».Computer Aided Design, vol 26, nº 8, agosto, 1994.

STENBERG, R. J.(ed.) The Nature of Creativity.Cambridge UP, 1988.

SUNDE, G. «A CAD system with declarativespecification of shape». Eurographic Workshop onIntelligent CAD Systems. Noorwijkerhout, Holanda,abril 21-24, pp 90-104, 1987.

SUNDE, G. «Specification of shape by dimensions andother geometric constraints». En: WOZNY, M. J.;MCLAUGHLIN, W.; ENCARNAÇAO, J. (eds.):Geometric Modelin forCAD Applications. NorthHolland, 1988.

SUTHERLAND, I. E. SKETCHPAD: A Man-MachineGraphical Communication System. Cambridge,Mass., MIT Lincoln Laboratory Technical Report256, 1965.

SUTHERLAND, I. E.; SPROULL, R. F.;SCHUMACKER, R.A. «A Characterization of TenHidden-Surface Algorithms». ACM ComputingSurveys, 6 (1), marzo, pp 1-55, 1974.

TAYLOR, D.L. Computer Aided Design. Nueva York,Addison-Wesley, 1992.

THOMAS, A.L. «VLSI for Solid Modelling». En:RUITER, M.M. (ed.): Advances in ComputerGraphics III Eurographics Seminars. Springer,1988.

TORRANCE, K. E.; SPARROW, E. M. «Theory foroff-specular reflection from roughened sufaces».Optical Society of America, 57 (9), pp 1105-1114,1967.

TRILLAS, E. La inteligencia artificial. Máquinas ypersonas. Madrid, Debate, 1998.

TURING, A. A.M.Turing’s ACE Report of 1946 andother papers. Carpenter, B.E.; Doran, R.W. (eds.).Cambridge, Mass., MIT Press, 1986.

TURING, A. «On Computable Numbers with anapplication to the Entscheidungsproblem».Proceedings of the London Mathematical Society,enero, 1937.

TURING, A. «Computing Machinery andIntelligence». Computers and Thought, 1950.

ULLMAN, J. D. Principles of Database andKnowledge Base Systems. Computer Science Press,1988.

UPSTILL, S. The RenderMan Companion. Reading,Mass., Addison-Wesley, 1990.

VERBECK, C.P.; GREENBERG, D.P. «Acomprehensive light source description for ComputerGraphics». IEEE Computer Graphics & Application,vol. 4, nº 7, pp 66-75, 1984.

VEROUST, A.; SCHONEK, F.; ROLLER, D. «Ruleoriented method for parametrized computer-aideddesigns». Computer Aided Design, vol. 24, nº 10,octubre, pp 531-540, 1992.

VILLORIA, V. Curvas planas y dibujo por ordenador.Madrid, Dossat, 1992.

VON NEUMANN, J. «The General and Logic Theoryof Automata». En: JEFFRESS, L.A. (ed.). CerebralMechanisms in Behavior. Nueva York, Wiley, 1951.También en: PYLYSHYN, W. (ed.). Perspectives onthe Computer Revolution. Nueva York, Prentice Hall,1970.

VON NEUMANN, J. The Computer and the Brain.New Haven, Conn., Yale UP, 1958.

WALLACE, J.R.; COHEN, M.F.; GREENBERG, D.P.“A two-pass solution to the Rendering Equation: ASynthesis of Ray Tracing and Radiosity Methods».SIGGRAPH 87, pp 331-320, 1987.

WARN, D.R. «Lighting Controls for SyntheticImages». Computer Graphics, vol. 17, nº 3, pp 13-21, 1983.

WARNOCK, J. «A Hidden Surface Algorithm forComputer Generated Halfone Pictures». Universityof Utah, Computer Science Dept.C.S. Tech., Report4-15, 1969.

WATKINS, G.S. «A Real Time Visible SurfaceAlgorithm» University of Utah Computer ScienceDept. Tech.Rep. UTEC-CSC-70-101, junio, 1970.

WATT, A.; WATT, M. Advanced Animation andRendering Techniques. Nueva York, Addison-Wesley, 1992.

WHITTED, J.T. «A scan line algorithm for thecomputer display of curved surfaces». Proc. 5thConf. on Computer Graphics and InteractiveTechniques. Atlanta GA, p 2, 1978.

WHITTED, J.T. «An improved illumination model forshaded display». Communications of the ACM, 23(6), pp 342-349, 1980.

WIENER, N. Cybernetics. 1948. 2ª ed. rev. MITPress, 1961, Trad. cast.: Cibernética o el control ycomunicación en animales y máquinas. Barcelona,Tusquets, 1985.

WIENER, N. The Human Use of Human Beings.Cybernetics and Society. Houghton Mifflin, 1950.

Page 22: [Architecture eBook] Aplicaciones as en Arquitectura

426 Aplicaciones informáticas en arquitectura

Trad. catalana.: Cibernètica i Societat. Barcelona,Ed. 62, 1965.

WIENER, N. Ex-Prodigy. My Childhood and youth.Cambridge, Mass, MIT Press, 1953.

WIENER, N. I am a mathematician. The later life of aprodigy. Cambridge, Mass, MIT Press, 1956.

WINOGRAD, T. Understanding Natural Language.Nueva York, Academic Press, 1972.

WINSTON, P. (ed.) The Psychology of ComputerVision. Nueva York, McGraw-Hill, 1975.

WINSTON, P.H. Artificial Intelligence. 1992 (3ª ed.).Trad.cast.: Inteligencia Artificial. Washington,Addison-Wesley Iberoamericana, 1994.

WYLIE, C.; ROMNEY, G.W.; EVANS, D.C.;ERDAHL, A.C. “An Improved Procedure forGeneration of Half-tone Computer GraphicsRepresentations». University of Illinois, CoordinateScience Lab. Tech.Rep. R-432, septiembre 1967.

WYLLIE, C:, ROMNEY, G.W., EVANS, D.C.,ERDHAL, A.C. «Halftone perspective Drawings byComputer». Proceedings Fall Joint ComputerConference. Thompson Books, Washington D.C.1967.

YAACOV, H.; RAPOPORT, A.; WERMAN, M.«Relaxed parametric design with probabilisticconstraints». Computer Aided Design, vol 26, nº 6,junio, pp 426-434, 1994.

YESSIOS, C. I. «The computability of VoidArchitectural Modeling». En: KALAY, Y.E. (ed.):Computability of Design. Nueva York, J.Wiley, 1987.

YOUNG, T.Y.; FU, K.S. (eds.) Handbook of PatternRecognition and Image Processing. San Diego,Academic Press, 1986.

ZIENKIEWICZ, O. C. The Finite Element Method.Londres, McGraw Hill, 1979.

ZLOOF, M. M. «Query-By-Example: A dabaseLanguage». IBM System Journal, 1977.

Page 23: [Architecture eBook] Aplicaciones as en Arquitectura

Introducción

Page 24: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 21

La evolución de los computadores automáticos seencuentra en todo tipo de publicaciones por lo queincluiremos una rápida sinopsis de los hitos princi-pales, que puede ampliarse con alguna de las obrasdadas en la bibliografía general. Adjuntamos tansólo algunos datos de interés que no hemos encon-trado en dichas obras.

1. Prehistoria de la informática

Como se recuerda en algunos de dichos textos, esposible remontarse hasta los inicios de la mayoríade las civilizaciones para encontrar herramientas ymétodos que simplificaron la tarea de realizar cál-culos. El ábaco, utilizado por los chinos y los tárta-ros se remonta a tiempos inmemoriales y se con-servan ábacos romanos construidos con tablas di-vididas en ranuras verticales por las que se desli-zaban unos botones y cuyo esquema de funciona-miento era similar al de los chinos o los japoneses.

Los avances principales provienen del sigloXVII. John Napier o Neper (1550-1617), barón deMerchiston, es conocido por su contribución a lasimplificación de los cálculos por medio de loslogaritmos. Y algo menos conocido por otra con-tribución que se considera antecesora de las mo-dernas máquinas de calcular. Tres años después dela publicación de su obra sobre los logaritmos, y elmismo año de su muerte, publicó un libro: laRabdologiae seu Numerationis per virgulas libriduo (1617) en donde describía unos bastones de suinvención, los "bastones de Napier", que posibili-taban la realización de cálculos mediante giros quepermitían reducir multiplicaciones a sumas y quetambién permitían hacer divisiones largas, raícescuadradas y cúbicas. La Rabdologiae se reimprimióvarias veces, se tradujo a varios idiomas y conoció

Capítulo 1 . Sobre algunos conceptos fundamentales en la evoluciónde la informática

un éxito considerable en su época.Lo que, por ahora, se considera como "la pri-

mera máquina de calcular conocida" se atribuye aWilhelm Schickard (1592-1635), un astrónomo yprofesor de Tubinga que describe su funcionamien-to en una serie de cartas a Kepler, en 1623 y 1624que han permitido una reconstrucción que puedecontemplarse en el Museo de la Ciencia de Lon-dres, junto con los bastones de Napier y las gran-des máquinas de Babbage.

La invención de Schickard no se ha conocidopúblicamente hasta que los historiadores de la in-formática han empezado a rastrear precedentes delos ordenadores. La primera máquina de calcularde la que sí se tuvo noticia pública, y que gozó decierto renombre, fue diseñada por Pascal en 1642y permitía hacer sumas automáticas. Leibniz, unos30 años más tarde, en el decenio de 1670, mejoróel invento de Pascal incorporando mecanismos quepermitían hacer multiplicaciones y divisiones. Perosu propuesta no se llegó a realizar en la prácticaaunque los principios de funcionamiento eran co-rrectos.

Hay otros antecedentes pero hasta el siglo XIXno aparecen máquinas producidas de un modo sis-temático. Thomas Colmar, en 1820, en Alsacia, ideóla primera calculadora mecánica, el Arithmometerque podía sumar, restar, multiplicar y dividir pormedio de cilindros engranados entre sí. No se co-mercializó hasta 1860. Otro investigador alemán,Otto Steiger, patentó en 1893 un modelo de calcu-ladora que hacía multiplicaciones directas en lugarde sumas repetidas y que estaba basada en un dise-ño anterior de 1887 de otro investigador francés.Hacia 1912 había unas 2.000 unidades en uso.

El gran precursor de los ordenadores modernoses Charles Babbage (1792-1871) un personaje ex-

Page 25: [Architecture eBook] Aplicaciones as en Arquitectura

22 Aplicaciones informáticas en arquitectura

céntrico que dedicó su vida a sus inventos, ignora-dos, con raras excepciones, por sus contemporá-neos. En 1822 presentó el primero de ellos, laDifference Engine, una gran calculadora automáti-ca que incorporaba un programa de instruccionesfijas, alimentada a vapor y que parecía una peque-ña locomotora; puede contemplarse en la gran saladel museo de la Ciencia de Londres dedicada aBabbage. A partir de esta primera aportación tra-bajó durante muchos años, hasta el final de su vida,en la Analytical Engine, su gran e inconclusa obra.

Este segundo invento puede considerarse un or-denador mecánico en la terminología actual. A di-ferencia del anterior, era de propósito general, estoes, estaba controlado por un programa que podíamodificarse según los casos, un programa grabadoen una serie de tarjetas perforadas inspiradas enlos telares de Jacquard. Los telares Jacquard tejíanpatrones mediante un ingeniosos sistema que for-zaba a las agujas a pasar por unos agujeros queformaban patrones regulares. El sistema fue utili-zado por Babbage para grabar instrucciones, "pro-gramas" que podían ser sustituidos según las nece-sidades del cálculo. Estos programas, así grabados,incluían por añadidura saltos condicionales, es de-cir, instrucciones que forzaban al programa a sal-tar a líneas diferentes de la secuencia de instruc-ciones en función de que se cumpliesen o no deter-minadas condiciones. Veremos ejemplos de lo mis-mo más adelante pero con una diferencia de casiun siglo.

Babbage fue auxiliado en su empresa inacabadapor Ada Lovelace, hija de Lord Byron, que creó unprograma para la máquina de Babbage y es consi-derada, por esta razón, como la primera "progra-madora" de la historia. El lenguaje de programa-ción Ada se llama así en su honor. A Ada Lovelacese debe también una aguda descripción de estosprimeros modelos: "Se podría decir que laAnalytical Engine teje patrones algebraicos delmismo modo que el telar de Jacquard teje hojas yflores...".

En 1890 se desarrollan por primera vez siste-mas de tarjetas perforadas para el Censo en Esta-dos Unidos que posteriormente serían utilizadas porgrandes empresas. En 1931 IBM produjo una má-quina de calcular que incorporaba una unidad arit-mética capaz de hacer una multiplicación en unsegundo de la que se vendieron unas 1500 unida-des a diferentes empresas.

Durante el decenio de los 1930 se desarrollan

varios modelos que están en el origen de los orde-nadores modernos. Vannebar Bush, con quien tra-bajaría Shannon nada más terminar sus estudios yque es un personaje importante en la historia de lainformática de este siglo, completó en 1932, en elMIT, una computadora analógica que efectuabacálculos complejos, incluidas la integración y laresolución de ecuaciones diferenciales.

A finales de esta misma década, el alemánKonrad Zuse desarrolló una serie de ordenadoreselectromecánicos que fueron destruidos durante losbombardeos de la IIª guerra mundial. Como seríade esperar, los alemanes consideran a Zuse el "au-téntico" inventor de los ordenadores. Por otro lado,en 1937 se fabrica el ABC, un ordenador electró-nico (pero que realizaba un único tipo de cálculo)construido por John Atanasoff en Iowa, EstadosUnidos. Por estos mismos años, G.R. Stibitz, de loslaboratorios Bell, y H.H. Aiken, de la universidadde Harvard, en colaboración con IBM, desarrolla-ron modelos electromecánicos que pueden tambiénconsiderarse antecesores de los ordenadores actua-les.

En 1943 se produjo el Mark I, la primera calcu-ladora programable electromecánica que pesabacinco toneladas y contaba con 750.000 piezas. Elprograma se introducía por medio de una cinta per-forada, como los telares de Jacquard y la máquinade Babbage. Y, aunque durante mucho tiempo semantuvo en secreto, en 1943 entró en servicio enInglaterra el Colossus, un ordenador no electrome-cánico sino electrónico, es decir, un ordenador enel que son los electrones los que causan la mayoríade los movimientos principales. El Colossus fueconstruido por Alan Turing entre otros colabora-dores del Bletchey Research Establishment, en In-glaterra, con la finalidad específica de descifrar elcódigo "Enigma" utilizado por los alemanes, lo queparece que contribuyó de un modo decisivo al fi-nal de la guerra.

El decenio de los 1940 aparece así como el mo-mento histórico en el que surge en diversos puntosun mismo ingenio, para el que se habían creadotodo tipo de condiciones propicias y cuyo alum-bramiento, como ha ocurrido con un gran númerode inventos, estuvo claramente condicionado porla guerra mundial. Los historiadores siguen consi-derando, sin embargo, que el primer ordenadorelectrónico fue el Eniac (Electronic NumericalIntegrator And Computer) que fue presentado alpúblico en 1946. Sus características se han citado

Page 26: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 23

tantas veces que no hará daño hacerlo una vez más.Pesaba 30 toneladas, ocupaba una sala de 10 × 20metros repleta de máquinas auxiliares y contabacon unas 18.000 válvulas de vacío. Necesitó150.000 watios de potencia para su funcionamien-to y grabó en el imaginario popular la impresiónde un ordenador como una máquina gigantesca,agresiva y peligrosa, que requería la energía devarios bloques de viviendas para su funcionamien-to. Pero, para nuestro regocijo, también hay queanotar que su capacidad de procesamiento se esti-ma que era más de mil veces inferior a la de un PCactual, su capacidad de almacenamiento de datosvarios millones de veces inferior y su coste incal-culablemente superior.

El Eniac fue desarrollado por J.P. Eckert y J.W.Mauchy en la Moore School de la Universidad dePensilvania. Se les ha considerado durante muchotiempo como los diseñadores del "primer ordena-dor" pero este honor se ha puesto en duda última-mente por diversas razones, aparte de las insinua-das en los párrafos anteriores.. Por un lado, cuan-do Eckert y Mauchy se vieron envueltos en un liti-gio sobre la patente del Eniac, iniciado en 1967,salió a la luz que Atanasof había estado en estre-cho contacto con Mauchy hasta el punto de que eljuez consideró que había razones para pensar quealgunas de las ideas principales podían haber sidotomadas de los modelos desarrollados por Atanasofentre 1937 y 1942.

Por otro lado, parece evidente para los especia-listas en la materia que es imposible separar de "lainvención" de un aparato tan complejo como unordenador el papel jugado por las contribucionesteóricas de científicos de primera fila. John vonNeumann no era dueño de ninguna patente pero esbien sabido que tuvo una contribución decisiva enel desarrollo de los ordenadores que se construye-ron a principios de los 1940. Los párrafos que fi-guran en varios lugares de los escritos de Wienersobre la irracionalidad del sistema de patentes ame-ricano y el modo en que marginan el papel de cien-tíficos de primera fila pueden servir para continuareste tema.

En 1951 Eckert y Mauchy patentaron el Univac,primer ordenador comercial (5.000 válvulas), decaracterísticas similares a los anteriores, que tuvoun considerable éxito (se hicieron 40 unidades des-de esta fecha hasta 1963) y que puede decirse queinaugura la época en que los ordenadores comien-zan a estar disponibles para la iniciativa privada.

Con la invención del transistor por Bardeen yBrattain (1948) y Shockley (1951) que recibieronconjuntamente el premio Nobel en 1956 por estedescubrimiento, se entra en un nuevo período, enel que estamos inmersos, marcado por la acelera-ción y por la duplicación de prestaciones de losordenadores (cada año y medio aproximadamen-te). Antes de describir la situación actual y aque-llos aspectos de la misma que pueden interesar par-ticularmente a los arquitectos, las cuatro seccionesque siguen pretenden tanto rendir un homenaje acuatro personajes claves y menos conocido de loque deberían, como trazar el origen de algunas ideasy técnicas actuales, lo que creo que contribuirá asu mejor comprensión.

2. Norbert Wiener

Norbert Wiener nació en Columbia, Missouri, en1894. Si en todos los casos que seguirán nos en-contraremos con personajes que dieron muestrasde una notable precocidad, el caso de Wiener es elde un "niño prodigio" en el sentido más conven-cional del término, pues fue objeto de un tratamien-to especial. En el primer volumen de su autobio-grafía, que lleva por título Ex-prodigy (MIT, 1953),Wiener relata la tensión que le supuso, en su ado-lescencia, el ser tratado como un pequeño mons-truo, objeto de entrevistas y artículos periodísticos.

Como el mismo Wiener se encarga de subrayarrepetidas veces a lo largo del volumen menciona-do, su padre fue una figura absolutamente centralen su formación. Leo Wiener había nacido enByelostok (Rusia) y estudió en Varsovia y Berlín.Durante una reunión en esta ciudad convocada poruna asociación de influencia tolstoyana decidió ha-cerse vegetariano y embarcarse en la aventura defundar una colonia naturista en América Central.Al llegar a Estados Unidos, primera etapa de laexpedición, la mayoría de los integrantes decidie-ron abandonar la empresa y el padre de Wiener seencontró en un país extraño, sin dinero y sin ami-gos. Personaje de una tenacidad y de un talentoextraordinarios, pasó por todo tipo de oficios mien-tras incorporaba el inglés a las muchas lenguas queya dominaba y acabó como profesor de lenguaseslavas en la Universidad de Harvard, en la queprosiguió una investigación original y, según su hijo,verdaderamente notable y precursora de las ideasque dominarían este área de conocimiento en Eu-

Page 27: [Architecture eBook] Aplicaciones as en Arquitectura

24 Aplicaciones informáticas en arquitectura

ropa en los años que siguieron.Una cita del segundo volumen I am a

Mathematician (MIT, 1956), puede redondear estebreve retrato: "De todas las influencias que obra-ron sobre mí en mi infancia y adolescencia, la másimportante fue la de mi padre, Leo Wiener, profe-sor de literatura y lenguas eslavas en la universi-dad de Harvard -un hombre pequeño, vigoroso, deemociones al mismo tiempo profundas y rápidas,de gestos y movimientos repentinos, dispuesto aaprobar y a condenar con prontitud, un estudioso(scholar) por naturaleza más que por formaciónespecífica. En él se unían la mejor tradición delpensamiento alemán, el intelecto judío y el espírituamericano. Llegaba a dominar la voluntad de quie-nes le rodeaban por la pura intensidad de su emo-ción más que por un deseo particular de controlar aotros."

En un determinado momento de la educaciónde Norbert, su padre, que tenía sus propias ideassobre la educación y que contaba con la formaciónsuficiente para instruirle en todos los terrenos, sehizo cargo personalmente de esta. Sea por el méto-do de educación, sea por contar con unas cualida-des excepcionales, o sea por ambas cosas, a los 4años ya había aprendido a leer y a los 7 sus lectu-ras incluían a Darwin, Dante, una enciclopedia deciencias naturales y textos de psicólogos france-ses. A los 8 años el médico de la familia le prohibióleer durante 6 meses debido a una creciente mio-pía. Como explicaría más tarde, esto favoreció sueducación, pues le permitió apreciar mejor el len-guaje hablado y desarrollar una memoria ya de porsí fuera de lo normal.

Acabó el equivalente a nuestro bachillerato a los14 años e ingresó en la universidad, junto con ungrupo especial de otros cuatro superdotados. A los18 años completó un doctorado en filosofía conuna tesis sobre filosofía de las matemáticas. Beca-do por la universidad de Harvard para completarsus estudios en Europa, escribió a Bertrand Russellpara que aceptará ser su tutor. La respuesta favora-ble no tardó en llegar y en 1912 inició un viaje quetendría como destinos principales Cambridge yGottinga. Russell le convenció de la necesidad decompletar su formación en matemáticas como re-quisito necesario para profundizar en el estudio dela lógica y se inscribió en un curso con G.H. Hardy,una de las principales figuras matemáticas de In-glaterra en aquel periodo.

En Gottinga estudió con Landau y con David

Hilbert, la personalidad principal de la época y, sinduda, una de las figuras matemáticas principalesde los últimos tiempos y que, como veremos, esta-ría también presente en los itinerarios intelectualesde von Neumann y de Turing. Pero la guerra esta-ba a punto de estallar y Wiener volvió a EstadosUnidos antes de completar la estancia prevista.

Durante algún tiempo investigó en diversas áreasmatemáticas, entre otras en lo que entonces se de-nominaba analysis situs y que ha pasado a conver-tirse en una de las áreas matemáticas más fructífe-ras del siglo con el nombre de "topología", así comoen otros temas que tendrían una relación directacon sus trabajos posteriores, como el estudio deprocesos estocásticos asociados al movimientobrowniano. Mientras tanto, ejerció de docente enla universidad de Harvard, de redactor de una en-ciclopedia en la universidad de Maine y de investi-gador de balística en Maryland. Finalmente, en1919, fue contratado como profesor en el MIT endonde permanecería hasta su muerte.

Entre 1919 y 1925 se estabiliza como profesore investigador en el MIT e incrementa sus contac-tos internacionales, a partir principalmente del con-greso de matemáticas de Estrasburgo en 1920 y devisitas posteriores a Europa en las que conocería aFelix Klein poco antes de morir, o establecería con-tacto con los hermanos Bohr en Dinamarca o MaxBorn en Gottinga.

Durante este periodo trabaja en diversos temasmatemáticos que retomaría más tarde en la teoríade la información, principalmente los relativos alanálisis armónico, basados en los principios esta-blecidos por Fourier en el siglo pasado, pero cuyarelevancia para ingeniería eléctrica comenzó a com-prenderse por estas fechas. En 1926 se casó conMargaret. El matrimonio trajo paz, estabilidad ydos hijas. Siguió realizando continuas visitas aEuropa donde su reconocimiento era mayor que enEstados Unidos.

En 1933 conoce a "un joven y brillante estu-diante" que permanecería algún tiempo en el MITjunto con un grupo de estudiantes pregraduados,Claude Shannon. En sus referencias posteriores ala publicación de "Cybernetics...", Wiener se refe-riría a "la nueva teoría de la información que esta-ba siendo desarrollada por Shannon y por mi".

En los años previos a la guerra su trabajo deinvestigación se dirige hacia la teoría de la predic-ción balística y desarrolla el aparato matemáticonecesario para calcular el lugar de encuentro de

Page 28: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 25

dos proyectiles a partir de datos estadísticos quepueden autocorregirse. Estos trabajos se basaronen tablas ya elaboradas por el mismo en la Iª gue-rra mundial y están en la base de la teoría de larealimentación (feedback). Durante este mismoperiodo lleva a cabo largas investigaciones sobreel sistema nervioso en colaboración con su amigo,el fisiólogo de origen mejicano, también profesoren Harvard, Arturo Rosenblueth, que les permitencomprobar que muchos mecanismos reflejos pue-den equipararse a los sistemas que habían desarro-llado en balística.

En 1946, durante una nueva visita a Inglaterra ya la universidad Manchester, conoce probablementea Turing quien, como dice en su autobiografía "es-taba haciendo el mismo tipo de síntesis entre lógi-ca matemática y electrónica que Shannon había lle-vado a cabo en los Estados Unidos". En esta mis-ma visita a Europa conoce a Freyman, de la edito-rial Hermann, que le propone escribir un libro so-bre teoría de la información. Como descubre consorpresa Freyman, es el fundador del famoso gru-po colectivo tras el que se oculta el "famoso mate-mático francés" Nicolás Bourbaki. El libro se edi-tará en francés y luego en inglés, en 1948, con eltítulo Cybernetics y contribuye notablemente a ladivulgación de una serie de nuevos conocimientoshasta entonces compartidos por unos pocos.

Norbert Wiener murió en Massachusetts, en1964 a los 69 años.

La noción de cibernética

Una buena parte de las contribuciones de Wiener,que resumiremos apretadamente en lo que sigue,se derivan de su colaboración con el Dr.Rosenblueth a quien dedica Cybernetics, su obramás famosa y cuyo éxito es realmente notable ha-bida cuenta de que se trata de un texto en el que nose ahorran al lector los desarrollos matemáticos paraaclarar los conceptos. Tal como se explica en elprefacio de esta obra, la noción se originó en unasreuniones informales, en la Harvard MedicalSchool, antes de la IIª guerra mundial, alrededorde los 1940, que agrupaban a científicos de dife-rentes especialidades, físicos, médicos y matemá-ticos entre otros.

De estas reuniones surgió la convicción de quelos campos más fructíferos para el desarrollo denuevas ideas científicas eran los que ocupaban re-giones limítrofes entre diferentes especialidades,

tierras de nadie a la espera de alguien con la auda-cia y la amplitud de conocimientos suficientes paracultivarlas con herramientas desarrolladas en otrasespecialidades que no fueran la suya. Para sacar elmáximo partido de estas tierras vírgenes el plan-teamiento ideal no podía ser otro que el trabajo enequipo, con científicos que dominasen una de es-tas áreas limítrofes pero con la curiosidad comopara comprender y asimilar los principios genera-les provenientes de otro campo.

El grupo de problemas que fueron investigandoy que provenía de campos aparentemente tan dis-pares como la balística o la neurología, comenza-ron a revelar un núcleo común. La ausencia de unaterminología que sirviera para sintetizar los hallaz-gos y proporcionar una mayor economíametodológica comenzó a pesar más que las venta-jas de explorar un terreno libre de tradiciones. Paradar a una unidad a sus trabajos acuñaron el térmi-no "cibernética", en 1947, a partir del vocablo grie-go χυβερνητηζ que significa "timonel", "gober-nante". Al escoger este término buscaron tambiénrendir homenaje a lo que consideraron el primertrabajo importante sobre servomecanismos, un ar-tículo sobre gobernalles publicado por Maxwellen 1968, así como a la significación de "timón"como prototipo de un dispositivo clásico que in-corpora alguna de las características más notablesde los servomecanismos.

Las ideas que cristalizaron en este término, queactualmente es omnipresente en revistas, televisio-nes, periódicos, películas y concursos, proveníande trabajos que se remontaban a unos diez añosatrás y que se habían ido formalizando en diversasreuniones y publicaciones. Entre los muchos tra-bajos dignos de mención que se remontan a esteperíodo deben citarse los del Dr. WarrenMcCulloch, un psiquiatra que había investigado endiversos campos relacionados con la fisiología y laneurología, y los de Walter Pitts, que había estu-diado con Carnap en Chicago y tenía una buenaformación en lógica matemática y que colaboró ac-tivamente con McCulloch en la propuesta de mo-delos neuronales.

Las investigaciones de este período se centra-ron principalmente en los intentos de elaborar mo-delos que pudieran simular el comportamiento delsistema nervioso de animales y seres humanos. Asícomo la visión había sido el modelo que llevaríadesde la perspectiva renacentista a la cámara foto-gráfica a lo largo de cuatro siglos de investigacio-

Page 29: [Architecture eBook] Aplicaciones as en Arquitectura

26 Aplicaciones informáticas en arquitectura

nes, este periodo inaugura una época, en la queestamos plenamente inmersos, en la que el modeloes el cerebro entendido en un amplio sentido, comocentro neurálgico de un organismo completo en elque las terminales nerviosas sensitivas se extien-den hasta las inmediaciones del cuerpo.

Un punto que se debe destacar de este mismoperiodo es que puede ser entendido como un giroen los intereses científicos, en donde se abandonala obsesión por lo microscópico y lo microscópicoque ha caracterizado y sigue caracterizando la ac-tividad científica que despliega mayor número derecursos económicos, y se atiende a fenómenos quese producen en una escala más cercana a la huma-na y que, por esto mismo, se hurtan a una explica-ción científica; es notable, en este sentido, las pá-ginas dedicadas por Wiener, en textos de hace másde 30 y 40 años, a la explicación de los fenómenosmeteorológicos, turbulencias y, en general, siste-mas dinámicos no lineales que se han convertidoen el centro de atención en los últimos años a tra-vés de las diversas popularizaciones de la teoríamatemática del caos.

Retroalimentación y aprendizaje

El término "retroalimentación" (feedback) se haconvertido, como el de "χιβερντιχα" o como losde input y output, en parte de la jergapseudocientífica con que adornan sus conversacio-nes o sus escritos quienes buscan dar un toque demodernidad a sus frases. Pero aparte de su presen-cia en nuestro estilo de intercambio social es evi-dente su progresiva incorporación a los mecanis-mos que hacemos servir diariamente.

El concepto es central a la noción de cibernéti-ca. Un organismo con capacidad de control de susmovimientos es un organismo que funciona a par-tir de sistemas más o menos complejos de retroali-mentación. Los ejemplos mejores, y los que reci-bieron la atención concentrada de Wiener y sus co-laboradores, son los más simples, los más familia-res. Cuando conducimos un coche al mismo tiem-po que mantenemos una conversación o cuandomantenemos una conversación telefónica mientrasextendemos una mano para coger un vaso, un ciga-rrillo o un bolígrafo, estamos utilizando uncomplicadísimo sistema de mensajes que van ajus-tando, imperceptible y constantemente, los peque-ños movimientos de nuestros brazos, de nuestrasmuñecas, de nuestros dedos, para hacerlos coinci-

dir con la presa, con la finalidad del movimiento, através de una sucesión constante de mensajes vi-suales y motores que se van autocorrigiendoautomáticamente. Caminar en equilibrio sobre unborde recto es otro buen ejemplo de cómo funcio-na un sistema de retroalimentación que conocemosbien pero que seríamos incapaces de analizar yexplicar con precisión.

La sorprendente eficacia de estos sistemas deautorregulación orgánica se revela dramáticamen-te cuando estamos en presencia de alguien que su-fre una descapacidad motora. Un paciente conataxia no padece ninguna malformación aparente,su constitución y su musculatura son normales. Sinembargo es incapaz de beber un vaso de agua sinderramarlo y tan pronto como intenta atrapar unobjeto su mano es incapaz de atinar con la posi-ción del mismo y el gesto se convierte en una osci-lación angustiosa que no consigue resolverse. Obien, en otra modalidad de esta misma enferme-dad, el enfermo es incapaz de ponerse en pie, suspiernas proyectan movimientos que no consiguenadecuarse a la finalidad buscada, mantenerse enequilibrio, caminar.

Una enfermedad aparentemente similar pero denaturaleza muy distinta es el temblor parkinsoniano.Un paciente afectado de la enfermedad deParkinson manifiesta un temblor continuo de susmanos cuando está en reposo. Sin embargo, estetemblor se atenúa notablemente cuando realiza unaacción. Permítaseme mencionar un ejemplo cerca-no. Cuando el dibujo era una de las asignaturas cla-ves para comenzar los estudios de arquitectura,había en Barcelona algunas academias prestigio-sas que preparaban a los estudiantes para afrontaralguna de las más temidas pruebas, como era eldibujo de estatua. Una de las más famosas era la deJosep María Baixas, un pintor de cierto renombre,cuyos magníficos dibujos he tenido la ocasión deadmirar de cerca, e incluso poseer, pues era pa-riente de mi mujer. Al final de su vida Baixas pade-cía de Parkinson y he oído, más de una vez, la mis-ma anécdota, relatada por sus últimos discípulos.El maestro se acercaba a corregir con unas manostemblorosas que apenas si acertaban a agarrar uncarboncillo que parecía que iba a acabar en el sue-lo en cualquier momento. Entonces indicaba algúndefecto en el dibujo, un brazo mal encajado, unatorpe curva que intentaba representar la graciosaespalda de una Venus. Después de algunas expli-caciones sobre cómo mejorar el dibujo añadía un

Page 30: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 27

"¿Comprende?". Y entonces, de un sólo gesto, se-guro, sin ninguna vacilación, trazaba una curvaimpecable sobre el papel. Luego dejaba el carbon-cillo y las manos volvían a su temblor habitual.

Los órganos, naturales o artificiales, encargadosde actuar sobre el exterior, los efectores como sedenominan en la literatura sobre estos temas, nece-sitan, en primer lugar, contar con elementos articu-lados que puedan transmitir un movimiento en di-ferentes direcciones y con diversos grados de in-tensidad. Pero, en segundo lugar, necesitan ser guia-dos adecuadamente para que la acción no se dis-perse en una serie de movimientos absurdos quedespilfarren energía sin alcanzar su término. Cuan-do la acción no es una mera repetición, sino que esun patrón genérico que debe adaptarse a las infini-tas pequeñas variaciones que se presentan en cadacaso, esto implica una serie ininterrumpida de men-sajes de confirmación. Piénsese en algo tan senci-llo como coger un lápiz que está sobre la mesa paraempezar un dibujo. El modelo de la acción es cla-ro, se parte de una posición inicial: el lápiz y lamano en reposo, y de un resultado final: la manosujetando el lápiz del modo habitual (de nuestromodo habitual, que tampoco es idéntico en todoslos casos).

Sin embargo todos los casos presentan sutilesvariaciones. La distancia, la orientación de la manocon respecto al lápiz, la forma, el peso del mismonunca son exactamente iguales y esto conduce auna larga serie de ajustes que se traducen enmicromovimientos, cambios imperceptibles deposición para alcanzar la posición más cómoda, máscercana a un esquema motor abstracto que puedesatisfacerse de varios modos, no idénticos. Estosajustes se llevan a cabo mediante tanteos incons-cientes, ligeras flexiones y giros de las articulacio-nes de los dedos, leves deslizamientos de la yemasobre la superficie cilíndrica del lápiz, suaves pre-siones para comprobar el mejor punto de apoyosegún el peso. Cada uno de estos tanteos es unminiexperimento que arroja un resultado; en fun-ción de este resultado se modifica la posición y sevuelve a ensayar.

Ahora bien, lo interesante de este proceso es quees automático. Rara vez nos detenemos a pensaren todos estos ajustes lo que, por otro lado, seríaprácticamente imposible pues tan pronto como di-rigimos nuestra atención al gesto reflejo este dejade ser tal. Lo cual no quiere decir que sea pura-mente instintivo: sujetar un lápiz, manejar los cu-

biertos o atarse los zapatos son gestos que se apren-den. Pero lo que se aprende es un patrón de ac-ción. Este patrón de acción se realiza en cada casoconcreto merced a unos mecanismos automáticoscon que todos los animales y los seres vivos cuen-tan.

Las investigaciones de Wiener y sus colabora-dores se dirigieron fundamentalmente a la inves-tigación de este automatismo. ¿Es posible repro-ducir este sistema de retroalimentación por mediosartificiales? O mejor aún, ¿es posible diseñar má-quinas capaces de prever cursos de acción y antici-parse a ellos? O todavía mejor, ¿es posible diseñarmáquinas capaces de prever acciones complejas yadaptarse a ellas, es decir, por consiguiente, má-quinas capaces de aprender?

En el curso de estos trabajos se juntaron, entreotras experiencias, como ya hemos mencionado, labalística con la neurología. Uno de los trabajos aque se dedicó Wiener durante la IIª guerra mundialfue a buscar sistemas que permitieran acertar másveces el blanco. El cálculo de la trayectoria de unproyectil que se mueva a velocidad constante y, apartir de este, el de la dirección y la intensidad deotro proyectil que busque alcanzar el primero, nopresenta grandes dificultades matemáticas. Pero lascosas son bastante más complicadas y, en princi-pio, imposibles de resolver mediante cálculo, cuan-do se trata de un proyectil tripulado, que puede al-terar su dirección y su velocidad, como es el casode un avión conducido por un piloto. Sin embargo,un avión en vuelo no puede variar bruscamente suvelocidad aunque pueda alterarla para evitar unimpacto. La trayectoria puede, por consiguiente,predecirse dentro de ciertos margénes y se puedenhacer estimaciones sobre su curso más probable.El cálculo es posible pero debe hacerse a partir deconsideraciones probabilísticas y, por añadidura, apartir de lecturas de posición que se vayan adap-tando con rapidez a las variaciones del objetivoantes de lanzar el disparo.

La retroalimentación es, por consiguiente, unmétodo para regular sistemas de diversos tipos y elmedio de que se vale es la introducción, como nue-vos datos, de los resultados de la propia acción. Siestos datos se utilizan como datos numéricos sim-ples que sirvan para introducir correcciones ele-mentales nos encontramos con una forma sencillade retroalimentación que es lo que en ingeniería sedenomina control. Un termostato o unservomecanismo de un tipo similar, cuyo esquema

Page 31: [Architecture eBook] Aplicaciones as en Arquitectura

28 Aplicaciones informáticas en arquitectura

Entrada S Efector Salida

Retroal.

E ei

0E

0e = E - EiS: Substractor

básico se muestra en la figura 1, es un ejemplo deesta forma básica de sistema de retroalimentación.Si, por añadidura, los nuevos datos pueden llegar amodificar el método y la forma de funcionamientodel sistema y, por consiguiente, llegar a generarotros tipos de acción, nos encontramos con la for-ma más elaborada de retroalimentación que se de-nomina .

La distancia que separa estas dos formas de re-troalimentación es la misma que separa las máqui-nas simples de los animales superiores. La tesis quesustenta las investigaciones actuales más esforzadasen informática, en los últimos 50 años, es que esposible llegar a comprender y reproducir estos sis-temas por medio de máquinas. Máquinas con ca-pacidad de aprender y llevar a cabo muchas de lasactividades que hasta ahora tan sólo podían ser lle-vadas a cabo por el hombre. Las dificultades son,probablemente, mayores que lo que se supuso enun comienzo. Como el propio Wiener subraya envarias ocasiones, los organismos naturales sonhomeostáticos, es decir, poseen un conjunto extraor-dinariamente complejo de reguladores que asegu-ran que la temperatura del cuerpo, el nivel de oxí-geno, de sal, de anhídrido carbónico en nuestra san-gre, el nivel de un sinfín de compuestos segrega-dos por diversos órganos, se mantengan en unosniveles que no pueden variar más allá de unos lí-mites estrictos sin que sobrevenga la enfermedad yla muerte. Reproducir muchos de estos sistemas pormedios mecánicos es una tarea que, en determina-dos aspectos, parece equivocada en su planteamien-to inicial o, como mínimo, antieconómica. Sin em-bargo hay una notable unanimidad entre los cientí-ficos en que, más pronto o más tarde, esto será po-sible.

Cibernética y sociedad

A diferencia de los otros tres científicos que hemosescogido para resumir alguna de las nociones prin-cipales que han presidido el nacimiento y la evolu-ción posterior de la informática, Wiener escribióextensamente sobre temas no estrictamente cientí-ficos; fue un raro ejemplar, en vías de extinción, unliberal de ideas menos conservadoras que las demuchos de sus colegas, culto y que combinaba unaexcepcional capacidad como científico con unasólida formación humanista.

En el último capítulo de Cybernetics y en la obraposterior The Human Use of Human Beings.Cybernetics and Society (1950) Wiener analiza lasconsecuencias que la cibernética y el uso de com-putadores puede tener en el mundo moderno. Suintención es reflexionar sobre las consecuenciassociales de un conjunto de herramientas y concep-tos novedosos que, a su juicio, la sociedad actualno está aún preparada para asimilar y pueden ge-nerar tantos problemas como soluciones. Es másque recomendable la lectura de estos capítulos es-critos hace ya más de 30 años, pues la agudeza conque se describen situaciones familiares para noso-tros, antes de que se produjeran, son una buenamuestra de la penetración de su autor.

La noción central que articula estos textos es,en primer lugar, que la sociedad, cualquier socie-dad, puede ser comprendida en su naturaleza esen-cial a partir de un estudio de los mensajes que cir-culan en su interior y de los medios con que cadasociedad cuenta para comunicar estos mensajes. Y,en segundo lugar, que en nuestro caso, en el futuroinmediato, "los mensajes entre el hombre y lasmáquinas, entre las máquinas y el hombre y entrelas mismas máquinas, están destinados a ejercercada vez más un papel preponderante".

Desde el punto de vista de "la circulación demensajes", para una situación vital determinada,es indiferente que el mensaje sea emitido por unapersona o por una máquina. Este punto de vista,que veremos reaparecer en la sección dedicada aTuring, y que volveremos a retomar en el últimocapítulo de este libro, plantea problemas nuevos,específicos de nuestra época y que afectan de mododirecto a los arquitectos.

Figura 1 Esquema de un sistema elemental deretroalimentación

Page 32: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 29

3. John Von Neumann

John von Neuman, cuyo nombre completo eraMargittai Neumann János, nació en Budapest en1903. Su padre era un banquero judío que habíarecibido un titulo nobiliario (lo que se refleja en lai final de Magittai traducida al alemán como "von").Fue un niño precoz con una memoria prodigiosa yuna capacidad de cálculo fuera de lo normal, queconocía el francés, alemán, griego clásico y latínademás del húngaro, su idioma nativo. Leía conavidez libros de historia y de todo tipo de materiasy destacaba particularmente por su talento mate-mático. A los seis años era capaz, según cuentansus biógrafos, de dividir mentalmente números deocho decimales, a los ocho resolvía problemas decálculo diferencial y a los doce había leído y asi-milado algunos de los textos más complejos de lamatemática moderna como la Teoría de funcionesde Borel.

A los 17 años quería ser matemático pero supadre, ayudado por amigos influyentes, le conven-ció de que invirtiera su notable talento en una pro-fesión más rentable por lo que se decidió a estudiarciencias químicas. En 1921 ingresó en la universi-dad de Budapest pero asistía con frecuencia a cla-ses en la universidad de Berlín. En 1923 ingresó enel ETH de Zürich en donde amplió sus contactoscon destacadas personalidades científicas de laépoca. En 1926 obtuvo el diploma de ingenieroquímico por el politécnico de Zürich al mismo tiem-po que un doctorado en matemáticas por la univer-sidad de Budapest. Mientras tanto publicó, en 1923,un libro sobre mecánica cuántica que sería traduci-do al francés (1947), al español (1949) y al inglés(1955), y que sigue siendo considerado una obrabásica sobre este tema.

Tras obtener sus primeras titulaciones trabajacomo Privatdozent en Berlín, de 1926 a 1929, y enHamburgo, de 1929 hasta 1930. Durante este pe-riodo, hasta 1930, publica numerosos artículos so-bre matemática, lógica matemática y mecánicacuántica y establece una estrecha relación con Da-vid Hilbert; participa en el programa formalista deéste dirigido a proporcionar un fundamento lógicopreciso a las matemáticas, programa que fracasa-ría en parte debido a la famosa demostración deGödel pero que debió servir a von Neumann parasus posteriores trabajos sobre computación. A lolargo de toda su vida mantuvo un constante inte-rés, que se refleja evidentemente en sus trabajos de

computación, por la lógica matemática. La obra deGödel, que consideraba que había modificado demodo fundamental la naturaleza y las posibilida-des de la lógica, le marcó también profundamente.En el prefacio a la publicación póstuma de El or-denador y el cerebro, uno de sus ayudantes, P.R.Halmos, recoge esta cita significativa a propósitode la repercusión del famoso artículo de Gödel so-bre su trabajo: "...esto ocurrió mientras yo vivía, ysé por experiencia con qué humillante facilidadcambiaron mis propios valores acerca de la verdadmatemática absoluta en este momento y cómo vol-vieron a cambiar después por tres veces consecuti-vas".

En 1930 es invitado a Princenton como confe-renciante visitante. Durante tres años alterna su ac-tividad académica entre Princenton y Berlín hastaque, en 1933, se le ofrece un contrato permanente;una oferta que acepta motivado por las mayoresoportunidades que veía en Estados Unidos y el cre-ciente deterioro de la situación política en Europa.Por estas fechas es reconocido como una de lasprincipales figuras internacionales en matemáticay en física matemática. Fue uno de los seis profe-sores fundadores de la Escuela de Matemáticas delInstituto de Estudios Avanzados de Princenton ymantendría este puesto hasta el final de su vida. En1930 se casaría con Marietta Kövesi y cinco añosmás tarde tendrían una hija, Marina, que comple-taría también una brillante carrera académica. En1937 se divorciaría de su primera mujer para ca-sarse de nuevo con Klàra Dán.

La imagen de von Neumann que se ha transmi-tido de esta época es la de una persona encantadacon su nueva ciudadanía, con una vida social rela-tivamente activa, con fiestas en las no escaseabanlas bebidas y con una colección de anécdotas quedibujan una persona con una notable capacidad deconcentración, que le hacía incurrir en frecuentesdespistes, así como con una inagotable capacidadde trabajo. La mayoría de las anécdotas se centran,por otra parte, en su asombrosa capacidad y rapi-dez de cálculo, que conservó más o menos intactahasta el final de su vida. Políticamente era de ta-lante más bien conservador y profesaba unanticomunismo que podría calificarse de "apasio-nado" y que le llevó a apoyar, al menosespeculativamente, la posibilidad de una guerrapreventiva contra Rusia así como la imperiosa ne-cesidad de llevar adelante el programa para fabri-car la bomba atómica por estas mismas razones.

Page 33: [Architecture eBook] Aplicaciones as en Arquitectura

30 Aplicaciones informáticas en arquitectura

Durante la siguiente década, se ocuparácrecientemente de investigaciones relacionadasdirectamente con la guerra en la que Estados Uni-dos había terminado por tomar parte, principalmen-te como asesor del gobierno en el BRL (BallisticResearch Laboratory) en Los Álamos y en otroslaboratorios y centros clave en el desarrollo tecno-lógico ligado inicialmente a fines militares. En estecontexto comienza a interesarse cada vez más porla computación. Puede decirse, de un modo muygeneral, que si la reputación de von Neumann has-ta 1940 había estado basada en sus trabajos sobrematemática pura, a partir de estas fechas comienzaa basarse sobre todo en sus trabajos sobre matemá-tica aplicada. Es, con todo, una afirmación quehabría que matizar bastante pues, como veremos,la obra de von Neumann supondrá una de las apor-taciones fundamentales a una nueva ciencia, la cien-cia de la computación. Por el camino dejó una se-rie de trabajos también notables entre los que de-ben citarse sus aportaciones a la teoría de los jue-gos con una obra monumental la Teoría de juegosy comportamiento económico (1944) escrita encolaboración con Morgenstern.

El mismo Von Neumann describe esta transiciónhacia la computación, por la que comenzó a sentirun interés creciente a partir de un viaje a Inglaterraen 1943, en una carta de esta época en los siguien-tes términos: "...Asimismo, he desarrollado un in-terés obsceno por la computación...". El motivoconcreto fue su colaboración con un matemático,John Todd, en la creación de un programa paramáquinas de calcular. La siguiente participaciónimportante, y definitiva, se dio en Los Álamos bajola dirección de Oppenheimer.

Von Neumann participó de un modo difícil deestimar en la realización de Eniac. Parece que seincorporó tardíamente, hacia finales de 1944, alequipo de la Moore School y parece que fue másbien como resultado de un encuentro casual conHerman Goldstine que actuaba como supervisor delproyecto secreto para la BRL, en una estación detren. Puede ser que contribuyera a modificar algu-no de los diseños lógico matemáticos pero su inte-rés estaba dirigido hacia otros proyectos.

El 30 de junio de 1945 publicó un famoso infor-me First Draft of a Report on EDVAC distribuidoinicialmente entre el personal de la Moore School,en donde se exponían brillantemente, en algo me-nos de 100 páginas, las ideas principales de lo quese ha denominado posteriormente "la arquitectura

Von Neumann". En sentido estricto, y habida cuentade los numerosos precedentes que hemos mencio-nado y de la colaboración en el Eniac, quizá hubie-ra sido extender esta etiqueta para incluir otrosnombres. Pero el prestigio intelectual de VonNeumann, junto con la necesidad de los historia-dores por simplificar han dejado las cosas así. Eneste informe se incluía la primera descripción com-pleta conocida de la noción de "programa almace-nado" y se detallaba el modo en que un ordenadorde estas características procesa la información. Lospuntos principales contenidos en este informe y losdos que le siguieron se detallan más adelante.

Otro informe fundamental de esta misma épo-ca, que continuaba el anterior, es un escrito de tresvolúmenes Planificación y codificación de proble-mas para un instrumento de computación electró-nico, escrito en colaboración con Goldstine, queapareció en 1947 y 1948. Al igual que el anterior,los autores lo consideraron incompleto debido aque no detallaba los sistemas de control de entra-da/ salida y a que mantenía en suspenso muchascuestiones en función de los avances tecnológicosque los autores anticipaban pero que aún no esta-ban realmente disponibles. Pese a todo, circularondiversas copias del informe en Estados Unidos yEuropa, y tuvo una considerable repercusión en lamedida en que era el único escrito importante so-bre programación disponible en aquella época. Elcontenido principal de este informe se resumirátambién más adelante.

Durante estos años trabaja en el Edvac y en elJoniac. El Edvac permitía insertar las instruccio-nes por medio de tarjetas perforadas, sin necesi-dad de modificar el cableado. El informe Edvac nodescribía los detalles de ingeniería sino que pre-sentaba un ordenador teórico basado en neuronasidealizadas. Esto sería la base para la teoría de au-tómatas que desarrollaría a lo largo de los siguien-tes años. El mayor interés del informe está en laseparación de aspectos mecánicos, concretos, yaspectos teóricos, independientes de la realizaciónpor medios disponibles en un momento dado. ElJoniac era un calculador electrónico experimental,construido por von Neumann, junto con un peque-ño grupo de ingenieros y matemáticos, en elInstitute for Advanced Studies de Princenton. Elmodelo fue el cerebro humano y el trabajo fueacompañado de estudios de neurología y teoría deautómatas.

En 1955 enfermó, le operaron y se le diagnosti-

Page 34: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 31

có un cáncer. Ese mismo año, tres meses antes, habíarecibido una invitación para dictar las conferen-cias Silliman, de gran prestigio en el mundo acadé-mico. El tema escogido fue "el ordenador y el ce-rebro" y von Neumann solicitó que se abreviará suparticipación pues acababa también de ser nom-brado, por el presidente Eisenhower, miembro dela Comisión de Energía Atómica, con dedicaciónplena. Propuso, como contrapartida, que entrega-ría un manuscrito más extenso. Desde comienzosde 1956 tuvo que desplazarse en una silla de rue-das y tuvo que reducir drásticamente su actividad.Durante los últimos meses de su vida trabajó casiexclusivamente en esta obra que quedó inconclusaa su muerte, en febrero de 1957.

El diseño lógico de un ordenador. La"arquitectura" de Von Neumann

Lo que se conoce como "arquitectura de VonNeumann" está formulada substancialmente en elinforme de 1945 sobre el Edvac. El objetivo bási-co del informe era describir de un modo genéricola estructura de un sistema de computación digitalautomático y los requisitos que debía de cumplirsus sistema de control lógico. Los problemas prin-cipales a los que iba dirigido eran la resolución deecuaciones diferenciales parciales no lineales dedos o tres variables independientes pero dada lacomplejidad de este tipo de problemas era previsi-ble su extensión a cualquier otro tipo de problemalógico que pudiera ser expresado por medio de sím-bolos no ambiguos. Incluía también un sistema dedetección de errores con capacidad autocorrectora.

El informe describía el sistema de computaciónpor medio de cinco unidades principales, que sonesencialmente las mismas que incorporan los or-denadores actuales y que se detallan a continua-ción:

a) Una unidad aritmética capaz de realizar lascuatro operaciones básicas, suma, substracción,multiplicación y división, a la que podrían even-tualmente añadirse módulos que llevaran a cabootras tales como el cálculo de raíces cuadradas ycúbicas, la obtención de logaritmos y de funcionestrigonométricas.

b) Una unidad de control encargada de compro-bar que las instrucciones y los cálculos y la inter-vención de los diferentes módulos implicados encualquier tarea computacional se llevaban a caboen el orden correcto.

c) Una unidad de memoria principal en la quese almacenasen tanto los datos propios del progra-ma en curso como datos numéricos correspondien-tes a funciones predefinidas, como instruccionescodificadas correspondientes a las diferentes ope-raciones que el ordenador pudiera realizar.

d) Una unidad de entrada para transferir infor-mación desde el sistema externo de aceptación dedatos, al sistema interno o propio de las unidadescentrales (las tres unidades anteriores).

e) Una unidad de salida para transferir informa-ción desde el sistema interno (las unidades centra-les de procesamiento) al sistema externo.

El informe se presentó sin completar, con apar-tados en blanco y aspectos claramente pendientesde un estudio posterior más elaborado. Los princi-pales, entre éstos, eran los relativos al funciona-miento detallado de las unidades de entrada y sali-da que, en esta época, resultaban claramente limi-tados como es fácil juzgar desde nuestra perspecti-va actual y, en segundo lugar, todo lo relativo alfuncionamiento de la memoria que requería unasubdivisión en diferentes tipos. Se menciona ex-presamente la necesidad de desarrollar una discu-sión más completa acerca de la memoria de alma-cenamiento secundario.

Esta descripción estaba desarrollada en térmi-nos puramente lógicos, sin detallar los dispositi-vos mecánicos o ingenieriles a partir de los cualesse realizaría físicamente; se contemplaba inclusola posibilidad de que la realización física corrieraa cargo de un sistema biológico en lugar de un sis-tema mecánicos y se utilizaba constantemente laanalogía con el cerebro y el sistema nervioso hu-mano que está en la base de la propia terminologíautilizada, que se relaciona muy directamente contrabajos de Warren McCulloch y Walter Pitt que seremontan a esta misma época y que hemos men-cionado en la sección anterior, sobre Wiener.

El informe rebasó pronto el círculo al que ibadirigido y tuvo una repercusión importante. Poste-riormente aparecieron factores de tensión debido areivindicaciones de autoría y a la posición que ibanadoptando Eckert y Mauchly que se desvelaría conmayor claridad cuando ambos se embarcaron en lacomercialización de grandes ordenadores. Soste-nían que von Neumann se había limitado a resumirdiscusiones de grupo, generalizando y abstrayen-do las conclusiones. Esta discusión se endureciócon la aparición del Edvac cuya patente fue un temade litigio y que se prolongó con la salida de Eckert

Page 35: [Architecture eBook] Aplicaciones as en Arquitectura

32 Aplicaciones informáticas en arquitectura

ENTRADA / SALIDA

Unidad Aritmético-

Lógica

Unidad de Control del

Proceso

Memoria Principal

y Mauchly de la Universidad de Pensilvania parafundar una empresa propia.

En trabajos posteriores, principalmente en unsegundo informe publicado en 1946, completadocon una segunda parte en 1947, se desarrollabanalgunos de estos aspectos inconclusos. Concreta-mente, la memoria ideal se describía como unamemoria de acceso aleatorio y capacidad ilimitadaque pudiera leer y reemplazar con facilidad y rapi-dez la información almacenada en cualquiera desus partes o módulos afines. Especificaron un tiem-po de acceso de 5 a 50 microsegundos, algo inal-canzable para la tecnología de la época (los actua-les son del orden de los 10 nanosegundos) y untamaño condicionado por el tipo de problemas alos que iba inicialmente dirigido y que requeríancapacidades para almacenar unos 4.000 númerosde 40 dígitos binarios, equivalentes a unos 12dígitos decimales.

Se contemplaban tres tipos de memoria en dospartes. Una memoria principal, rápida y de accesoaleatorio. Una memoria secundaria capaz de con-tener grandes cantidades de datos a un coste mu-cho menor que la memoria secundaria, lo que im-plicaba un tiempo de acceso también mucho máslento. Esta memoria debía ser de fácil acceso, conun control de lectura muy fiable y debía tambiénser regrabable, lo cual suponía también un proble-ma para la tecnología de la época basada funda-mentalmente en tarjetas perforadas. Se dedicaba

una buena parte de los informes a discutir las alter-nativas tecnológicas más adecuadas para la época.Por último, se mencionaba la necesidad de contarcon un tercer nivel de almacenamiento al que sedenominaba "almacén muerto", de característicassimilares a las de la memoria secundaria pero que,a diferencia de ésta, no necesitaba estar integradaen el sistema general de computación. Los méto-dos de acceso a este tercer nivel de memoria erantambién, por añadidura, más directamente depen-dientes de la intervención humana que los de losotros dos tipos de memoria. En esta memoria seguardarían datos o programas de uso no frecuente.

Otro de los temas de discusión fue el sistema denumeración. La representación decimal simplificala interacción con la máquina pero complica la rea-lización física. Las ventajas e inconvenientes de larepresentación binaria son exactamente las opues-tas. Se decidió que la representación binaria eraclaramente más conveniente puesto que se adaptadirectamente al funcionamiento de la máquina ysimplifica y abarata enormemente la realizaciónfísica. El principal inconveniente se zanjaría me-diante un sistema de conversión de decimal abinario, y viceversa, en los sistemas de entrada ysalida respectivamente. Dado que la mayoría de loscálculos se realizan internamente el coste de estaconversión sería pequeño.

Otro de los temas de discusión fue el de repre-sentación fija frente a representación flotante. Larepresentación fija mantiene una precisión cons-tante para todos los números internos. La repre-sentación flotante permite utilizar lo que se deno-mina "notación científica" e incrementa conside-rablemente la precisión. En este caso se tomó unadecisión más prudente, impuesta por las limitacio-nes de la época, y se adoptó la representación fija.Los PC actuales llevan incorporados dos tipos deunidades aritméticas: una para cálculos con núme-ros corrientes y otra para cálculos en coma flotan-te. La discusión sobre si operaciones frecuentestales como la raíz cuadrada debía o no ser incorpo-radas a esta unidad se saldaron restringiendo elnúmero de operadores básicos a los citados.

Las operaciones aritméticas se realizaban pormedio de una serie de componentes, el principalde los cuales era el "acumulador", una unidad dealmacenamiento con capacidad para recibir un nú-mero, agregarlo a otro previamente alamacenado yenviar el resultado a otro registro. La figura 12muestra un sumador actual en base a transistores yFigura 2 Esquema lógico de un ordenador

Page 36: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 33

puertas lógicas.El sistema de control se llevó a cabo por medio

de un reloj interno incorporado al sistema que lle-vaba la cuenta de los pulsos; cada acción se produ-cía de un modo pautado dado por el número depulsos marcado por el reloj y utilizando en el mo-mento adecuado las tablas de decodificación nece-sarias a lo largo de todo el proceso. Podemos ima-ginarnos el funcionamiento de todo el sistema comouna ciudad en la que miles de coches (bits) frenany arrancan constantemente, a lo largo de varioscarriles (buses) frente a miles de semáforos (lospulsos del reloj) que se encienden y se apagan agran velocidad. La unidad de control incorpora tam-bién dispositivos de verificación que aseguran queno se producen cierto tipo de errores a lo largo delproceso, por medio de cálculos dobles, controlessencillos aplicados a los resultados, etc.

Todo esto, que se resumen en la figura 2 es loque aún se conoce como «arquitectura de vonNeuman» y que, como veremos en el siguiente ca-pítulo, sigue siendo una descripción general válidapara un ordenador corriente actual.

Programación. Diagramas de flujo

El segundo informe que hemos mencionado Plani-ficación y codificación de problemas para un ins-trumento de computación electrónico (1947, 1948)contenía las principales nociones sobre programa-ción de computadores.

El informe se centra en determinados aspectos eincluye herramientas de programación que poste-riormente pasarían también a ser de uso común.Las principales son: la discusión sobre aspectosrelativos a la codificación de programas; la intro-ducción de los diagramas de flujos; y laestructuración de los programas en rutinas ysubrutinas así como el uso de bibliotecas de fun-ciones. La importancia fundamental del escrito esque supone una modificación esencial con respec-to a la idea previa de que programar una calcula-dora automática no implicaba otra cosa que la con-versión de una serie de operaciones en una serie desímbolos comprensibles para la máquina que seejecutaban en secuencia. Por el contrario, la fina-lidad era encontrar un sistema de control adecuadopara un proceso "extremadamente dinámico" cu-yos elementos podían modificarse a lo largo delproceso de computación.

La programación, desde este punto de vista, con-

sistía al menos en dos fases. En primer lugar, lacomprensión del proceso dinámico a través del cualdebía pasar el sistema para resolver el problemapropuesto y la traducción de este proceso a un sis-tema simbólico adecuado y, en segundo lugar, latraducción de este sistema simbólico a un códigoadecuado que era el que se introducía en la máqui-na.

Este sistema simbólico adecuado para compren-der el proceso interno llevó a la invención de losque se conoce como diagramas de flujo, de los quepuede verse una muestra genérica en la figura 3.La importancia de esta herramienta es el conceptosubyacente que de este modo se abría paso; la con-cepción de la programación no como un procesolineal en el que determinadas secuenciasalgorítmicas se codifican de tal modo que puedanser comprendidas por una máquina sino la realiza-ción de la programación como un proceso dinámi-co y complejo que implicaba saltos de secuencia,retrocesos, bifurcaciones y toda una serie de movi-mientos que suponían un salto fundamental en lacomprensión del posible papel jugado por los or-denadores.

En estos escritos se describía la programacióncomo un proceso que implicaba seis pasos princi-pales:

a) Describir rigurosamente el problema en tér-minos conceptuales, por medio de ecuacionesmatemáticas y físicas.b) Elaborar un algoritmo numérico que incor-pore estas expresiones en un procedimientosecuencial bien definido.c) Llevar a cabo un análisis numérico que de-termine la precisión e identifique los erroresacumulados a lo largo del proceso.d) Determinar los factores de escala para evi-tar que se produzcan valores que superen lasposibilidades del ordenador.e) Elaborar un diagrama de flujo a partir de unanálisis dinámico que represente la totalidaddel proceso.f) Escribir el código e introducirlo en la má-quina.

Otro punto de importancia era el énfasis en la ca-pacidad del ordenador para llevar a cabo, no sólooperaciones de cómputo, sino también operacio-nes lógicas de ordenación y clasificación. Es dehecho esta acepción la que rige el término «orde-

Page 37: [Architecture eBook] Aplicaciones as en Arquitectura

34 Aplicaciones informáticas en arquitectura

ORDEN A

ORDEN B

Condición C

ORDEN D

Condición E

ORDEN F

etc.

NO

nador» que proviene del francés ordinateur y fuepropuesto en 1954 por el profesor Jacques Perret,a instancias de IBM, para denominar a las nuevasmáquinas, de acuerdo con, según parece, la citateológica "Dieu, grand ordinateur du monde".

Por último, se destaca la necesidad de codificarprogramas a partir de variables referidas asubrutinas, esto es, secuencias de cálculos y opera-ciones comunes a diversos problemas que puedenalmacenarse en memorias externas de modo quepuedan ser reutilizadas por diferentes programas.Así mismo, los programas utilizados con mayorfrecuencia podía almacenarse en memorias exter-nas y reutilizarse en otros programas posteriores.

La teoría de autómatas programables. Elordenador y el cerebro

Como hemos visto más arriba, el informe de 1945para el Edvac describía un ordenador de modo ge-nérico utilizando analogías con el sistema nervio-so del hombre y describiendo los elementos de com-putación como "neuronas" similares a las humanasen lugar de tubos de vacío u otro sistema de con-mutación plausible. Este modo de descripción te-nía como finalidad principal el separar el diseñológico del diseño físico, idealizando éste. Pero laanalogía iba más allá y, como también hemos vis-to, constituyó la preocupación principal de VonNeumann hasta su muerte y está reseñada, no sóloen su última obra publicada, sino en una gran can-tidad de artículos, notas y cartas que se conservan.Entronca con una línea de investigación en la quefiguran como nombres pioneros autores comoMcCulloch y Pitts, Wiener, y, a partir de ellos,muchos otros que han trabajado y trabajan en inte-ligencia artificial.

Central a esta preocupación es el propio con-cepto de "información", al que volveremos conShannon, y que también interesó considerablementea Neumann y sobre el que mantuvo una serie dedebates con el propio Shannon en el decenio de los1940. Otro tanto puede decirse de la noción de"computabilidad" a la que volveremos en relacióncon Turing, al que conoció hacia 1935, y al queNeumann intentó ayudar a conseguir una beca paraestudiar en Princenton.

A partir de 1940 Von Neumann manifiesta uncreciente interés en la anatomía del sistema ner-vioso humano y del cerebro y en las analogías quecabía establecer con los ordenadores. Este interés

Figura 3 Diagrama de flujo

Page 38: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 35

se acrecentó con la lectura de un artículo de WarrenMcCulloch y Walter Pitts ("A Logical Calculus ofthe Ideas Immanent in Nervous Activity", Bulletinof Mathematical Biophysics, 1943, 5, pp 115-133).Este trabajo presentaba un modelo idealizado y muysimplificado de redes neuronales en el que lasneuronas se trataban como "cajas negras", es de-cir, como elementos de los que se ignoraba su fun-cionamiento pero se sabía qué respuesta propor-cionaban a un estímulo determinado. Estos estímu-los y respuestas se enumeraban y codificaban me-diante reglas matemáticas que permitían un proce-samiento general de la información del sistemacomo un conjunto regulado.

Este programa de investigación se movía en lamisma dirección que el emprendido por NorbertWiener y otros científicos por esta misma fecha entorno a la noción de cibernética. Von Neumannemprendió sin embargo una investigación indivi-dual cuya principal contribución se concretaría enla teoría de autómatas. Durante estos años se em-barcó en estudios y trabajos en colaboración conbioquímicos, fisiólogos y psiquiatras para tratar decomprender mejor los procesos propios del siste-ma nervioso humano y tratar de superar, en la me-dida de lo posible, la radical simplificación de losmodelos iniciales de McCulloch y Pitts. Hay queañadir que estas propuestas teóricas fueron acogi-das con algo más de frialdad por la comunidadmédica, poco sensible al interés de los aspectosmatemáticos y lógicos implicados y bastante más ala extrema simplicidad del modelo.

A finales de 1944 von Neumann, Howard Aikeny Norbert Wiener reunieron a un selecto grupo decientíficos para debatir los diversos temas impli-cados en el desarrollo de los nuevos sistemas decomputación y su analogía con los sistemas gene-rales de procesamiento de información, incluidoslos naturales. Se propuso que el grupo fuera cono-cido como "Sociedad teleológica" de acuerdo conla concepción de la teleología como "el estudio dela intencionalidad de la conducta". El grupo se re-unió en Princenton los días 6 y 7 de enero de 1945y, además de los citados, incluyó a McCulloch yPitts entre otros científicos notables. Se formaroncuatro grupos de estudio para desarrollar algunosde los temas tratados pero por razones poco clarasno volvieron a reunirse.

Una segunda iniciativa tuvo lugar en 1946 enuna serie de conferencias que se conocieron ini-cialmente como "Conferencias Macy" (por el pa-

trocinador, Josiah Macy) y posteriormente como"Conferencias sobre cibernética". El grupo era bas-tante más numeroso e incluía a personalidades dediversos ámbitos. Intervinieron, entre otros, ade-más de von Neumann y Wiener, que jugaron lospapeles principales, Julian Bigelow, un ingenieroelectrónico que colaboraba estrechamente conWiener, Claude Shannon, antropólogos comoGregory Bateson y Margaret Mead, ensayistas es-pecializados en literatura o en arte como I.A.Richards o Suzanne Langer, y filósofos, comoNorthrop.

Estas reuniones sirvieron como incentivo paralas investigaciones de Von Neumann. La primeradescripción de la teoría de autómatas se encuentra,probablemente, en una conferencia dada el 20 deseptiembre de 1948 en un simposio, el simposioHixon, en Pasadena, California, titulada "La lógi-ca de redes y autómatas análogos" que se publica-ría posteriormente, en 1951. Aunque no hay unadefinición precisa Von Neumann denomina "autó-mata", en general, a cualquier sistema que procesainformación y que incorpora un mecanismo deautorregulación. Hay dos ejemplos esenciales quese manejan para esta formulación, uno natural yotro artificial: el cerebro y los ordenadores. Perocaben también dentro de esta definición otros sis-temas diversos que se caracterizan por un funcio-namiento autónomo y autorregulado.

La relación entre estos dos grandes grupos demodelos se postula como biunívoca, es decir, seconsidera que la investigación en este campo pue-de servir para crear máquinas más eficaces para elhombre pero, también, para comprender mejorcómo funciona el cerebro. Los principios en que sebasa el estudio siguen siendo, a grandes rasgos, lospropuestos por McCulloch y Pitts: las neuronas seconsideran como "cajas negras" equiparables a ele-mentos de conmutación similares a los de los orde-nadores (tubos de vacío en aquella época, transis-tores en nuestros días). Las comparaciones se ha-cen en términos de números de elementos y de ve-locidad. El número de elementos es muy inferioren el caso de los ordenadores; Von Neumann da lacifra de 104 componentes básicos (cerca de 107 enun PC de 1998) frente a alrededor de 1010 neuronasen el cerebro. La velocidad, por contra, sería mu-cho mayor en el caso de un ordenador.

La finalidad primaria del estudio es compren-der la estructura lógica y funcional de ambos siste-mas. La noción de "complejidad" aparece con fre-

Page 39: [Architecture eBook] Aplicaciones as en Arquitectura

36 Aplicaciones informáticas en arquitectura

cuencia en los escritos de Von Neumann de estaépoca como una noción a la que es necesario aproxi-marse inicialmente con criterios cuantitativos. Otranoción clave es la de autorreplicación, que se reve-la como diferencia esencial entre los ordenadoresbiológicos, capaces de evolución hacia organismossuperiores, y los artificiales. Esta noción se rela-cionaría con la noción de complejidad en un senti-do específico: debería existir un nivel mínimo decomplejidad por debajo del cual los autómatas de-generarían, es decir que sólo serían capaces de re-producirse dando lugar a autómatas menos com-plicados que ellos mismos, mientras que por enci-ma de este nivel sería posible generar especies máscomplejas que la propia.

Los resultados principales de la teoría de autó-matas se encuentran en un manuscrito inacabadoque se publicó posteriormente en un artículo deScientific American de 155 y en la obra de A.W.Burks: Theory of Self-Reproducing Automata(1966) así como en la obra de Von Neumann, tam-bién inacabada, The Computer and the Brain(1958). Según se desprende de una conferencia de1953, Von Neumann consideraba que podía hablar-se de cuatro tipos principales de autómatas(cinemático, celular, de excitación-umbral-fatiga ycontinuo) que suponen refinamientos sucesivos deun modelo similar. El término "autómata celular"se utiliza de modo genérico para abarcar los diver-sos tipos. La idea básica es la de una estructuramás o menos homogénea formada por células quepueden adoptar diversos estados y responder a es-tímulos provenientes de otras células. La investi-gación sobre los diversos modelos busca elaborarsistemas que permitan comprender las posibilida-des abiertas por sistemas de estas características.

Determinadas derivaciones de estas teorías sonmenos teóricas y especulativas de lo que podríaparecer a partir de esta descripción sucinta. Con-cretamente, a partir del análisis del modo en quelos autómatas biológicos son capaces de desenvol-verse con seguridad, en función de procesos queincluyen necesariamente multitud de errores y cál-culos necesariamente equivocados e imprecisos,von Neumann desarrolló una teoría probabilísticade la fiabilidad que apuntaba a una cuestión claveen teoría de la información y que está bien presen-te en el desarrollo de los computadores modernos.La línea de respuesta se basaba en la relación delconcepto de información con el de entropía y deambos con sistemas termodinámicos tales como

motores de calor que trabajan bajo diferencias ex-cesivas de temperatura que los hacen funcionar demodo ineficaz. La idea básica que no cabe aquíanalizar en detalle está basada en la noción demultiplexión que puede resumirse brevemente enla idea de llevar un mensaje por varias líneas si-multáneamente en lugar de una sola. Una versiónaún más simplificada de esta idea de implantaciónpuede resumirse en un principio básico de teoríade información: la redundancia minimiza la pérdi-da de información.

4. Alan Turing

Alan Turing nació en 1912, en Londres. Su padre,Julius, había trabajado como magistrado en la In-dia en una época marcada por el inicio de las rebe-liones que acabarían culminando con la declara-ción de independencia de 1947. Su madre, Ethel,había nacido en la India en donde su padre trabaja-ba como ingeniero jefe en una compañía de ferro-carriles, pero creció en Irlanda. Alan tenía un her-mano mayor que había nacido dos años antes. De-bido a la situación en la India los dos hermanos sequedaron en Inglaterra al cuidado de dos parientesque intentaron inculcarles, sin demasiado éxito, lasvirtudes de una educación estricta asociada a unfervoroso militarismo.

Según cuentan sus biógrafos era lo que se llama“un niño difícil”. Combinaba una terquedad y unatorpeza considerables con una inteligencia brillan-te. Era tartamudo, desaliñado, escasamente dotadopara los ejercicios físicos, incapaz de distinguir sumano izquierda de la derecha hasta el punto de te-ner que dibujarse sobre una de ellas marcas de tin-ta que, al parecer, no destacaban demasiado debi-do a la abundancia de estas sobre sus pantalones,camisas, brazos y cara. Por otro lado aprendió aleer y manejar números con una rapidez inhabitualy se aficionó al estudio de la biología y de la quí-mica a una edad en la que la mayoría de los niñosleen con dificultad.

A los 13 años ingresó en Sherborne, en lo quelos ingleses llaman una “escuela pública”, deno-minación que resulta equívoca para todo el mundoexcepto para los ingleses dado que las publicschools inglesas son escuelas de élite, muy caras(el nombre proviene de que estaban reservadas a laaristocracia hasta que se permitió el acceso a losmiembros de familias no aristócratas capaces depagar los elevados costes de estos centros). Era

Page 40: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 37

poco popular y tuvo pocos amigos con una notableexcepción, un estudiante llamado ChristopherMorcom, que compartía los gustos de Turing porlas matemáticas y la ciencia pero que unía a estasaficiones un gusto por la música y el arte que debióde servir para pulir el comportamiento un tantosalvaje de Turing. Pero Christopher murió de tu-berculosis en 1928, una pérdida que le afectó pro-fundamente. Durante este periodo lee a Einstein ya Eddington y consigue sus primeros premios y unareputación entre sus condiscípulos que comienzana respetarle por su logros intelectuales. En 1930ingresa en la universidad de Cambridge donde per-manece hasta 1934, año de su graduación. EnCambridge toma parte activa en movimientos pa-cifistas y resuelve lo que hasta entonces parecíaser una indefinición sexual y mantiene sus prime-ras relaciones homosexuales. El conocimiento delos profesores judíos exiliados y de las atrocidadescometidas por el régimen nazi contra diversas mi-norías de las que él comienza a sentirse parte mo-difican su actitud y abandona el pacifismo por unaactitud más beligerante hacia el nazismo alemán.

Con posterioridad a su graduación, con distin-ciones, es becado por el King’s College. Tras unainvestigación brillante sobre temas matemáticos sele ofrece un puesto de don, algo inhabitual paraalguien que acaba de cumplir los 22 años. En 1935trabaja extensamente en lo que se conocía como elEntscheidungsproblem, el 20º de una famosa listapropuesta por Hilbert. Turing considera que de loque se trata es de distinguir entre problemas solu-bles y no solubles (un planteamiento que difieredel de Hilbert). Y la respuesta de Turing, caracte-rística de su línea general de pensamiento, es quela mejor manera de decidir la cuestión sería probarde resolverla físicamente, es decir, encontrar unaacción mecánica, algo que una máquina pudierallevar a cabo.

En estrecha relación con esta cuestión los inte-reses intelectuales de Turing se van centrando pro-gresivamente en las posibilidades de una máquinade computación. Por estas fechas había visto la GranMáquina Analítica de Charles Babbage, expuestaen el Museo de Ciencias de Londres después de sureconstrucción. La respuesta al problema deHilbert, su primera gran contribución a la teoría dela computación y uno de los artículos más famososy citados del siglo, se publica con el título “OnComputable Numbers with an application to theEntscheidungsproblem” en enero de 1937 en los

Proceedings of the London Mathematical Society.En 1936 solicitó una beca para Princenton que,

en aquellos años, era el lugar del mundo en donde,debido entre otras cosas a la diáspora provocadapor el nazismo, se concentraba un mayor númerode talentos matemáticos, Einstein, Weyl o VonNeumann entre otros. La beca le fue denegada perodecidió ir por su cuenta y permaneció allí 2 años.La estancia no fue feliz; Turing se sentía aislado ysu artículo, en el que describía lo que él mismohabía bautizado como la Universal Turing Machine,recién publicado en Inglaterra fue ignorado. Encartas escritas durante este periodo considera la po-sibilidad del suicidio por diversos métodos que ana-liza con una notable frialdad.

En 1938 vuelve a Inglaterra. A diferencia de losprofesores de Princenton, los servicios de inteli-gencia británicos sí se habían fijado en el artículode Turing y le contratan con una finalidad muy es-pecífica. Durante los años que siguen a su vueltatrabajará con creciente concentración en temas re-lacionados con la computación. En primer lugar,se encarga de dirigir un numeroso equipo dedica-do a manejar una supercalculadora con la que sedescifran los códigos secretos, la famosa claveEnigma de los alemanes, un trabajo que tuvo, porlo que parece, consecuencias decisivas en la evo-lución de la IIª guerra mundial. Durante este perio-do traba una intensa amistad con una de sus cola-boradoras, Joan Clarke, que comparte sus gustospor el ajedrez, las matemáticas y la biología. Secomprometen en un matrimonio que Turing parecedesear intensamente como vía de estabilidad so-cial y afectiva pero, finalmente, el compromiso serompe.

Ni este episodio, ni el estricto requisito de quesu notable contribución al triunfo de los aliadosdeba permanecer en secreto contribuyen a apaci-guar una vida que, a los poco más de 30 años, setensa cada vez más entre unos logros extraordina-rios que muy pocos conocen y menos aprecian, yla soledad. Turing se dedica a correr grandes dis-tancias con una dedicación cada vez más estrictahasta lograr reseñas en los periódicos y convertirseen un serio candidato a los Juegos Olímpicos. En1947, sin embargo, una caída le ocasiona una le-sión en la cadera que da al traste con su carreracomo atleta.

Al acabar la guerra es contratado por el NationalPhysical Laboratory, en Teddington, para desarro-llar el prototipo de una computadora, una

Page 41: [Architecture eBook] Aplicaciones as en Arquitectura

38 Aplicaciones informáticas en arquitectura

"Automatic Computer Engine". Elabora un infor-me que constituirá también una referencia impor-tante para la investigación posterior, en donde su-braya la importancia del desarrollo del softwarefrente al hardware, en contra de la tendencia do-minante entonces (y ahora) y en la importancia deconstruir máquinas que pudieran volver a progra-marse con facilidad (un concepto corriente ahorapero inhabitual en aquellos años). En 1946 se de-cide la construcción de una gran computadora deacuerdo con las líneas propuestas por Turing aun-que con un presupuesto, importante, (10.000 libras)pero inferior al requerido.

En 1948 Turing se desplaza a Manchester para,entre otras cosas, atender la construcción de otracomputadora, la Manchester Automatic DigitalMachine. Por estas misma fechas su reputación vaen aumento a lo que contribuye un artículo de 1950sobre "Computing Machinery and Intelligence"publicado en la prestigiosa revista de filosofía Mind.Es un artículo que se ha reproducido en numerosasantologías con un título de mayor impacto "Can aMachine Think?" y cuyo contenido se ha conden-sado en algo sobre lo que volveremos denominado"El test de Turing".

Mientras tanto, en su vida privada, Turing seembarca en unas experiencias que acabarían dra-máticamente. En Manchester comienza a moversepor círculos marginales en donde conoce a ArnoldMurray, un joven de 19 años, en paro, que se dedi-caba esporádicamente a la prostitución y al queTuring invita a su casa en varias ocasiones. A lolargo de estas visitas se produjeron robos menoresy, posteriormente robos mayores en los que cola-boraron al parecer, otros amigos de Murray. Irrita-do por el abuso de confianza, Turing denuncia loshechos a la policía. Pero la investigación de éstadescubre que en el origen de los hechos están laspreferencias sexuales de Turing, penalizadas porla ley inglesa de la época. El resultado fue el arres-to de Turing por “gross indecency”. El suceso tuvouna considerable publicidad y dividió a los amigosde Turing en dos bandos,

El juicio se celebró en 1952 y muchos de suscolegas testificaron en su favor destacando la im-portancia de sus contribuciones científicas. Sinembargo el juez consideró que el acusado no habíadado "ninguna muestra de arrepentimiento" y lecondenó a elegir entre un año de prisión o un trata-miento clínico rigurosos que se acercaba a lo quepodía considerarse como una castración química.

Durante varios meses Turing tuvo que inyectarsegrandes dosis de estrógeno (hormona femenina) enel muslo. El resultado fueron graves alteracionesno sólo físicas sino psíquicas. Su capacidad de tra-bajo y concentración disminuyó de un modo nota-ble. El 8 de junio de 1954, la mujer de la limpiezaencontró su cuerpo sin vida, con restos de veneno,proveniente de sus experimentos químicos, que élmismo se había administrado.

Las nociones de algoritmo y proceso computable

Un algoritmo puede definirse como una serie deoperaciones concatenadas que permiten alcanzarun resultado determinado. Esta noción, así enun-ciada, si la relacionamos de un modo laxo con nues-tra vida cotidiana, es muy sencilla pues nos pasa-mos el día "haciendo algoritmos". Si la relaciona-mos con una importante área de investigación quese ha desarrollado principalmente durante este si-glo y que ha cobrado una importancia fundamentalen la programación de computadores resultará algomás complicada.

Cualquier operación que implique el enunciadode unas reglas del tipo "para llegar a tal resultadosíganse las siguientes instrucciones" es un algorit-mo. Los manuales de instalación y de uso de arte-factos diversos y los libros de recetas de cocinason ejemplos de colecciones de algoritmos. Unejemplo es el que se da en la figura 4 y que sirvepara preparar un dry martini. La diferencia funda-mental entre este "algoritmo" y el que veremos acontinuación es que, si bien el proceso está clara-mente definido y el resultado (hasta cierto punto)también, está repleto de ambigüedades que, por otrolado, nadie está muy interesado en resolver ¿Cuáles la proporción correcta de martini y ginebra?Según los muy moderados, 7 partes de lo primeropor 1 parte de lo segundo. Según los menos mode-rados, 1 parte y 1 parte de ambos ingredientes. Perohay quien defiende que basta con humedecer el vasocon martini y arrojar el resto para cumplir con elrequisito. Un famoso escritor defendía la idea deque bastaba, incluso, con sostener una botella demartini frente a una ventana de modo que un rayode sol la atravesara hasta llegar a tocar la copa du-rante unos segundos para cumplir con el protoco-lo.

El término "algoritmo" deriva del nombre pro-pio del matemático árabe al-Jwarizmi quien, a prin-cipios del siglo IX, elaboró las reglas de las cuatro

Page 42: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 39

Inicio

M , G

M > G

G > M

M G

Fin

M ++

G ++si

no

no

si

Inicio

x , y

x > y

y > x

x = y

Fin

y = y - x

x = x - ysi

sino

no

operaciones aritméticas básicas en el sistema deci-mal de numeración. Al pasar a Europa, estas reglasy otras derivadas de ellas recibieron el nombre de"algoritmia" y el termino pasó a ser utilizado, porextensión, por los matemáticos, para referirse a unconjunto de reglas que servían para solucionar di-versos tipos de problemas. A comienzos de estesiglo y sobre todo en el decenio de los 1930 el con-cepto de algoritmo se estudió de modo sistemáticopor parte de diversos matemáticos, entre ellosTuring, hasta pasar a convertirse en una disciplinamatemática íntimamente ligada a la teoría de lacomputación.

Matematizar el concepto de algoritmo significahacer abstracción de los recursos manteniendo tansolo la exigencia de que los procesos sean finitos ylas reglas estén enunciadas de modo no ambiguo.Muchas de las reglas características de losalgoritmos elementales nos son bien conocidasporque las hemos estudiado en el bachillerato. Unejemplo clásico de algoritmo, con el que empiezanla mayoría de libros técnicos sobre algoritmos, esel algoritmo de Euclides que permite escribir unnúmero racional del modo más elemental, esto es,escribir 2/3 en lugar de 4/6 o 16/24 o 22/33 o 246/

369. Para llevar a cabo esta simplificación necesi-tamos encontrar "el máximo común divisor" de dosnúmeros. Y la regla que descubieron los griegos yque recoge Euclides es: si el numerador es mayorque el denominador, restar éste de aquél y sustituirel numerador por el resultado. Y si no es así, pro-ceder a la inversa. Es decir, aplicado este algorit-mo a 246/369 nos daría la secuencia: 246/369, 246/123, 123/123. Si ahora dividimos numerador y de-nominador por este resultado podemos afirmar queel número racional 246/369 es idéntico a 2/3.

La figura 5 muestra un diagrama de flujo de estealgoritmo. Su aspecto es similar al del dry martinicon al menos dos diferencias importantes: sabemosel significado exacto de cada uno de los términos ysabemos que el número de pasos es finito, es decir,puede demostrarse que se llegará en un número depasos finito, si hemos partido de números finitos, ala igualdad entre numerador y denominador. La fi-gura 6 muestra una versión simple de este algorit-mo en lenguaje C, en la que hemos prescindido decontroles de errores y entradas y salidas. La prime-ra línea crea una función denominada "mcd", condos argumentos enteros "m" y "n", que realiza unaserie de operaciones y devuelve como resultado un

Figura 4 Algoritmo para preparar un dry martini

Figura 5 Algoritmo de Euclides para hallar elmáximo común divisor de dos números

Page 43: [Architecture eBook] Aplicaciones as en Arquitectura

40 Aplicaciones informáticas en arquitectura

entero. Los corchetes encierran la definición de lasoperaciones. En primer lugar se define una varia-ble temporal "t" y, a continuación, se establece unbucle cuya condición es que el resto (que se asignaa la variable temporal t) de dividir m por n (el sig-no "%" tiene el significado de "devuelve el restode dividir el símbolo que me precede por el queme sigue") sea distinto de 0 (el símbolo "!=" tieneel significado "distinto de"). Mientras se cumplaesta condición se intercambiarán los símbolos, talcomo indican las dos líneas siguientes y se volveráa realizar la operación de división. Cuando estacondición deje de cumplirse, es decir, cuando m yn sean iguales, la función terminará y devolverá elresultado ("return n").

Este simple algoritmo ilustra algunos puntosbásicos. En primer lugar un algoritmo informáticodebe ser finito, debe terminar de algún modo. Ensegundo lugar, un algoritmo debe operar con datosy con instrucciones perfectamente definidos en unrango dado, es decir, inequívocos. En el ejemploanterior se ha prescindido de códigos de error, ta-les como asegurar que tanto m como n deben sermayores de 0 pero un algoritmo correcto debe in-corporarlos para evitar que el programa se bloquee.Esto implica que un algoritmo correcto no sólo debeterminar de algún modo sino que debe dar siemprealgún tipo de respuesta, sea el resultado esperado,sea un mensaje indicando que se ha producido al-gún tipo de error. Un algoritmo puede describirse,desde el punto informático, como "la esencia de unprograma", esto es, el diseño de una secuencia deoperaciones que especifiquen cómo llevar a cabouna tarea a partir de unos determinados datos departida. Los términos dato inicial, precisión, ope-ración, lenguaje, resultado final y los adjetivosinequívoco y en un tiempo determinado caracteri-zan lo propio de los algoritmos matemáticos frente

a los algoritmos en sentido intuitivo así como algu-nos de los temas principales de análisis de la disci-plina.

El punto de conexión entre la teoría dealgoritmos y la matemática es el hecho de que, comoes bien conocido por matemáticos, físicos o inge-nieros desde hace más de tres o cuatro siglos, co-nocer el algoritmo que da la solución de un proble-ma frecuente supone contar con la posibilidad, realo potencial, de poder automatizar su solución. Estoes fácilmente comprensible por cualquiera que hayahecho problemas de matemáticas; cuando se cono-ce bien el mecanismo el proceso se desarrolla deun modo perfectamente pautado, formalizable enreglas claras y es fácilmente imaginable la posibi-lidad de convertir cada paso en una operación quepudiera hacerse "sin pensar" (en el tercer apartadode esta sección volveremos sobre esta frase) y que,por consiguiente, podría ser completada por unamáquina. Estas reglas que asimilamos o enuncia-mos para nosotros mismos no son sino extensiónde las reglas por las que todos los niños aprenden asumar o multiplicar "llevando" restos de una a otracolumna en un cierto orden.

Dado que la matemática consiste en buena me-dida en resolver problemas a partir de unos princi-pios estrictos de los que cabe deducir reglas deri-vadas y teoremas se pensó, en el contexto del con-siderable esfuerzo de axiomatización que se llevóa cabo a finales del siglo pasado, que cabría la po-sibilidad de estructurar la matemática de tal modoque los problemas pudieran resolverse mediante unaaplicación puramente mecánica de una serie deprincipios básicos a los diferentes casos que pu-dieran presentarse. El principal promotor de estaidea fue David Hilbert (1872-1943), uno de los másgrandes matemáticos de nuestra era, y en su laborfue acompañado de numerosos discípulos hasta que,en 1931, la demostración por parte de Gödel de laimposibilidad de completar de un modo coherenteeste intento echo, parcialmente, por tierra esta la-bor.

El programa formalista de Hilbert puederesumirse como sigue. Supongamos que reempla-zamos cada concepto matemático fundamental poruna ficha de una forma o de un color, o de ambascosas, diferentes. Estas fichas pueden juntarse conarreglo a una colección de reglas sintácticas enu-meradas con total precisión para obtener filas designos que pueden considerarse, a su vez, comosuperfichas las cuales pueden combinarse, a su vez,

int mcd (int m, int n){

int t;while ((t = m % n) != 0){

m = n;n = t;

}return n;

Figura 6 Una versión simplificada delalgoritmo de Euclides en lenguaje C.

Page 44: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 41

con otras para obtener nuevos símbolos de ordensuperior. El razonamiento matemático se reduceentonces a la aplicación de estas reglas para dedu-cir nuevos tipos de superfichas o símbolos com-puestos de símbolos simples.

Esto implica varias cuestiones fundamentales.En primer lugar, es preciso probar que pueden cons-truirse modelos de este tipo para los principalesproblemas matemáticos conocidos. En segundolugar, probar que estos modelos son consistentes,esto es, que no hay ninguna contradicción interna.Ambas cuestiones son equivalentes a la cuestiónde si un determinado problema es o no computa-ble. ¿Es susceptible de ser llevado a una formula-ción de este tipo cualquier problema que pueda serenunciado en términos matemáticos? Ésta es, bási-camente, la pregunta que planteó Hilbert y a la querespondió Turing.

La Universal Turing Machine

La máquina de Turing es un dispositivo ideal des-crito por Turing en 1935 y publicado en 1937 enun artículo titulado "On Computable Numbers withan Application to the Entscheidungsproblem",como respuesta a la pregunta por la computabilidadde un problema. En este artículo describe una má-quina ideal o, más exactamente, una clase de má-quinas que ahora se denominan "máquinas univer-sales de Turing" con las siguientes características.

Una máquina de esta clase se reduciría, en suaspecto externo, a un cabezal de lectura/ escrituray una cinta. La cinta puede imaginarse como unapelícula, de longitud ilimitada, subdivida en mar-cos iguales, en cada uno de los cuales hay una de-terminada información. En el caso de la máquinade Turing la información puede reducirse a la au-sencia o la presencia de un único signo, tal como labarra inclinada que aparece en la figura 7. El cabe-zal tiene la capacidad de captar e interpretar la in-formación elemental que aparece en el marco o vi-ñeta situado frente a él.

Por lo que respecta al aspecto interno, la máqui-na está programada de tal modo que cuenta conuna serie específica de instrucciones, asociadas ala información que puede ser captada por el cabe-zal, que le hacen pasar por una serie de estadosinternos. Así, la lectura de la cinta da lugar, en fun-ción del estado y del símbolo presente en el cabe-zal de lectura a una respuesta del tipo "muévete a

la izquierda", "muévete a la derecha", "borra el sím-bolo", "escribe el símbolo" o bien "detente". Po-demos imaginar que la máquina funciona de talmodo que es el cabezal el que se mueve ante lacinta o que es ésta la que se mueve ante el cabezal,es irrelevante para lo que importa. La máquinacuenta con un número finito de estados que depen-den de las instrucciones que va leyendo sobre lacinta. Si se programa adecuadamente la máquinapara realizar determinado tipo de operaciones, lasucesión de estados conducirá a un estado final enel que la máquina se detiene proporcionando unresultado.

Para comprender mejor el funcionamiento de lamáquina de Turing, y para que, de paso, nos sirvapara relacionarlos con el modo actual en que má-quinas equivalentes funcionan por medio de tran-sistores y puertas lógicas (figuras 9 a 12) podemosdescribir su funcionamiento para un ejemplo muysencillo, en el que la máquina actúa como sumador.Si queremos sumar dos cantidades, pongamos que4 más 5, la máquina podría programarse de modoque contase con la siguiente lista de instrucciones:

estado lectura acción nuevo estadoe1 / "/" e1e1 - - e2e2 - "/" e3e3 / - e3e3 - "-" stop

Si presentamos a la máquina, en este ejemplosimplificado, una colección de signos que repre-sentan los dígitos 4 y 5 por medio de otras tantasbarras inclinadas, vemos, siguiendo la secuenciadada por la figura 7, que las instrucciones progra-madas en la máquina tienen el efecto de convertirestos dos dígitos en su suma, 9, mediante una seriede movimientos mecánicos que son en cierto modoanálogos a los que llevaríamos a cabo para contarcon los dedos.

La eficiencia de una máquina de estas caracte-rísticas y su semejanza con los ordenadores actua-les, puede mejorarse si en lugar de representar nú-meros por trazos los codificamos en el sistema denumeración binario. Esto implicaría elaborar unatabla algo más compleja en la que, por ejemplo, seincorporaran las reglas básicas de la aritméticabinaria tales como las cuatro básicas de la suma"0+0 = 0 resto = 0"; "0+1 = 1 resto = 0"; "1+0 = 1

Page 45: [Architecture eBook] Aplicaciones as en Arquitectura

42 Aplicaciones informáticas en arquitectura

resto = 0"; "1+1 = 1 resto = 1". Con reglas de estetipo pueden elaborarse secuencias más complejas.Puede encontrarse, por ejemplo, una secuencia se-mejante a la anterior, pero un poco más larga, parael algoritmo de Euclides, en Penrose (1989, p. 69de la edición en español, 1991).

La importancia de una máquina de estas carac-terísticas es que puede demostrarse que, en su ex-trema simplicidad, y haciendo abstracción del tiem-po requerido y de las condiciones físicas necesa-rias para llevar a cabo sus programas, representa acualquier ordenador digital conocido que no con-tenga elementos probabilísticos. Es una máquinade calcular ideal que acepta programas de longitudilimitada. La relevancia de esta propuesta teóricaes que permite definir con precisión la noción de"calculable". Para ello, se describe el funcionamien-to de la máquina como una serie compleja de ope-raciones elementales.

Cualquier función puede representarse por una,extremadamente larga pero coherente, sucesión designos elementales. Piénsese que, en un ordenadormoderno, una operación como sumar dos númerospuede venir representada por un número semejan-te a 1234987612, donde esta secuencia significa-ría: "aplica la instrucción 12" (los dos últimos nú-meros) "a lo contenido en las direcciones dadas"(los cuatro números y los cuatro números anterio-res a estos); y la instrucción 12, contenida en una

tabla de instrucciones interna, dice: "suma el datoque hay en la posición primera (1234) con el quehay en la posición segunda (9876) y guárdalo enesta última". Una función F, mucho más compleja,podría venir, en principio, representada por unalarga serie de instrucciones concatenadas. Pero cadauna de estas instrucciones elementales sería tan sim-ple como la mencionada.

La cuestión está en saber si esta representaciónes posible o no. Si es posible representar una de-terminada selección de valores como respuesta a Fse dice que F "es calculable". O, más exactamente,se dice que F es calculable si existe una máquinade Turing tal que para cualquier disposición seme-jante a la descrita por la función y partiendo de laobservación de la casilla situada más a la derecha,llegue a detenerse tras escribir a la derecha de loya impreso un número de rayas correspondiente alnúmero F (x1, x2, ..., xn). El concepto de"calculabilidad" se traduce a veces por"recursividad" o "definibilidad".

Las máquinas de Turing han dado lugar a unalarga serie de trabajos y desarrollos que rebasanampliamente la temática de este libro. El artículode Turing coincidió, por otra parte, con otras con-tribuciones notables entre las que deben citarse almenos las debidas al matemático y lógico america-no Alonzo Church. Lo que interesa aquí subrayares que suponen una referencia precisa para concre-tar lo que podemos entender por "algoritmo", "com-putable" o "recursivo". Cualquiera de estas nocio-nes, que se conocen a veces como "Tesis de Church-Turing", implican que existe o podría existir unprocedimiento mecánico para resolver las funcio-nes y las operaciones implicadas de que se trate encada caso. Inversamente, cabría también demos-trar que determinadas funciones o conceptos tra-ducibles en funciones no son computables, es de-cir, no existe un algoritmo capaz de resolverlas.

El test de Turing

La presunta capacidad de las máquinas para llegara "pensar", una cuestión que ha dado lugar a inten-sos debates en los últimos años de este siglo, fueplanteada con notable agudeza por Turing en unfamoso artículo publicado en el número de octubrede 1950 por la revista Mind con el título"Computery Machinery and Intelligence".

Turing comienza su artículo planteando la pre-gunta "¿pueden pensar las máquinas?" y subrayan-

e1

3e

stop

Figura 7 Una máquina de Turingcomo sumador elemental

Page 46: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 43

do, a continuación, la dificultad de definir lo quees una "máquina" y la no menor dificultad de defi-nir que es lo que significa "pensar". Y propone,como medio de esquivar los prejuicios que se des-lizarían inevitablemente en una discusión basadadirectamente en estos términos, que imaginemos"un juego" al que bautiza como "el juego de laimitación".

Este juego comenzaría jugándose con 3 perso-nas, un hombre (A), una mujer (B) y un interrogador(C) situado en una habitación separada de los otrosdos, con quienes se comunica de tal modo que nopueda verles ni oír su voz. El objetivo de C es des-cubrir quién es el hombre y quién la mujer. La mi-sión de A es confundir al interrogador con respues-tas falsas y la misión de B ayudarle con respuestascorrectas. Pero C no sabe quién es A y quién es B yno sabe por consiguiente cuál de los dos intentaayudarle y cuál confundirle. Debe usar todo su in-genio para descubrirlo. Algo evidentemente pro-blemático.

Pero ahora, continúa Turing, supongamos quemodificamos el juego y que el papel de A se adju-dica a una máquina. Y supongamos también quecontamos con un programa capaz de producir res-puestas razonables a todo tipo de preguntas que sele puedan plantear. Ahora bien, estas repuestas de-ben estar preparadas para engañar al interrogadorhaciéndole creer que él es el ser humano y que elverdadero ser humano es un impostor. Dado quelos ordenadores son mucho más rápidos y precisosque los seres humanos esto implica que el ordena-dor tendrá que "disimular" y si le preguntan, pon-gamos por caso, cuál es el producto de 1234 por5678, una operación un ordenador realiza enmilisegundos, debe hacer una estimación de lo quetardaría un humano en producir la respuesta ayu-dado por papel y lápiz, o bien, de vez en cuando,confundirse intencionadamente.

Parece evidente que las preguntas que estuvie-ran basadas en la mera información tampoco da-rían mucha ventaja al humano. El ordenador puedealmacenar en su memoria todo tipo de datos, tantorelativos a los conocimientos generales con quecuenta un adulto, geográficos, históricos o litera-rios, como relativos a los conocimientos particula-res de quien ha vivido en un determinado entorno.Tampoco es preciso que estos sean muy elabora-dos pues el interrogador puede haber nacido en unentorno muy diferente al del interrogado.

El interrogador debería centrarse en algunos ras-

gos "verdaderamente característicos" de los sereshumanos. Quizás el más notable y el más apto paraconfundir a una máquina sería el sentido del hu-mor y el juego deliberado con situaciones absur-das. El problema de esta alternativa es que muchosseres humanos carecen de sentido del humor, locual no les descalifica como tales. El interrogadorpodía comentarle a la máquina: "Al venir hacia aquíhe visto un elefante rosa volando por el medio dela calle" a lo cual un humano podía contestar algoasí como: "Ah, ¿sí? Que interesante. Y tú llevabasun buen rato en el bar de la esquina ¿no?". Mien-tras que una máquina bien educada probablementereplicaría "Los elefantes no vuelan y, además, esmuy improbable que fuera de ese color pues no seconocen especies con tales características". Lo maloque es que todo el mundo conoce a alguien quetambién podría dar ese tipo de respuesta. Y tam-poco es impensable que la memoria del ordenadorincorpore reglas retóricas que incluyan la ironíacomo respuesta a comentarios que puedan catalo-garse notoriamente como absurdos.

Probablemente la cuestión decisiva sería el querealmente llegara a construirse una máquina consemejantes capacidades. En este sentido hay queresaltar el hecho de que Turing, hacia la mitad delartículo, dice "para simplificar el asunto de cara allector en primer lugar expondré mis propias creen-cias sobre tal asunto". Y afirma a continuación: "Yocreo que en unos cincuenta años será posible pro-gramar computadoras con una capacidad de alma-cenamiento de alrededor 109 bits, para jugar al jue-go de la imitación tan bien, que el interrogador notendrá más de un 70% de probabilidades de acer-tar con la identificación después de cinco minutosde interrogatorio".

El caso es que hemos llegado precisamente a laépoca que profetizó Turing y no se ha conseguidoaún construir una máquina de estas características.Pero la mayoría de los científicos que trabajan so-bre estos temas no tienen dudas de que, más prontoo más tarde, llegará a construirse. Uno de los másconocidos oponentes de la Inteligencia Artificial yde las ideas avanzadas por Turing, H.L. Dreyfus,también profetizó, en un libro ampliamente citadoy discutido, publicado en 1972 (What Computer'sCan't Do) como parte de sus argumentos en contrade la pretensión de atribuir inteligencia a las má-quinas, que un ordenador jamás podría llegar a ju-gar al ajedrez con la habilidad y la astucia de unhumano. Hace poco más de dos años el campeón

Page 47: [Architecture eBook] Aplicaciones as en Arquitectura

44 Aplicaciones informáticas en arquitectura

mundial de ajedrez, Kasparov, fue batido por unordenador especialmente programado para estosmenesteres, dejando así zanjada la polémica.

La cuestión es, más bien, de índole filosófica. Ypolítica; en un sentido sobre el que volveremos. Esdecir si, suponiendo que pueda llegar a construirseuna máquina de estas características, podemos de-cir que "piensa" en el mismo sentido en que deci-mos que nosotros, los seres humanos, pensamos.Sobre esta cuestión, sobre la que volveremos en elúltimo capítulo de este libro, Turing no rehuye pro-nunciarse. Y discute, en su artículo, posiciones queetiqueta respectivamente como las objeciones"teológica", "del avestruz", "matemática", "de laconsciencia", "a-que-no-puede-hacer-tal y tal", "deLady Lovelace o de la originalidad", "de la conti-nuidad del sistema nervioso frente a la discontinui-dad del sistema informático", "del comportamien-to informal", "de la percepción extrasensorial". Nopodemos resumirlos; algunos se adivinan fácilmen-te por el enunciado; en otros casos el lector deberáacudir a la fuente original. Todos estos argumentosson refutados y, en algún caso, Turing añade, conhumor un tanto sarcástico que, probablemente, loque el oponente necesita es, más que una refuta-ción lógica, "un poco de consuelo" ante tan alar-mante perspectiva.

5. Claude Shannon

Lo que sabemos de Claude Shannon nos dibuja unpersonaje que parece situarse en las antípodas deAlan Turing. Si la vida de éste fue breve y ator-mentada la de Shannon ha sido larga y feliz. Elperiodista que lo entrevistó en enero de 1990 paraScientific American nos retrata a un activo hombrede 74 años, que toca jazz al clarinete (DixielandOld Style) en sus ratos libres, padre de 3 hijos,amante de la poesía, e impaciente por mostrar alperiodista sus numerosos inventos, la mayoría delos cuales, sostiene con orgullo y buen humor, "nohan servido para nada". Pero las semejanzas entreShannon y Turing son más profundas. Ambos vie-ron con mayor profundidad que nadie cómo emergíauna nueva ciencia que iba a revolucionar el mundoen que vivían. Ambos sostenían una actitud similarante la inteligencia que escandalizaba, y sigue es-candalizando a sus contemporáneos y que se mani-fiesta en la provocativa respuesta de Shannon a lapregunta por la posibilidad de llegar a construir

máquinas inteligentes: "Bueno, nosotros somosmáquinas y pensamos ¿O no?".

Claude Shannon nació en Petoskey, Michigan,Estados Unidos, en 1916. Su padre era un hombrede negocios y su madre, hija de emigrantes alema-nes, profesora de lengua. Según cuentan sus bió-grafos, Shannon mostraba de pequeño una consi-derable habilidad para la construcción de ingeniosmecánicos, reforzada por una creciente afición a laciencia y las matemáticas. Antes de los 16 añoshabía construido planeadores y pequeños barcoscontrolados por radio, un sistema de telegrafía quele permitía conectarse con un amigo que vivía acasi un kilómetro de distancia y había ganado al-gún dinero arreglando radios estropeadas, entreotras actividades. Admiraba profundamente aEdison al que le unía, como descubrió más tarde,además de un mismo gusto por la invención mecá-nica, un parentesco lejano.

En 1932 ingresó en la universidad de Michiganen la que su hermana mayor acababa de obtener unmáster en matemáticas. En 1936 terminó brillante-mente los primeros estudios con un BS (Bachelorof Sciences, el equivalente aproximado a un títulouniversitario de grado medio) en ingeniería eléc-trica y otro BS en matemáticas.

Ese mismo año entró como investigador asis-tente en el MIT (Massachusetts Institute ofTechnology). Su trabajo principal estaba relacio-nado con el funcionamiento del "analizador dife-rencial" de Bush, una de las máquinas de calcularmás sofisticadas de aquella época, capaz de resol-ver ecuaciones diferenciales de sexto grado y queya hemos mencionado en la primera sección de estecapítulo. Esta máquina incorporaba un complejocircuito con más de cien relés y su estudio, y elanálisis revolucionario que de él hizo, utilizandola lógica booleana, durante el verano de 1937, ensu tesis de máster, fue la primera gran contribuciónde Shannon, a la que volveremos más adelante. Latesis se publicó en 1938, con el título A SymbolicAnalysis of Relay and Switching Circuits, tuvo unaconsiderable repercusión y le supuso la concesión,en 1940, de un premio otorgado por un consorciode las sociedades de ingenieros de Estados Uni-dos, convocado anualmente para la mejor contri-bución publicada en alguna de las revistas de estassociedades por un investigador no mayor de trein-ta años.

Durante estos años Shannon llevó a cabo nume-rosas investigaciones relacionadas tanto con siste-

Page 48: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 45

mas mecánicos de cálculo, como con teorías y prin-cipios matemáticos relacionados con este área,como con ciencias aparentemente más alejadas,particularmente la biología. Pasó el verano de 1939en Cold Spring Harbor trabajando con especialis-tas en genética acerca de la posibilidad de aplicarsistemas algebraicos a la organización del conoci-miento genético. En 1940 presentó su tesis de doc-torado en matemáticas al mismo tiempo que le eraconcedido el título de máster en ingeniería eléctri-ca. El verano de ese mismo año se quedó en loslaboratorios Bell investigando nuevos métodos deconmutación en circuitos eléctricos. Toda esta ac-tividad, acompañada de publicaciones de primeraimportancia, provenía de una persona que acababade cumplir los 24 años.

Durante el periodo académico de 1940-41 setrasladó a Princenton donde trabajaría bajo la di-rección de Hermann Weyl y donde comenzarían atomar forma sus ideas sobre teoría de la informa-ción y sistemas de comunicación. Su vinculaciónprincipal, sin embargo, siguieron siendo los labo-ratorios Bell, en donde permanecería muchos años,hasta 1972, trabajando en contacto directo con al-guno de los principales científicos cuyo nombre haquedado ligado históricamente a la tecnología delas comunicaciones, desde Harry Nyquist, que ha-bía publicado en 1928 un histórico artículo sobreteoría de las comunicaciones, hasta Brattain,Bardeen and Schockley, que recibirían el premioNobel en 1956 por su descubrimiento del transis-tor pasando por John Pierce, otro investigador des-tacado en sistemas de comunicación por satélite.

En 1948, después de la guerra, publicó AMathematical Theory of Communication, lo quese considera su principal contribución y una de lasobras maestras del siglo, y que supondría la funda-ción de lo que pasaría a denominarse "Teoría de lainformación", alguna de cuyas ideas principalesresumiremos más abajo. Los trabajos de este pe-riodo incluyen diversas investigaciones sobre teo-ría de juegos y principalmente ajedrez. Puede men-cionarse un artículo notable 1950 sobre este tema(“Programming a computing for Playing Chess”).Fue uno de los primeros en diseñar programas quepermitieran a una máquina jugar al ajedrez contraun humano. En 1950 construyó un ratón mecánicoal que bautizó como Theseus que colocado en elinterior de un laberinto cuyo suelo contenía un cir-cuito integrado a través del cual el ratón se comu-nicaba con el programa, era capaz de aprender el

modo de salir.Posteriormente deja los laboratorios Bell para

iniciar una actividad más académica. Es profesoren el MIT a partir de 1956, miembro del Centro deEstudios de Ciencias del Comportamiento(Behavioral Sciences) en Palo Alto (California) y,a partir de estos años la carrera académica deShannon es una larga lista de premios, títulos ho-norarios, conferencias en prestigiosas institucionesde todo el mundo.

Después de retirarse de la actividad académica,en 1978, con una cuenta corriente más que sanea-da debido a diversas inversiones en compañíasrelacionadas con alguno de sus descubrimientos y,según parece, a la aplicación de algunos modelosmatemáticos al análisis de la evolución de la bolsa,se dedicó, casi obsesivamente a investigar los jue-gos malabares. Construyó varias máquinas y ela-boró una sofisticada teoría que resumió, como se-ría de esperar, en una fórmula: B/H = (D + F) / (D+ E), en donde B representa el número de bolas, Hel número de manos, D el tiempo que cada bolapermanece en cada mano, F el tiempo de vuelo decada bola y E el tiempo en que cada mano perma-nece vacía. El teorema implica que no hay límiteen el número de bolas que una persona puede lan-zar al mismo tiempo. El récord mundial, segúnShannon, está en 12 bolas. Un aficionado expertopuede lanzar 4 o 5 sin dificultad. Shannon solíarematar algunas de sus conferencias con una de-mostración de sus habilidades como malabarista.El "limite de Shannon", en este caso, era 4.

Una de sus más notables contribuciones "inúti-les" fue la Ultimate Machine (basada en una ideade Marvin Minsky) que construyó a principios delos 1950: un pequeño cofre con un botón en la tapa.Al presionar el botón se oye un gruñido de irrita-ción y un zumbido persistente. La tapa se abre len-tamente y surge una mano. La mano se estira hastael botón, lo aprieta y se retira al interior de la caja.Al cerrarse la tapa cesa el zumbido y vuelve a rei-nar la paz.

Un álgebra de circuitos

En 1937 Shannon eligió como tema de su tesis doc-toral en el MIT la aplicación de las técnicas delálgebra lógica de clases propuesta por GeorgeBoole a mediados del siglo XIX a estudio de loscircuitos utilizados en ingeniería eléctrica. Comoen los casos anteriores, la aplicación de la lógica

Page 49: [Architecture eBook] Aplicaciones as en Arquitectura

46 Aplicaciones informáticas en arquitectura

matemática, una disciplina cultivada en aquellasfechas por muy pocos, a las nuevas técnicas se re-velaría como una mina de nuevas posibilidades. Elproblema de partida era puramente técnico. Perolos resultados fueron mucho más allá.

El problema de que partió Shannon era buscarun método que simplificara el diseño de losintricados circuitos que se necesitaban en sistemaseléctricos complejos tales como los que se utiliza-ban por aquella época en centralitas telefónicas osistemas de control de motores utilizados enequipamientos industriales.

La solución se basaba en representar estos cir-cuitos por medio de ecuaciones que pudieran seranalizadas y simplificadas de modo similar a comose hace con los sistemas corrientes de ecuacionesalgebraicas. Para poder operar con sentido sobreestos sistemas de ecuaciones era necesario desa-rrollar un sistema de reglas que reflejase propieda-des reales de los elementos implicados así comoun sistema de símbolos apropiado para representarestos elementos. Shannon descubrió que era posi-ble adaptar las reglas de la lógica simbólica a losdiversos tipos de conexiones realizadas entre cir-cuitos. Así, la noción de "verdadero" podía recibirel símbolo "1" como representación y asociarse alestado físico de un circuito "abierto". Y "falso" alsímbolo "0" y el estado "cerrado".

De modo similar la noción de "sumar" recibíael símbolo "+" como representación y se asociabaal estado físico de dos circuitos X e Y conectados"en serie", así como a la regla lógica: "la proposi-ción X + Y es verdadera si X o Y son verdaderos".Y la noción de "multiplicar", al símbolo "×" aso-ciado al estado físico de conexión "en paralelo",así como a la regla lógica "la proposición X × Y esverdadera si X e Y son verdaderos". La negaciónde X se representa por X' y corresponde al estado"cerrado" si X está abierto o "abierto" si X estácerrado, así como a la regla lógica "X' es la contra-dicción de X".

A lo largo de su escrito Shannon demostró quelos teoremas desarrollados por Boole, Morgan yotros lógicos posteriores, así como nuevos teore-mas que podían derivarse de estos para simplificarlos cálculos, eran válidos como medio de repre-sentar circuitos eléctricos y electrónicos y de ope-rar con ellos.

La utilidad inmediata de este sistema puede apre-ciarse, sin necesidad de poseer conocimientos deelectrotecnia mediante un vistazo a los ejemplos

dados por el propio Shannon y que se reproducenen la figura 8. El circuito original venía dado porla siguiente formulación: U = wxyz + w' x' yz +w'xy' z + w'xyz' + wx'y'z + wx'yz' + wxy'z', dondew, x, y, z representan relés y las operaciones indica-das, de suma, multiplicación y negación, relacio-nes requeridas entre ellos. La primera reducciónpermite agruparlos como U = w[x(yz + y'z') + x'(y'z+ yz')] + w'[x(y'z + yz') + x'yz] ecuación que secorresponde con el circuito representado en la par-te superior de la figura 8 que requiere 20 elemen-tos. Sucesivas reducciones algebraicas permitensimplificar el circuito hasta reducirlo a los 14 ele-mentos del circuito representado en la parte infe-rior de dicha figura.

En los ordenadores actuales estas operacionesestán automatizadas por medio de "puertas lógi-cas" formadas por grupos de 2, 3 o 4 transistores.Estas operaciones tienen lugar principalmente enla ALU, siglas de Arithmetic and Logic Unit, "Uni-dad aritmética y lógica", la parte fundamental de launidad central de un ordenador en donde se reali-zan las operaciones básicas. El circuito se formacon arreglo a las siguientes reglas, similares a lasutilizadas por Shannon. La puerta NOT o "inver-sor" acepta una entrada y la invierte; si la entradaes 1 la salida es 0 y viceversa (ver figura 9). Com-binando inversores se forman otras puertas lógi-cas: AND, OR o XOR (disyuntor exclusivo, no re-

w w'

x

y

x' x x'

y' y y' y y' y

z z' z' z z' z z

+ -

z'

zy' y y' yz

x'y

w'

x

x x' w

U

+ -U

Figura 8 Reducción algebraica de un circuito(de Shannon (1938)

Page 50: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 47

0 1 0 0

0 / 0

Sumador Binario: 4 + 5 = 9

0 1 0 1

0 / 0

1 / 0

1 / 1 1 / 1

0 / 1

0 / 0 0 / 0

1 / 0

0 / 1 0 / 1

1 / 1

0 / 0 0 / 0

1 / 00 / 0

0 / 10 / 1

1 / 0

0 / 00 / 0

1 0 0 1

00 11 0000

0000 00

1 / 0 0 / 0

A

C

A B

0

1

B

1

0

0

1

0

1

0

C

1

0

0

A

C

A B

0

1

B

1

0

0

1

0

1

0

C

1

1

1

A

C

A C

1 0

0 1

presentado en las figuras), que aceptan dos entra-das y generan una salida con arreglo a la tablaslógica que se muestran en las figuras correspon-dientes.

Agrupando puertas lógicas se consigue creardispositivos que pueden realizar las cuatro opera-ciones elementales. La figura 12 muestra un ejem-plo simplificado que describe cómo se agruparíanestas puertas lógicas para hacer una operación ele-mental. Puede seguirse la lógica del proceso en lapropia figura y compararla con la figura 7 del apar-tado anterior, donde se muestra la misma opera-ción realizada con una máquina de Turing progra-mada para realizar este tipo de operación elemen-tal.

La teoría de la información

La obra fundacional de lo que ha pasado a denomi-narse "teoría de la información", publicada porClaude Shannon y Warren Weaver con el título AMathematical Theory of Communication en 1949(la segunda parte, más técnica, se publicó previa-mente en el Bell System Technical Journal, en oc-tubre de 1948) se origina en un contexto muy espe-cífico: el de la búsqueda de técnicas apropiadas paramejorar la calidad de la comunicación en los siste-mas corrientes en aquella fecha, principalmente eltelégrafo y el teléfono. Sus aportaciones estricta-mente técnicas supusieron una revolución en esteárea. Concretamente, Shannon demostró, en con-tra de lo que era la opinión corrientemente acepta-da que, para mejorar la calidad de las comunica-ciones, era más importante incidir en los métodosde codificación de los mensajes que en la calidadde los canales. Por muy deficiente que fuera la ca-lidad de la línea siempre era posible encontrar unmétodo de codificación que permitiera la recupe-ración íntegra del mensaje original.

Las repercusiones posteriores han ido muchomás allá y, en las dos décadas que siguieron a lapublicación de esta obra, aparecieron múltiples tra-bajos en los que se aplicaban estos principios a to-dos los sectores imaginables, de la biología a laeconomía, pasando por la lingüística y la estética.Esto es tanto como decir que las ideas presentes endicha obra manejan un concepto técnico, operati-vo, de información pero que se abre con rapidez alas implicaciones generales del término común. Eneste apartado nos limitaremos a resumir los puntosprincipales que pueden ayudar a situar en su con-

Figura 12 Sumador. Combinación de puertaslógicas para efectuar la operación 4 + 5

Figura 9. Puerta NOT o inversor

Figura 10. Puerta OR

Figura 11. Puerta AND

Page 51: [Architecture eBook] Aplicaciones as en Arquitectura

48 Aplicaciones informáticas en arquitectura

texto alguna de las nociones principales que se ve-rán más adelante.

La primera cuestión de importancia es que lainformación es tratada como una cantidad físicasimilar a la masa o la energía. Los elementos pro-pios del sistema se pueden considerar como análo-gos a los de un sistema de transporte y, de hecho,tal como veremos en el capítulo dedicado a redes ytal como puede apreciarse en cualquier comenta-rio periodístico actual sobre las "autopistas de lainformación" pero también en la literatura técnica,la analogía es adecuada y fructífera.

El sistema de comunicación de que se parte cons-ta de los siguientes 5 elementos: 1) una fuente deinformación que origina un "mensaje"; 2) un trans-misor que transforma o codifica esta informaciónpara adaptarla al medio de transmisión (el mensajeasí transformado se denomina "señal"); 3) un ca-nal a través del cual circula la señal. A lo largo dela trasmisión por el canal la señal puede quedaralterada por diversas causas que se engloban gené-ricamente bajo la denominación de "ruido"; 4) unreceptor que transforma o descodifica la señal pararecuperar el mensaje original; 5) un destinatario dela información(figura 13).

Al igual que ocurriría con un sistema de trans-porte, aparecen dos cantidades importantes, la ma-teria prima que se transporta y la capacidad delcanal. ¿Cómo medir esta materia prima? Aquí seproduce una distinción importante entre el uso téc-nico de la palabra "información" y su uso corrien-te. Tendemos a asociar espontáneamente la nociónde información a la de significado. Sin embargo,como se dice explícitamente en la obra que esta-mos comentando, "los aspectos semánticos de lacomunicación son irrelevantes para la transmisiónde la información". Evidentemente, el significadode un mensaje depende de tal variedad de factores,subjetivos, culturales, contextuales que su trata-miento científico es en principio inabordable. Delo que se trata es de transmitir con fidelidad unmensaje, sea una secuencia de letras o una colec-

ción de puntos de color, sin tomar en considera-ción, en principio, si lo transmitido es producto delpuro azar o de la más rigurosa reflexión.

De lo que se trata entonces es de medir la canti-dad de información que transporta un mensaje porrelación a cualquier otra información que resulta-ría a partir de cualquier combinación imaginablede una colección de símbolos dados que puedentomar valores en un determinado rango. Desde estepunto de vista, lo que resulta relevante es que sehaya escogido un mensaje particular (un símboloparticular) en lugar de otro. Esto quiere decir quesi tan sólo hay un mensaje posible a transmitir, nohay información; la medida de la información es 0.Si hay dos mensajes posibles la información esmínima pero existe; si necesitamos conocer si seha producido un determinado suceso y la respuestasólo puede ser "sí" o "no" recibir una de estas dosrespuestas es información. La incertidumbre se haeliminado.

Es, de hecho, esta incertidumbre lo que se tratade medir inicialmente. Y la relación entre el men-saje recibido y el número de mensajes posibles eslo que nos da una estimación precisa de la cantidadde información que se nos ha suministrado. La fór-mula propuesta por Shannon para concretar estanoción es

∑=

−=n

i

ii ppH1

log

donde H es la "cantidad de información" y p es la"probabilidad de que se produzca determinadomensaje". Como la fórmula puede parecer abstru-sa a quien no sienta demasiada simpatía por lossumatorios y los logaritmos, comentaremos breve-mente su significado.

Si tan solo hay un mensaje que no tiene alterna-tiva estamos ante un "suceso seguro" cuya proba-bilidad es "1". Por lo tanto H = 0 (el logaritmo de 1en cualquier base es 0 pues x0 = 1). Por otro lado,la probabilidad de cualquier suceso siempre estácomprendida entre 0 y 1 y el logaritmo de un nú-

Fuente de información

DestinoTransmisor Receptor

mensaje señal señal mensajeruido

Figura 13 Elementos de un sistema de transmisión de información

Page 52: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 49

mero que está entre 0 y 1 es negativo; el signo me-nos delante de la fórmula asegura entonces que lainformación siempre será positiva o nula. El rangode valores posible de H va desde 0, cuando el su-ceso ocurrirá con toda certeza, hasta lg N (repre-sentaremos "log

2" por "lg") correspondiente al caso

en que todos los sucesos son igualmente probables(tienen una probabilidad de 1/N), lo que corres-ponde a la máxima incertidumbre.

La fórmula está expresada con total generalidadcon lo que cubre todos los casos, incluyendo aque-llos en los que la probabilidad de los diferentessucesos sea diferente, esto es, que por ejemplo, elsuceso 1 tuviera una probabilidad p

1 = 1, el suceso

2 una probabilidad p2 = 1/2, el suceso 3 una proba-

bilidad p3 = 1/4, etc. En los casos que nos pueden

interesar la situación es más simple. Si aplicamosesta fórmula al caso de una elección entre dos ca-sos igualmente posibles nos dará como resultadoH = 1. Este resultado se toma como unidad de in-formación y se denomina "1 bit". Hablaremos másde unidades en el próximo capítulo. Si la aplica-mos al caso de la elección entre 8 casos igualmen-te posibles obtendremos que H = (1/8 × lg 1/8) × 8= 3 bits.

Esto puede apreciarse intuitivamente en la figu-ra 14 . Vemos que, en el segundo caso, la cantidadde información se corresponde con el número deniveles de un árbol binario en el que cada nivel secorresponde con una decisión que hay que tomarentre diferentes subcasos posibles; podemos divi-dir todos los casos en dos grupos con la certeza deque la respuesta estará en uno de los subgrupos ycontinuar esta división hasta alcanzar el nivel equi-valente a 1 bit, representado en la parte izquierdade la figura.

Otro modo de apreciar el sentido de esto mismoes pensar en un juego como el de "adivinar un per-sonaje". Si los jugadores hacen preguntas sistemá-ticas del tipo "¿es un hombre?" o bien "¿vive en elhemisferio norte?" de tal modo que las respuestasdividan aproximadamente en dos los casos posi-bles, es posible, con 20 preguntas, decidir entre algomás de 1 millón de posibilidades puesto que 224 =1 048 576 (o, si se prefiere, puesto que lg 1 048576 = 24).

Sobre la capacidad de un canal, otra noción fun-damental en la teoría de la información, volvere-mos en el capítulo 8, dedicado a redes. Concluire-mos este apartado con otro concepto clave en teo-ría de la información, el de redundancia.

En la exposición anterior se ha considerado unmensaje aislado. Es evidente que, en general, loque recibiremos es una secuencia de mensajes. Si,como también ocurrirá en la gran mayoría de loscasos, estos mensajes están relacionados entre sí,la fórmula puede generalizarse para tomar en con-sideración la estructura del lenguaje, que no espuramente aleatoria. En el caso del lenguaje co-mún, el lenguaje escrito, el mensaje mínimo es uncarácter. Pero los caracteres están relacionados poruna estructura interna de tal modo que determina-das secuencias se dan con mucha mayor probabili-dad que otras. Cada cierto número de caracteres,que raramente supera una cifra media, habrá unespacio de separación. Las vocales y las consonan-tes se alternan con cierta regularidad. Ciertos gru-pos consonánticos aparecen unidos con frecuenciay otros no. Todo esto es susceptible de medición ypueden crearse tablas estadísticas similares, peromás sistemáticas, a las que Edgar Allan Poe mane-ja en "El escarabajo de Oro" un cuento precursorde alguno de los principios básicos de la criptogra-fía.

Si codificaramos las 26 letras del alfabeto en uncódigo binario, sin tener en cuenta su frecuencia,la cantidad de bits requeridos sería de 4.7 (lg 26).Sin embargo, mediante diversos análisis estadísti-cos Shannon demostró que, en un texto normal eninglés no hay, de hecho, sino alrededor de 1 bit deinformación por letra. Es decir, si se eliminara lacantidad de redundancia que hay en la mayoría delos idiomas podríamos comunicarnos con 2 letrasen lugar de 26 sin perdida substancial de conteni-do. Una confirmación intuitiva de que esto es efec-tivamente así es que podemos eliminar un conside-

Figura 14 Árbol binario correspondiente a laelección entre 8 posibilidades iguales

1 bit

18

2 bits

3 bits

81

81

81

81

81

81

81

Page 53: [Architecture eBook] Aplicaciones as en Arquitectura

50 Aplicaciones informáticas en arquitectura

rable número de letras e incluso palabras comple-tas de un texto y su contenido sigue siendo com-prensible.

Otro tanto ocurre en los mensajes gráficos. Lastécnicas de compresión de archivos de imágenes,que veremos en el capítulo 6, se basan en la codi-ficación de la redundancia de tal modo que se re-duzca la cantidad de información que se envía. Siuna imagen representa un cielo de un color azuluniforme que se va degradando según una pautasusceptible de análisis, no es necesario transmitirtodos y cada uno de los puntos de color sino quebasta con enviar una fórmula que describa cómoobtener los valores para cada punto.

Todo esto no debe hacer pensar, sin embargo,que la redundancia es algo innecesario. Es, por elcontrario, una característica de todo lenguaje quecumple dos funciones fundamentales. En primerlugar, sirve para prevenir errores; la reiteración deun mensaje es una garantía contra los errores detransmisión y todos los sistemas informáticos sondeliberadamente redundantes precisamente por estarazón. En segundo lugar, la redundancia propor-ciona información adicional sobre el sentido de unmensaje. Para tomar un ejemplo famoso de Frege,la frase "el lucero matutino" y la frase "el lucerovespertino" tiene una misma referencia, designanun mismo objeto (Venus) por lo que cabría califi-carlas de redundantes. Pero su sentido es distinto;implican un conocimiento, que se afirma indirec-tamente y que no era asequible a nuestros antepa-sado remotos. Similarmente, la reiteración, cuan-do no es retórica vacía, aumenta el contenido de unmensaje de un modo que se hurta a la capacidad decodificación informática y que hay que prevenirque no sea destruido por una codificación excesi-vamente "eficaz".

Entropía e información

La fórmula que hemos visto en el apartado anteriorpara especificar la cantidad de información es for-malmente idéntica a ciertas fórmulas dadas para laentropía por Boltzmann, en el siglo pasado, y en elcontexto de la aplicación de la mecánica estadísti-ca a la termodinámica. En ambos casos, tanto en lateoría de la información como en la termodinámi-ca, esta fórmula puede a su vez ser consideradacomo una medida del azar. En el caso de la termo-dinámica la incertidumbre estaría referida a la po-sición de un punto en el espacio de fases. En el

caso de la informática a la elección de un mensaje.La emergencia del concepto científico de infor-

mación y su relación con el concepto termodiná-mico de entropía puede remontarse a 1871, fechaen que Maxwell propuso una famosa imagen, la deun diablo malicioso, dotado de increíbles poderes,situado junto a un orificio que comunicase dos re-cipientes a diferente temperatura. La segunda leyde la termodinámica nos dicen que estos dos reci-pientes alcanzarían la misma temperatura en untiempo determinado puesto que la velocidad de susmoléculas iría convergiendo hacia un valor similardebido a los incesantes choques entre ellas. Sinembargo, el malicioso demonio podría alterar esteresultado abriendo y cerrando con rapidez el orifi-cio de tal modo que tan sólo las moléculas másveloces pasaran de uno a otro recipiente.

En 1929, uno de los colegas húngaros de vonNeumann, Leo Szilard, propuso en un artículo pu-blicado en alemán ("Uber die Entropie-verminderung in einem ThermodynamischenSystem bei Eingriffen Intelligenter Wesen",Zeitschrift fur Physik 53, p 840) que la respuesta aesta paradoja debía formularse en términosinformacionales. La entropía que pierde el gas de-bido a la acción del demonio de Maxwell debe igua-larse a la información que este ser obtiene acercadel estado de las partículas. De aquí surgió la ideade definir la información como una especie deentropía negativa que introduce orden en un siste-ma dado. Von Neumann utilizó este concepto enuna explicación personal de la dinámica cuántica.Este concepto lo recuperó en sus debates conShannon al que le hizo ver estas conexiones histó-ricas que, al parecer, Shannon desconocía pueshabía llegado a sus formulaciones mediante desa-rrollos de otro tipo.

Según cuenta el propio Shannon, no está muyclaro si en serio o en broma, von Neumann le sugi-rió que utilizará el término "entropía" como alter-nativa al de "información" puesto que "al ser esteun término científico de significado nada claro leproporcionaría una clara ventaja en los debatescientíficos". En cualquier caso es un hecho queShannon utilizó indistintamente ambos términos enlos escritos posteriores a la teoría matemática de lacomunicación.

La concepción de la información como una no-ción de significado inverso al de entropía y, conella, de la vida como transmisión de información y,así, como una isla de orden que puede mantenerse

Page 54: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 1. Sobre algunos conceptos fundamentales 51

Figura 15 De arriba abajo y de izquierda a derecha: Wiener, Von Neumann,Turing y Shanonn

y crecer en un océano de desorden, es una idea tanpoderosa que no necesita comentarios adicionalesy parece una buena manera de concluir este capítu-lo introductorio a algunas de las ideas principalesque han impulsado la evolución de la informática.

Page 55: [Architecture eBook] Aplicaciones as en Arquitectura

Primera parte

Sistemas de generación de formas e imágenes.Anteproyecto

Page 56: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 55

Capítulo 2 . Recursos básicos. Programas y máquinas

Como hemos visto en el capítulo anterior, los prin-cipios fundamentales que han orientado el desa-rrollo espectacular de la informática surgieron amediados de este siglo, en un período que pode-mos situar entre 1935 y 1955. Al finalizar el siglo,tanto la rapidísima difusión como el abaratamientoo la diversidad de productos complementarios deque se abastece la industria informática habrían,probablemente, sorprendido a los propios precur-sores de este desarrollo pese a su notable capaci-dad como visionarios de un futuro que pocos cree-rían tan cercano. Como recuerda Negroponte, silos automóviles se hubieran desarrollado al mismoritmo que los ordenadores, en estos últimos añosdel siglo podríamos tener un modelo especial deRolls Royce, por algo menos de 300 pesetas, conla potencia de un trasatlántico y que podría dar 25veces la vuelta al mundo con 1 litro de gasolina.

Pero si procuramos que los árboles no nos impi-dan ver el bosque, comprobaremos que los recur-sos informáticos básicos, las máquinas de que dis-ponemos y los programas y aplicaciones que fun-cionan sobre estas máquinas, pueden agruparse enuna serie de categorías generales y que estas cate-gorías o funciones genéricas pueden calibrarse pormedio de una serie de parámetros cuya evoluciónes en buena medida previsible.

La finalidad de este capítulo, bastante largo yque, por resultar más útil a quienes va destinado,se adentra en algunas descripciones o referenciasque quedarán obsoletas en pocos años, es propor-cionar una serie de criterios generales que resistanlo mejor posible la prueba del tiempo y, sobre todo,que proporcionen a los arquitectos y colaborado-res de despachos de arquitectura, términos de com-paración, independientes de productos comercia-les y que sirvan para juzgar del mejor modo posi-ble si un determinado producto resultará útil paralo que realmente se pretende que sea útil. De paso

servirá, o así lo esperamos, para aclarar el sentidoque tienen, en la práctica, algunos de los concep-tos más abstractos que ya han aparecido en el capí-tulo anterior.

Para aligerar la exposición y hacerla más fácil-mente asimilable se ha prescindido en este capítu-lo de todo lo referente a redes. De esto se tratará enel capítulo 11 que puede considerarse como unacontinuación de este.

1 Información. Bits. Parámetros básicos

Los términos "información", "dato" o "conocimien-to" están estrechamente ligados pero no significanlo mismo. Un dato es algo que puede permanecerimpermeable al conocimiento durante siglos, comoocurre con los jeroglíficos tallados sobre piedra,aunque sea portador de información. El conoci-miento de un artista sobre el modo en que debeactuar para conseguir determinados resultados estambién información. Pero no puede ser almace-nada por medio de datos y, en este sentido, no esinformación en el sentido que ha adquirido estapalabra en los últimos años.

En informática, se denomina información aque-llo que puede ser transmitido por medio de datosunívocos a lo largo de canales normalizados y quepuede ser descifrado si se conoce el código o códi-gos en que se basa. La unidad mínima de informa-ción es "si" o "no". Un "sí" o un "no" se codificanpor medio de un BIT, acrónimo de Binary digIT. Elorigen del término se remite a finales de los 1940 oquizás antes, y mantiene relación semántica con elsignificado corriente en inglés de «trozo» o «por-ción». Está aceptado por la Real Academia Espa-ñola que lo define como "1) Unidad de medida deinformación equivalente a la elección entre dos po-sibilidades igualmente probables" y "2) Unidad demedida de la capacidad de memoria, equivalente a

Page 57: [Architecture eBook] Aplicaciones as en Arquitectura

56 Aplicaciones informáticas en arquitectura

la posibilidad de almacenar la selección entre dosposibilidades, especialmente usada en los compu-tadores". Su significado lógico es el de una varia-ble que sólo admite dos valores, 0 y 1. Su signifi-cado físico es el de un estado que sólo admite dossituaciones: abierto o cerrado. En los primeros tiem-pos de la informática esto se conseguía por mediode válvulas. A partir de 1948 puede conseguirsepor medio de transistores que se combinan paraformar puertas lógicas.

Las capacidades de almacenamiento del volu-men de información de los dispositivosinformáticos se miden en términos de bits y de susmúltiplos superiores. La unidad que sigue a un bites un byte, unidad de almacenamiento igual a 8bits. No está claro su origen aunque es obviamenteuna derivación de "bit" y, como este término, serelaciona con "bite", "mordisco", "pequeña partede algo". Debido a que el alfabeto se codifica co-rrientemente por medio de un código denominadoASCII (siglas de American Standard forInformation Exchange) y a que el código ASCII(extendido) utiliza 8 bits para grabar 256 caracte-res (los números y las letras del alfabeto más unaserie de códigos adicionales) resulta que 1 byteequivale en la práctica a 1 carácter alfanumérico.A veces se denomina "octeto" en lugar de byte.

Las unidades superiores son las siguientes. ElKilobyte, abreviado como Kb, del griego "Kilo"que significa "mil". En informática, debido al sis-tema de numeración binario su valor exacto es de1024 bytes. El Megabyte, abreviado como Mb, delgriego "mega" que significa "grande"; su valorexacto en informática es de 1024 Kb. El Gigabyte,

abreviado como Gb, del latín "Gigantis", al que sele ha asignado el significado de mil millones; suvalor exacto es de 1024 Mb. El Terabyte, abrevia-do como Tb, del griego "teras", "prodigio, mons-truo"; su valor exacto es 1024 Gb.

Resumiendo estos valores, el almacenamientode datos informáticos se mide en:

bits unidad de información (0 o 1)nibbles 4 bits (raramente utilizada)bytes 8 bitsKilobytes (Kb) 1024 bytesMegabytes (Mb) 1024 Kb igual a

1024 × 1024 bytesGigabytes (Gb) 1024 Mb igual a

1024 × 1024 × 1024 bytesTerabytes (Tb) 1024 Gb igual a

1024 × 1024 × 1024 × 1024 bytes

Una página de texto de unas 40 líneas y unos 50caracteres por línea ocuparía unas 2 Kb o unos 16× 103 bits (figura 1, a). Un libro de unas 500 pági-nas ocuparía alrededor de 1 Mb o 8 ×106 bits (figu-ra 1, b). Una imagen en blanco y negro, impresa enun Din A4, con una resolución de unos 150 dpi,ocuparía más o menos lo mismo que el libro de500 páginas; con esto queda claro que una imagenvale bastante más que mil palabras. Una imagen encolor, del mismo tamaño que la anterior, y el doblede resolución (300 dpi), es decir, una imagen quepodría figurar en un libro de mediana calidad conilustraciones a color, ocuparía algo más de 108 (fi-gura 1, c; para obtener el resultado exacto bastamultiplicar la anchura en pulgadas, por la altura enpulgadas, por la resolución y por 24; la razón deeste cálculo se explicará en el capítulo dedicado aimágenes. Una película de vídeo de unos 120 mi-nutos de duración ocuparía unos 4 × 109 bits (figu-ra 1, d), un poco más de lo que ocuparía la Enci-clopedia Británica (que tiene unas 25 000 páginas)y algo menos que el número de neuronas del cere-bro, que quizás puede relacionarse, más o menosdirectamente con su capacidad de procesamientode información, y que se estima que está entre 1010

y 1011 (figura 1, e).En fin, la memoria principal del procesador (me-

moria RAM) requerida para trabajar adecuadamen-te con un programa de CAD debería ser como mí-nimo, en 1999, de unos 32 Mb, mejor 64 Mb. Esaún más recomendable contar con 128 Mb si se vaa trabajar con archivos de gran tamaño. Y debería

Vol

umen

de

Info

rmac

ión

en B

its

10

A B DC E

3

6

12

9

15

18

F

10

10

10

10

10

Figura 1 Comparación de diferentes volumenesde información

Page 58: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 57

de ir acompañada de un disco duro con espaciopara almacenar el programa, los archivos de traba-jo y los archivos complementarios generados, sincontar con otros programas de apoyo. Lo que pue-de llevar fácilmente estos requisitos a un mínimode 400 u 800 Mb libres, lo que supone contar conal menos 2 Gb de espacio total en el disco.

Modos y velocidades de transmisión

La capacidad de almacenamiento es un conceptosencillo que significa poco hasta que no aclaremoscómo y a qué velocidad se transmiten estas canti-dades. La velocidad de transmisión implica al me-nos dos parámetros; la velocidad en sí misma y lacapacidad del canal por el que circulan estos da-tos. Ninguno de estos parámetros es simple ni pue-de desentrañarse hasta que no se tengan en cuentalos diferentes modos de comportamiento de un or-denador. Este apartado servirá de breve introduc-ción al tema.

La velocidad de acceso o velocidad elementalde transmisión y transferencia de datos entre dis-positivos se mide en:

milisegundos 10-3 segmicrosegundos 10-6 segnanosegundos 10-9 segpicosegundos 10-12 segfemtosegundos 10-15 seg

Se mide en milisegundos (ms) el tiempo de ac-ceso al disco (figura 2, a). El tiempo de acceso aun disco duro de velocidad media puede ser delorden de los 14 ms, el de un disco magnético como

los Iomega Zip, unos 30 ms, el de un CD alrededorde los 100 ms. Se mide en microsegundos el ciclode máquina (figura 2, b). Se mide en nanosegundos(ns) el tiempo de acceso a la memoria RAM, quepuede ser del orden de los 10 a 30 ns (figura 2, c).Se mide en nanosegundos, picosegundos ofemtosegundos el tiempo de conmutación en untransistor (figura 2, d, e).

Sin embargo no debe pensarse que en el interiorde un ordenador las velocidades vienen dadas porestas cifras. Hay, al menos, un factor que retardalas velocidades y otro que las acelera. El factor quelas retarda es debido a lo que se conoce como ve-locidad de sincronismo. El que las acelera es debi-do a lo que se conoce como procesamiento en pa-ralelo.

La velocidad de sincronismo es lo que podría-mos caracterizar como "el pulso característico" deun ordenador. Debido a que los cientos de miles deoperaciones que se realizan en el interior de un or-denador deben estar exactamente sincronizadas, latransferencia de datos se realiza a partir de pautastemporales exactas a las que deben ajustarse todaslas operaciones. Esta pauta depende del procesadory es una cifra que debe resultar familiar a cualquie-ra que posea un ordenador pues ha marcado la di-ferencia entre los diferentes modelos que han idosurgiendo cada año. Se mide en ciclos por segun-do; un ciclo por segundo es una unidad que se de-nomina "herzio" en honor del físico alemánHeinrich Hertz que en 1883 detectó las ondas elec-tromagnéticas.

Los microprocesadores que hacían funcionar losprimeros PCs tenían velocidades casi diez vecesinferiores a las actuales. El 8086, puesto en circu-

Vel

ocid

ad e

n S

egun

dos

10

ABD CE

-15

-12

-6

-9

-3

10

10

10

10

Figura 2 Comparación de velocidades de accesoa diferentes dispositivos

Vel

ocid

ad e

n M

Hz

100

1982

200

400

300

500

84 86 9088 96 989492 2000

Figura 3 Evolución de la velocidad desincronismo de los PCs en los últimos años.

Page 59: [Architecture eBook] Aplicaciones as en Arquitectura

58 Aplicaciones informáticas en arquitectura

lación por Intel en 1981 funcionaba a 6 MHz.El80286, en 1984, 10 MHz, el 80386, en 1985, al-canzaba los 33 MHz, el 80486, en 1989, los 66.Con la familia de los Pentium, iniciada en 1994,estos valores pasaron sucesivamente de los 90 MHza los 133, 166, 200, y 233 en 1997 y 300 y 400 en1998. La figura 3 muestra la evolución de los dife-rentes modelos de microporcesadores por lo querespecta a su velocidad en MegaHerzios

El otro factor es el procesamiento en paraleloque se ilustra en la figura 4 para las anchuras decanal más corrientes. Se entiende por procesamientoen serie la transmisión de datos en modo secuencial.Y se entiende por procesamiento en paralelo unmodo de conexión, interna o externa, en el que losdatos o los procesos se transfieren o se desarrollansimultáneamente en paquetes de tamaño prefijado.La anchura del canal o bus de transmisión se midetambién en bits y puede calcularse la capacidad delcanal elevando 2 al exponente dado por esta an-chura. Los primeros procesadores contaban conbuses internos de 4 bits; esta cifra ascendió prontoa 8, luego a 16 y luego a 32 o 64 bits que es eltamaño de bus de los modernos procesadores y quepermite direccionar como mínimo 232 bits frente alos 28 de los procesadores primitivos. Todo esto esbastante parecido a lo que ocurre con los carrilesde las autopistas; es evidente que cuanto más carri-les haya más coches podrán circular; algo similarocurre con el procesamiento en paralelo.

El término paralelismo a venido a significar,por extensión, una organización o estructura queenfatiza las conexiones simultáneas como modo deaumentar la velocidad de transferencia de los da-tos. El procesamiento en paralelo es un tema decontroversia a nivel teórico pues, por un lado, seconsidera el único modo de franquear barrerascuantitativas por lo que respecta a la capacidad de

los ordenadores para gestionar volúmenes ingen-tes de información mientras que, por otro lado, im-pone una presión difícilmente superable sobre losnúcleos de control. La discusión admite una analo-gía con las actividades humanas pues es evidenteque muchas personas trabajando a la vez en unamisma tarea avanzan con mayor rapidez, hasta cier-to punto en el que la coordinación es difícil de man-tener.

La velocidad real depende de muchos otros fac-tores que no pueden tenerse en cuenta en esta pre-sentación sumaria. Los programas de CAD que fun-cionan sobre plataformas potentes miden su rendi-miento en MIPS, siglas de Millions of Instructionsper Second, millones de instrucciones por segun-do. Es uno de los parámetros que se utilizan paraevaluar el rendimiento de un ordenador y que pue-den dar una idea más exacta de su velocidad real.En el caso de los PCs los datos se refieren compa-rativamente al rendimiento de un VAX 11/780. Seestima que un i386/16 tenía un rendimiento de 4mips; un i386/20, 5.6 mips; un i386/25, 8.5 mips;un i386/33, 11.4 mips; un i486/33, 27 mips; uni486/50, 40 mips. Los Pentium están por encimade los 100 mips. Al igual que ocurre con la veloci-dad de sincronismo, medida en MegaHerzios, debetenerse en cuenta sin embargo que este no es sinoun factor que se debe tener en cuenta junto conotros factores. También se utiliza como unidad demedida, sobre todo en grandes ordenadores, losFLOPS, acrónimo de FLOating Point operationsper Second, operaciones en coma flotante por se-gundo. El Cray-2, fabricado en 1986, un famososuperordenador, tenía un rendimiento de 1Gigaflop, es decir mil millones de operaciones encoma flotante por segundo. El rendimiento de losmás potentes ordenadores actuales se mide enTeraflops y algunos expertos consideran que se al-canzará la cifra de los 1000 Teraflops en la prime-ra década del 2000. Las máquinas más rápidas deque se tenía noticia a finales de 1998 eran el Intel/Sandia con una velocidad de 1,8 Teraflops propor-cionada por 9.152 Pentiums en paralelo y el BluePacific de IBM, con una velocidad de 3.9 Teraflopsproporcionada por 5.865 procesadores (15.000veces la velocidad de un PC corriente). Nec anun-ciaba por estas fechas la próxima aparición del SX-5, capaz de procesar a 4 Teraflops.

1

1

8

2.5×

102

16 32 64 128

6.5×

104 9

4.2×

10

1.8×

1019 38

3.4×

10

Figura 4 Volumen de información transmitido enparalelo con diferentes anchuras de canal

Page 60: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 59

Codificación y normalización

La enorme capacidad de almacenamiento y veloci-dad de procesamiento de los ordenadores moder-nos permite que cualquier tipo de dato, sea un tex-to o una imagen, sea traducido a bits de modo prác-ticamente simultáneo. Puede imaginarse este pro-ceso como algo que tiene lugar a lo largo de milesde carreteras microscópicas con millones de puer-tas que se abren y cierran automáticamente de talmodo que el tráfico va adquiriendo una forma pre-cisa en cada instante. Esta forma es la que adoptala información transmitida. Su codificación elemen-tal, la accesible en última instancia por los progra-madores, es una serie de datos que se representancomo series de 0s y 1s

El proceso de conversión de todo tipo de datoen dato informático se denomina digitalización. Lostérminos "análogo" y "digital", como los términos"átomo" y "bit" han venido a significar en la litera-tura informática lo que caracteriza al mundo físicopor un lado y al informatizado por otro. La repre-sentación en modo análogo es la representaciónde datos en un rango de valores continuo, no enu-merable, fenoménico, propio de las cosas reales talcomo se nos aparecen. La representación analógicareproduce efectos característicos, vibraciones o mo-vimientos, del objeto representado. La representa-ción en modo digital es la representación de datosen un rango de valores discreto, enumerable,cuantificable.

El sistema binario es el sistema de numeraciónen que se basan todos los ordenadores pues se adap-ta de modo directo al "lenguaje propio" del orde-

nador. Cualquier dato o instrucción es traducidoen última instancia a lenguaje máquina que con-siste exclusivamente en series de 0s y 1s. Los 0 seconvierten en señales de bajo voltaje relativo. Los1 se convierten en señales de alto voltaje relativo.Las diferencias de voltaje pueden ser del orden delos 5 voltios.

En la práctica, los programadores utilizan el len-guaje hexadecimal, sistema de numeración en base16, debido a que permite representar potencias de2 de un modo compacto; un programa interno tra-duce los números hexadecimales a binarios. Losprimeros 16 números hexadecimales se represen-tan como

0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F

El número decimal 17 es F0. También se utiliza, ose utilizaba, más raramente, en algunas aplicacio-nes informáticas, el sistema octal, un sistema denumeración en base 8.

La codificación requiere un código universal-mente aceptado que permita compartir datos entrediferentes ordenadores. Existen diversas institucio-nes, que colaboran en este sentido. La principal esla ISO, siglas de International StandardsOrganization, ("Organización Internacional deNormalización") fundada en 1946 con la finalidadde racionalizar las unidades de medida y los patro-nes utilizados por diversas industrias. Actualmentetiene su sede en Ginebra, agrupa a unos 80 países ycuenta con más de 160 comités y alrededor de 2.200subcomités y grupos de trabajo. El concepto clavede estos acuerdos y de muchos otros que están porllegar es, desde un punto de vista informático, loque se denomina portabilidad, y que puede

72

1001000

H O AL79 6576

414C4F48

1001111 10000011001100

Figura 5 Codificación ASCII de la palabra"hola" en decimal, hexadecimal y binario

48 57 65 90 97 122

0 9 A Z a z4 6 126 135 163 167

• — ~ ‡ £ §169 174 176 177 181 182

© ® ° ± µ ¶188 190 215 216 222 223

¼ ¾ × Ø Þ ß

Figura 6 Códigos ANSI correspondientes adiferentes caracteres

Page 61: [Architecture eBook] Aplicaciones as en Arquitectura

60 Aplicaciones informáticas en arquitectura

definirse como la capacidad de un programa parafuncionar en diferentes tipos de plataformas.

La normalización es, por consiguiente, la regu-larización de la forma en que se presenta un deter-minado soporte físico o lógico. La normalizaciónes una liberación para los usuarios y una victoria ouna derrota para los productores. La historia de lainformática (como la de otras historias) puede con-tarse como la historia de unos productos para im-poner su norma sobre otros. En cada momento deesta historia hay unas normas oficiales y unas nor-mas de hecho que luchan por convertirse en oficia-les. Las normas oficiales, por otro lado, puedenconvertirse en obsoletas si no son aceptadas porgrupos industriales poderosos. Algunas de las prin-cipales instituciones que emiten normas reconoci-das son, además de ISO, ANSI (consultar el glo-sario), CCITT (id), o IEEE (id). Las normas afec-tan a códigos tales como el código ASCII (id) o elcódigo EBCDIC (id) o el código UNICODE (id) oa protocolos de organización de programas talescomo el PHIGS, interfaces de hardware como elRS-323 o medios de almacenamiento.

La figura 5 muestra la codificación de la pala-bra "hola" en código ASCII y en los sistemas deci-mal, hexadecimal y binario. La parte inferior de lafigura muestra la representación de distintosvoltajes que estarían asociados a la representaciónbinaria. Si se trabaja con el sistema operativoMSDOS o MSWindows se obtiene el mismo re-sultado pulsando las letras correspondientes que sise introduce su código. Para introducir el códigode un carácter ASCII basta teclear el número co-rrespondiente mientras se mantiene apretada la te-cla Alt.

Como la tabla de codificación admite hasta 256caracteres hay bastantes más disponibles aparte delos usuales, una ventaja interesante que pocos usua-rios aprovechan. Debe tenerse en cuenta, sin em-bargo, que bajo MSWindows se utiliza el códigoANSI que es una variante del anterior en el que lacodificación de los caracteres corrientes, númerosy letras, es idéntica a la codificación ASCII, perolos caracteres menos usuales pueden tener códigosdistintos. Para introducir el código de un carácterANSI hay que teclear el número correspondiente,precedido de un "0" mientras se mantiene apretadala tecla Alt. La figura 6 muestra los códigos co-rrespondientes a letras y números corrientes (en estecaso los códigos son correlativos) y a otros signosmenos corrientes pero que pueden resultar de utili-dad.

2 El soporte lógico

El soporte lógico o software de un ordenador de-signa a sus componentes operacionales, esto es, alos programas que lo hacen funcionar, entre los quedeben situarse en primer lugar las rutinas integra-das en la placa base así como las propias de lascontroladoras de periféricos, en segundo lugar elsistema operativo y, por último, los programas deaplicación que almacena o puede almacenar un or-denador. El término soft, significa literalmente"blando", por contraposición a hard, hardware,"duro"; ware significa "artículo, mercancía". Elsoftware y el hardware pueden considerarse las dospartes principales de un ordenador, algo así comosu forma y su materia. La traducción que aquí se haadoptado es la de "soporte lógico" frente a "sopor-te físico". Los términos más utilizados siguen sien-do los de hardware y software.

La codificación dota de un léxico a los progra-madores. Si existe la posibilidad de que este léxicose traduzca en última instancia en modificacionesreales de un dispositivo físico, están puestas lasbases para lo que se denomina programación, unasecuencia o conjunto de operaciones, estructuradasde tal modo que puedan realizarse de modo auto-mático para llevar a cabo una acción determinada.Un programa consta básicamente de una función orutina principal, que organiza toda una serie de fun-ciones, rutinas y subrutinas secundarias. Las fun-ciones pueden haberse creado con anterioridad, seapor el propio usuario, sea por otros desarrolladores,y estar disponibles para el programador que puedeconcentrarse en el modo de relacionarlas entre sí.Para llevar a cabo todo esto se necesita un lengua-je de programación que permita formalizar todo elproceso. El resultado final es la creación de un pro-grama de aplicación. Un programa de aplicación,esto es, un programa destinado a resolver proble-mas específicos de un determinado sector de tra-bajo, puede considerarse como un programa deprogramas, un programa que articula diferentes ti-pos de ordenes, a menudo más de un centenar, cadauna de las cuales realiza una tarea específica y puedeincluso haber sido desarrollada por un programa-dor especializado.

La programación de los últimos años está cadavez más apoyada en funciones y desarrollos pre-vios que pueden tratarse como módulos unitarios.Se conoce por programación estructurada la or-ganización explícita de un programa en módulos

Page 62: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 61

relativamente independientes que son llamadossecuencialmente por un módulo principal. Un pasomás en la dirección de dar autonomía a los módu-los, que supone variaciones importantes con res-pecto a la programación estructurada es la orien-tación a objetos, un desarrollo relativamente re-ciente que introduce conceptos y técnicas nuevasque aumentan la flexibilidad de la programación ysus posibilidades.

Veamos todo esta evolución con mayor detalle.El concepto fundamental es el de algoritmo, queya hemos visto en el capítulo anterior: una secuen-cia de operaciones programadas que resuelven unproblema genérico. Como vemos, la definición esla misma que la de programa y lo único que separaa ambos conceptos es el número y complejidad delas operaciones implicadas, así como el hecho deque en los programas datos y operaciones siguencursos muy diferenciados. Puede decirse que laconstrucción de algoritmos constituye la base de laprogramación.

Un algoritmo que se repite una y otra vez endiferentes contextos se denomina una rutina. Lasrutinas pueden contener subrutinas, algoritmos aúnmás elementales que también se repiten del mismomodo. Las rutinas que cumplen una finalidad de-terminada se denominan también funciones y escorriente que se almacenen por separado, en bi-bliotecas de funciones, de modo que puedan serllamadas fácilmente por un programdor para inte-grarlas en el programa que está escribiendo.

Las operaciones elementales que se llevan real-mente a cabo al final de esta cadena se basan enbuen medida en la aplicación de una lógicabooleana que, como hemos recordado en el capí-tulo anterior, se denomina así en homenaje al siste-ma desarrollado por el matemático inglés GeorgeBoole (1815-64) en su obra The laws of Thought(1854), ignorado en su época, y que constituye unabase fundamental para los ordenadores actuales.Las operaciones básicas de la lógica booleana sehan descrito también en el capítulo anterior asícomo su automatización por medio de "puertas ló-gicas" formadas por grupos de 2, 3 o 4 transisto-res. Estas operaciones tienen lugar principalmenteen la ALU, siglas de Arithmetic and Logic Unit,"Unidad aritmética y lógica", la parte principal dela unidad central de un ordenador en donde se rea-lizan las operaciones básicas.

Lenguajes

Si se cuenta con la posibilidad de realizar opera-ciones elementales que, concatenadas dan lugar afunciones elementales y se cuenta además con laposibilidad de codificar los datos en el mismo có-digo que las funciones y de relacionar datos y fun-ciones por medio de reglas precisas (que son a suvez funciones) se cuenta con un léxico y una sin-taxis. Es decir se cuenta con las bases para un len-guaje. Un lenguaje informático está compuesto, aligual que un lenguaje natural, por un léxico, unasreglas sintácticas y unas reglas semánticas. El léxi-co es una colección de palabras claves o palabrasválidas, que están registradas como tal en el len-guaje. Las reglas sintácticas especifican el ordenen que deben aparecer los términos y cuentan consignos auxiliares que permiten formar sentencias yexpresiones. Las reglas semánticas especifican elsignificado de los términos del léxico y de sus po-sibles combinaciones.

Los lenguajes informáticos se clasifican corrien-temente en lenguajes de bajo nivel y de alto nivel.Un lenguaje de bajo nivel no es un lenguaje llenode palabras soeces sino uno que se formula de unmodo muy similar a como funciona la máquina yque cuenta con un número muy reducido de térmi-nos, lo que obliga a emplear un gran número decombinaciones sintácticas para formar expresiones.El dibujo de una línea, por ejemplo, puede reque-rir muchas líneas de código para ser efectivo. Loslenguajes de más bajo nivel son el lenguaje máqui-na y el lenguaje ensamblador.

Un lenguaje de alto nivel cuenta con mayor nú-mero de términos y, por añadidura, con un grannúmero de términos compuestos (funciones aso-ciadas) lo que le permite crear expresiones muysintéticas. El dibujo de una línea, para seguir conel ejemplo, puede requerir no más de cuatro o cin-co líneas de código en un lenguaje de alto nivelgracias al recurso a una función previamente espe-cificada que, a su vez, puede ser relativamente bre-ve y hacer poco más que llamadas a subfuncionesde interacción con el sistema gráfico.

Los programas de aplicación pueden contar tam-bién con lenguajes de alto nivel asociados que per-miten al usuario crear macros o incluso ordenesadicionales mediante la combinación de términosválidos que se apoyan a su vez en los términos dellenguaje de alto nivel en que se ha creado la apli-cación, que se apoyan a su vez en los términos pro-

Page 63: [Architecture eBook] Aplicaciones as en Arquitectura

62 Aplicaciones informáticas en arquitectura

pios del lenguaje de bajo nivel asociado a la má-quina específica que se está utilizando. Hay tam-bién lenguajes intermedios que pueden ser utiliza-dos por varias aplicaciones que compartan unamisma plataforma de modo que tanto losdesarrolladores de programas como los usuariospuedan acceder a ellos. Ejemplos de esto son ellenguaje GL de Silicon Graphics en que se basa elOpen GL que permite crear con relativa facilidadaplicaciones gráficas que funcionan bajo Windows.

El lenguaje de más bajo nivel, más cercano alsoporte físico, de todos los lenguajes de programa-ción existentes, es el lenguaje máquina. El lengua-je máquina son ristras de 0s y 1s que se traducen adiferencias de microvoltaje y a caminos cerrados oabiertos. Los primeros programadores que utiliza-ron el sistema binario escribían sus códigos en len-guaje máquina lo que supone una proeza difícil deimaginar y una limitación importante a la hora derefinar o revisar los programas. Pronto se introdu-jo un simbolismo básico que permitía representarlargas series de 0s y 1s por palabras de tres o cua-tro letras (en lenguaje ensamblador) y un progra-ma capaz de traducir estos símbolos a lenguaje má-quina y de detectar errores sintácticos y, posterior-mente, lógicos, denominado compilador. Cada fa-milia de máquinas necesita un compilador especí-fico que traduzca los códigos del lenguaje a opera-ciones físicas concretas. Todos los ordenadores queutilizan procesadores de la familia 8086 de Intel,por ejemplo, utilizan el mismo lenguaje máquina.

En un nivel inmediatamente superior al lengua-je máquina está el lenguaje ensamblador. Cadaorden o sentencia en lenguaje ensamblador se tra-duce a una sentencia equivalente al lenguaje má-quina pero el lenguaje ensamblador utiliza símbo-los que pueden ser fácilmente memorizados en lu-gar de ristras de 0s y 1s. Por esta razón los lengua-jes ensambladores concretos son dependientes delhardware y, aunque hay un lenguaje ensambladorgenérico, con códigos comunes, cada máquina con-creta requiere desarrollos distintos. Los códigos dellenguaje ensamblador son traducidos a lenguajemáquina por el compilador.

Para que los símbolos utilizados por el lenguajeensamblador o cualquier otro lenguaje de superiornivel puedan ser traducidos a lenguaje máquina senecesita, como ya hemos avanzado en los dos pá-rrafos anteriores, un lenguaje o programa interme-dio denominado compilador. Es un programa quetraduce lenguajes de alto nivel a lenguaje máqui-

na, detecta errores sintácticos y lógicos y generaun programa ejecutable. Todos los lenguajes prin-cipales de alto nivel van provistos de compiladores.

A partir de aquí pueden crearse diferentes len-guajes de programación. La figura 7 muestra uncuadro que resume los diferentes tipos de lengua-jes y la figura 8 un cuadro que resume la evoluciónde los principales que se usan en la actualidad. Elprimer programa de uso generalizado fue elFORTRAN, acrónimo de FORmula TRANslation.Fue introducido en 1954 por IBM, se considera elprimer lenguaje de alto nivel desarrollado de unmodo efectivo y sigue siendo uno de los principa-

LENGUAJE NATURAL

APLICACIÓN SISTEMA OPERATIVO

LENGUAJE INFORMÁTICO DE ALTO NIVEL

LENGUAJE ENSAMBLADOR

LENGUAJE MÁQUINA

BLOQUES LÓGICOS

CIRCUITOS INTEGRADOS

(5000-25000 palabras, sintaxis flexible)

(300-700 palabras, sintaxis estricta)

(50-90 palabras, sintaxis estricta)

(20-40 palabras primarias (keywords))

(10-20 palabras-instrucciónen símbolos-letra)

(10-20 palabras-instrucciónen binario)

(Docenas de palabras secundarias en bibliotecas de funciones)

Figura 7 Ordenación de lenguajes deprogramación por su mayor o menor cercanía al

lenguaje humano o al lenguaje máquina

Page 64: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 63

les lenguajes de programación, principalmente enáreas relacionadas con la matemática, la ingenieríay las aplicaciones científicas en general. Fue unacreación conjunta de varios científicos entre ellosRuitzhauser, en 1951, para la calculadora Zuse 4,Murray Hopper, en 1952, para el compilador A0utilizado en el ordenador UNIVAC, y De Carlo, en1954, para el IBM 701.

El Fortran era un lenguaje difícil de manejar.Para extender y facilitar el uso de la informática secreó el BASIC, acrónimo de Beginners All purposeSymbolic Instruction Code, ("código de instrucciónsimbólica de carácter general para principiantes").Fue desarrollado por los profesores John Kemenyy Thoms Kurtz a mediados de los 1960 enDartmouth College. Está considerado como el len-guaje de programación más fácil de aprender y uti-lizar, si bien carece de las ventajas y la potencia delenguajes como Fortran, Pascal o C. Su estructuraes pobre y es poco compacto lo que genera progra-mas poco eficientes para aplicaciones profesiona-les si bien sigue utilizándose extensamente. Otrolenguaje que surgió por esta misma época fue elCOBOL, acrónimo de Common Business OrientedLanguage, ("lenguaje común orientado a los nego-cios"), un lenguaje de programación utilizado demodo principal en aplicaciones comerciales y ges-tión de empresas. Fue uno de los primeros lengua-jes de alto nivel, introducido en los 1960 y tieneuna sintaxis más desarrollada que otros lenguajeslo que lo hace fácilmente legible.

A comienzos de los 1970 surgió un nuevo con-cepto, la programación estructurada, que implica-ba una ascensión de nivel, es decir la posibilidadde organizar los programas a partir de módulos,algo así como superfunciones o pequeños progra-mas que podrían ser llamados en el momento enque se necesitasen por el programa principal. Elprimer lenguaje en que se implantó este conceptofue el PASCAL, un lenguaje de programación dealto nivel desarrollado a comienzos de los 1970por el profesor suizo Niklaus Wirth. De relativa-mente fácil aprendizaje, con programaciónestructurada y una sólida estructura lógica, se con-virtió en el lenguaje de programación favorito enlas universidades. El nombre fue dado en honor deBlaise Pascal (1623-1662) que, como vimos en elcapítulo anterior, inventó lo que quizá fue la pri-mera máquina de calcular conocida, en 1642.

A finales de los 1970 surgiría el C, desarrolladopor Brian W. Kernighan y Dennis M. Ritchie en

1978 en los Laboratorios Bell. Estaba basado en ellenguaje B, escrito por Ken Thompson en 1970,como derivación del lenguaje BCPL derivado a suvez del APL; el nombre "C" hace honor a estosantecesores. Desde mediados de la década de los1980 se ha convertido en el lenguaje principal conel que se desarrollan la mayoría de los programascomerciales, incluidos los principales que se utili-zan en aplicaciones informáticas en la arquitectu-ra. Es un lenguaje de alto nivel pero que se aproxi-ma a un lenguaje de bajo nivel, lo que permite ge-nerar programas muy compactos y eficaces a costade una mayor dificultad de sintaxis.

A principios de los 1980, apareció el C++, ver-sión avanzada del lenguaje C, orientado a objetos,creado en 1983-85 por Bjarne Stroustrup, en AT&Bell Laboratories a partir del desarrollo de la no-ción de "clase" incorporada al lenguaje C hacia1980. El Object Oriented Programming, "progra-mación orientada a objetos" es otro concepto queimporta presentar en la medida en que supone elnivel más alto hasta la fecha de condensación defunciones en una entidad unitaria. El término sur-gió a principios de los setenta con un lenguaje deprogramación denominado SIMULA si bien el pri-

1950

1960

1970

1980

1990

2000

Algol

Pascal

Modula2

Modula3

Simula

Small Talk

C++ Ansi C

C

B

BCPL

APL Fortran I

Fortran IV

Basic

Fortran 77

Lisp

Prolog

Common Lisp

AdaEiffel

C++C VBasic

Fortran LispProlog

Quick Basic

Java

Java

Figura 8 Evolución histórica de los principaleslenguajes de programación

Page 65: [Architecture eBook] Aplicaciones as en Arquitectura

64 Aplicaciones informáticas en arquitectura

mer paso importante no se dio hasta los ochenta yel primer lenguaje de uso extendido creado con estanueva filosofía fue SmallTalk desarrollado por laXerox. El lenguaje C++ es en la actualidad el prin-cipal lenguaje orientado a objetos con que cuentanlos desarrolladores.

Tanto el Basic, como el Pascal, como el Delphi,cuentan en la actualidad con versiones específicas,Visual Basic, Delphi y Visual C++, respectivamen-te, que facilitan la programación bajo Windows de-bido, por un lado, a la situación hegemónica de estaplataforma y, por otro lado, a la dificultad de ma-nejar los cientos de funciones implicadas en el par-ticular funcionamiento de este entorno. Estas ver-siones facilitan la tarea por medio de macros y fun-ciones predefinidas que permiten al programadordespreocuparse, hasta cierto punto, por conocer endetalle el funcionamiento interno del sistema so-bre el que va a correr su aplicación.

Otros lenguajes dignos de mención son elPROLOG, acrónimo de PROgramming in LOgic("programación en lógica") un lenguaje de progra-mación utilizado en Inteligencia Artificial, desarro-llado en Marsella en 1972 por Colmenauer yRoussel principalmente, con importantes contri-buciones de Kowalski desde Edinburgo, entre otros.Y el LISP, acrónimo de LISt Processing, ("proce-samiento de listas"), un lenguaje de programaciónde alto nivel desarrollado, en su primera versión,hacia 1960, por John McCarthy. Es uno de los prin-cipales o quizá el principal lenguaje de programa-ción, junto con PROLOG, utilizado en InteligenciaArtificial. Hay muchas variedades de LISP que hansido desarrolladas, la principal de las cuales es elCommon Lisp. La variedad simplificada AutoLisp,utilizada por AutoCad, ha contribuido a la grandifusión de este programa al permitir a los usua-rios avanzados desarrollar ordenes propias median-te este lenguaje que está integrado directamente enel programa general.

En 1995 se presentó el lenguaje JAVA que lan-zaría su primera versión comercial al siguiente año.Java fue concebido y desarrollado por JamesGosling, Patrick Naughton, Chris Warth, Ed Franky Mike Sheridan, a partir de 1991, en SunMicrosystems. La primera versión se desarrolló enunos 18 meses y de ahí nació una primeraimplementación que se llamó "Oak", nombre quese cambió a "Java" en 1995, según parece en ho-menaje "al alimento primordial de los programa-dores" (el café). Muchos otros colaboraron en la

primera versión comercial. En 1999 se ha conver-tido en el lenguaje de programación más utilizadoen todo el mundo, junto con C++, debido que reinasin competidores en cualquier aplicación que fun-cione sobre Internet.

Sin embargo este no fue su primer objetivo: loque se pretendía era crear un lenguaje de progra-mación que fuera independiente de los dispositi-vos físicos con los que fuera a funcionar. Y esto eslo que se consiguió: a diferencia de los lenguajesanteriores, que requieren de un compilador que tra-duzca su código al del tipo de máquina sobre laque va a funcionar, Java es independiente de la pla-taforma física. La compilación genera un formatobinario, independiente de la plataforma, que puedeser transportado con mucha mayor facilidad quelos anteriores. Todo lo que se requiere es que elordenador tenga instalada una "máquina virtualJava", algo que ocurre actualmente con todos losnavegadores de Internet, razón por la que este len-guaje se ha convertido en pocos años en el favoritode los internautas y ha dado lugar a cientos deapplets (pequeñas aplicaciones que funcionan enInternet).

Pero por añadidura, Java es un lenguaje orien-tado a objetos con una estructura que permite ma-nejar de un modo adecuado la gran complejidadde las aplicaciones actuales. Puede decirse que per-tenece a un linaje con una cierta continuidad histó-rica. Así como C tomó lo mejor de B, BCPL y APLy C++ amplió la sintaxis y el léxico de C con lanoción de "clase", y todo lo implicado por estanoción, esto es, el paso a la programación orienta-da a objetos, Java está basado en la sintaxis de C yen la estructura de programación de C++. Es unlenguaje que resulta fácil de aprender si se cuentacon una buena familiaridad con estos programas yque resulta más simple, pues su gestión de memo-ria es menos engorrosa. Esto es una ventaja queconlleva un inconveniente: Java no puede sacar elmáximo partido de una máquina concreta, comoocurre con C++, y de ahí que resulte más lento (de10 a 20 veces más que una aplicación equivalenteen C++). Pero este inconveniente puede ser bas-tante llevadero en muchos casos y palidece frentea dos grandes ventajas: el ser un programa orienta-do a objetos con toda la potencia estructural y lascapacidades de C++ y, sobre todo, su independen-cia de la plataforma, lo que le permite moverse conlibertad por Internet.

Page 66: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 65

Programas

Los lenguajes de programación sirven, en fin, comoya hemos dicho, para construir un programa deaplicación. Un programa de aplicación es un pro-grama informático escrito con una finalidad deter-minada. Ejemplos de aplicaciones característicasson: el procesamiento de textos, las hojas de cálcu-lo, los programas de diseño asistido que permitengenerar dibujos automatizados, modeladosgeométricos y renderings, los programas de cálcu-lo de estructuras, etc. Un programa de aplicación,descrito de un modo muy sumario, no es sino unacolección de palabras clave que llama a otras pala-bra clave que a su vez llaman a otras palabras cla-ve. Al final, se activan una serie de rutinas básicasque efectúan operaciones tales como transferir undato de una posición a otra, sumar, multiplicar odividir datos, concatenarlos, etc.

Los programas actuales dedican una gran partede sus recursos a lo que se denomina interface. Elinterface o la "interfaz" de un programa es un con-junto de mecanismos que no tienen otra finalidadque favorecer el manejo del programa. En el si-guiente analizaremos los recursos de interfaz quese encuentran habitualmente en un programa deCAD. Estos recursos son muy similares a los quese encuentran en cualquier otro tipo de programacon algunas adiciones específicas.

3 El soporte físico

El soporte lógico puede desarrollarse con indepen-dencia del soporte físico y, de hecho, la parte prin-cipal de los programas actuales se basa en descu-brimientos y teorías que existieron mucho antes quelos ordenadores. Pero un soporte físico potentepermite llevar a cabo con increíble rapidez tareasque requerirían movilizar una cantidad ingente deesfuerzo y recursos. Conocer las características delsoporte físico que vayamos a emplear es, ni más nimenos, que conocer las posibilidades que tenemosde realizar determinadas tareas en un tiempo razo-nable.

Las especificaciones y descripción de caracte-rísticas del hardware se dan en términos del tipode plataforma, características de los procesadoresque lo constituyen y número y variedad de éstos,velocidad y capacidad de almacenamiento. Revi-saremos sumariamente estas nociones.

Tipos de plataformas

Lo primero que se debe comenzar por aclarar esque hay diversos tipos de ordenadores, algunas decuyas características son comunes y otras no. Co-mencemos por precisar los términos. Un ordena-dor es un galicismo utilizado, principalmente enEspaña, para referirse a un computador, o compu-tadora, es decir, un anglicismo utilizado sobre todoen America Latina pero que también aquí es de usocorriente. Puede definirse como un conjunto de dis-positivos, mecánicos y electrónicos, con capacidadpara tratar y almacenar información de modo auto-mático por medio de algoritmos y programas inte-grados en él. El término "ordenador" proviene delfrancés ordinateur y fue propuesto en 1954 por elprofesor Jacques Perret, a instancias de IBM, paradenominar a las nuevas máquinas, por referencia,según parece, a la cita teológica "Dieu, GrandOrdinateur du Monde".

Aunque estos términos están comenzando a que-dar obsoletos, aún se distingue entre mainframes,minis, workstations y PCs. Un mainframe, literal-mente "marco principal" o "estructura principal"se puede definir como una macrocomputadora. Esun término que proviene de la época anterior a losPCs cuando todos los sistemas informáticos con-sistían en una gran máquina, alojada en un recintoespecial y de la que colgaban numerosos estacio-nes de trabajo. En esta época sólo había 8 empre-sas que fabricaran máquinas de este calibre y se lesconocía como IBM y los siete enanitos (Burroughs,Control Data, GE, Honeywell, NCR, RCA yUnivac).

Los primeros mainframes ocupaban salas ente-ras y, por contraste, se denomina o se denominabamini a una computadora de mediana escala, menorque un mainframe y mayor que un PC que funcio-na generalmente como servidor de varias docenaso incluso cientos de terminales. La primera o másconocida minicomputadora fue la PDP-1 fabrica-da por Digital en 1959. Otro modelo famoso fue elVAX, siglas de Virtual Address Extension, "exten-sión de direcciones virtuales", una familia de orde-nadores de 32 bits producida por Digital EquipmentCorporation que apareció en 1977 con el modeloVAX-11/780 y que se impuso como uno de los pro-ductos principales dentro del mundo de lasminicomputadoras en la década de los ochenta. Esel modelo que se utilizaba hasta hace muy poco enel centro de cálculo de la ETS de Arquitectura de

Page 67: [Architecture eBook] Aplicaciones as en Arquitectura

66 Aplicaciones informáticas en arquitectura

Barcelona. Una workstation, "estación de traba-jo" es un ordenador de gran potencia que, por logeneral, cuelga de un servidor (un mini) aunquepuede funcionar de modo independiente. Para com-prender hasta que punto son relativos todos estosconceptos baste recordar que Windows 95 que fun-ciona sobre casi cualquier PC, es aproximadamen-te 3 veces mayor que el sistema operativo System /360 de IBM que se introdujo en 1960 con el quefuncionaban los mainframes más potentes de aque-lla época de los que colgaban unas cuantas doce-nas de terminales.

El término plataforma alude al mismo tipo dediferencias. Se denomina así a la configuración ca-racterística de un ordenador atendiendo principal-mente a la arquitectura de la placa base. Aunque eltérmino se refiere básicamente al soporte físico,implica en primer lugar el sistema operativo por loque a menudo se designan las plataformas por eltipo de sistema operativo utilizado o de un modoambiguo que incluye ambos conceptos. Se distin-guen corrientemente, en este sentido, 3 tipos prin-cipales de plataformas: PC (70 millones de ventaestimada hasta 1993 en USA), Macintosh (unos 10millones) y Unix (en torno a 1 millón). Estas cifrashan aumentado aún más espectacularmente, a fa-vor de los PCs, en los últimos años. Los tipos des-critos en el párrafo anterior funcionan principal-mente con el sistema operativo Unix, los PCs fun-cionan con el sistema operativo MSDos y con elentorno Windows que describiremos más adelan-te.

Se denomina PC, siglas de Personal Computer,"ordenador personal" a un ordenador autónomo,que no depende de un servidor central. El primerordenador personal fue el Altair, fabricado por unapequeña compañía de Albuquerque, New Mexico,con un coste de $397, basado en procesador Intel8080 con 256 bytes de memoria. Ese mismo añoaparecieron otros modelos: Apple, Commodore,Radio Schack, Apple II, Hatari 500 fueron algunasde las marcas que lanzaron productos en esta línea.Contaban con un procesador de 8 bits (los actua-les son de 32 y 64) y podían alcanzar hasta 64 Kbde memoria principal (los actuales cuentan con 8,16, 32, 64 o 128 Mb). En 1981 IBM presentó elprimer PC basado en el procesador Intel 8088 queera sólo algo más rápido que sus predecesores perocontaba con una memoria principal 10 veces supe-rior. Utilizaba el sistema operativo MSDOS quetambién podía ser utilizado por otros ordenadores.

Algunos de los principales programas de gestión,como la base de datos dBase o la hoja de cálculoLotus 1-2-3, aparecieron pocos meses después.Hacia 1983 aparecieron los primeros clónicos, co-pias de los modelos de IBM, y Apple presentó laLISA, un ordenador que funcionaba en modo grá-fico y que presentaba los archivos en modo desktop,imitando una mesa de escritorio tradicional. Al añosiguiente, en 1984 IBM sacó el AT y Apple a suvez presentó el primer modelo Macintosh. Este añopuede considerarse como el año en que los ordena-dores personales, capaces de trabajar en modo grá-fico, y más fáciles de utilizar por usuarios con es-casa experiencia, irrumpieron de modo espectacu-lar en el mercado.

La historia que sigue está marcada en buenamedida por la aparición de los denominados orde-nadores clónicos y por la guerra comercial a quedieron lugar. Un clon es, en biología, un conjuntode seres que descienden de un único individuo yconserva su herencia genética. Se denominaron asía los primeros PCs que copiaron la tecnología delos PCs de IBM. Por extensión, se aplica el térmi-no a cualquier procesador o sistema físico que hayaconseguido copiar la tecnología de otro conocido,sin diferencias apreciables en cuanto a su rendi-miento y esquivando los impedimentos legales.

En 1986 Compaq presentó el primer ordenadorpersonal basado en el intel 386. En 1987 IBM pre-sentó la serie PS, una generación de ordenadoresmás potente y equipada para trabajar con gráficos,con la que pretendía responder al creciente avancede sus competidores. En ese mismo año Apple pre-sentó la serie Mac SE y Mac II. En 1989 aparecióel intel 486. Significativamente, este nuevoprocesador apareció simultáneamente tanto en or-denadores de grandes firmas como en ordenadoresclónicos. La hegemonía de los grandes se derrum-baba. Como respuesta, Apple e IBM se asociaronpara fabricar el Power PC un nuevo tipo de orde-nador personal de gran calidad, basado en tecnolo-gía RISC.

A finales de 1999 hay tres empresas que prácti-camente monopolizan el mercado de chips paraPCs: Intel, AMD y Cyrix. Estas dos últimas produ-cen chips algo más baratos que los Intel que siguesiendo la principal productora. En 1998 se vendie-ron en Europa 30.3 millones de ordenadores per-sonales. De estos, un 79% iban equipados con Intel,un 13% con AMD, un 5% con Cyrix y un 3% conIBM/IDT.

Page 68: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 67

Los ordenadores personales se distinguen bási-camente, en primer lugar, por el tipo de platafor-ma, en segundo lugar, por el tipo de procesador, yen tercer lugar, por su configuración específica.Desde el punto de vista de la plataforma, puedehablarse de dos tipos principales, los PCs propia-mente dichos, que funcionan con el sistema opera-tivo MSDOS y una infinidad de programas de apli-cación, y los Apple Macintosh, que funcionan conel sistema operativo System 7 y una variedad másrestringida de programas. La tercera plataformaprincipal que hemos mencionado más arriba, losordenadores que funcionan bajo el sistema opera-tivo UNIX comprende principalmente ordenado-res no personales, es decir sistemas servidor/ter-minal que agrupan a varios usuarios. En lo que si-gue nos referiremos principalmente a los PCs ensentido estricto, esto es, ordenadores que funcio-nan bajo MSDOS o bajo MSWindows.

Desde el punto de vista del procesador puedehablarse de generaciones de PCs, cada una de ellasmás potente y rápida y comparativamente más ba-rata que la anterior. Todos los PCs han estado ba-sados hasta la fecha en procesadores Intel y la his-toria de ambos productos es indisociable. Los pri-meros PCs de IBM o basados en él se denomina-ban también XT (eXtended Technology, basado enel i8086), y AT (Advanced Technology, basado enel i80286). Las características principales son lassiguientes (los mips son muy aproximados y sebasan en estimaciones indirectas)

Proc.: Fecha: Trans.: Bus: MHz: Mips:

8086 1981 --- 16 6 ...80286 1984 135.000 16/20 6/10 ...80386 1985 275.000 32 16/33 1080486 1989 1.200.000 32 33/66 40Pentium 1994 3.000.000 32 90/166 200PII 1998 7 000 000 64 300/400 700PIII 1999 ---- 64 450/550 1.500

Configuración

Se entiende por configuración de un ordenador, ensentido físico, a la particular combinación de dis-positivos con que trabaja. La elección de una con-figuración adecuada para el trabajo que se piensarealizar es un primer paso al que es necesario dedi-car suficiente tiempo. Es un paso difícil debido aque la evolución vertiginosa de la tecnología infor-mática hace que cualquier configuración quedeobsoleta en un plazo de dos años y a que aparecenconstantemente nuevos productos que puedan mo-dificar la decisión en el último momento.

Desde un punto de vista muy general puede de-cirse que la configuración característica de un PC(figura 9) es la siguiente: 1) unidad central, o CPU(Central Processing Unit, "unidad central del pro-ceso") que puede suponerse que incorpora la placabase, una unidad para disquetes y una unidad dedisco duro; 2) teclado; 3) ratón; 4) monitor y placagráfica; 5) periféricos de salida, típicamente unaimpresora pero también un trazador gráfico oplotter o una filmadora de diapositivas; 6) otrosperiféricos de entrada tales como un escáner o unCDRom; 7) otros periféricos de salida para alma-cenamiento de datos, tales como una unidad gra-badora de cintas magnéticas, de discos magneto-ópticos o de discos ópticos.

La unidad central es la parte principal de unordenador. En sentido estricto, se denomina así alchip principal, la memoria principal y las vías decomunicación entre ambos y, en sentido laxo, a laplaca base en donde están situados el chip delprocesador principal y los chips adicionales. Porextensión, se denomina también así la pieza prin-cipal de un ordenador, la caja o torre que albergala unidad central, el reloj, la memoria principal yotros periféricos, discos duros, disqueteras, o pla-cas gráficas. La unidad central en sentido estrictotiene dos componentes principales, la unidad decontrol y la ALU.

Figura 9 Configuración externa de un PC

Page 69: [Architecture eBook] Aplicaciones as en Arquitectura

68 Aplicaciones informáticas en arquitectura

La capacidad de la unidad central se juzga prin-cipalmente de acuerdo con los siguientesparámetros: tipo de procesador, memoria princi-pal, tipo de bus local y capacidad de disco duro.Estos parámetros deben ser puestos en relación conel tipo de programas que se van a llevar a cabo.Así, por ejemplo, si el único programa que se vautilizar es un procesador de textos, todos los requi-sitos de memoria y velocidad quedarán absorbidospor el programa; no se necesita nada más y los pro-gramas actuales derrochan espacio y velocidad paralo que realmente se necesita para escribir. Si se pre-tende utilizar un programa de CAD que permita

realizar dibujos sencillos en 2D el comentario esidéntico; no se requiere nada especial pues las ne-cesidades son del mismo orden, ligeramente ma-yores que para escribir. En el capítulo 9 se propor-cionarán algunos datos de referencia más detalla-dos para lo que se necesita corrientemente en undespacho arquitectónico.

Placa base. Chips

La placa base es una placa rígida en donde se alo-jan todos los componentes principales de un orde-nador. Su tamaño y configuración están normali-zados de modo que pueda admitir diferentes com-ponentes. En un PC la placa base contiene básica-mente el bus y los conectores para los diferenteschips, el de la CPU, la memoria RAM, memoriaROM, reloj y controladores del teclado. La placabase contiene también slots o ranuras de expan-sión a la que se conectan otras placas o "tarjetas".Las más corrientes son las correspondientes a puer-tos adicionales, controladoras de disco, y las pla-cas o tarjetas gráficas. Se denomina arquitecturade un ordenador o de la placa base al diseño de laplaca base de un ordenador, más concretamente, eltipo de procesador, memoria, bus y otros compo-nentes básicos y el modo en que se conectan entresí. No se debe perder de vista este uso del término"arquitectura" pues no sería el primer caso de un

AB

CD

E

F

G H

Figura 10 La placa base

Figura 11 Microprocesador o «chip»

Page 70: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 69

estudiante de arquitectura de tercer ciclo que haestado a punto de matricularse en un curso de "ar-quitectura de computadores" pensando que ahí leexplicarían cómo se trabaja en el estudio de Gehry.La figura 10 muestra una esquematización de laplaca base de un Pentium II: A es el núcleo princi-pal, lo que se denomina el "chip set". Las tres ra-nuras junto a B albergan los chips de memoria RAMque puede aumentarse por módulos independien-tes. El chip C es la memoria caché (de 512 Kb eneste tipo de placas). Las dos ranuras junto a D sonlas conexiones con las controladoras (IDE oUDMA) del, o de los, discos duros. La ranura jun-to a E es la conexión con la controladora de ladisquetera de 1,4 Mb. F, G y H son, respectiva-mente, las conexiones con buses ISA, con busesPCI y con el bus AGP, de los que hablaremos másadelante, en el apartado sobre buses.

Los elementos principales de la placa base sonlos microprocesadores o chips. El términomicroprocesador es ambiguo pues se aplica tanto alos chips como al propio ordenador. Chip significaliteralmente, en inglés, "viruta" o "astilla". Fue de-sarrollado a finales de los 1950 por Jack Kilby yRobert Noyce. Los chips se fabrican con silicioque se convierte en semiconductor al ser combina-do con otros elementos. El silicio es el materialsólido más abundante de la naturaleza, lo que esuno de los factores que ha contribuido al especta-cular desarrollo de la informática. El dióxido desilicio, que se encuentra en las rocas, la arena o elcuarzo, se utiliza para crear la capa aislante de lostransistores, entre las compuertas metálicas de laparte superior y los elementos de silicio en la parteinferior. Silicon Valley, zona situada en California,al sur de San Francisco, cerca de Palo Alto, agrupaa un gran número de empresas pioneras en el desa-

rrollo de chips de silicio y, por esta razón, es unnombre que ha adquirido un notable prestigio en elmundo de la informática. Aunque el material máscorriente es el silicio también se utilizan el zafiro yel arseniuro de galio.

Las placas de silicio se cortan para formas obleas(wafers), pastillas de silicio de 1 mm de espesoraproximadamente y entre 7 y 15 cms de diámetroque constituyen la materia prima con que se fabri-can las placas que constituyen propiamente loschips. Los chips se graban por medio de técnicasespeciales para formar circuitos integrados, esto es,redes de vías de comunicación entre elementos es-peciales. Los chips actuales se construyen por me-dio de chips, esto es, el diseño se realiza por me-dios informáticos. El resultado se graba en una placade cristal del tamaño real de la oblea. Los transis-tores se construyen grabando a diferentes profun-didades la superficie de silicio por medio defotomáscaras y exponiendo la oblea a la luzultravioleta para formar una película endurecida.Las partes no endurecidas se graban con ácido. Laspartes grabadas se someten a procesos químicosque alteran su conductividad. Todos estos pasos sellevan a cabo simultáneamente creando miles detransistores en una sola operación. El número detransistores que contiene un chip es una medida desu capacidad.

Los chips constan básicamente de transistores,resistencias y diodos. Un diodo es un componenteelectrónico que funciona como una válvulaunidireccional. Permite el paso de la corriente enun sentido pero no en otro. Una resistencia es uncomponente electrónico que se opone al flujo decorriente en un circuito electrónico. Junto con lostransistores y los diodos es uno de los tres princi-pales constituyentes de un chip. Un transistor,acrónimo de TRANSfer resISTOR es un dispositi-vo inventado por Bardeen y Brattain (1948) yShockley (1951) que recibieron conjuntamente elpremio Nobel en 1956 por este descubrimiento. Esel elemento fundamental de los chips y, por consi-guiente, de todos los ordenadores modernos. Con-siste básicamente un dispositivo que se utiliza paraamplificar una señal o para abrir o cerrar un circui-to.

Los transistores se graban mediante procesos quelos exponen parcialmente a la luz y a diferentesprocesos químicos para alterar sus propiedadesconductoras. Se forman así dos uniones sucesivas,positivas o negativas, de sentido opuesto PNP o

Mic

ras

a b c d f

100 Veces

e z

1

0.8

0.6

0.350.25

0.18

Figura 12 Comparación entre la evolución deltamaño de los componentes de un chip, un pelo

humano y una bacteria

Page 71: [Architecture eBook] Aplicaciones as en Arquitectura

70 Aplicaciones informáticas en arquitectura

NPN. La zona media del transistor se denominabase y los extremos se denominan emisor o colec-tor, según el sentido de la corriente inducida. Dé-biles variaciones de corriente entre emisor y baseoriginan fuertes variaciones entre emisor y colec-tor, este efecto es el que da origen al término "trans-istor". Los transistores se utilizan para crear puer-tas lógicas combinando su disposición de modo queden lugar a salidas diferentes según los casos. Estopermite traducir operaciones lógicas y aritméticasa impulsos automáticos que se producen a la velo-cidad de la luz. La miniaturización de los compo-nentes ha permitido multiplicar hasta extremos ini-maginables la capacidad de los chips que puededecirse que no consisten en otra cosa que combi-naciones de transistores, resistencias y diodos quetraducen a un soporte físico combinaciones lógi-cas.Los primeros chips integraban algunos cientos omiles de transistores. Los i386 contaban con cercade 300.000 en una pastilla de unos 4 cms de lado.Los i486 llegaron al 1.200.000 y los Pentium hansobrepasado los 3 millones. Se prevé que esta cifrapuede multiplicarse antes de que termine el siglo.La velocidad de los tiempos de conmutación en elinterior de un chip se mide en nanosegundos(milmillonésimas, 10-9 segundos) y picosegundos(billonésimas, 10-12 segundos). Un transistorsuperconductor de juntura Josephson puede reali-zar conmutaciones en 50 femtosegundos(milbillonésimas o 10-15 segundos).

Se denomina, en general, circuito integrado aun conjunto de componentes electrónicosinterconectados que se graban de un modo unitario

sobre un soporte físico de pequeñas dimensiones.Los términos SSI, siglas de Small Scale Integration,"integración a pequeña escala" que se refiere a unchip con un pequeño número de componentes elec-trónicos (transistores, resistencias y diodos), entre2 y 100 aproximadamente; LSI , siglas de LargeScale Integration. "integración a gran escala", yVLSI, siglas de Very Large Scale Integrated Circuit,"circuito integrado a gran escala" que se refiere achips con un gran número de componentes, del or-den de cientos de miles, marcan la evolución queha llevado de los primeros chips, SSI, a principiosde los setenta hasta la fecha actual.

El término microprocesador se utilizó original-mente para referirse a un procesador de un solochip. Actualmente se utiliza también como sinóni-mo de ordenador personal que cuenta con un solochip principal (el chip que alberga la CPU) perovarios chips secundarios de importancia creciente,hasta el punto de poner en cuestión qué significa"chip principal". El primer microprocesador fuecreado por Intel. Intel Corporation fue fundada en1968 en Mountain View, California por B. Noycey G. Moore. En 1971 fabricaron el 4004 al que seconsidera como primer chip del mundo. En añosposteriores produjeron el 8080, 8086, 286, 386, 486y Pentium. Todos ellos han constituido la base fun-damental de los ordenadores personales auspicia-dos tanto por marcas poderosas como por marcasque han aparecido y desaparecido sin pena ni glo-ria.

La figura 11 muestra las diferentes escalas a lasque se organizan los chips. La figura 12 muestralos tamaños relativos de un cabello humano, de unespesor medio de unas 100 micras (0.1 mm), au-mentado 100 veces, de la tecnología de los prime-ros i486 (a), de los i486/66 (b), de los primerosPentium (c), de los Pentium de 1999 (d), de la tec-nología más reciente (e, 1999), de las previsionesde Intel para el 2007 (f) y de una bacteria (alrede-dor de 0.3 micras) aumentada 100 veces (0.3 mm)para poder comparar el punto resultante, práctica-mente invisible en la impresión, con el cabello hu-mano o con el componente actual de un chip quetiene aproximadamente el mismo tamaño.

La figura 13 muestra el interior del chip set deun pentium. A es la BIU (bus interface unit), co-nectado directamente con la memoria principal(RAM) de la que recibe datos e instrucciones porun bus de 64 bits. B y C son las memorias caché decódigo y datos respectivamente, conectadas con la

Figura 13 Esquema de un microprocesadorPentium simple

Page 72: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 71

BIU por buses de 64 bits. El chip G, es la branchpredictor unit que decide cuál de las dos ALUs(Arithmetic and Logic Unit), chips E, podrá ma-nejar más eficientemente los códigos que esperanen la caché. Estos códigos se envían desde B a H,el instruction prefetch buffer, que incorpora una uni-dad de decodificación y prepara los códigos deprograma para ser manejados por los tipos de có-digo utilizados por las ALUs. D es el chip de regis-tros utilizados por las ALUs para procesar los da-tos que recibe. Todo este conjunto central, deno-minado unidad de ejecución, execution unit, sólotrabaja con números enteros de 32 bits y los mue-ve internamente por buses de este mismo tamaño.Si se requiere llevar a cabo operaciones en comaflotante hay que enviar los datos a F, la floatingpoint unit, unidad de procesamiento especial paraeste tipo de datos.

Buses, puertos

El término bus se puede traducir por "vía", "colec-tor", o "canal" pero no hay traducción estableciday se utiliza corrientemente el término inglés. Es lalínea de comunicación entre diversos componen-tes de un ordenador. Un bus actúa a la vez como unenlace y como un conmutador, en la medida en quees capaz de dirigir la comunicación entre variosenlaces. Los buses funcionan en paralelo, es decir,hay un número determinado de bits que son envia-dos simultáneamente a través de un bus. Este nú-mero es uno de los descriptores del bus y es una desus características principales aunque no la única.Los buses se clasifican principalmente, además depor su anchura, por su contenido y por los compo-nentes que relacionan. La anchura se mide en bits,está asociada a la potencia y crece con la evolu-ción tecnológica. Los primeros procesadores con-taban con buses de 4 bits. Los posteriores con busesde 8 bits y 16 bits. Los buses principales de un 386o un 486 eran de 32 bits y los de los Pentium de64. La velocidad de transferencia depende tantode la anchura como de la velocidad desincronización del bus que viene dada enMegaHerzios y era del orden de los 25 o 33 MHzen un 386 (1992), de los 66 MHz en un 486 (1994),de los 90 a 166 en un Pentium de 1996, de los 233a 400 en un Pentium de 1998 y será seguramentede los 500 a 800 en un procesador del 2000. Dichode otro modo; puede estimarse que la velocidad seduplica cada 2 años.

Desde el punto de vista de su contenido los busesse clasifican principalmente en buses de datos,buses de direcciones y buses de control. El bus dedatos transfiere los datos introducidos en el siste-ma a la memoria principal. El bus de direccionestransfiere las direcciones de los datos, esto es, lasdirecciones de los registros o posiciones de memo-ria en donde se guardarán los datos. El bus de con-trol sincroniza el orden de transferencia de los dosanteriores. Desde el punto de vista de los compo-nentes que relacionan, se puede distinguir de modomuy sucinto entre buses del sistema, que se encar-gan de las comunicaciones internas de la CPU,buses I/O que comunican con los periféricos prin-cipales de entrada/salida, buses de diseño específi-co para un dispositivo determinado y buses loca-les.

Un bus local es un bus adicional que está ligadodirectamente a la CPU (está es más o menos la ra-zón por la que se le llama "local") y se comunicacon ella a su misma velocidad, pero tiene caracte-rísticas internas específicas. Se introdujeron con lafunción específica de eliminar los cuellos de bote-lla que se producían entre la placa base y las placasgráficas al aumentar progresivamente la importan-cia de éstas con la difusión de sistemas que reque-rían mayor capacidad de procesamiento gráfico. El

8 bits

16 bits (ISA)

32 bits (PCI)

Figura 14 Buses locales

Page 73: [Architecture eBook] Aplicaciones as en Arquitectura

72 Aplicaciones informáticas en arquitectura

bus local permite que la transferencia se produzcaa través de enlaces de una anchura mayor que los 8bits de las conexiones anteriores. Había dos tiposprincipales de buses locales en 1995 para PCs: losVesa (VL-Buses) y los PCI (siglas de PeripheralController Interconnect, "interconcexión de con-trolador periférico"). Ambos transmiten datos so-bre una anchura de 32 bits y a una velocidad delorden de los 130 Mb/segundo. En 1996 se ha im-puesto el bus PCI debido a su independencia delprocesador central, algo que no ocurría con los busVesa y que constituía su mayor limitación. A partirde 1998 es posible que se imponga progresivamen-te, para aplicaciones gráficas, un nuevo bus, el AGP(Accelerated Graphics Port) desarrollado por Intelen 1996 para sustituir al bus PCI y que permite unaconexión más rápida con la placa base del ordena-dor y su memoria principal. Cuenta, entre otrasmejoras, con un bus de direcciones de 32 bits y unbus de datos de 32 bits a diferencia del PCI queutiliza el mismo bus para ambos tipos de datos. Lasvelocidades de transferencia son del orden de los251 MBps y 503 MBps. Puede estar, por ejemplo,especialmente indicado para tarjetas gráficas ca-paces de almacenar texturas que se apliquen apolígonos 3D generados por hardware.

La figura 14 muestra los tipos más corrientes detarjetas de expansión, que se conectan a la placabase a través de unas ranuras normalizadas de di-ferentes tipos que también están representadas enel esquema de la placa base de la figura 10. Lafigura 15 es una representación interna del chip set

de la AGP en conexión con los chips principalesde la placa base. La conexión directa con la RAMse realiza a través de un bus A, de 32 bits, a 66MHz, con una velocidad de transferencia de 528Mbps (megabits por segundo). La conexión con elprocesador principal de la CPU es a través de unbus, B, de 32 bits a 33 MHz. La conexión con elcontrolador ISA y otras tarjetas de expansión, in-cluyendo la de la placa gráfica, a través de busesC, E y F también de 32 bits a 33 MHz. La co-nexión de la controladora ISA son sus ranuras deexpansión propia se lleva a cabo mediante un busD de 16 bits a 8 MHz.

La CPU se comunica con los distintosperiféricos, tanto internos como externos, a travésde puertos. Un puerto es una conexión de la uni-dad central que requiere de un programa específi-co de gestión que, por lo general, está integrado enel sistema operativo o cuenta con chips especiali-zados que se hacen cargo de la mayoría de las fun-ciones de intercambio.

La conexión con los discos duros o CD Roms serealiza a través de puertos internos. Los primerosPCs sólo podían reconocer un número limitado dediscos (al principio 14, más tarde 30), aquellos paralos que contaban con información grabada en susregistros internos. Esta limitación se superó con laaparición de las tarjetas IDE (Integrated DriveElectronics) y EIDE (Enhanced IDE) que integrantanto la tarjeta controladora del disco como la in-formación de la CPU. Prácticamente todos los PCsactuales llevan incorporados estos doscontroladores.

Por lo que respecta a las conexiones externas,todos los ordenadores vienen equipados con, almenos, dos tipos de conexiones, abiertas a dife-rentes dispositivos, un puerto serie y un puerto pa-ralelo. Los puertos paralelos están basados en unaconexión de 25 pins. Los datos se transmiten porlas líneas 2 a 9 y el resto de las líneas se utilizanpara funciones de control. El primer puerto parale-lo se conecta habitualmente a la impresora. En lossistemas operativos de Microsoft se designanconvencionalemente los puertos paralelos comoLPT1, LPT2, etc., y los puertos serie como COM1,COM2, etc.

Los puertos serie tradicionales están basados enuna conexión estándar, la RS-232, que se aplica ados tipos de conexiones, con 9 y 25 pins respecti-vamente. Es una conexión simple y segura perotransmite datos por una única línea, es decir, es len-Figura 15 Chipset de un bus local AGP

Page 74: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 73

to, y sólo admite una conexión lo que presenta ungrave inconveniente, al igual que los puertos para-lelos corrientes si, como es habitual, se quiere co-nectar más de un periférico al ordenador.

Esto ha llevado a buscar otros sistemas. La co-nexión con los periféricos podrá simplificarse conla generalización del USB (Universal Serial Bus)una norma definida en 1995 que sirve para todotipo de periféricos y tiene varias ventajas. Cuentacon una mayor aceleración en la transmisión dedatos con tasas de transferencia de 12 mbps, es deconexión más sencilla y es plug and play, es decir,la gran mayoría de los sistemas operativos lo reco-nocen automáticamente. Por añadidura, permiteencadenar hasta 127 periféricos con lo que tan sólose necesita una conexión de salida. El único requi-sito es que todos los periféricos cuenten con unaconexión de este tipo.

Cuando se requieren altas velocidades de trans-ferencia puede ser conveniente utilizar un SCSI,siglas de Small Computer System Interface, siste-ma de interfaz para pequeños ordenadores (se pro-nuncia "escasi"), un puerto de alta velocidad y quepermite conectar hasta 8 dispositivos encadenadosal ordenador. Popularizado por Apple Macintosh yutilizado en la actualidad en los PCs para conectarde un modo más eficaz todo tipo de periféricos,escáners, CDRoms, discos duros, discos externos,etc. Otra norma que ha surgido recientemente yque ofrece tasas más altas de velocidad y que pre-tende reemplazar a los Scsi es Firewire que pro-porciona velocidades de 100, 200 y 400 mbps. Elcoste de estos dispositivos es superior y requierenperiféricos especiales; estos son sus principalesinconvenientes.

Memoria principal

En informática, la memoria está referida genérica-mente a la capacidad de un ordenador para retenery recuperar datos. Hay dos tipos principales de me-moria, la memoria permanente y la memoria tem-poral o volátil. La primera no depende de la ali-mentación eléctrica; la segunda sí, los datos se pier-den cuando se apaga el ordenador. La memoria per-manente es a su vez de dos tipos: la que queda gra-bada en determinados registros de la unidad cen-tral, que no pueden ser modificados y son de acce-so muy rápido y poca capacidad y la que quedagrabada en dispositivos externos a la unidad cen-tral que pueden, en general ser modificados y son

de acceso relativamente lento y de gran capacidad.Esta memoria se designa como la memoria propiade dispositivos de almacenamiento. Esta puedesubdividirse a su vez en memoria de almacenamien-to interno y externo. La siguiente relación presentalos tipos principales de memoria en orden ascen-dente, de menor a mayor velocidad:

Memoria de baja velocidad(dispositivos de almacenamiento externo):

Cintas magnéticasDisquetes magnéticosDiscos magnetoópticosDiscos ópticos y CDRomsDiscos duros de cabezales móvilesDiscos duros de cabezales fijos

Memoria de alta velocidad (dispositivos de almacenamiento interno):

Memoria RAMMemoria cachéRegistros

La memoria RAM, Random Access Memory, ("me-moria de acceso aleatorio"), es la memoria princi-pal de un ordenador, la memoria en que se carga elsistema operativo, los programas complementariosde control de periféricos (drivers) y el núcleo delos programas de aplicaciones cuando son activa-dos. También se cargan en memoria RAM los ar-chivos de datos de estos programas.

Cuanto mayor es la capacidad de esta memoriamayor es la capacidad de gestionar archivos de grantamaño con rapidez. Por otro lado, cada programa

DDD

2

3

D1

1 0 0 1

4

Condensador

Transistor

DatosDirecciones

Figura 16 Esquema de funcionamiento de lamemoria RAM

Page 75: [Architecture eBook] Aplicaciones as en Arquitectura

74 Aplicaciones informáticas en arquitectura

de aplicación tiene unas exigencias mínimas quedeben ser cumplidas para que el programa puedafuncionar. Un programa complejo de procesamientode textos exigirá como mínimo 2 Mb, un programade dibujo en 2D, un mínimo de 4 Mb, un programade modelado geométrico en 3D exigirá probable-mente un mínimo de 8 Mb para poder trabajar concomodidad y uno de rendering o procesamiento deimágenes a nivel básico un mínimo de 16 Mb. To-das estas cifras deben multiplicarse por 4 en 1999si se trabaja con últimas versiones de programas,debido a que las exigencias de estos son cada vezmayores. Por ejemplo, el programa 3DStudio Maxfunciona "bien" si cuenta al menos con unprocesador de 200 MHz y 64 Mb de Ram; por de-bajo de esta cifras puede haber problemas.

La memoria RAM puede diferenciarse en me-moria SRAM y DRAM. La SRAM, siglas de StaticRAM está formada por un chip constituido por uncircuito biestable con tiempos de acceso caracte-rísticos del orden de los 10 a 30 nanosegundos. LaDRAM, siglas de Dynamic RAM, es la más corrien-te; es algo más lenta y está formada por un chipconstituido por un circuito biestable con tiemposde acceso característicos superiores a los 30nanosegundos. Las memorias bipolares cuentan contiempos de acceso por debajo de los 10 ns.

La memoria ROM, Read Only Memory, ("me-moria de sólo lectura"), es la memoria propia delos registros situados en la placa base de un orde-nador, la memoria en la que se graban las rutinasbásicas que precisa el sistema operativo para fun-cionar, tales como los códigos de caracteres en elsistema ASCII. La memoria ROM no es, en gene-ral, accesible por los usuarios. Hay varias varian-tes que se denominan con una relativamente am-plia variedad de siglas tales como la EPROM Si-glas de Erasable Programable Read Only Memory,"memoria de sólo lectura programable y borrable"o la PROM siglas de Programable Read OnlyMemory, "memoria de sólo lectura programable",un chip que se graba por el cliente con posteriori-dad a su salida de fábrica.

La figura 16 muestra un pequeño esquema decómo funciona la RAM. Para escribir o leer datosse envían pulsos eléctricos a través de líneas dedirecciones, representadas en la figura por líneashorizontales etiquetadas en su inició por D

1, D

2,

etc. Estos pulsos reconocen el estado de los milesde puntos del circuito con capacidad para almace-nar bits y, en función de este estado, graban o leen Figura 17 Teclado

datos, representados en la figura por líneas verti-cales, etiquetadas en su inicio por 1, 0, etc. El esta-do de los puntos del circuito se modifica medianteuna combinación de transistores y condensadores.Los transistores actúan como puertas que permi-ten, o no, el paso. Cuando, por ejemplo, para escri-bir datos, los pulsos eléctricos alcanzan un transis-tor que permite su paso, llegan a un condensador,un dispositivo electrónico capaz de almacenar elec-tricidad que queda cargado positivamente, "alma-cena 1 bit". Este proceso se renueva continuamen-te para prevenir la descarga del condensador. Alapagar el ordenador, el condensador se descarga yqueda como los otros condensadores a los que noha llegado ningún impulso por estar bloqueado portransistores que impiden su paso.

El esquema de funcionamiento de una memoriaROM es muy similar; la principal diferencia es quese utilizan diodos en lugar de transistores.

Dispositivos de entrada y salida

Un dispositivo (device) es cualquier máquina utili-zada en informática como componente externo deuna plataforma de trabajo. Se denomina periféricoa cualquier dispositivo conectado a la unidad cen-tral a través de los buses de entrada/salida o busesI/O. Los periféricos requieren pequeños programasespeciales que se denominan BIOS, siglas de BasicInput Output System, "sistema básico de entrada ysalida", un conjunto de rutinas que permiten suenlace con la CPU. En los PCs, los BIOs residenen chips ROM y se activan automáticamente al en-cender el ordenador.

El término entrada se aplica genéricamente atodos los dispositivos que permiten introducir da-tos e instrucciones en el ordenador. Los dispositi-vos de entrada más corrientes son el teclado y el

Page 76: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 75

ratón.El teclado (figura 17) de un PC cuenta con 102

teclas que incluyen todos los caracteresalfanuméricos normales más una serie de teclasespeciales. Las teclas de un PC no imprimen ca-racteres directamente sino que están asociadas aunos códigos de rastreo (scan code) que, a su vez,están asociados a unas tablas de códigos que sonen parte universales y en parte dependientes delpaís en que se esté trabajando. Al configurar el sis-tema se le comunica al sistema operativo las tablasnacionales que se quiere utilizar. Esto permite usarcaracteres propios de cada país. Debido a que loscódigos de rastreo incluyen combinaciones de te-cla el número de salidas posibles es mucho mayorque el que se proporciona de modo directo. Cadacarácter normal puede utilizarse sólo o en combi-nación con las teclas grises "Alt" "Mysl" y "Con-trol". Por otro lado hay 12 teclas de función queestán en principio disponibles para los usuarios ypara los programas. Por esta razón, un usuario ex-perimentado utiliza extensamente el teclado y unade las primeras cosas que hace al comenzar a uti-lizar un nuevo programa es crear alias y macros,abreviaturas de las ordenes más comunes, si bienhay muchos programas que ya proporcionan estaposibilidad sin necesidad de programarla desde elsistema operativo.

El ratón (mouse) (figura 18) es un dispositivode entrada de datos que se utiliza asociado a uncursor en pantalla. Los movimientos del ratón setraducen en movimientos del cursor. La velocidadde este movimiento se mide, como no podía sermenos, en mickeys y puede controlarse de diversosmodos. Un mickey, es una unidad de movimiento

del ratón, convencionalmente fijada en 1/200 pul-gadas (0.127 mm). Su inventor fue DouglasEngelbert, del Stanford Research Institute, a prin-cipios de los 1960 y en el contexto de una serie deinvestigaciones dirigidas a mejorar la comunica-ción entre los seres humanos y los ordenadores. Laprincipal observación que podemos hacer con res-pecto al ratón es que también cabe la posibilidad,en muchos programas, de introducir secuenciaspersonalizadas combinando la acción de cada unode los botones con las tres teclas de secuencia al-ternativa Mysl, Ctrl y Alt.

Otros dispositivos de entrada de datos son lossiguientes. La tableta digitalizadora es un disposi-tivo de entrada que se utiliza con diferentes finali-dades y que funciona de un modo similar a unescáner que se tratará con más extensión en el ca-pítulo dedicado a tratamiento de imágenes. La prin-cipal aplicación desde el punto de vista arquitectó-nico es introducir datos en un programa por mediode un puntero que introduce las coordenadas dediferentes puntos marcándolas sobre la tableta. Estopermite, entre otras cosas, transferir planos desdeun soporte tradicional a un soporte informático.También se puede utilizar como auxiliar de un pro-grama de CAD manteniendo un menú desplegadosobre la tableta, sobre el que se marcan las órdenesdeseadas con un puntero, liberando de este modoespacio en pantalla, si bien esta utilización está másbien en desuso ante la proliferación de métodos deinterfaz que agilizan la entrada de órdenes. Otrodispositivo raramente utilizado en aplicaciones ar-quitectónicas es el joy stick o "palanca de juegos",un dispositivo de entrada, similar a un ratón en sufuncionamiento, que se usa en algunos juegos devídeo y en algunos programas de CAD para des-plazar el cursor con rapidez por la pantalla.

Los dispositivos de salida principales son elmonitor y la impresora. De estos, el más conspicuoes el monitor; hasta tal punto que resulta extrañoconsiderarlo como un dispositivo externo a la uni-dad central. Sin embargo debe tenerse en cuentaque se podría, teóricamente prescindir de él. Po-dríamos, siempre que no cometiéramos ningúnerror, introducir una serie de datos por medio delteclado, activar, siempre a través del teclado unaserie de ordenes y esperar los resultados que po-drían recogerse a través de una impresora. Debidoa la complejidad de los programas actuales esto esen la práctica imposible, pues es preciso compro-bar constantemente la secuencia del proceso y, aún

Figura 18 Ratón

Page 77: [Architecture eBook] Aplicaciones as en Arquitectura

76 Aplicaciones informáticas en arquitectura

prescindiendo de los mensajes de error que nosenvía la máquina y con los que se debe contar siem-pre, muchas secuencias no son lineales sino quedependen de bifurcaciones que deben ser decidi-das por el usuario a lo largo del proceso. De ahíque el monitor sea un elemento esencial aunquetécnicamente resulte externo a la unidad central.

Monitores

El término monitor es sinónimo de "guía" y se re-fiere a una persona o dispositivo que permite se-guir y orientar un proceso. Se denomina corriente-mente "monitor" en informática a un aparato quetransforma una serie de señales eléctricas en unaserie de señales ópticas. Realiza la operación in-versa a una aparato de captación de imágenes, talcomo una cámara de vídeo o un escáner que trans-forman señales luminosas en señales eléctricas. Adiferencia de lo que ocurre en televisión y vídeo,sin embargo, las señales de un monitor utilizado encon computadores gráficos, pueden ser generadaspor el propio usuario.

Técnicamente, se reserva el nombre de monitorpara aquellos aparatos que no necesitan unsintonizador sino que generan la imagen en panta-lla directamente, a partir de señales de vídeo pro-ducidas internamente. Sus características genera-les son idénticas a las de los de televisión excep-tuando la ausencia del sintonizador. A pesar de queson de diseño más sencillo que un receptor de TVsuelen ser más caros, debido a la menor demanda ya las especificaciones de funcionamiento, tanto másestrictas cuanto mayor sea la calidad del monitor.Puede decirse que hay dos tipos principales demonitores, los CRT y los flat-planned. Los princi-pales son, en la actualidad, con amplia diferencia,los primeros. Los CRT pueden ser, en principio, dedos tipos, vectoriales o ráster. Los monitores tipoflat-planned pueden clasificarse a su vez en doscategorías, emisores y no emisores. Los primerosconvierten la energía en luz por diversos métodos,lo que da lugar a su vez a diferentes tipos. Losmonitores flat-planned-no-emisores utilizan algúntipo de recurso técnico para convertir luz prove-niente de otra fuente en patrones visibles. Los prin-cipales son los dispositivos que utilizan cristal lí-quido con este fin. Los parámetros principales quese deben tener en cuenta en cualquier tipo de mo-nitor son, en cualquier caso, el tamaño y la resolu-ción. La resolución depende en última instancia de

la placa gráfica.Un CRT, siglas de Cathode Ray Tube ("tubo de

rayos catódicos") es el tipo más corriente, utiliza-do en la mayoría de los monitores actuales, al igualque en los televisores. Está constituido por un tubode vacío, sellado, en uno de cuyos extremos hay uncañón emisor de electrones y en el otro una panta-lla con una capa de minúsculas partículas de fósfo-ro que recubren su parte interna y brillan duranteun instante al ser impactadas por los electrones. Elflujo de electrones va del polo positivo (ánodo) alpolo negativo (cátodo) en donde está situada la pan-talla. Los cañones de electrones emiten rayos ha-cia la capa de fósforo situada en la parte interior dela pantalla. Tienen un alto voltaje interior (15.000-20.000 voltios). El mecanismo de enfoque se basaen campos magnéticos inducidos por bobinasdeflectoras que dirigen los electrones hacia puntosdeterminados sobre la pantalla. La permanencia dela excitación del fósforo es de 10 a 60microsegundos. La pantalla debe refrescarse comomínimo 60 marcos/segundo en barrido entrelaza-do para asegurar 30 renovaciones por segundo queevite la impresión de parpadeo. La mayoría de losmonitores actuales tienen velocidades de refrescomuy superiores, del orden de los 60, 70, 80 Hz, noentrelazado. La figura 19 muestra una sección ca-racterística de un CRT.

Los monitores adecuados para el trabajo conCAD deben ser multifrecuencia. Esta especifica-ción indica que el dispositivo en cuestión no traba-ja con una frecuencia de exploración fija sino queadmite diversas configuraciones que pueden serdeterminadas por el usuario en función de lo querequieran sus programas. Puede interesar en algúncaso conocer el ancho de banda propio de un mo-nitor. Para ello hay que multiplicar el número depuntos por la velocidad de refresco; con esto ob-tendremos la velocidad de reloj, es decir, la veloci-dad a la que deben enviarse los puntos para que lavista no aprecie parpadeo. Este valor, multiplicadopor 1,5 (sobrecarga), nos dará el ancho de bandaestimado. Por ejemplo, un monitor que trabaje conuna resolución de 1024 × 768 y una frecuencia de70 Hz estará funcionando con una velocidad dereloj de 55 MHz (1024 × 768 × 70 Hz). Su anchode banda será por consiguiente de 82 MHz (55 ×1.5). El mismo cálculo para 640 × 480 a 60 Hz opara 1600 × 1200 a 90 Hz nos dará un ancho debanda de 27 MHz y 258 MHz respectivamente, dosvalores que pueden considerarse como extremos

Page 78: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 77

de lo que es habitual.El tamaño de los monitores utilizados corrien-

temente en informática suele ser de 14", 15", 17",19" y 21". Esta medida se refiere a la diagonal dela pantalla. Como la proporción es de 3/4 si se quie-re saber la anchura basta recordar que la propor-ción, incluida la diagonal es 3,4,5 con lo que unmonitor de 172 tendrá una dimensión horizontalde 17"4/5, es decir 13.6" o 345 mm y una dimen-sión vertical de 17" 3/5, es decir 10.2" o 259 mm.Si el tamaño del punto de este monitor es de 0.28mm su resolución efectiva será de unos 1260 pixelsalgo inferior a los 1280 de una placa gráfica de altaresolución. Sin embargo la anchura nominal sueleser unos 20 o 30 mm inferior a la eficaz, como puedecomprobarse midiendo la mayoría de los monitorespor lo que la resolución efectiva, en un monitor de15" difícilmente superará los 800 × 600. Y, por otrolado, debido a factores complejos, que no puedenresumirse aquí, la resolución efectiva es inferior ala nominal. Dicho de otro modo, si un tamaño depunto de 0,25 corresponde a una resolución de 4lpm, equivalente a 102 dpi, esta resolución debemultiplicarse por una cifra cercana a los 4/7 paraencontrar la resolución efectiva de un monitor queestará, en general, comprendida entre los 55 y lo75 dpi. Es decir, haciendo números, un monitor de15" no superará los 900 pixels en horizontal. Lafigura 21 muestra los valores adecuados para lostipos corrientes.

La frecuencia de refresco es otro parámetro im-portante pues una frecuencia demasiado baja se tra-duce en fluctuaciones de la imagen que pueden serdañinas para la vista u ocasionar fatiga, mientrasque una resolución alta consume más memoria. Lasúltimas recomendaciones dan cifras superiores alos 80 Hz como frecuencias recomendadas paratrabajos que requieran una atención concentrada.Una cifra inferior a 60 Hz se considera no reco-mendable. Valores en torno a los 70 Hz son habi-tuales.

La calidad de la imagen depende del enfoque,que debe ser igual para toda las zonas de la panta-lla, de la convergencia, que si no es correcta se tra-duce en separación de los colores, de la geometríade la pantalla, que puede crear deformaciones. To-dos estos factores dependen bastante del tipo demáscara utilizado. Todos los monitores cuentan conuna máscara interna metálica, justo detrás del cris-tal de la pantalla que aseguran que los flujos deelectrones van a caer exactamente en los puntos

Figura 19 Sección de un monitor CRT

Figura 20 Máscaras internas de un monitor CRT

640x480800x600

1024x768

1280x1024

1600x1200

Figura 21 Dimensiones y resolucionesnormalizadas en monitores corrientes

Page 79: [Architecture eBook] Aplicaciones as en Arquitectura

78 Aplicaciones informáticas en arquitectura

que les corresponden. Hay tres tipos principales demáscara, representadas en la figura 20: la máscaracon tríadas regulares (delta o dot-trio shadow mask)que es la más corriente; el tubo tipo trinitron(aperture grille CRT) que consiste en una malla dealambres verticales arriostrados por otros horizon-tales lo que proporciona mayor luminosidad y re-sistencia; y la máscara tipo slot, utilizada por NECcon la denominación Croma Clear, que es unamezcla de los dos tipos anteriores.

Hay otros monitores que no son CRT y que pue-den agruparse genéricamente como monitores pla-nos. Los dos tipos principales son los de cristal lí-quido y los de plasma.

Los monitores LCD, siglas de Liquid CrystalDisplay ("pantalla de cristal líquido") utilizan unatecnología alternativa al tubo de rayos catódicos yque se utiliza principalmente en ordenadores por-tátiles. Utilizan poca energía y ésta se utiliza prin-cipalmente para activar las moléculas de unos flui-dos orgánicos denominados "cristales líquidos" quecuentan con dos propiedades fundamentales quefacilitan su utilización como minúsculos conmuta-dores que activan y desactivan pixels. En primerlugar, son transparentes pero pueden modificar laorientación de la luz polarizada que los atraviesa.En segundo lugar, la alineación de sus moléculas,que determina el grado en que se modifica la orien-tación de la luz, puede cambiarse por la aplicaciónde un campo eléctrico. La figura 22 muestra el perfilde un ordenador portátil que permite apreciar ladiferencia de dimensiones.

Un monitor LCD consta básicamente de seis

capas que se muestran esquemáticamente en la fi-gura 23. La capa 1 es una capa emisora de luz fluo-rescente. La capa 2 es un filtro polarizador verticaly la capa 6 un filtro polarizador horizontal. Estosfiltros se apoyan sobre unos paneles de vidrio encuyo interior están los componentes de la capa 3 yde la capa 6. La capa 3 consiste en una red de tran-sistores conectados por medio de electrodos asubpixels. Esta red está conectada a una matriz queindica el voltaje que debe aplicarse a cada subpixel.La capa 4 es la capa principal, la capa de cristallíquido, de un espesor no superior a una docena demicras. En esta capa están las moléculas de cristal,de estructura espiral, que cambian su forma en fun-ción del voltaje que reciben. Si la carga recibida esmáxima, la luz polarizada, de orientación horizon-tal por la acción del primer filtro polarizador, gira90º hasta alcanzar una orientación vertical. Cargasintermedias determinan orientaciones intermedias.La capa 5 es un filtro de color, subdividido en rec-tángulos rojos, verdes y azules de tal modo que laluz emergente de las células insertas en la capa decristal líquido pasa por uno de estos tres pixels y setiñe del color correspondiente. Si el rayo de luz noha sufrido ninguna modificación en su trayectoriaquedará bloqueado por el filtro polarizador hori-zontal de la capa 6 y el subpixel resultante seránegro. Si ha sufrido alguna modificación esto setraducirá en un menor o mayor grado de saturacióncon alguno de los tres colores primarios. Si se haaplicado un máximo voltaje a los tres componen-tes, la orientación de los tres rayos de luz compo-nentes habrá girado 90º, los tres pasarán sin pérdi-da por el filtro polarizador horizontal y el resulta-

765

43

21

Figura 23 Estructura interna de unmonitor LCD

Figura 22 Ordenador portátil con pantalla LCDde unos 7 mm de espesor

Page 80: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 79

do será blanco. Entre estos dos extremos están to-dos los colores que puede producir un monitorLCD.

Tienen importantes ventajas: son planos, no re-quieren el espacio en profundidad tan molesto delos CRTs, utilizan poca energía; ofrecen mayor re-solución a igualdad de tamaño. Su principal incon-veniente es el coste, que puede ser del orden delcuádruple de un CRT de similares prestaciones.Otro de los principales inconvenientes de las pan-tallas LCD, el que su visibilidad disminuya rápida-mente al contemplarlas desde ángulos no perpen-diculares a la pantalla. Esto se reduce utilizandotecnología TFT (Thin Film Transistor) o pantallas"de matriz activa" que consisten en una matriz detransistores fotoemisores, pequeños componentessemiconductores que emiten luz al ser atravesadospor la corriente. No tienen defectos de enfoque nide convergencia. Los tamaños y resoluciones co-rrientes, disponibles en 1998, eran de 12" , 13" y14 "con una resolución máxima de 800 × 600 parael primero y de 1024 × 768 para los dos últimos. Elespesor de pantalla llega hasta algo menos de 7 mmen algunas marcas. El número de colores es infe-rior al de los monitores CRT; las cifras nominalesestán en torno a los 250.000.

Los monitores denominados de plasma panelestán basados en una tecnología alternativa al CRTque utiliza un gas inerte ionizado. El gas se distri-buye entre dos paneles de vidrio paralelos cada unode los cuales está recorrido por cables que se cru-zan, horizontales en uno y verticales en el otro.Cuando ambos cables están activados el gas situa-do en el punto de cruce correspondiente se con-

vierte en un plasma brillante compuesto por elec-trones e iones. De este modo pueden activarse to-dos los puntos de pantalla de modo independiente.Son muy caros y no se utilizan en ningún tipo deaplicación que tenga que ver con la arquitectura.La figura 24 muestra un monitor CRT y un moni-tor de plasma superpuestos.

La Placa gráfica

La placa gráfica, tarjeta gráfica o adaptador grá-fico (graphics board, graphics adapter) es unaplaca metálica adicional que se conecta a la placabase de un ordenador a través de alguno de las ra-nuras de expansión y que lleva incorporados chipsde funcionalidad específica. En aplicaciones gráfi-cas, la placa gráfica puede llegar a funcionar comouna segunda placa base, tanto por su tamaño, comopor su configuración, como por su precio. Las me-jores placas gráficas llevan memoria y procesadorespropios especializados en las diferentes funcionesimplicadas en el funcionamiento corriente de pro-gramas gráficos y descargan de estas tareas a laCPU. Esto puede incluir desde chips de conver-sión digital analógico (DAC) o memoria de vídeo(VRAM) hasta chips con funciones preparadas parael dibujo de líneas, la realización de zooms o laeliminación de líneas ocultas (Z-buffers). El térmi-no vídeo en informática, se refiere no sólo a la tec-nología de grabación y reproducción por cintasmagnéticas, sino al sistema de monitor y placa grá-fica con que cuenta un ordenador.

La placa gráfica puede trabajar en varios mo-dos. Indicaremos tan sólo los principales para apli-caciones arquitectónicas. El modo VGA, siglas deVideo Graphics Array ("matriz gráfica de vídeo")es el propio de un sistema presentado por IBM en1987 y que se convirtió en un estándar de hechodurante los siguientes años. El modo VGA admiteuna resolución máxima de 640 x 480 pixels y re-sulta insuficiente para trabajar en CAD pero estádisponible en cualquier PC. El modo SVGA, siglasde Super Video Graphics Array ("super matriz devídeo para gráficos") admite una resolución máxi-ma de 800 × 600 pixels. Fue introducida en 1989por varios fabricantes para superar los límites de laVGA. Poco después apareció el estandar VESA,siglas de Video Electronics Standars Association,una asociación fundada en 1989 para normalizarel modo SVGA. La gran mayoría de placas gráfi-cas cuentan con este estándar. En 1991 se intentó

Figura 24 Perfil de un monitor de plasmacomparado con un CRT

Page 81: [Architecture eBook] Aplicaciones as en Arquitectura

80 Aplicaciones informáticas en arquitectura

la introducción de un nuevo estándar, que alcanza-ba los 1024 × 768 y 16,7 millones de colores y en1993 otro nuevo estándar con resoluciones de 1280× 1024. Sin embargo los estándares superiores aSVGA no están realmente normalizados y depen-den del fabricante.

Si se quiere trabajar con una resolución supe-rior a SVGA (en un modo que a veces se denominaXGA, siglas de Extended Graphics Array) con re-soluciones 1024 x 768 y 16,7 millones de colores(24 bits per pixel) no queda otro remedio que ad-quirir una buena tarjeta e instalar sus drivers pro-pios. Debe tenerse en cuenta que la placa deberácontar con una memoria de vídeo (VRAM) ade-cuada a la resolución y el color que tengamos queutilizar. El cálculo básico es sencillo: si queremostrabajar en color real se necesita 1 byte por cadauno de los tres canales RGB (o 24 bpp, bits perpixel) para que los colores se distribuyan de modouniforme sin crear franjas (todo esto se explicarámás extensamente en el capítulo sobre tratamientode imágenes). Para saber el número de bytes que laplaca debe almacenar en su memoria temporal(frame buffer) para enviarlos en un solo paquete ala pantalla bastará multiplicar el número de puntospor 3. Así:

800 × 600 = 480.000 pixels; × 3 = 1.440.000 bytes = 1.3 Mb1024 × 768 = 786.432 pixels; × 3 = 2.359.296 bytes = 2.2 Mb

Pero dado que los chips de memoria tienen capaci-dades normalizadas habrá que ajustar este cálculo.La memoria de vídeo depende, en primer lugar, dela resolución y de la profundidad de pixel que semide en bits por pixel (bpp). A igualdad de fre-cuencias y prestaciones, la siguiente tabla especi-fica la mínima memoria requerida, en Mb.

bpp: 4 8 16 24nº colores: 16 256 65.000 16.700.000

640 x 480 0.5 0.5 1 2800 x 600 0.5 1 2 2

1024 x 768 1 1 2 41280 x 1024 1 2 4 41600 x 1200 2 2 4 8

La instalación de los drivers propios de cada placaera una pequeña odisea cuando se trabajaba enMSDOS pero se ha simplificado en los sistemasactuales por lo que prescindiremos de explicacio-nes adicionales.

Impresoras, plotters y filmadoras

Los dispositivos de salida permanente siguen prin-cipios similares a los de salida no permanente, comolos monitores. Como en éstos, la diferencia princi-pal es, en principio, entre dispositivos vectorialesy de rastreo. En el caso de los monitores, los desalida vectorial pasaron a la historia hace muchosaños. En el caso de los plotters aún es posible en-contrar algún viejo plotter de plumillas, que traba-ja en modo vectorial y produce líneas perfectas,pero puede decirse que desde 1995 más o menos lainmensa mayoría de los plotters funcionan exacta-mente igual que las impresoras, como dispositivosde rastreo.

Una impresora es un dispositivo de salida per-manente que se utiliza tanto para archivos de tex-to, como para gráficos o imágenes. Las impresorasrequieren un formato lógico de edición que se tra-duce en una grabación sobre un formato físico, ge-neralmente un soporte de papel.

Las impresoras se pueden clasificar con arregloa diversos criterios. Los principales son los siguien-tes:

1) Desde el punto de vista del formato de salida,pueden ser de papel continuo, de hojas sueltas detamaño Din A4 y de hojas de tamaño Din A3; nohay diferencia real entre una impresora de gran for-mato y un plotter de pequeño formato.

2) Desde el punto de vista de la calidad de laimagen resultante, hay impresoras en blanco y ne-gro y en color que requieren por lo general tecno-logías bastante distintas y, para cada uno de estoscasos, hay impresoras con mayor o menor resolu-ción. Se considera que una impresora tiene una re-solución aceptable para imprimir textos con cali-dad semejante a los de una imprenta tradicional apartir de los 300 dpi (dots per inch, puntos porpulgada); se considera que una impresora tiene unaresolución aceptable para imprimir imágenes conuna resolución semejante a los de una imprenta tra-dicional a partir de los 600 dpi aunque esta cifrapuede aumentar hasta 1.200 o 3.300 según los gra-dos de exigencia; estas cifras son relativas como loes el propio concepto de "calidad" o "resoluciónaceptable".

3) Desde el punto de vista de la velocidad, sepueden clasificar en impresoras "lentas" que im-primen menos de 4-6 ppm (páginas por minuto) y"rápidas" que imprimen más de 8-10 ppm.

Page 82: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 81

4) Desde el punto de vista del coste de manteni-miento sería necesario establecer una clasificaciónen función del precio medio de cada página impre-sa. Esto puede compensar el coste de la impresora,un factor que no siempre se tiene en cuenta. Así,por ejemplo, si bien el coste de las impresoras dechorro de tinta es inferior a de las impresoras láser,su coste medio por página es casi el doble y sontambién, en general, algo más lentas. En general,desde el punto de vista de la relación calidad costeo, si se prefiere, de número de ventas, las principa-les son las impresoras láser y las de chorro de tinta,que cubren ampliamente el mayor número de ven-tas (en 1998-99).

5) Desde el punto de vista de su funcionalidadhabría que distinguir las impresoras corrientes, quesólo sirven para imprimir, de las multifuncionaleso MFP (multifunction printers), que se han intro-ducido en el mercado desde 1996 aproximadamen-te, y pueden utilizarse como impresora, escáner,fax y fotocopiadora.

6) Desde el punto de vista de la tecnología omedio de impresión que implica, de un modo máspreciso, los criterios anteriores, hay varios tiposprincipales, que resumiremos a continuación.

Las impresoras de impacto (dot matrix printers)se basan en un principio similar al de las imprentastradicionales. Si se golpea un tipo sólido contra unacinta entintada colocada sobre un papel, el perfildel tipo se transfiere al papel. Esta es la tecnologíabásica a partir de la cual se puede distinguir entreimpresoras de banda, de tambor, de margarita, ode matriz de puntos. Todas se basan en el mismoprincipio, con algunas diferencias; en el último casono hay un tipo fijo sino un grupo de puntos (agu-jas) que pueden ser configuradas para formar cual-quier carácter y que también pasan por delante deuna cinta entintada y se accionan por un mecanis-mo de percusión hace que el carácter se grabe so-bre el papel. Todas estas impresoras están siendodesplazadas por el abaratamiento de las impresorasde chorro de tinta o láser que son de superior cali-dad y escasa diferencia de precio.

Las impresoras de chorro de tinta o inkjet utili-zan un método similar a las de impacto con la dife-rencia de que lo que se proyecta son minúsculasgotas de tinta que quedan adheridas al papel. Lafigura 25 muestra un esquema del proceso. Las mi-núsculas gotas son impulsadas por medio de dife-rentes técnicas, aumentando la temperatura para queel líquido entre en ebullición o por medio de méto-

dos piezoeléctricos en los que una membrana es-pecial impulsa la tinta. La piezoelectricidad es unapropiedad de algunos cristales que se deforman enun sentido bajo presión mecánica y en sentido in-verso bajo cargas eléctricas, lo que permite utili-zarlos como impulsores controlados con absolutaprecisión. La precisión geométrica se logra hacien-do pasar las gotas por minúsculas toberas (nozzles).Los diámetros de las gotas están alrededor de los25 micromilímetros y la velocidad de impulsión esdel orden de las 4.000 pulsiones por segundo. Elnúmero de toberas por cabezal determina la reso-lución. Las resoluciones típicas son del orden delos 360, 720 y 1.440 dpi en los modelos más co-rrientes. Con resoluciones de 720 x 1440 dpi y cua-tro tintas (amarillo, magenta, cyan y negro) se al-canzan calidades cercanas a las de fotografías encolor. Hay también impresoras de 6 tintas que cu-bren mejor el espectro cromático. Todo esto, juntocon el abaratamiento de este tipo de impresoras,las sitúa, en 1998, en primera fila por lo que res-pecta a aplicaciones que requieren la impresión deimágenes en color.

Las impresoras de transferencia se pueden cla-sificar en impresoras láser, de transferencia térmi-ca, de emulsión de cera y de sublimación. Por nú-mero de ventas, las principales son las primeras.Las impresoras láser (figura 26) imprimen una co-pia de la imagen enviando un rayo de luz muy pre-ciso sobre un tambor cargado con alto voltaje que,

1 2

3 4

Figura 25 Impresora de chorro de tinta

Page 83: [Architecture eBook] Aplicaciones as en Arquitectura

82 Aplicaciones informáticas en arquitectura

al recibir la luz en determinadas zonas, se descar-ga. El tambor se pone en contacto con polvo decarbón pulverizado (toner) que se adhiere a la par-te cargada del tambor. Por último, el tambor se poneen contacto con un soporte de papel al que quedaadherido por medio del calor y la presión. Lasimpresoras láser corrientes cuentan con resolucio-nes de 300 y 600 dpi lo que permite imprimir tex-tos y dibujos con calidad profesional e imágenesen blanco y negro con calidad suficiente para mu-chas aplicaciones. Las imprentas profesionales uti-lizan en la actualidad impresoras láser con resolu-ciones típicas del orden de los 1270 y hasta 3386(p.ej. la Linotronic 330).

Hay diversos tipos de impresoras de transferen-cia térmica. La figura 27 muestra un esquema ge-neral de una impresora de este tipo utilizada prin-cipalmente, como las de cera y sublimación, paraimpresión en color da alta calidad. Se utilizan pa-peles especiales que se introducen en el mecanis-mo presionados por un tambor metálico (el círculoinferior semioculto en la figura) que lo mantieneen contacto con una hoja especial cubierta de tintade los tres o cuatro colores primarios (cian.magenta, amarillo y negro) mezclados con un me-dio sólido que puede ser cera o plástico. El papelpasa bajo cada uno de ellos, volviéndose a intro-ducir en el mecanismo si es necesario. En cadapasada, un elemento calefactor situado junto al ro-dillo superior funde pequeños puntos de cada co-lor primario que se fijan al papel y que se mezclanentre sí en diferentes proporciones para producirel tono de color especificado.

Las impresoras de cera (wax jet transfer printers,thermal wax printers) utilizan tinta sólida que secalienta por una serie de elementos calefactores y

se proyecta sobre el papel donde queda adherida;algunas casas denominan a estas impresoras "decambio de fase" porque la cera pasa de estado sóli-do a líquido, al calentarse, de modo que este líqui-do pueda proyectarse sobre el papel y, vuelven aconvertirse en sólido con rapidez al secarse. Enotros casos, la cera está en una cinta o papel espe-cialmente recubierto que se calienta para fundir latinta antes de que se aplique sobre ella una matrizde puntos que representa la imagen a imprimir. Enlas impresoras de sublimación (thermal dyeprinters, dye sublimation printers), la tinta se fun-de sobre una capa de poliestireno aplicada sobre elpapel; de este modo se crean mezclas continuas queproporcionan, en principio, una calidad superior ala impresión de pequeños puntos. Estos últimos ti-pos se emplean de modo exclusivo para impresiónen color y la máxima calidad se obtiene con el últi-mo, las denominadas impresoras de sublimación,un término equívoco pues no puede decirse quetenga lugar una verdadera sublimación (paso deestado gaseoso a sólido y viceversa, sin pasar porestado líquido). Pese a su calidad, están siendo pro-gresivamente desplazadas por el aumento de pres-taciones y la calidad de las láser en color y chorrode tinta en color. No debe perderse de vista, porúltimo, que cualquier impresión en color por estosmétodos tiene una permanencia frágil.

Un plotter o "trazador" es un dispositivo de sa-lida que dibuja archivos gráficos sobre un soportepermanente, corrientemente papel, aunque tambiénse emplean otros soportes. Había, hasta hace poco,dos tipos principales de plotter, vectoriales (plu-millas) y de rastreo (electrostáticos). Los plottersvectoriales utilizan plumillas de fieltro, de acero ode cerámica y dibujan las líneas que constituyen el

55

12

3

4

Figura 26 Impresora laser Figura 27 Impresora de transferencia térmica

Page 84: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 83

dibujo una a una, desde sus extremos, dados en co-ordenadas de salida del dispositivo en el caso delíneas rectas o descomponiéndolas en pequeños tra-zos invisibles a simple vista en el caso de líneascurvas. Los plotters vectoriales proporcionan unagran calidad de dibujo pero si el dibujo es comple-jo resultan lentos y, en ocasiones, poco fiables de-bido a la multitud de recorridos que deben hacerlas plumillas y a la necesidad de mantener estas enperfecto estado para prevenir que se sequen a mi-tad del dibujo. Por estas razones están siendo sus-tituidos por los plotters de rastreo. Los plotters derastreo funcionan exactamente igual que una im-presora, almacenan toda la información en una ma-triz de puntos e imprimen el dibujo con práctica-mente la misma velocidad, tanto si está compuestode una línea como si está compuesto de varios mi-les. Los tipos principales son los de chorro de tintay los electrostáticos, que funcionan según princi-pios similares a los de las impresoras descritas enlos párrafos anteriores. La resolución para impri-mir dibujos con calidad aceptable debe estar porencima de los 600 dpi.

Otro método de obtención de copias permanen-tes es por medio de una filmadora. Consiste bási-camente en un dispositivo que incorpora un tubode rayos catódicos en cuyo extremo se sitúa unacámara. La imagen se envía directamente desde laCPU a través de un puerto paralelo de modo seme-jante a como se enviaría a un monitor o una impre-sora. Pero, en lugar de una plantilla o un papel, loque hay al final es una película en la que se va gra-bando la imagen en tres pasadas, una por cada unode los canales rojo, verde y azul, a una resolucióndel orden de las 4.000 líneas y que puede alcanzarhasta las 8.000 líneas. El tiempo de filmación pue-de ser del orden de los 2 o 3 minutos por imagen.Se obtiene así una película que se lleva a revelarcomo lo haríamos con una película fotográfica co-rriente.

Dispositivos de almacenamiento

Al enviar datos a un periférico o al recibirlos espreciso indicar a la unidad central cuál de ellos esel activo. Se denomina unidad, traducción corrien-te de drive, si bien el significado no es exactamen-te el mismo, al disco de almacenamiento que estéactivo en un momento dado. Su descripción gené-rica sería la de un dispositivo que contiene un apa-rato electromecánico que permite girar discos o

cintas de modo que sus diferentes sectores sean ac-cesibles para lectura o escritura.

Cada una de las unidades, en un PC, con los sis-temas operativos de Microsoft se denomina con-vencionalmente con una letra que puede ir de la Aa la Z. La unidad A designa corrientemente la uni-dad que contiene los disquetes, la unidad B, si exis-te, a una segunda unidad de disquetes, que puedeser de 5,25" si la anterior, como es habitual, es de3,5" aunque también puede alojar disquetes mag-neto-ópticos de 120 Mb. La unidad C designa co-rrientemente el disco duro. La unidad D puede de-signar un segundo disco duro. La unidad E puededesignar un lector CDRom o una unidad magneto-óptica externa, y así sucesivamente. Estas unida-des pueden también ser virtuales, es decir, por de-terminadas razones puede interesar dividir el discoduro en diferentes unidades, D, E, F, etc. que fun-cionan en la práctica como lo harían dispositivosindependientes.

Aunque está relacionado directamente con ellosno debe confundirse este término con un driver"controlador", "conductor", traducido corriente-mente como controladora; un dispositivo que sir-ve para relacionar el funcionamiento de losperiféricos con la unidad central. Cada uno de losprincipales periféricos de un ordenador, tales comoel monitor, el disco duro o la disquetera, cuentacon una controladora específica que permite trans-ferir datos de la CPU al dispositivo en cuestión. Yahemos mencionado el tema a propósito de las pla-cas gráficas. En el mundo de los PCs, los driversson la pesadilla de productores y consumidoresdebido a que la ingente cantidad de programas yperiféricos en circulación pertenecen a empresasindependientes. Pero dada la gran cantidad de pro-gramas en circulación éstos se ven a menudo inca-paces de satisfacer la demanda. Gran parte del éxi-to de Microsoft Windows se debe a que resuelveeste problema para todo programa que se adapte asu entorno.

Los discos magnéticos son soportes físicos dediversas características que permiten almacenarprogramas y ficheros de datos propios. Se distin-guen por su tamaño, por su capacidad y por el tipode superficie. Hay dos tipos principales de discosmagnéticos: discos duros y disquetes. Los discosmagnéticos, tanto los discos duros como losdisquetes, deben ser formateados antes de ser utili-zados. Al dar formato a un disco la información seorganiza en pistas y sectores tal como se muestra

Page 85: [Architecture eBook] Aplicaciones as en Arquitectura

84 Aplicaciones informáticas en arquitectura

en la figura 28. Las pistas son anillos concéntricosy los sectores regiones determinadas por radios tra-zados a intervalos regulares sobre las pistas. Unsector es la cantidad mínima de información quepuede ser escrita o leída en cada acceso al discopor el cabezal de lectura.

Los disquetes son de dos tipos, disquetes flexi-bles de 5¼ pulgadas, cada vez menos frecuente ydisquetes flexibles, más rígidos que los anteriores,de 3½. Giran a una velocidad de unos 300 revolu-ciones por minuto. Los discos duros consisten envarios discos superpuestos de tal modo que todassus pistas quedan alineadas verticalmente consti-tuyendo cilindros (ver figura 29). El primer discoduro para ordenador fue introducido por IBM en1954 y tenía una capacidad de 5 Mb y un diámetrode 24 pulgadas (60 cms). El primer ordenador per-sonal, también introducido por IBM en 1981, teníaun disco duro con una capacidad de 5 a 10 Mb y undiámetro de 5,25 pulgadas. A finales de los 1980comenzaron a aparecer discos duros para ordena-dores personales de 3,5 pulgadas y 500 Mb de ca-pacidad. Y a lo largo de los 1990, con mejoras enla densidad de almacenamiento, en la velocidad derotación y transferencia y en la capacidad de lectu-ra, con cabezales más pequeños, la capacidad dealmacenamiento ha crecido espectacularmente. Unacifra corriente de capacidad, en 1990 era 20 Mb,en 1995, 400 Mb y, en 1999, 4,3 Mb para un únicodisco de 3.5 pulgadas con un coste absoluto menor

a las 20 Mb de 1990. En los modelos con 4 platosy 8 cabezales esta cifra alcanza, en 1999, los 18Gb.

El tiempo de acceso (tiempo promedio que setarda en alcanzar una pista cualquiera) puede estarentre 12 y 28 ms (milisegundos). La velocidad derotación, que estaba hasta hace poco situada en tor-no a las 2.400 a 3.600 revoluciones por minuto, haaumentado también hasta 7.200 revoluciones porminuto. Además de la capacidad y el tiempo de ac-ceso debe tenerse en cuenta otros parámetros talescomo la velocidad de transferencia media(sustained data rate) que era del orden de los 3,5 a5 MBps en 1998 y la velocidad de transferenciapunta (burst data rate) que puede ser del orden de7 a 9 veces superior, alcanzando los 66 mbps enlos modelos más o menos corrientes en 1999. Lafirma Seagate, fundada en 1979, era hasta hace pocola mayor proveedora de discos duros, seguida porQuantum, Western Digital, IBM, Maxtor, Fujitsu,Samsung y Toshiba con una cuota de mercado entorno al 20% para la primera citada y en torno al4% para la última.

Hay dos tecnologías principales, ya menciona-das en la sección sobre buses, que se utilizan paraconectar los discos duros con la unidad central, IDE(Integrated Drive Electronics) y SCSI (SmallComputer System Interface). La primera es la uti-lizada por todos los discos duros corrientes, conlas características que hemos resumido en el párra-fo anterior. La segunda, bastante más cara, se utili-za cuando se quiere obtener rendimientos superio-res y mayor seguridad. Un disco duro SCSI tieneuna capacidad de 9 Gb por cada plato, gira a 10.000revoluciones por minuto y tiene una velocidad de

SectorTrack

Cluster

FAT

Figura 28 Discos magnéticos. Disquete.

Figura 29 Discos magnéticos. Disco duro

Page 86: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 85

transferencia de unos 80 mbps. Dado el espectacu-lar desarrollo de los discos tipo IDE estas ventajasrara vez compensan la diferencia de coste.

Para almacenamiento externo se utilizan tam-bién los discos magnetoópticos. Un disco magne-to-óptico tiene un soporte físico similar al de losdiscos magnéticos pero que combina tecnologíasde grabación magnéticas y láser para crear discoscon gran capacidad de almacenamiento y que pue-den regrabarse. La superficie de grabación se basaen una aleación de hierro que permite grabar pun-tos magnéticos con diferente orientación, positivao negativa, que sirven así para alamacenar bits, demodo similar a como lo hacen los discos magnéti-cos, discos duros o disquetes, y las cintas. Pero, adiferencia de éstos, los bits grabados, los puntosmagnetizados, son mucho más pequeños debido aque se utiliza un láser que calienta el punto a unos300º de temperatura, lo que permite realinear conextrema precisión el punto magnético. Los discosmagnetoópticos han alcanzado una enorme popu-laridad durante 1996 y 1997 con el lanzamiento,por la firma Iomega de la marca Zip, discos mag-netoópticos de 100 Mb de capacidad y tamaño si-milar a un disquete de 3,5", fácilmentetransportables, compatibles y baratos. La mismafirma tiene otro modelo, el Iomega Jaz, con 1 Gbde capacidad y similares características al IomegaZip. Otras firmas, como Syquest, ofrecen produc-tos similares.

La capacidad de almacenamiento se ha revolu-cionado sobre todo con la aparición de los discosópticos, principalmente los discos compactos oCDs. Las especificaciones de un CD actual se ba-san en las acordadas por Philips y Sony, las com-pañías que lo desarrollaron entre 1980 y 1982 yque fijaron sus dimensiones y sus protocolos dealmacenamiento de la información. A partir de estohan surgido diferentes formas de CD, para música(CD Audio, primer modelo en 1982, por Sony), paradatos y programas informáticos (Phillips y Sony,1985), para PCs (CDRom, Phillips y Sony, 1X con650 Mb de capacidad y un precio de $1000).

Todos tienen las mismas dimensiones (12 cmsde diámetro) y la misma capacidad (650 Mb). LosCDs se fabrican en policarbonato semitransparenteque se funde a 300º. Después de grabar los datospor estampación se enfrían rápidamente para evi-tar malformaciones. La figura 30 muestra un es-quema del sistema de lectura.

Un CDRom, siglas de Compact Disk Read Only

Memory, "disco compacto con memoria de sólo lec-tura" consiste en un formato normalizado de gra-bación de datos digitales, textos, imágenes o soni-do, sobre CD, que permite almacenar una gran can-tidad de datos, del orden de 650 Mb, en un soportemagnético de 12 cms de diámetro, espesor de 1.2mm y un agujero central de 15 mm. Sobre este so-porte se graba en modo digital una serie de peque-ños surcos a lo largo de una espiral continua, enlugar de pistas concéntricas como ocurre en losdiscos magnéticos (figura 31), que se protegen conuna capa transparente de barniz o plástico transpa-rente. Se leen por medio de un rayo láser que diri-ge luz hacia los surcos, recoge los reflejos y lostraduce a código digital. La densidad de grabaciónes de 16.000 TPI (tracks per inch) cifra enorme-mente superior a la de los discos magnéticos quees de 135 en los de 1,44 Mb. Otra diferencia fun-damental es que la velocidad de rotación es varia-ble, de tal modo que la información pasa bajo loscabezales de lectura con la misma velocidad, lo quepermite optimizar al máximo la lectura si bien lostiempos de acceso son menores debido a las acele-

Figura 30 Discos ópticos. CD

Figura 31 Formatos de un disco magnético y de un disco óptico

Page 87: [Architecture eBook] Aplicaciones as en Arquitectura

86 Aplicaciones informáticas en arquitectura

raciones y desaceleraciones.La velocidad nominal de una controladora de

CDRom (CDRom drive) está referida a su veloci-dad de transferencia efectiva. Las controladoras develocidad simple, que fueron las primeras en apa-recer (1987), contaban con velocidades de transfe-rencia del orden de 150 KBps (kilobytes por se-gundo). Cuando aparecieron en el mercadocontroladoras de 300 KBps, que doblaban esta ve-locidad se bautizaron como CDRoms "de doblevelocidad". En breve plazo aparecieron otras quetriplicaban y cuadriplicaban esta velocidad y quese etiquetaron como 4X (1994), 6X (1995), 12X(1996).

En esta fecha se había alcanzado 12 veces lavelocidad de 1987 a un coste de $250, la cuartaparte. Para saber cuál es la velocidad nominal deestas controladoras en KBps basta con multiplicarestos valores por 150. Las cifras disponibles a prin-cipios de 1996, los 4X, 6X y 8X equivalen por con-siguiente a 600, 900 y 1.200 KBps. A principios de1998 las velocidades corrientes eran de 12X y 24X($100 de coste, 15.000 pts por término medio, ladécima parte que en 1987 para una velocidad 24veces mayor). En 1999 las velocidades corrientesson del orden de los 32X o superiores.

Debe tenerse en cuenta que la importancia de lavelocidad depende del uso que se piense dar alCDRom. Para hacer correr un vídeo corto de modosatisfactorio se necesitarán velocidades innecesa-ria para instalar un programa u otro tipo de aplica-ción más o menos esporádica. La velocidad nomi-nal está referida a la lectura secuencial (Sequential-

Read Throughput) que es el tiempo requerido paraleer datos en bloques de 16K y se mide en KBps.Puede ser más significativo, aunque no es un datoque se pueda conocer en todos los casos, lo que sedenomina tiempo de acceso que es el tiempo quetarda una controladora en colocar el cabezal de lec-tura sobre un sector de datos seleccionadoaleatoriamente y en leer 2K. La distancia media esun tercio de todo el CD. Los tiempos de acceso semiden en milisegundos (ms) y pueden variar entre150 en los mejores hasta los 300 ms en los peorescasos.

Los CDRom están a puntos de ser superados poruna versión más avanzada de discos ópticos, losDVD, siglas de significado errático, Digital VideoDisk o Digital Versatile Disk, una tecnología desa-rrollada por Sony y Phillips con la finalidad de con-seguir un sistema capaz de superar la barrera delos CDs que impide grabar películas de duracióncorriente en formato digital. Los DVD son simila-res a los CD, tienen su mismo formato y son com-patibles con estos, pero tienen mucha mayor capa-cidad de almacenamiento. La primera generacióncuenta con una capacidad de 4,7 Gb, equivalente aunos 7 CDRoms lo que permite almacenar unas doshoras de vídeo, 135 minutos que son suficientespara la duración de la mayoría de las películas. Latecnología de los DVD permitirá por añadidura quepuedan ser leídos tanto desde un televisor comodesde un PC, lo que es previsible que garantice ladifusión y el abaratamiento. Pero, además, todo estopermitirá aumentar las capacidades de los progra-mas de generación y modificación de imágenes, porlo que tendrá una influencia indudable sobre estesector. La segunda generación de DVDs, aún enfase de desarrollo, añadirá una segunda capa,semitransparente, que podrá ser leída por un láserde doble poder, aumentando la capacidad a 8,58Gb. También se prevé, a corto plazo, sistemas dedoble capa y doble lado que alcanzarán las 17 Gb(aunque habrá que dar la vuelta al disco). La velo-cidad de transferencia para juegos y aplicacionessencillas es, en los DVD actuales, del orden de los600 KBps, equivalentes a un CDRom 4X. Para da-tos, esta velocidad puede llegar a los 1,3 MBps,equivalentes a un CDRom 10X. Ya hay en el mer-cado sin embargo modelos que duplican estas ci-fras (figura 32).

DVD

CD8,5 Gb

4,7 Gb

9,4 Gb

17 Gb

Figura 32 Discos ópticos. DVD

Page 88: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 87

4 Sistemas operativos

El sistema operativo de un ordenador es el progra-ma principal sin el cual no podría funcionar ningúnotro programa, y que actúa como intermediario en-tre los demás programas y la máquina. Tanto lospequeños programas que controlan el funciona-miento de un periférico, como los grandes progra-mas de aplicación, deben incluir rutinas deinteracción con el sistema operativo que permitantraducir sus funciones al formato de instruccionesde la plataforma con que se cuenta. El sistema ope-rativo, al igual que cualquier otro programa, cuen-ta con una serie de términos clave y unas reglas desintaxis que deben ser conocidas por el usuario parapoder utilizar el ordenador correctamente. Aunquela palabra "sistema" se aplica a cualquier conjuntode entidades y reglas de interacción entre entida-des, que sirven a una determinada finalidad, el tér-mino "sistema", en informática se refiere corrien-temente al sistema operativo y, por extensión, atodos los protocolos de configuración de dispositi-vos con que se cuenta en un ordenador.

El sistema operativo se pone en marchaautomáticamente al arrancar el ordenador. Si todoha ido bien, una vez ejecutadas todas las operacio-nes previas de ajuste, aparecerá en pantalla un sím-bolo que se conoce como el prompt del sistema, untérmino inglés que proviene del latín promptus,"preparado, dispuesto". En el mundo teatral se uti-lizaba con la acepción de "apuntar"; en informáti-ca se denomina así a un indicador, un mensaje bre-ve, que puede ser un signo o un carácter, que apa-rece en el monitor y que indica al usuario que es su

turno para introducir una orden. El prompt puedeser modificado por el usuario pero hay ciertos usoscorrientes que es preferible respetar. Así en el sis-tema operativo MSDOS, el prompt "C:\" indica,por convención, que se está trabajando en la uni-dad del disco duro ("C:") y en el directorio raiz("\").

Los sistemas operativos actuales pueden intro-ducirnos directamente en modo gráfico con lo queen lugar del prompt nos encontraremos con lo quese denomina un shell ("concha", "caparazón", "en-voltura"); se denomina así a un programa que ac-túa como intermediario para otros programas, pro-porcionando un entorno de trabajo con menús, ca-jas de diálogo, etc., que facilitan la tarea del usua-rio. Un ejemplo omnipresente de entorno es el pro-porcionado por Windows. Las últimas versiones deWindows son un sistema operativo autónomo: estoes parcialmente cierto en el caso de Windows 95 yWindows 98 que prescinden aparentemente delMSDos pero cuentan con él como estructura sub-yacente y plenamente cierto en el caso de WindowsNT que cuenta con protocolos propios de gestiónde archivos y dispositivos. El esquema de la figura33 representa el modo en que el sistema operativoactúa como un anillo de intercambio entre las apli-caciones y los sistemas de entrada y salida yperiféricos.

Hemos visto que el término configuración osetup designaba a la disposición de las partes queconstituyen un soporte físico (hardware) o un so-porte lógico (software). En la segunda acepción sedenomina así a los parámetros y órdenes específi-cas que se dan desde al sistema operativo a loscontroladores de cada dispositivo para que el ren-dimiento de éstos resulte óptimo.

Uno de los chistes más famosos en el mundoinformático es el del mecánico, el ingeniero y elinformático que viajan en un coche que de prontose para. El mecánico propone desmontar el motory hacer una inspección a fondo. El ingeniero pro-pone limpiar el carburador. El informático propo-ne subirse otra vez y volver a arrancar. Este chistese basa en la notable capacidad de los ordenadorespara solucionar muchos problemas sin más que"reinicializar" o "rebotar". La palabra boot, "arran-car el ordenador, botar, inicializar", es el términoutilizado corrientemente en el argot informático in-glés para esta acción tan efectiva. Carece de tra-ducción corriente aunque se usa a veces "botar" o"butar". El término original deriva de bootstrap,

Salida Entrada

RedesPeriféricos

Usuario

Figura 33 Esquema de funcionamiento delsistema operativo

Page 89: [Architecture eBook] Aplicaciones as en Arquitectura

88 Aplicaciones informáticas en arquitectura

las tiras de cuero que asoman de las botas campe-ras y ayudan a calzárselas; se atribuye el origen auno de los cuentos del barón de Munchausen en elque salió de un agujero en el que había caído esti-rando de sus botas hacia arriba. También se utilizael término inicializar o reinicializar. La operaciónde volver a arrancar la máquina en caliente, sindesenchufarla se lleva a cabo para descargar la me-moria de datos o programas que pueden estar in-terfiriendo en un proceso en curso. En el sistemaoperativo MSDOS, esta operación se efectúa pre-sionando simultáneamente las teclas Control-Alt-Supr. Otro término con el mismo significado esreset, si bien se reserva para los casos en que lamáquina va provista de un botón o algún tipo deconmutador que permite una reinicialización direc-ta.

Como ya hemos visto existen tres sistemasoperativos principales para PCs, el Unix, utilizadosobre todo por minicomputadores y estaciones detrabajo pero que también puede instalarse en orde-nadores personales, el utilizado por los ordenado-res Macintosh y el utilizado por los PCs. El Unixes un sistema operativo multiusuario utilizado co-rrientemente en estaciones de trabajo de mayor po-tencia y capacidad que los PC. Fue desarrollado en1969 por Ken Thompson. A mediados de los 1970corría principalmente en ordenadores tipo PDP, or-denadores con una unidad central potente y variasterminales. A finales de esta década surgieron dife-rente versiones comerciales. En la década siguien-te se normalizaron diferentes versiones. En 1989se formó la UNIX Software Operation que, en 1990,se convirtió en la UNIX System Laboratories Inc.,división subsidiaria de AT&T. En la actualidad esel principal sistema operativo sobre plataformas nopersonales aunque está perdiendo progresivamen-te cuota de mercado frente a los PCs.

En los PCs el sistema operativo principal siguesiendo el MSDOS, siglas de Microsoft DiskOperating System, "Sistema Operativo de Discode Microsoft". Su futuro se presenta más que pro-blemático desde hace años ante la limitación quesupone contar con una memoria principal de 640Kb, cuando muchos ordenadores utilizan 32 Mb loque obliga a realizar una serie de enojosas chapu-zas que serían innecesarias en un sistema sin estalimitación (que se mantiene por requisitos de com-patibilidad con versiones anteriores) para podergestionarla.

La hegemonía de Microsoft en el mundo de los

PCs se ha incrementado con la aparición de las di-ferentes versiones de MSWindows, un shell o siste-ma de interfaz superpuesto al MSDOS y que hacontribuido espectacularmente a la difusión de losPCs. La firma Microsoft fue fundada en 1975 porPaul Allen y Bill Gates, dos estudiantes universita-rios que escribieron el primer intérprete Basic parael i8080 y crearon la microcomputadora Altair8800.

La noción básica, Window, "ventana" fue unametáfora puesta en circulación por los ordenado-res Apple Macintosh aunque las ideas básicas seremontan a las ideas desarrolladas por Alan Kay,un estudiante de la universidad de Utah que pre-sentó una tesis doctoral en 1969 en la que se antici-paban muchas de las nociones de lo que se ha veni-do en denominar desktop computing y otras nocio-nes fundamentales de simulación y orientación aobjetos que se desarrollarían en los centros de in-vestigación Xerox de Palo Alto, en California, don-de Kay trabajó en la década de los 1980s junto conmuchos otros investigadores y que se concretaríanen 1972 el lenguaje de programación Small Talk,el primer lenguaje de programación orientado aobjetos.

Cuando se trabaja con estos conceptos-metáfo-ra, el monitor se presenta como una pantalla com-puesta por subventanas que pueden abrirse y ce-rrarse y en las que el usuario puede adentrarse sinlímite. El proceso real se basa en una compleja es-tructura de transferencias de bloques de bits queestán en gran medida normalizados e integradosen rutinas compartidas por una gran variedad desistemas gráficos.

Una piedra de toque de los sistemas operativoses su capacidad para la multitarea. Se denominanasí los sistemas operativos capaces de controlar laejecución de dos o más programas en paralelo porun mismo ordenador. Windows 95 y Windows NTson auténticos sistemas multitarea lo que marca sudistancia con respecto al MSDos y al Windows 3.x.

Funciones

Los sistemas operativos permiten controlar de mododirecto la organización de archivos en el disco duro.El principal uso directo que se hace de un sistemaoperativo es para copiar, mover y renombrar fi-cheros. Esto implica un trasiego constante por di-rectorios, subdirectorios. Un directorio o carpetapuede entenderse como algo que no tiene otro con-

Page 90: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 2. Recursos básicos. Programas y máquinas 89

tenido que o bien un subdirectorio, es decir un di-rectorio subordinado a otro directorio o un fiche-ro, que es el receptáculo sustancial de información.

Un fichero, archivo o file es un conjunto de in-formación almacenada de modo unitario bajo unúnico nombre y asociado a uno o más tipos de pro-gramas de aplicación. Los ficheros pueden conte-ner información propia de un programa, no accesi-ble para el usuario o bien información generadapor el propio usuario y administrada por un pro-grama. Los ficheros generados por el propio usua-rio pueden a su vez ser accesibles por otros usua-rios o quedar protegidos por claves propias. Pue-den ser reescritos o pueden quedar protegidos paraescritura.

Todo fichero lleva asociada una ruta o path.Dado que los archivos, en un ordenador, están in-sertados en una estructura compleja que, por logeneral, incluye diferentes unidades y, dentro decada una de ellas, directorios y subdirectorios, laindicación de la vía de acceso a un fichero, sea demodo directo, sea por medio de variables incorpo-radas al sistema operativo o a un programa de apli-cación, es un aspecto fundamental de la gestión dearchivos. En el sistema operativo DOS, los nivelesde la vía de acceso se indican por medio de barrascontrainclinadas. La ruta de acceso a un archivo"CASA9. dwg" que contuviera la planta de una casapodría ser, por ejemplo"C:\grupo1\pry3\dwg\CASA9.DWG" en donde"C:" indica la unidad en que se trabaja "grupo1" elgrupo de trabajo, "pry3" el proyecto 3 de los pro-yectos en curso y "dwg" el subdirectorio en dondese incluyen los archivos gráficos de dibujo de esteproyecto.

En todos los sistemas operativos el nombre delos ficheros consta de una serie de caracteres querepresentan su "nombre propio" más tres caracte-res adicionales que indican su tipo y que se deno-minan su extensión. Estos caracteres se sitúan alfinal del nombre del fichero, separados por un pun-to. Cuando se utiliza el sistema operativo como elMsDOS o un entorno operativo como Windows,hay una serie de extensiones que se han adoptadoconvencionalmente y que deben respetarse. Algu-nas de las principales son las siguientes:

.bak backup, copia de seguridad

.cfg archivo con datos sobre configuración

.com command, fichero ejecutable

.dat archivo con datos sobre instalación deun programa

.dll dynamic link library, subprograma quese activa en tiempo de ejecución

.drv driver

.exe ejecutable

.hlp help, archivo de ayuda a un programa

.ini archivo con códigos de inicialización

.rtf rich text format, archivo asci mejora-do

.tmp archivo temporal

.ttf true type font, tipo de letra "verdade-ro"

.txt archivo de texto genérico en códigoASCI

.sys archivo de sistema de un programa

Formatos

Se denomina formato, genéricamente, a la formaen que están estructurados los datos sobre un de-terminado soporte. Sobre este tema volveremos envarias ocasiones. En el capítulo 11, sobre bases dedatos y sistemas de información, se discutirá algomás extensamente la importancia de estructurar losdatos de uno u otro modo. Desde un punto de vistameramente operativo, y por lo que respecta al tipode datos más generales, puede decirse que hay trestipos principales de formatos:

a) Los archivos de mapas de bits guardan imá-genes como matrices que almacenan la posiciónde cada punto y el valor cromático o acromáticoque le corresponde. En el capítulo 6, sobre imáge-nes, se enumeran los principales tipos de formatosutilizados en tratamiento de imágenes, probable-mente el sector en donde puede encontrarse mayorvariedad.

b) Los archivos vectoriales guardan entidadesgeométricas como estructuras que asocian etique-tas de identificación, propiedades y datos. Por ejem-plo, "línea", "color negro", "tipo continuo" "puntoinicio: 1,2", "punto final: 3,42. Pueden considerar-se como bases de datos con instrucciones implíci-tas sobre como imprimir o mostrar tales datos.

c) Los metaarchivos son archivos con capaci-dad para contener los dos tipos anteriores. Se utili-zan principalmente en impresión y en programasde autoedición que deben manejar archivos de di-bujo e imágenes. El principal es sin duda EPS (si-glas de Encapsulated Postcript File), un formatoque es propiamente un lenguaje de descripción deentidades de diversos tipos y que es compartidopor muchos modelos de impresoras. Otro formato

Page 91: [Architecture eBook] Aplicaciones as en Arquitectura

90 Aplicaciones informáticas en arquitectura

de transferencia muy utilizado bajo Windows esWMF (siglas de Windows Meta File).Cada programa de aplicación graba sus datos enun formato propio y los archivos especifican esteformato por medio de una serie de extensiones ca-racterísticas que es necesario conocer y respetarpara poder identificar los archivos. Se indican acontinuación algunos ejemplos corrientes.

.cdr composición con Corel Draw

.dgn dibujo o modelo en Microstation

.doc documento de Word

.dot plantilla de Word

.dwg dibujo o modelo de AutoCad

.max escena de 3D Studio Max

.mda base de datos creada con Access

.psd imagen generada con Photoshop

.xls tabla de datos creada con Excel

.3ds escena de 3D Studio

Hay otros archivos que se utilizan para transferirdatos entre aplicaciones. Los dos más conocidosson IGES (siglas de Initial Graphics ExchangeSpecification) desarrollado por un comité de ANSIcon la intención de que fuera independiente de cual-quier programa de CAD, que se reconoce por laextensión ".igs" y DXF (acrónimo de DrawingeXchange Format), con extensión ".dxf", desarro-llado por AutoDesk.

Complementos operativos

Aunque un sistema operativo proporciona la ma-yoría de funciones que un usuario normal puedenecesitar y, desde luego, muchas otras que no utili-zará nunca, siempre hay determinadas cosas queuno querría hacer pero para las que el sistema ope-rativo no dispone de una función adecuada. Paracomplementar esta carencia hay infinidad de pe-queños programas denominados convencionalmen-te utilidades, que complementan las órdenes delsistema operativo de modos a veces inesperados ypueden facilitar la gestión de archivos o la realiza-ción de determinadas tareas. Ejemplos de utilida-des son: programas de comprensión de archivos(pkunzip.exe, arj.exe, winzip), programas de bús-queda, de conversión de formatos (alchemy.exe),de conexión con otras unidades u otros ordenado-res, de edición de textos en ascii (múltiples), deantivirus, de generación de copias de seguridad,de visualización de documentos, de

desfragmentación del disco duro, etc. Algunos pro-gramas populares integran un gran número de es-tas utilidades en un conjunto unitario que funcionacomo un sistema superpuesto al sistema operativoque aumenta sus recursos y hace la gestión mássencilla mediante la adición de recursos gráficos,ventanas, menús colgantes, etc.

De todos estos, probablemente el más necesarioes un buen antivirus. Un virus es un programa di-señado con la sana intención de ocasionar fallos enel funcionamiento de un disco duro o destruir da-tos. Los virus se instalan en ficheros ejecutables demodo invisible para el usuario y se copian a si mis-mos en otros ficheros ejecutables, propagándose através de archivos compartidos por cualquier or-denador que haya entrado en contacto con estosarchivos. Hay virus de diversas categorías, desdelos que pueden producir simples molestias en elfuncionamiento de un programa hasta los que pue-den destruir componentes básicos del ordenador.Existen programas antivirus que los detectan y loseliminan y que se van renovando continuamente amedida que aparecen nuevas especies y que pue-den encontrarse con facilidad a través de Internet.

Page 92: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 91

Capítulo 3 CAD2D

Para la gran mayoría de arquitectos que utilizan lainformática los instrumentos principales de traba-jo siguen siendo, y seguirán siendo, aquellos queposibilitan una definición precisa de perfiles y vis-tas planas de las formas que están proyectando. Yesto es así no sólo por razones técnicas que limitanla capacidad para usar otras técnicas más comple-jas de generación que se verán más adelante sino,sobre todo, porque la propia índole de la arquitec-tura confiere una importancia esencial a las plan-tas, los alzados, las secciones y el trabajo sobreplanos maestros que lo son tanto por razones cons-tructivas como por razones de concepción del pro-yecto. De ahí que el primer tipo de programa deaplicación que un arquitecto debe conocer en laactualidad y, si es posible, dominar, es lo que sedenomina genéricamente CAD2D, esto es, un tipode programa informático que permite generar ymodificar figuras planas.

1 Interfaz

Antes de la aparición de los ordenadores con capa-cidad gráfica, trabajar con un programa de CADimplicaba conocer una serie de funciones, activarestas funciones escribiéndolas con el teclado yesperar una respuesta de la máquina que podía serun dato, un mensaje de confirmación o un mensajede error. Si la sesión había ido bien, al final se en-viaba una orden de imprimir el resultado y sóloentonces se podía contar con una vista de lo queuno se traía entre manos. Contar con un ordenadorcon "capacidad gráfica" quiere decir, en primerlugar, que no es preciso esperar hasta que la impre-sora (o un monitor especial al que hay que activarmediante una orden específica) nos muestre el re-sultado de una serie de acciones sino que este apa-rece "en tiempo real", es decir, como respuesta in-mediata a la secuencia de operaciones que vamos

introduciendo. Desde 1984 aproximadamente, pri-mero a través de los ordenadores Apple, despuésde los IBM y más adelante a través de todo tipo demarcas, los PCs están equipados con placas gráfi-cas que posibilitan este modo de trabajo. Actual-mente la inmensa mayoría de los programas deCAD trabajan en modo gráfico.

Pero, por añadidura, el concepto ha evoluciona-do hasta incluir un sinfín de mecanismos que notienen otro objeto que facilitar la interacción delusuario con la máquina. Sin embargo, esta razónaparentemente secundaria se ha convertido en lapráctica en primordial debido a dos razones que esdifícil mantener separadas: por un lado, a impera-tivos comerciales y por otro a la propia evoluciónde los programas. La búsqueda de nuevos clientes,que comprenden las ventajas de utilizar un ordena-dor pero son reacios a entrar en la lógica de la má-quina, es lo que ha impulsado la proliferación demecanismos de interfaz "amistosos". Pero, tambiénes verdad, y esto es particularmente cierto en elmundo del CAD, que la complejidad que han idoadquiriendo los nuevos programas hace necesarioque estos se complementen con recursos que, comomínimo, descarguen al usuario de la necesidad dememorizar cientos de ordenes y parámetros.

Los recursos de interfaz están en parte normali-zados por asociaciones que procuran contribuir afacilitar el intercambio tecnológicos. El grupo denormativos principales, hasta hace unos años esta-ba parcialmente recogido en PHIGS, siglas deProgrammer’s Hierarchical Interactive GraphicsStandards, ("estándares de gráficos interactivosjerarquizados para programadores"), un sistema deprotocolos y convenciones independientes del dis-positivo, creado para unificar funciones y facilitarel intercambio entre diferentes tipos de dispositi-vos y programas de gráficos. Había 6 dispositivoslógicos de entrada normalizados en Phigs: locator,

Page 93: [Architecture eBook] Aplicaciones as en Arquitectura

92 Aplicaciones informáticas en arquitectura

pick, choice, valuator, string y stroke. El primero,locator, proporcionaría la posición en coordena-das globales (x,y,z) de un punto de datos; su reali-zación física puede venir dada por un ratón o uncursor asociado a una tableta digitalizadora. El se-gundo, pick, identificaría una estructura o un ele-mento de una estructura; puede ser realizado por elmismo dispositivo que el anterior, tal como un ra-tón. El tercero, choice, identificaría una selecciónen un rango de alternativas, tal como ocurre cuan-do se escoge una orden de un menú. El cuarto,valuator, identificaría un valor numérico en un ran-go de valores posibles dados. El quinto, string, daríauna entrada de texto, por lo general a través delteclado. Y el sexto y último, stroke, proporcionaríauna secuencia de posiciones (x,y,z) en coordena-das globales.

Mencionamos estos términos para subrayar elhecho de que lo que puede aparecer como una ca-racterística "natural" de algunas aplicaciones tienedetrás una larga historia de protocolos, normativasacuerdos y desacuerdos. Hay que decir por otrolado que los organismos internacionales de norma-lización siguen a duras penas la evolución comer-cial y que, en estos momentos, a finales del siglo,las normas gráficas están dominadas por los recur-sos propios de Microsoft Windows que son simila-res en algunos aspectos a los indicados pero inclu-yen una miríada de herramientas adicionales,omnipresentes en toda aplicación que funcione eneste entorno.

Haremos una revisión rápida de los recursoshabituales presentándolos de un modo menos téc-nico. Dado que la mayor parte de la informaciónestá en inglés utilizaremos los términos inglesesacompañados de su traducción al español para fa-cilitar la doble asimilación de estos términos.

Recursos gráficos principales

Muchos de los recursos gráficos habituales, comoel cursor o las bandas elásticas, se remontan a 1963,fecha en que Sutherland presentó en su tesis docto-ral ("Sketch-Pad: A Man-machine GraphicalCommunications System") un buen número de lastécnicas de interfaz que ahora están presentes encualquier PC. Así, el cursor, como casi todo el mun-do sabe, es un indicador, en la pantalla de un moni-tor, de la posición en que se está ejecutando un pro-grama. En modo alfanumérico, el cursor adopta ge-neralmente la forma de un pequeño rectángulo, del

tamaño de un carácter, que parpadea para facilitarsu localización. En modo gráfico, el cursor adoptadiversas formas que dependen del tipo de progra-ma y del tipo de operación que se esté llevando acabo. Algunas de las más corriente en programasde imágenes son: una flecha, que indica por lo ge-neral que se está en modo selección general, doslíneas ortogonales cruzadas que indican que se estáen modo de introducción de datos gráficos o unpequeño rectángulo que indica que se está en modode selección de entidades.

Las rubber bands o bandas elásticas son otrorecurso corriente en sistemas gráficos que simulanla deformación interactiva de una entidad gráficatal como una línea o un rectángulo, lo que facilitael seguimiento de las operaciones. Las asas,handles o grips son pequeños iconos en forma decuadrado que aparecen en los vértices de entida-des seleccionadas y que indican que están disponi-bles para ser cambiadas de posición arrastrando laentidad pero sin modificar el resto de los vértices.Todos estos recursos básicos, algunos de los cua-les se muestran en la figura 1, tienen ya cerca de30 años de existencia.

La entrada de ordenes se puede hacer básica-mente de dos modos: escribiéndolas directamentepor teclado o seleccionándolas por medio del ra-tón o las teclas del cursor del teclado a partir deuna serie de alternativas dadas por menús. En am-bos casos se activa, por medio de una palabra cla-ve, una serie de procesos. En el primer caso el tex-to aparece en algún sector especial de la pantallaque se conoce generalmente como línea de orde-nes o command line. Esto permite comprobar loque se ha escrito antes de confirmar la orden. Lamayoría de los programas de CAD permiten crearabreviaturas personalizadas para las órdenes máscorrientes. Por esta razón, la entrada por teclado

Figura 1 Cursores, asas y cintas elásticas

Page 94: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 93

como medio principal de interacción sigue siendoel método favorito de usuarios experimentados aun-que se utilicen los menús para órdenes de uso me-nos frecuente.

En el segundo caso la orden se selecciona a par-tir de algún tipo de menú, que incorpora de algúnmodo la orden, evitando el tener que escribirla;basta resaltarla y hacer clic con el ratón para acti-varla. Las listas de ordenes aparecen agrupadas dediversos modos. La mayoría de programas de Cadactuales presentan tres o cuatro menús. Uno fijo,que puede estar situado en la parte lateral derecha,el menú de pantalla o screen menu. Otro que apa-rece en el momento en el que el cursor se sitúa so-bre la parte superior de la pantalla, el menú col-gante o pop down menu; hasta ese momento la lí-nea superior puede haber servido como un indica-dor de la posición en coordenadas del cursor, de lacapa y el color activos y de las restricciones deortogonalidad activas si bien la tendencia actual esmantener la información de estado, dada por otrorecurso, la barra de estado o status bar, en la parteinferior de la pantalla.

Una tercera posibilidad la proporcionan losmenús de iconos o barras de herramientas, iconmenus o tool bars. Microstation o AutoCad paraWindows presentan menús de este tipo que puedendesplazarse y situarse en cualquier posición de lapantalla. Aunque la utilización de iconos facilita ausuarios noveles el aprendizaje del programa ocu-pan partes considerables de la pantalla y los usua-rios más expertos tienden a reducir su uso al míni-mo. Por último los menús emergentes o pop upmenus surgen en cualquier posición de pantalla in-cluyendo ordenes particularmente frecuentes; se ac-tivan a menudo presionando el botón derecho delratón o alguna combinación tal como este botónjunto con la tecla de mayúsculas. Estos recursosbásicos se resumen en la figura 2.

La entrada de datos (coordenadas, dimensio-nes) puede efectuarse en modo gráfico o en modonumérico. En modo gráfico la entrada es aproxi-mada a no ser que se tenga activada alguna de lasrestricciones que obligan a las entidades gráficas asituarse sobre una retícula. En modo numérico de-ben escribirse los datos en la línea de ordenes o enun panel anexo y caben diversas posibilidades.Puede introducirse un punto a partir de las coorde-nadas absolutas o de las coordenadas relativas alúltimo punto introducido o a un punto selecciona-do. Y, en cualquiera de estos casos, puede elegirse

entre introducir los datos por medio de coordena-das cartesianas, por medio de coordenadas polareso por medio de coordenadas cilíndricas o esféri-cas. Muchos usuarios prefieren utilizar macros oalias para evitar tener que repetir determinadas se-cuencias obligadas para el caso de, por ejemplo,entrada en coordenadas polares relativas.

La utilización de alias o macros es una formade personalizar el uso de un programa. Un ordena-dor "personal" admite la posibilidad, como seríade esperar, de adaptar todos o la mayoría de losprogramas de aplicación a los modospersonalizados o individualizados de trabajo. Estose consigue, en mayor o menor grado, en funciónde lo abierto que sea el programa y puede ir desdela modificación de aspectos propios de lainteracción básica, tal como el color de la pantallao el tipo de letra de los menús, hasta la creación deordenes propias por medio de lenguajes de alto ni-vel incorporados al programa y accesibles para elusuario. Un mínimo grado de personalización, através del sistema operativo y los archivos de arran-que, es prácticamente obligado para adaptar el fun-cionamiento de cualquier programa a las caracte-rísticas particulares de la máquina.

Otro aspecto importante, ya mencionado, es lautilización de restricciones o constraints en la en-trada de datos. Las principales restricciones dispo-nibles en cualquier programa de CAD2D son:a) las que fuerzan la ortogonalidad; si se activaeste modo todas las líneas y movimientos se reali-zan perpendicularmente al sistema de coordenadasactivo; b) los snaps ("cazados" en la versión espa-ñola de Microstation); si se activa esta opción alseleccionar un elemento el cursor se sitúa

Línea de ordenes y mensajes

Menú colgante (Pull down)Línea de Menús

Menú de Iconos

Menú

(Pop up)

Figura 2 Recursos básicos de interacción

Page 95: [Architecture eBook] Aplicaciones as en Arquitectura

94 Aplicaciones informáticas en arquitectura

automáticamente sobre determinados puntos cla-ves tales como el punto final, el punto medio, elpunto perpendicular o la intersección de una línea,el centro de un círculo, etc; c) las retículas forza-das, o grids que obligan al cursor a situarse sobreun punto de la retícula.

Otros recursos gráficos

La implantación masiva de Microsoft Windows hageneralizado una creciente cantidad de recursosgráficos que facilitan la entrada de datos o deparámetros que afectan a los datos. Un recurso com-plementario utilizado por muchos tipos de progra-mas, además de los que funcionan bajo Windows,son las cajas de diálogo o dialog boxes, un recursode interfaz que hace surgir en pantalla un recuadroen cuyo interior aparecen una serie de mecanismosvirtuales y textos que facilitan la entrada de opcio-nes o parámetros asociados a ordenes o la especifi-cación de variables. En el caso de MS Windows,los principales dispositivos son los siguientes: bo-tones de radio o radio buttons, que permiten "sin-tonizar" opciones que se excluyen mutuamente;conmutadores, casillas de verificación o checkboxes, que permiten elegir opciones no excluyentes;cajas de listas o listboxes, que presentan listas dealternativas; textos estáticos o static texts, que eti-quetan las diferentes opciones y facilitan la com-prensión de la caja de diálogo; textos editables,cajas de edición o edit boxes, que permiten intro-ducir valores. La figura 3 muestra una caja de diá-logo genérica en la que aparecen ordenados todosestos componentes.

Otros recursos más recientes son: barras de pro-gresión, progress bars o track bars que muestranel estado del proceso, cuánto falta para que se cum-pla una determinada tarea (no hay que fiarse de-masiado de los tiempos que se dan); vistas de listasy árboles de listas, list views, tree views, que pre-sentan el contenido de un dispositivo tal como eldisco duro por medio de iconos provistos de unaetiqueta de "+" que al pulsarla muestra otras listassubordinadas o "-" que indica que puede cerrarse.Este tipo de indicadores son los mismos que se uti-lizan por barras de persianas que muestran (en modo"-") u ocultan (en modo "+") diversos controles.La mayoría de las diálogos recientes presentanmúltiples cuadros de opciones agrupados en unamisma caja por medio de un recurso similar a lasfichas tradicionales con solapas o tabs que, al acti-

varse, presentan en primer plano la página corres-pondiente, un sistema que se denomina técnicamen-te property sheets (el conjunto del recurso) yproperty pages (cada una de las fichas electróni-cas). La mayoría de estos recursos tienen como ca-racterística principal el ser de inmediata compren-sión por cualquier tipo de usuarios por lo que huel-ga cualquier explicación adicional.

Quizás lo principal que debe tenerse en cuentasobre este apartado es la necesidad de personalizarla interfaz para adaptarla tanto a las preferenciaspersonales como al tipo de trabajo que se vaya adesarrollar. Esto implica una selección drástica. Porejemplo AutoCad, en sus últimas versiones, cuentacon más de 400 o 500 órdenes, muchas de las cua-les implican varias opciones subsidiarias que ele-varían la cifra de palabras clave a cerca de 1.000.Lo primero que se requiere, una vez que se conoceel programa suficientemente bien, es seleccionarlas que se utilizan con mayor frecuencia.

Y lo siguiente es optar por un modo de entrada.Pues la mayoría de las órdenes principales puedenactivarse de 3 o 4 modos diferentes. Esto es unaventaja que se ofrece al usuario desconocido, quepertenece a un mercado muy amplio al que se in-tenta contentar de todos los modos posibles, paraque elija cuál es el modo que, en general, prefiere;no para que vaya alternado uno u otro aunque encasos muy específicos pueda ser interesante jugarcon opciones de entrada alternativas. La figura 4muestra los diferentes modos en que puedenintroducirse los datos de una línea recta.

Una elección común y recomendable es crearalias por teclado para las ordenes más frecuentes ydejar en los menús aquellas que se utilicen conmenor frecuencia, cuyo nombre quizás no se re-cuerda con seguridad, pero que interesa que que-

Título de la Caja de Diálogo

Grupo 1

Botón 1

Valor X

Grupo 3Alternativa 1

Grupo 2

Grupo 4 Grupo 5

Botón 2

Opción activa (botón 1)

Opción activa (botón 2)

Lista A

Lista B

Valor Y

Valor Z

Aceptar Cancelar Ayuda

Alternativa 2

Alternativa 3

Modo aModo bModo cModo d

Figura 3 Caja de diálogo elemental

Page 96: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 95

den accesibles con rapidez bajo categorías genéri-cas que recuerden su funcionalidad.

Organización básica

Las decisiones sobre la organización de un archivodeben quedar enmarcadas en una planificación ge-neral del proyecto. Será necesario conocer, paraempezar, cuántos modelos y planos habrá y cómose relacionarán entre sí. Sobre estos aspectos vol-veremos con mayor detalle en el capítulo 10. En loque sigue daremos por supuesto que ya existe uncontexto general de planificación y nos concentra-remos en los detalles básicos que afectan a archi-vos individuales, resumiendo brevemente estos as-pectos generales a los que volveremos.

La planificación general de un proyecto implicaque existen criterios y normas sobre cómo nom-brar los archivos y cómo ordenarlos; sobre qué ti-pos de capas utilizar y cómo nombrarlas; sobre quécolores, tipos de línea y gruesos de línea se utiliza-rán para imprimir; sobre qué elementos (puertas,ventanas, elementos de instalaciones, detalles) es-tán disponibles en las bibliotecas de símbolos conque cuenta el proyecto; sobre cómo se relaciona-rán entre sí los archivos, modelos y planos.

Por lo que respecta a esto último, es fundamen-tal saber desde el comienzo si se va a trabajar conuno o con varios modelos principales relacionadosentre sí. La mayoría de los programas de CAD per-miten trabajar con vinculaciones o referencias ex-ternas, un tema sobre el que volveremos más ade-lante. Esto permite fragmentar un modelo, lo quefacilita el trabajo pero obliga a seguir pautas es-

trictas que aseguren la consistencia del resultado.Otro aspecto fundamental de la organización,

relacionado directamente con el anterior, está liga-do a la distinción entre el modelo virtual y los pla-nos de salida. Un modelo o un conjunto de mode-los 2D es un conjunto de entidades que represen-tan las líneas maestras y los componentes básicosde un edificio a escala natural. Imprimir planos tra-dicionales a partir de un modelo de estas caracte-rísticas implica una serie de pasos que no son ob-vios. En muchos programas de CAD existen meca-nismos que facilitan este paso. En AutoCad se uti-liza una distinción eficaz entre lo que se denomina"espacio papel" (Paper Space) y "espacio mode-lo" (Model Space). Es posible conmutar entre es-tos dos espacios lo que facilita el tránsito del mo-delo virtual informatizado al modelo tradicional.Sobre el espacio papel es posible dibujar nuevasentidades pero también "abrir ventanas" sobre elespacio modelo. Estas ventanas permiten proyec-tar vistas del espacio modelo, en la orientación yescalas más convenientes, sobre el espacio papel.El espacio papel puede contar con un marco gene-ral listo para imprimir a escala 1:1 e integrar todolo que vaya destinado a la salida de planos. Losdiferentes marcos, adecuados para los diferentestamaños de papel, pueden insertarse directamenteen el espacio papel desde bibliotecas de símbolosque los incluyan.

También es posible, en los programas actuales,integrar en el modelo texto, imágenes y, en gene-ral, cualquier tipo de información proveniente de

a) - (Retícula)

0,0

b) 1,1 - 4,5

d) - @5<53.13

c) - @3,4

Figura 4 Alternativas para entrada de datos deuna línea

101.dwg

abc.dwg 101.dwg def.dwg

Figura 5 Organización de un archivo porreferencias externas e internas

Page 97: [Architecture eBook] Aplicaciones as en Arquitectura

96 Aplicaciones informáticas en arquitectura

otro tipo de aplicación, vinculando archivos almodelo en CAD mediante enlaces tipo OLE (ObjectLinking and Embedding). Si se inserta un docu-mento de texto, una hoja de cálculo o una imagen,mediante este tipo de vinculación, el contenido delo insertado se actualiza automáticamente, y tam-bién es posible acceder directamente a la aplica-ción de la que proviene sin salir del programa deCad que estemos utilizando.

Por lo que respecta a aspectos más básicos, laorganización de un archivo para la elaboración deun modelo 2D sigue pautas muy similares a las deun modelo tradicional. Según el tipo de proyectode que se trate habrá que comenzar por decidir laescala adecuada del modelo, la precisión y las to-lerancias admisibles y las unidades con que se va atrabajar.

En el caso de un sistema tradicional, la decisiónsobre estos aspectos básicos implicaría algo asícomo la utilización de mesas más o menos grandesy de escalímetros más o menos finos. En el caso deun modelo informático esto implica la elección deunos límites para el espacio de trabajo virtual, deun sistema de aumentos y decrementos proporcio-nales a estos límites, un tipo u otro de unidades, yun sistema de ángulos y dimensiones preferentesque pueden activarse o desactivarse y que, en lagran mayoría de los casos, implicará una serie derestricciones preferentes, tal como ángulos restrin-gidos a direcciones ortogonales. Esto puede com-binarse con retículas para hacer bocetos rápidostal como se muestra en la figura 6.

Por ejemplo, por lo que respecta a las unidadesde trabajo, uno puede elegir trabajar con dos dígitosde precisión para unas unidades abstractas que sedecide (esta es una decisión externa al sistemainformático) que son iguales a metros, en un rangode 100 × 80 m. Esto implica que no se espera tra-bajar con una precisión mayor de 1 cm y que, algu-na de las vistas principales que se grabarán paravolver a ellas con rapidez, o la vista principal a laque se volverá cuando se invoque la orden "zooma toda pantalla" será una vista que mostrará un rec-tángulo de, aproximadamente, estas dimensionesvirtuales.

Similarmente, para otro tipo de trabajos a ma-yor escala, se podría decidir trabajar con tres dígitosde precisión para unas unidades abstractas que sedecide representan kilómetros. Esto implicará quela precisión máxima con que contará será de 1 m.Si, en este mismo caso, se optara por 4 dígitos la

precisión máxima sería de 1 cm. O bien, en un tra-bajo de diseño a pequeña escala, puede optarse portrabajar con un dígito decimal, con la implicaciónde que se trabajará con 1 mm de precisión comomáximo.

Los colores más adecuados para trabajar sontambién algo que se debe decidir desde el iniciodel trabajo. La primera decisión, que puede ser unanorma del despacho en que se trabaje, pero debe-ría ser puramente personal pues depende de carac-terísticas individuales, es qué color de fondo que-remos utilizar: blanco, negro o gris. Según cuál seaesta elección habrá que seleccionar aproximada-mente una docena de colores, que destaquen conclaridad sobre este fondo, para diferenciar los dis-tintos elementos del modelo.

Otras características que se reflejarán en losdocumentos del proyecto, como son los tipos delínea, los estilos de texto, los estilos de multilíneas,si se utilizan, o los estilos de acotación, deben de-pender de criterios generales. En cualquier despa-cho profesional todas estas cuestiones están deci-didas a priori lo que facilita el trabajo y ahorra te-ner que tomar decisiones que no tienen que ver conlo fundamental del proyecto en curso

En la mayoría de los casos, la elección de unsistema de preferencias adecuado para un tipo detrabajo se concretará en la creación de un dibujoprototipo, un archivo en blanco que sirve comoplantilla para modelos de determinadas caracterís-ticas comunes. Además de las unidades y los lími-tes, este archivo puede incorporar una serie de ca-pas básicas que pueden modificarse a posterioripero que en muchos casos pueden ser las mismas.Todo lo relativo a la nomenclatura y normaliza-ción de capas es una cuestión importante y com-pleja a la que se volverá en el capítulo 10. Baste

Figura 6 Uso de restricciones a retículas parabocetos previos

Page 98: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 97

por ahora con apuntar que cualquier modelo nece-sita algunas capas básicas, auxiliares, para ejes deconstrucción, para elementos diversos, etc., quepueden incorporarse al dibujo prototipo o crearsenada más comenzar el modelo. Un despacho bienorganizado contará con varios dibujos prototipo quecorrespondan a los diferentes tipos de trabajo quese realizan. Las configuraciones de ventana pue-den también incluirse en el dibujo prototipo si elusuario tiene preferencias claras sobre ello.

2 Visualización

Los modelos informáticos se generan a "escala real"y se inspeccionan a través de una ventana, la pan-talla del monitor, de reducidas dimensiones. Comoen todos los procesos gráficos se requiere ciertahabilidad para moverse con facilidad por este es-pacio. No hay ninguna recomendación ni explica-ción que pueda sustituir a las horas de vuelo. Peropuede ganarse tiempo si se comprende cuando an-tes cuáles son los mecanismos implicados y conque herramientas se cuenta. Lo que sigue es unabreve sinopsis de ambas cosas.

Sistemas de coordenadas normalizadas

La imagen que aparece en el monitor de un orde-nador cuando se trabaja en CAD obedece siemprea una proyección que es el resultado de 5 transfor-maciones de sistemas de coordenadas normaliza-dos. Estos cinco sistemas de coordenadas, que nodescribiremos en detalle, corresponden respectiva-mente al conjunto de la escena, al objeto, al volu-men de visión, a la normalización del volumen devisión y al dispositivo de proyección.

Se entenderá esto mejor con un ejemplo. Si co-menzamos una sesión sin haber creado ningún ob-jeto, el monitor nos mostrará una vista en planta deuna escena vacía. Supongamos que los límites deesta escena son 0,0 (esquina inferior izquierda) y400, 300 (esquina superior derecha). Por omisión,el tipo de proyección es ortogonal y el volumen devisión que el programa tiene en cuenta es un cubode 400 x 300 unidades y una altura indefinida. Nor-malizar este cubo de visión significa traducir estasdimensiones y cualquier otra que contuviera en suinterior a un cubo unitario de 1 × 1 × 1. Este cubounitario deberá proyectarse sobre el plano virtualque constituye nuestra pantalla y que podemos su-poner que es un plano con 1024 × 768 puntos. Esta

proyección es lo que acabamos viendo en el moni-tor. Si dibujáramos un punto en la posición 200,150, 0 de la escena inicial, en el primer sistema decoordenadas, este punto se transformaría en el punto0.5, 0.5, 0 del cubo de visión normalizado y se pro-yectaría en la el punto 512, 384 del sistema de co-ordenadas del dispositivo.

La automatización de las transformaciones en-tre estos sistemas implica que se pueda escoger encualquier momento entre una vista en planta, enalzado, en axonometría ortogonal o en perspecti-va. Para la máquina no hay ninguna diferencia, nohay mayor dificultad entre elegir uno u otro siste-ma.

Configuración de ventanas y selección devistas

Esto quiere decir que pueden escogerse diversasproyecciones y, por añadidura, subdividir la panta-lla en diferentes ventanas, también denominadasviewports y enviar cada una de las proyeccionesescogidas a cualquiera de estas ventanas. Esto per-mite trabajar en varias vistas simultáneas (a costade perder campo de visión). El trabajo en CAD pre-senta una considerable ventaja con respecto a lossistemas tradicionales junto con un enorme incon-veniente. La gran ventaja es la variedad de técni-cas que nos permiten navegar con rapidez por elespacio virtual de trabajo. El inconveniente es elreducido espacio con que se cuenta. Las estrate-gias de visualización implican una compensaciónconstante entre estos dos extremos.

Figura 7 Organización de un modelo endiferentes ventanas (viewports)

Page 99: [Architecture eBook] Aplicaciones as en Arquitectura

98 Aplicaciones informáticas en arquitectura

Un primer requisito que debe tenerse en cuenta,por esta razón, es contar con vistas grabadas. Porlo general es mucho más rápido volver a una vistaprevia indicando su nombre que desandando elcamino. Aunque no cabe dar normas al respecto,es una práctica bastante común contar con, al me-nos, una vista grabada que muestre en planta todoslos elementos con que se trabaja. Esto puede com-plementarse con una vista grabada que presente unaaxonométrica global. Supongamos que llamamosa estas dos vistas "z" y "x". Durante el curso deltrabajo puede ser más operativo crear y modificarsobre la marcha dos o tres vistas de trabajo (porejemplo, una planta, una axonométrica y un alzadode un determinado sector) a las que también pode-mos llamar "zz", "xx" y "aa". Esto da un total de 5vistas grabadas que es un número adecuado para

retener en memoria, siempre que se utilice la mis-ma nomenclatura. Es mucho más rápido llamar aestas vistas escribiendo su nombre por medio delteclado que navegar por el espacio virtual. Las fi-guras 7, 8 y 9 muestran una disposición caracterís-tica de ventanas para trabajar en 3D y movimien-tos básicos en estas ventanas.

Desplazamientos y tipos de vistas

En otras ocasiones es necesario navegar por esteespacio. Para ello se utilizan dos ordenesomnipresentes en todo programa de diseño: zooms(aumentos o reducciones) y pans (desplazamien-tos laterales). De nuevo, la principal observaciónque cabe hacer es que debe encontrarse el métodopersonal más rápido para desplazarse con rapidezpor la escena. Hay un número suficiente de alter-nativas donde elegir; las placas gráficas suelen ofre-cer alternativas adicionales y merece la pena dedi-car cierto tiempo a revisar el manual de la propia ya personalizar las opciones.

La visualización en perspectiva cónica es auto-mática en los sistemas de CAD2D. Las únicas difi-cultades se presentan a la hora de familiarizarssecon los métodos de escoger el ángulo de visión y laposición de la cámara y su dirección. Otra dificul-tad que sólo puede superarse con la práctica es queraramente ocurre, al comienzo, que la imagen men-tal, lo que esperábamos que nos mostrara la má-quina, y lo que realmente aparece en pantalla, co-incidan.

Dentro del capítulo de visualización se debe in-troducir un tema sobre el que volveremos más ade-lante: la organización por medio de capas (layersen AutoCad, levels en Microstation). Toda entidadgráfica, en los programas de CAD2D, pertenece auna capa y las capas pueden ser visibles o invisi-bles y estar activadas o desactivadas. El equiva-lente por medios tradicionales sería el trabajar condiversos papeles transparentes que pueden super-ponerse u ocultarse.

El trabajo por capas proporciona una potenciaextraordinaria en la medida en que permite rela-cionar de modo directo diversos elementos entre síy ocultar estos elementos cuando interfieren en eltrabajo que se está realizando. Pueden disponerse,por ejemplo, ejes constructivos o trazados regula-dores o plantas inferiores sobre las que calcar lassuperiores que faciliten el trabajo. La organizaciónde los elementos por capas es, por consiguiente,

Figura 8.Ampliación (zoom) de un sector de lafigura anterior

Figura 9 Desplazamiento (pan) de un sector dela figura anterior

Page 100: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 99

un requisito previo de la organización de un mode-lo en 2D que debe llevarse a cabo por diversas ra-zones, la primera de las cuales es la necesidad decontrolar la visualización.

3 Creación de entidades 2D

El funcionamiento de un sistema gráfico implicauna serie muy compleja de rutinas que se han idonormalizando progresivamente. El primer sistemaque se normalizó oficialmente fue el GKS(Graphical Kernel System, ANSI 1985). En 1988se aprobó el GKS-3D. En este mismo año se incor-poró al ANSI y posteriormente al ISO otro sistemamás complejo y más desarrollado, el PHIGS(Programmer’s Hierarchical GraphicsSystem) queposteriormente incorporaría rutinas de simulaciónvisual (rendering) en el PHIGS-PLUS. Hay quedecir sin embargo que la evolución de los progra-mas avanza a un ritmo difícil de seguir por los de-partamentos de estos institutos y aunque convieneconocer las normas internacionales es aún más im-portante conocer las normas de hecho, impuestaspor la propia evolución de los productosinformáticos.

Las funciones fundamentales que lleva a caboun sistema gráfico están recogidas en una serie deprotocolos que actúan como intermediarios entreun programa de aplicación y un conjunto de dispo-sitivos físicos. Para una mejor comprensión decuanto está implicado en el proceso general demodelado geométrico incluiremos una relación muyresumida de las operaciones básicas que se llevana cabo.

Primitivas gráficas en sentido estricto

Las entidades gráficas primitivas definidas en estesistema son básicamente: puntos, líneas, superfi-cies (filled areas) y textos. Las entidades 3D seresuelven en entidades 2D, es decir, superficies yvolúmenes se representan por medio de líneas ysuperficies en 2D. Más exactamente se normalizanuna serie de entidades denominadas graphicaloutput primitives ("primitivas gráficas de salida").En las normativas PHIGS, mencionadas más arri-ba, figuraban 8 entidades que pertenecerían a estacategoría. La primera, polyline, para dibujar unasecuencia de líneas rectas conectadas. La segunda,polymarker, para etiquetar un conjunto de puntosde datos con símbolos. La tercera, fill area, para

rellenar con color un área delimitada por puntos.La cuarta, fill area set, para dibujar un conjunto deáreas de color. La quinta, text, para dibujar unacadena de caracteres. La sexta, annotation textrelative, para asociar un texto a un dibujo. La sép-tima, cell array, para dibujar una retícula de áreassólidas. La octava, generalized drawing primitive,para incluir curvas en las polilíneas.

A partir de estos tipos normalizados, que pue-den ser compartidos por diferentes programas, elnúmero y tipo de primitivas queda hasta cierto puntoabierto a quien utilice el programa. Cualquier enti-dad geométrica que admita una representaciónexacta puede ser convertida en una primitiva. Esposible, por ejemplo, elaborar un sencillo progra-ma en AutoLisp que dibuje una parábola (una enti-dad que no existe en la lista proporcionada por elprograma) y, a partir de aquí, crear una orden pro-pia que se llame "parábola". Cada vez que se intro-duzca esta nueva palabra clave, la palabra "pará-bola" el programa nos preguntará, por ejemplo,dónde queremos situar el punto de arranque, cuáles el valor del radio y cuál es el límite. Una vezintroducidos estos valores se dibujará una parábo-la exactamente igual que se dibuja un círculo o unpolígono, dos entidades que sí están en la lista deprimitivas del programa. Lo mismo vale para cual-quier tipo de curva que admita una representaciónparamétrica.

Representación vectorial y raster

No deben confundirse las entidades gráficas pri-mitivas, desde el punto de vista del programa deaplicación, con las entidades gráficas primitivas,desde el punto de vista del dispositivo. En toda se-sión de trabajo real hay una conversión constantede las primeras a las segundas y si no se entiendenalgunas de las características de esta conversiónno se entenderá el porqué de algunos resultados,que pueden resultar un tanto extraños, del funcio-namiento del sistema.

El tipo de línea más sencillo de representar esobviamente la línea recta, que puede quedar deter-minada por las coordenadas de dos puntos. De ahíque la mayoría de las aplicaciones reduzcan cual-quier otro tipo de línea a una colección más o me-nos numerosa de segmentos de recta. La primitivagráfica más elemental estaría constituida por con-siguiente por dos funciones que están incorpora-das a cualquier lenguaje de programación (el nom-

Page 101: [Architecture eBook] Aplicaciones as en Arquitectura

100 Aplicaciones informáticas en arquitectura

bre concreto de la función puede variar de un pro-grama a otro). Estas dos funciones son: MoveTo(x,y) y LineTo (x,y). La primera orden actúa sobrelos mecanismos (bobinas magnéticas deflectoras)que modifican el recorrido del rayo de electronesdirigido sobre los puntos de fósforo de la pantallay lo obligan a situarse en la posición x,y en coorde-nadas de pantalla. Evidentemente, esto implica uncomplejo desarrollo, que obviaremos, y que per-mite a una orden de este tipo dar lugar físicamentea esta acción. La segunda orden actúa sobre losmecanismos que modifican el recorrido del rayode electrones y lo obligan a trazar una línea recta,desde la posición en que estuviera situado, hasta laposición x,y.

Estas órdenes se definen en el espacio pantallaa partir de órdenes provenientes del espacio geomé-trico. Ahora bien, el procedimiento real será muydistinto si se cuenta con un dispositivo de salidavectorial o de tipo raster. En el caso de un disposi-tivo vectorial, tal como sería un monitor vectorial(en desuso en la actualidad) o un plotter de plumi-

llas (también en vías de extinción), el procedimientoes relativamente sencillo; se trata de dar la orden aun elemento mecánico, de que se mueva siguiendouna dirección claramente determinada.

Sin embargo, en el caso de un dispositivo raster,que es con gran diferencia, hoy por hoy, el másutilizado, el procedimiento es bastante más com-plicado. Un dispositivo raster almacena toda la in-formación gráfica como matrices de puntos quequedan activados o desactivados en función delelemento que se deba presentar. Esto implica quecualquier información geométrica que, en general,implica una sucesión continua de números reales,debe quedar traducida a una sucesión de númerosenteros. En el caso de una línea horizontal o verti-cal, esta transformación adicional resulta trivialpues tan sólo cabe una solución posible. Pero en elcaso de una línea inclinada o de un arco de círculola solución no es unívoca y se requieren algoritmosespeciales que determinen cuáles son los puntosque deben ser activados. En el caso de líneas unode los algoritmos más utilizado es el algoritmo deBresenham que, sucintamente, consiste en locali-zar las posiciones óptimas sobre una matriz de pun-tos que deben representar una línea. El método con-siste básicamente en incrementar en una unidad lacoordenada x o la coordenada y según la inclina-ción de la línea se aproxime más a una de las dos.El incremento de la otra variable se iguala progre-sivamente a 0 o a 1 examinando iterativamente ladistancia entre la posición real de la línea y las po-siciones más cercanas de la rejilla.

Lo que interesa retener es que la solución no esúnica y que, cuanto menor sea la resolución másinsatisfactorio puede ser el resultado. En algunoscasos el efecto puede minimizarse utilizando téc-nicas de antialiasing que se explicarán en el capí-tulo correspondiente a tratamiento de imágenes.Pero la única solución efectiva es aumentar la re-solución del dispositivo de salida.

Primitivas del programa

Las primitivas propias de un programa de aplica-ción son aquellas entidades que los diseñadores delprograma han decidido incluir en un repertorio quepodría ser tan extenso como se desee pero que semantiene deliberadamente restringido puesto que,en general, basta con unas pocas entidades básicaspara elaborar dibujos de arquitectura o ingeniería.Las entidades que se muestran en la figura 12 cons-

Figura 11 Conversión de un polígono devectorial a raster

Figura 10 Conversión de una línea devectorial a raster

Page 102: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 101

tituyen el repertorio básico de la mayoría de losprogramas de CAD.

Las más elementales son la línea y el arco que,debido a la frecuencia de su uso cuentan tambiéncon una amplia diversidad de alternativas para en-trada de datos. No describiremos todas estas alter-nativas por razones de espacio; baste con subrayarque, sobre todo en el caso de líneas, una de las pri-meras cosas que debe hacerse al comenzar a utili-zar un programa de CAD es familiarizarse con to-dos los modos de crear líneas rectas, algo menostrivial de lo que puede parecer a primera vista. Si aestas dos entidades añadimos otras tres, polígonosregulares, círculos y elipses, habremos cubierto lapráctica totalidad de lo que pueden considerarsecomo primitivas básicas del programa y que son elmínimo común denominador de cualquier progra-ma de CAD.

Líneas y arcos pueden combinarse para formaruna entidad unitaria de rango superior, la polilínea,que también se encuentra en cualquier programade CAD2D. Una polilínea es una entidad que pue-de manipularse como una unidad para las opera-ciones corrientes de transformación pero que per-mite también, mediante ordenes especiales, la mo-dificación de sus vértices, cambiando su posiciónpero manteniendo la conexión con los adyacentes.Las polilíneas permiten también mantener la posi-ción de los vértices pero transformando los seg-mentos rectos en arcos y viceversa.

La mayoría de programas de CAD incluyen tam-bién un tipo especial de entidad extraordinariamentevalioso, la spline, para crear formas complejas deperfiles curvos. Una spline era, tradicionalmente,una plantilla, una tira de metal flexible o de made-ra que se utilizaba como perfil maestro para trazarcurvas. Algunas de estas splines se obtenían col-gando pesas de perfiles metálicos hasta obtener cur-vas armoniosas que se fijaban por diversos méto-dos. En la década de los sesenta algunos ingenie-

ros que trabajaban en la industria automovílistica,el más conocido de los cuales ha llegado a serBézier por cuyo nombre se conocen algunos de lostipos de splines más utilizados, desarrollaron mé-todos matemáticos informatizados que permitíanobtener resultados similares a los tradicionales pormedio de simulaciones informáticas.

Hay numerosos tipos de splines utilizados enCAD. Se pueden clasificar de muy diversos mo-dos. Una de las divisiones más obvias consideraríados grandes grupos: splines de interpolación, quepasan por sus puntos de control, y splines de aproxi-mación, que no pasan por estos puntos. Otra divi-sión, menos fácil de resumir, tendría en cuenta elmenor o mayor grado en que una modificación lo-cal afecta al conjunto de la curva.

Combinando estos dos criterios podremos men-cionar los siguientes tipos. Dentro del grupo desplines de interpolación, las primeras splinesinformatizadas, las splines cúbicas naturales, eranun tanto intratables pues las modificaciones loca-les se propagaban al resto de la curva de maneras aveces indeseadas. Posteriormente aparecieron lassplines de Hermite que especifican una tangenteen cada punto de control, o las splines cardinalesde Catmull-Rom que especifican tangentes de modoindirecto y más sencillo para el usuario.(Microstation las incluye).

Dentro del grupo de splines de aproximación,las primeras y principales son las de Bezier, poste-riormente las B-splines uniformes, la B-splines nouniformes, las Beta-splines y las nurbs (siglas denon uniform rational b-spline), de desarrollo másreciente, que admiten mayor control a costa de unmayor gasto de computación que puede ser fácil-mente asumible por los PCs actuales.

Por último, los programas de CAD utilizan tam-

línea arco círculo polígono

polilínea

Figura 12 Primitivas del programa

Figura 13 Creación y modificación de una spline

Page 103: [Architecture eBook] Aplicaciones as en Arquitectura

102 Aplicaciones informáticas en arquitectura

bién multilíneas. Una multilínea consiste en unaserie de segmentos rectos y curvos conectados,como en una polilínea. Pero, por añadidura, incor-poran una serie de líneas paralelas o símbolos, in-cluidos entre las líneas, de forma y dimensión es-pecificadas por el usuario o elegidas entre un re-pertorio dado, que sirven para representar un ele-mento constructivo. El ejemplo más obvio, en elcaso de la arquitectura, podría ser un muro con cá-mara de aire, aislamiento, etc. Un muro de estascaracterísticas (figura 14) puede dibujarse arras-trando su eje, como se dibujaría una línea simple;y el programa se encarga de completar la represen-tación y resolver los encuentros con otrasmultilíneas por medio de órdenes especiales deedición.

Primitivas de usuario. Bloques o células.Formas paramétricas

El usuario puede ampliar el repertorio de entida-des que le ofrece el programa de dos maneras prin-cipales. En primer lugar puede agrupar diversas en-tidades simples en un sólo bloque (término propiode AutoCad y que es el que utilizaremos en lo quesigue), célula (término propio de Microstation) osímbolo (término utilizado en otros programas deCAD). A partir de la creación de un bloque, estanueva entidad se comporta exactamente como unaentidad primitiva, por compleja que sea su confi-guración. Se inserta invocando su nombre y, en elmomento de la inserción pueden especificarse susdimensiones globales, en las tres direcciones prin-cipales, así como su orientación. El bloque tienepropiedades, tales como el color o el tipo de líneaque pueden quedar ligadas a su definición. Es, ob-viamente, una herramienta preciosa desde el puntode vista de la aplicaciones arquitectónicas.

En segundo lugar, puede ampliarse el repertoriode entidades mediante la definición de formasparamétricas. Aquí también aparece un tema deprimerísima importancia desde el punto de vistade la práctica arquitectónica, el diseño paramétrico,que resumiremos muy brevemente para volver aello en la última sección de este capítulo.

Desde un punto de vista muy elemental puededecirse que no existe una frontera bien delimitadaentre lo que se denomina "diseño paramétrico" ylo que es el "dibujo automatizado" o el "modeladogeométrico" o CAD2D y CAD3D. En estos casos,la generación de formas se lleva a cabo medianteel recurso a entidades que se insertan en el modelopor medio de una especificación de sus descriptoresbásicos. En este sentido las entidades primitivas olos elementos más simples de un programa de CADtambién son paramétricos puesto que son descrip-ciones genéricas que tan sólo adquieren un valoren el momento de ser insertadas. Por añadidura, enalgunos casos no es posible una modificación aposteriori de estos parámetros, pero en otros sí.

Una línea es una entidad que se inserta en undibujo por medio de dos parámetros, su longitud ysu orientación, que pueden ser modificados confacilidad. Una polilínea es una colección de líneasunidas entre sí por sus vértices. La modificación esen este caso más comprometida pues implica quedebemos necesariamente modificar al menos doslíneas a la vez, esto es, debemos modificar simul-táneamente los dos pares de parámetros propios delas dos líneas que coinciden en el vértice. Esto pue-de hacerse en los actuales programas de CAD dediversos modos. Una orden como stretch, por ejem-plo, disponible en diversos programas de CAD,permite modificar partes de un contorno en unaúnica dirección, lo que puede considerarse comouna forma elemental de diseño paramétrico.

Otro tanto cabe decir de otros recursos básicosen estos programas. La utilización de modificado-res de escala o la inserción de bloques permite,como ya hemos dicho, variar las dimensionesglobales a lo largo de los dos ejes del dibujo, con-junta o independientemente, o a lo largo de los tresejes principales si se trata de un elementotridimensional.

Sin embargo, todo esto vale para elementos muysimples que quedan descritos tan sólo por tres di-recciones principales. Pero no para elementos com-plejos en los que todas las variaciones quedaríanalteradas por igual por un cambio de escala. Si,

Figura 14 Detalle de un modelo dibujadocon multilíneas

Page 104: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 103

por ejemplo, definimos una ventana o una puertacomo un bloque unitario, la modificación de su lon-gitud para adaptar el detalle a un caso particularnos modificaría también las dimensiones del mar-co en la misma proporción que la anchura de lapuerta lo que resulta en un efecto, en general,indeseado. Lo que se necesita es un modo de alma-cenamiento que mantenga las dimensiones del mar-co y del vano como variables independientes. Deesto trata el diseño paramétrico. La figura 15 mues-tra un ejemplo característico. El elemento de la iz-quierda puede modificarse por una orden comostretch para alterar sus dimensiones en un sentidodeterminado. Pero si queremos modificar sus com-ponentes de modo independiente, tal como se mues-tra a la derecha de la figura con una serie de va-riantes, será preciso recurrir a alguna forma de di-seño paramétrico.

El interés del tema en el caso de la arquitecturaes evidente debido al hecho de que un número muyimportante de elementos constructivos y de diseñopueden agruparse en familias que se prestan demodo espontáneo a ser parametrizadas lo que, sise consigue llevar a cabo de un modo satisfactorio,permitiría economizar espacio de almacenamientoy simplificaría la gestión de estos elementos. A unnivel más elaborado, que por el momento quedalejos de los resultados obtenidos, esto podría tam-bién facilitar el proceso de diseño en la medida enel ajuste dimensional podría dejarse, en determi-nados casos, para una fase posterior de análisis ylos bocetos iniciales podrían reutilizarse en esta faseposterior.

La noción de familia es importante en este con-texto y conviene subrayarla. Entendemos por fa-milia, en diseño paramétrico, un conjunto de ele-mentos que sólo difieren en las dimensiones de suspartes pero que son idénticos en cuanto a sus ca-racterísticas formales y tipológicas. En la creaciónde una célula parametrizable se requieren funda-mentalmente dos cosas: la descripción topológicaque especifica las partes y las relaciones que estaspartes mantienen entre sí y el esquema dimensio-nal que especifica las prioridades o las restriccio-nes dimensionales que deben afectar a algunas deestas entidades o a su relación. Esta fase inicial sedenomina diseño primario. El diseño primario dalugar a una serie de variantes, en una segunda fase,por medio de un método de evaluación de varian-tes dimensionales.

La creación de una célula parametrizable es unproceso más complejo de lo que pudiera parecerpuesto que es preciso especificar todas las restric-ciones que delimitan la forma. Muchas de estasrestricciones se dan por supuestas en el procesointuitivo o corriente de generación gráfica y tien-den a ser pasadas por alto. La necesidad de tornar-las explícitas obliga a un etiquetado bastante labo-riosos en el que es fácil pasar por alto alguna deellas. Una de las líneas de investigación que se si-gue actualmente en diseño persigue la creación deuna interfaz adecuada que facilite al usuario tantola ordenación gráfica de las restricciones como elcontrol global de éstas de modo que se asegure lacoherencia del resultado.

El diseño paramétrico es una vía de investiga-ción muy activa en ingeniería industrial y hay di-versos métodos y programas que se están utilizan-do en la actualidad basados en esta noción general.Un resumen de los métodos y programas principa-les superaría los límites de este libro. Baste consubrayar la importancia del concepto que se irá ex-tendiendo en los próximos años y al que volvere-mos en cursos más avanzados.

4 Propiedades

Una entidad gráfica tiene una serie de propiedadesque pasan inadvertidas pero que forman parte in-trínseca de la misma. Estas propiedades son modi-ficables y constituyen un recurso adicional impor-tante que debe tenerse en cuenta a la hora de orga-nizar un modelo en 2D.

Además de la normalización de las primitivas

Figura 15 Modificación de un elemento pordeformación simple y por parametrización

Page 105: [Architecture eBook] Aplicaciones as en Arquitectura

104 Aplicaciones informáticas en arquitectura

gráficas de salida, en segundo lugar se normalizanlas propiedades gráficas. Las primitivas gráficasde salida carecen de propiedades, por lo que noson visualizables; para serlo necesitan como míni-mo contar con una especificación de color. Todaslas especificaciones que no afectan a la informa-ción geométrica pero sí al aspecto con que se pre-sentan las entidades gráficas se recogen bajo estacategoría. Hay tres propiedades principales en elsistema mencionado en el apartado anterior. El pri-mero, linetype, establece el tipo de línea. El segun-do, linewidth, establece el grosor de la línea. Eltercero, polyline colour, establece el color de sali-da.

Partamos del ejemplo de una línea que aparecedibujada sobre la pantalla en tres casos distintos:cuando el fondo es negro, es gris o es blanco. Esevidente que esta línea deberá detener algún colory que este color no será el mismo en los tres casosque hemos citado y que son los más corrientes (elcolor de fondo de la pantalla se escoge al configu-rar por primera vez el programa). En segundo lu-gar deberá tener alguna anchura que, en principio,pero no necesariamente, será la mínima posible. Y,en tercer lugar, tendrá un trazo continuo aunque,de nuevo, podríamos decidir, por alguna razón, quelas líneas que trazaramos tuvieran inicialmente untrazo discontinuo.

Estas tres características son comunes a las lí-neas trazadas sobre un papel y a las líneas trazadassobre un monitor; en ambos casos la línea tiene,necesariamente, un color, una anchura y un tipo detrazo, continuo o discontinuo. Las líneas de un pro-grama de CAD cuentan además con, al menos, unacuarta propiedad: pertenecen a una capa. EnAutoCad, si no se especifica lo contrario, hay unasola capa activa al comenzar una sesión de trabajoque se denonima "0". En Microstation hay 63 ca-pas disponibles y, mientras no se especifique locontrario, las nuevas entidades que se vayan crean-do se situarán en la capa "1".

AutoCad cuenta además con una quinta posibi-lidad (de hecho es una cuarta posibilidad pues laslíneas simples no admitían anchura hasta la ver-sión 2.000). Una línea puede tener espesor,"thickness". El término es desafortunado y se hamantenido por razones de compatibilidad con lasversiones de AutoCad anteriores a la 10 que ofre-cían modelado en "dos dimensiones y media". Estoquería decir que no se trabajaba realmente en 3Dpero cabía contar con elementos de dimensión ver-

tical recta mediante el recurso de asignar "espe-sor" a las líneas 2D. Sería preferible denominar aestas líneas "líneas extrusionadas" para evitar con-fundir la altura con la anchura.

Tipos de línea

Por lo que respecta a los tipos de línea, esto nopresenta otro problema en la práctica que el de con-tar con una codificación interna coherente. Los pro-blemas implicados son muy distintos si se trabajapara un despacho pequeño que para una organiza-ción grande. En el primer caso la única recomen-dación que cabe hacer es la de que conviene man-tener un estilo consistente, lo que irá unido con todaseguridad a la utilización de pocos tipos, así comoa la personalización de estos tipos.

Por ejemplo, una de las primeras cosas que de-bería hacer un usuario de AutoCad es olvidarse delos tipos "hidden", "hidden2", "dot", etc., y perso-nalizar unos pocos tipos con nombres simples como"trazos", "puntos", etc. Esto es tan sencillo comocopiar el fichero "acad.lin", en el subdirectorio detrabajo habitual, editarlo, borrar todos los tipos queno se necesiten y, si se considera necesario, incluircódigos de este tipo

*TRAZOS,a, 3, -1, 3, -1

para las líneas que se vayan a utilizar corriente-mente. La secuencia indica: a) el nombre del tipo(*TRAZOS); b) el tipo de alineación ("a": empie-za y termina con trazo); c) la longitud del trazopositivo ("3"); d) la longitud del trazo en blanco("-1").

Figura 16 Diferentes tipos de línea disponiblescorrientemente en programas de CAD

Page 106: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 105

Pueden crearse combinaciones tan complejascomo se quiera mientras la especificación no supe-re los 80 caracteres. Es igualmente posible, aun-que algo más complicado, integrar definiciones deformas simples en la definición de las líneas.AutoCad permite hacer esto mediante un tipo es-pecial de entidad "SHAPE" que permite especifi-car símbolos por medio de una combinación decódigos similares a los anteriores.

De este modo pueden integrarse en la definiciónde los tipos de línea símbolos similares a los queaparecen en la figura 16. En la gran mayoría de loscasos será suficiente con saber que estos tipos exis-ten y que se pueden utilizar de muy diversos mo-dos, combinando adecuadamente los disponiblescon las infinitas variantes que pueden obtenerse apartir de un ajuste adecuado de la escala de salidadel tipo; en AutoCad, por ejemplo, esto puede ha-

cerse con facilidad experimentando con la ordenltscale (line type scale).

Color

Por lo que respecta al color las cosas son algomás complicadas. El color se utiliza en un pro-grama de CAD, al igual que en cualquier otromedio de trabajo tradicional, en un doble sentido:como medio de diferenciación y como medio derepresentación. Esta diferencia es un tanto sutilpues, a menudo, los dos sentidos coinciden o seconfunden: si utilizamos un color para represen-tar un material, este color sirve también para di-ferenciarlo. Pero si tenemos una gama restringidade colores y, además, hay unos elementos a losque nos interesa distinguir con claridad de otrosaunque al final resulte que se fabricarán con elmismo material la diferencia resulta relevante. Porejemplo, muchos sistemas de modelado represen-tan los elementos horizontales con un color y losverticales con otro lo que facilita la orientaciónvisual por un entramado de líneas que a veces sesuperponen. Sin embargo estos elementoshorizontales y verticales pueden ser del mismo ma-terial y, desde el punto de vista de la representa-ción material deberían tener por consiguiente elmismo color.

Pero las cosas se complican aún más porqueen el trabajo en CAD puede haber también otroscriterios de diferenciación por el color. Por ejem-plo, en AutoCad hay dos razones principales porlas que se asigna un color a un elemento. Paradiferenciarlo visualmente de otro, para distinguir,por ejemplo, muebles de muros, y para indicar elgrueso de línea que se quiere imprimir. Si, además,se pretende utilizar el color como fuente analógicade información es decir, para representar mate-riales de tal modo que al hacer un rendering des-de AutoCad o una impresión a color los elemen-tos aparezcan con su color "propio" será imposiblecompaginar los tres criterios.

Aún limitándonos a los dos primeros la super-posición de criterios hace difícil la elección y pro-bablemente por esta razón Microstation no dife-rencia los trazos de línea por color sino por el pro-pio grueso de línea que funciona como una propie-dad independiente asequible para todo tipo de ele-mento, cosa que no ocurre en AutoCad.

32

33

34

35

719.25

722.45

Perfil TK5/7

Perfil TK5

Perfil TK5

FormW10

Angular 50x50x5

FormW10

Perfil TK5/7

Angular 50x50x5

90.0

0.2

5.2

590

.00

90.0

0

Figura 17 Detalle arquitectónico con diferentestipos de línea y tipos de texto

Page 107: [Architecture eBook] Aplicaciones as en Arquitectura

106 Aplicaciones informáticas en arquitectura

Estilos de texto

Por lo que respecta a los textos, al igual que ocu-rría con los tipos de línea, el primer cuidado que sedebería tener es personalizar las fuentes. Esto quieredecir que debe comenzarse por seleccionar aque-llas fuentes que cuenten con caracteres propios delespañol o del catalán, como la "ñ", la "ç" o los acen-tos y descartar las otras. En el caso de AutoCad12.0 esto implica elegir fuentes que terminen en"8" tales como "txt8.shx" (el "8" indica que se estáutilizando la codificación ASCII extendida, de 8bits, que cuenta con 256 caracteres en lugar de los127 correspondientes a 7 bits). A partir de la ver-sión 13.0 estos problemas desaparecen pues esposible contar con fuentes TTF (true type fonts).

La segunda cosa que se debería hacer es selec-cionar un paquete reducido y tampoco está de máscambiarles el nombre: si uno encuentra en la listade fuentes algo que se llame "normal" o "cursiva"en lugar de "roman3" sabe a qué atenerse y resultamás cómodo de manejo.

Es importante definir un estilo antes de utilizarla herramienta de texto. De este modo, si se decidecambiar alguna de las características del texto, ta-les como la propia fuente, el tamaño o la anchura,bastará con cambiar la definición del estilo y todoslos textos asociados podrán renovarseautomáticamente. Por lo que respecta a la modifi-cación del propio texto, las versiones actuales deprogramas de CAD, incluidos AutoCad yMicrostation, cuentan con mecanismos cómodospara editar y modificar el contenido de los textosinsertados en el dibujo.

Debe procurarse también controlar el tamaño delos textos. En AutoCad, el parámetro que controlael tamaño del texto es la "altura (height)". Esteparámetro va referido al tamaño de las letras ma-yúsculas; si se mide la altura impresa de, por ejem-plo, una "M" mayúscula se verá que coincide conla especificación dada. Resulta conveniente rela-cionar este tamaño con los tamaños corrientes detipografía. En tipografía los tamaños de las letrasse miden en puntos. Los textos de la inmensa ma-yoría de los libros, revistas o periódicos tienen nomenos de 10 y no más de 12 puntos. Este texto, porejemplo, tiene 11 puntos en los párrafos, 11,5 pun-tos en los títulos de secciones y 9 puntos en el en-cabezado (suponiendo que no se estén utilizandofotocopias reducidas o ampliadas). Un punto an-glosajón vale exactamente 0.351 mm (12 puntos

hace una "pica" y 6 picas hacen una pulgada) y semide desde la parte inferior de un carácter descen-dente como la "g" hasta la parte superior de un ca-rácter ascendente como la "l". Aunque es variablesegún el tipo de letra, la relación entre la altura deuna M y el punto está en torno a 3/4 o 2/3. Estoquiere decir que la relación entre el parámetro"height" de AutoCad y la altura en puntos es deunos 0,351 x 3/4 = 0,26 o de 0,351 x 2/3 = 0,23.Tomando 0,25 como valor medio y teniendo encuenta esta relación podemos utilizar una tablacomo la siguiente que da la altura en cms para untamaño determinado de punto y una escala corriente

Puntos: 1:1 1:2 1:4 1:5 1:10 1:20 1:40 1:50

10 0.25 0.50 1.00 1.25 2.5 5.0 10.0 12.511 0.27 0.55 1.10 1.37 2.7 5.5 11.0 13.712 0.30 0.60 1.20 1.50 3.0 6.0 12.0 15.014 0.35 0.70 1.40 1.75 3.5 7.0 14.0 17.5

5 Transformación y modificación deentidades 2D

Una diferencia fundamental entre el trabajo con unordenador y el trabajo con un medio tradicional esla enorme potencia que proporciona el primero porlo que respecta a lo que se conoce como "edición"de entidades. El término "edición" resulta chocan-te para quien no tiene relación con la jerga infor-mática pero no es ni más ni menos que el términoconvenido para referirse a cualquier operación que,sin alterar excesivamente el contenido fundamen-tal, modifique su apariencia. Es bien cierto, sinembargo, que las alteraciones posibilitadas por lasoperaciones de edición generan nuevos entes, porlo que el término resulta equívoco en relación consu uso tradicional.

Operaciones básicas

Las operaciones básicas son las mismas que las degeometría elemental: la traslación el giro, el cam-bio de escala y la simetría especular. Es decir, unavez creada una entidad gráfica, se puede mover, sepuede rotar, se puede cambiar de escala y se puedeinvertir. Las operaciones internas se basan en lasfórmulas clásicas para estas operacionesautomatizadas mediante el uso de coordenadashomogéneas y multiplicación de matrices. Algunosprogramas de Cad distinguen entre transformacio-

Page 108: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 107

nes y modificaciones, denominando transformacio-nes a las operaciones básicas, mover, rotar y cam-biar de escala, que no modifican las característicasformales de la entidad, y modificaciones a las ope-raciones que sí las modifican. Este usoterminológico no es general y sólo lo seguiremosocasionalmente para facilitar la presentación deltema.

El aplicar estas operaciones a una entidad im-plica que, previamente, es necesario hacer una se-lección de esta entidad. Todos los programas deCAD ofrecen recursos diversos de selección. Losprincipales son: la selección individual de elemen-tos, la selección por medio de una ventana rectan-gular o poligonal que selecciona todo lo que quedadentro y descarta lo que queda mitad dentro y fue-ra; la selección por una ventana rectangular opoligonal que selecciona todo lo que cruce el cer-co; la selección por medio de filtros tales como elcolor o la capa, etc. Cuando se seleccionan entida-des y se requiere controlar con exactitud la opera-ción es preciso especificar sobre qué parte de laentidad se va a actuar. La figura 18 muestra unacolección de snaps, un recurso corriente para es-pecificar los puntos de anclaje de la operación.

Una vez seleccionada la entidad pueden apli-carse sobre ella una serie de operaciones básicas otransformaciones como las descritas más arriba y

que se representan en la figura 18. Además de mo-verse, girarse, cambiarse de tamaño e invertirse,una entidad gráfica se puede borrar y se puede co-piar. El borrado se puede recuperar mediante unaorden general con que cuentan todos los progra-mas y que es una auténtica bendición para quienestrabajan en CAD, que es la orden de "deshacer lohecho" (undo); una orden que anula el efecto de laúltima orden o de la última serie de órdenes. Estoproporciona una gran agilidad al trabajo en CADpues, además de corregir errores, permite probaralternativas sin temor a las consecuencias.

Otras operaciones

La copia puede generalizarse por medio de orde-nes específicas denominadas arreglos, arrays quepermiten multiplicar la copia a lo largo de un retí-culo rectangular de un retículo polar, con un centrode expansión (figura 21). Otra orden notablemen-te útil es lo que se denomina offset en AutoCad yotros programas de CAD, no así en Microstation(la orden es copy parallel). Un offset es una copiaque desplaza o expande el objeto en una direccióny una distancia determinadas. Si se trata de una lí-nea crea una copia paralela en la dirección dada

Figura 18 Modos característicos deselección con snaps

TraslaciónRotación

EscalaReflexión

DeformaciónElongación

Figura 19 Operaciones básicasde trasformación

Endpoint Midpoint Intersection

NearPerpendicular

TangentCenter Quadrant

Page 109: [Architecture eBook] Aplicaciones as en Arquitectura

108 Aplicaciones informáticas en arquitectura

por los ejes coordenados x o y. Si se trata de unobjeto compuesto crea un objeto mayor o menor,paralelo al original. Dentro del apartado más espe-cífico de operaciones que modifican la configura-ción propia de la entidad encontramos órdenes quepermiten borrar parte de una serie de líneas o ex-tenderlas o modificarlas localmente. Órdenes comorecortar (trim); romper (break); extender (extend);crear un filete o un chaflán en esquina (fillet,chamfer), son órdenes extraordinariamente útilespues permiten realizar modificaciones habitualessin tener que crear un objeto ex profeso. Lacasuística puede extenderse pero hemos señaladolos casos principales, representados en la figura 20.

Además de éstas, hay otra serie de ordenes quefuncionan de un modo más directo. Los vértices deuna entidad compuesta se pueden cambiar de muydiversos modos, alterando la geometría de la enti-dad; esto puede hacerse por medio de la seleccióndirecta del objeto y la manipulación gráfica de susvértices. Tanto AutoCad (a partir de la versión 12)como Microstation cuentan, al igual que otros pro-gramas de diseño, con mecanismos que muestranunas pequeñas asas o grips sobre los vértices de unobjeto compuesto; al mover estas asas se desplazael vértice manteniéndose la topología del objeto.Otros modos de hacer lo mismo es mediante orde-nes como el stretch (de AutoCad) que permiten des-plazar parte de un objeto mientras permanece an-clado el resto.

6 Entidades compuestas

Los programas de CAD2D proporciona diversasherramientas para combinar objetos y tratar estacomposición como un objeto o un elemento unita-rio. De nuevo, ésta es una posibilidad que propor-ciona capacidades desconocidas para los usos tra-dicionales. Hay al menos cuatro métodos principa-les para hacer esto, que son más o menos comunesa los diferentes programas. Aunque en el fondo elrecurso es el mismo, merece la pena subrayar lasdiferencias técnicas. Se pueden crear objetos uni-tarios por medio de polilíneas, por medio de blo-ques o células, por medio de grupos seleccionadosy por medio de capas.

Polilíneas

Las polilíneas son composiciones de líneas rectasy curvas que funcionan como una entidad única.Una polilínea queda definida por sus vértices y porel tipo de entidad que hay entre estos vértices. Laentidad puede ser una línea recta, un arco de curvasimple o un arco de curva paramétrica, tipo spline.Las curvas tipo spline son curvas paramétricas queestán formada por polinomios cúbicos, es decir, porpolinomios de grado superior al de las cónicas, yque siguen un recorrido determinado por unos pun-tos de control que pueden modificarse en modointeractivo. Hay diversos tipos que se presentaránen la siguiente clase y que se encontrarán más de-sarrollados en la bibliografía referente a modelado

Fillet (r=0)

Extend

Trim

Extend

Fillet Chamfer

Figura 20 Operaciones básicas de modificación local

Page 110: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 109

geométrico o a curvas y superficies.Las polilíneas pueden crearse de modo similar

a como se crea una entidad simple, definiendo eltipo de línea y su punto final, tramo por tramo, obien pueden definirse a posteriori, juntando líneas,a condición de que éstas estén yuxtapuestas. Unavez creadas es posible editar sus vértices y mover-los o eliminarlos.

Grupos

También es posible crear grupos de elementos di-versos y tratar a estos grupos como una unidad. Sibien todos los programas de CAD permiten haceruna selección de elementos y tratar esta seleccióncomo una entidad unitaria para cierto tipos de ope-raciones, hay algunos programas, entre ellosMicrostation y AutoCad 13.0, que permiten agru-par elementos de un modo estable por medio deuna orden específica. El resultado es similar al dela creación de una polilínea a posteriori, con ladiferencia de que el tipo de entidades que puedenincluirse en la selección es más amplio y que lasentidades no tienen por qué estar yuxtapuestas. Tan-to en la creación temporal de grupos por medio deherramientas de selección como en la creación es-

table por ordenes específicas, es posible añadir oquitar elementos del grupo. Las órdenes select, addy remove en AutoCad 12.0 más la orden group apartir de AutoCad 13.0 o las ordenes agrupar/desagrupar (group selection, group add, groupdropp) de Microstation hacen esta función.

Bloques

Los bloques, células, símbolos o componentes sonotro modo de formar entidades compuestas. Comoya hemos dicho la terminología es variable: enAutoCad se llaman "bloques" (blocks); enMicrostation "células" (cells); en otros programasde CAD que funcionan sobre estaciones de traba-jo, "símbolos" (symbols); algunos autores los de-nominan genéricamente "componentes". Todos serefieren a lo mismo: un conjunto variado de enti-dades gráficas que se agrupan para componer unaentidad compleja que puede ser tratada como unaunidad. Utilizaremos el término "bloque" por serel más conocido en nuestro entorno.

Cualquier cosa puede ser un bloque, incluido eldibujo completo de una planta con cotas, textosinsertados, marco y carátula. Todos los bloques lle-van asociado un nombre y, en AutoCad, una capa.Otros ejemplos más corrientes de bloques son to-dos aquellos elementos que antes se insertaban pormedio de plantillas o por medio de dibujos trans-parentes pegados (como los letraset); es decir, ele-mentos de mobiliario, piezas de sanitarios, puertasy ventanas, árboles, coches, símbolos de elemen-tos de instalaciones de electricidad, de fontanería,etc.

Los bloques permiten solucionar en un instanteoperaciones rutinarias que se requieren habitual-mente para completar o mejorar la presentación deun plano. Al igual que ocurría con los tipos de lí-nea y los tipos de texto es recomendable personali-zar los bloques; esto quiere decir que algunos delos que se utilizan habitualmente pueden ser crea-dos ex profeso (esto es una buena práctica para losque se inician en CAD2D) y, sobre todo, que tantolos bloques propios como los adquiridos deben estarorganizados en subdirectorios accesibles y debendepender de rutinas de inserción que aseguren queésta se realiza de modo directo.

Las principales observaciones con respecto a losbloques son las relativas a su gestión. A diferenciade las polilíneas, los bloque se crean sobre todocomo elementos independientes de un dibujo de-

Array Rectangular

Array Polar (rotar: sí)

Array Polar (rotar: no)

Figura 21 Arrays

Page 111: [Architecture eBook] Aplicaciones as en Arquitectura

110 Aplicaciones informáticas en arquitectura

terminado, para compartir con otros dibujos, y estorequiere que se deban almacenar con un cierto or-den cuando su número comienza a crecer. Sobreeste tema volveremos en los capítulos correspon-dientes a la organización del despacho y de los pro-yectos.

Capas

Por último, la utilización de capas es también unamanera de crear entidades unitarias en la medidaen que permite tratar todos los elementos como unaunidad y efectuar operaciones con ellos, borrar,mover, copiar, escalarlos, etc., aún cuando no esésta su principal finalidad

7 Organización y vinculación de archivos.

Por razones de organización, es habitual que dife-rentes partes de un mismo modelo se creen en ar-chivos diferentes; por ejemplo, dos plantas de unmismo edificio o la estructura correspondiente auna planta determinada. Tanto AutoCad comoMicrostation permiten vincular archivos lo que ase-gura que la conexión entre estos se produzca de unmodo exacto. El procedimiento, en el caso deAutoCad, es similar a la inserción de un bloque; unarchivo se vincula a otro mediante una rutina quees exactamente igual a la de insertar un dibujo en-tero como un bloque. Las entidades propias del di-bujo insertado, tales como bloques y capas, serenombran de tal modo que el nombre de la capase suplementa con el nombre del archivo separadocon un "|". Por ejemplo, si un vestíbulo de un edifi-cio cuenta con una escalera compleja que se ha tra-bajado en un archivo separado que se llama"escalera.dwg" en el que hay, entre otras, una capaque se llama "baranda", al insertar este archivo enotro que contiene la planta del vestíbulo, esta capase renombrará y pasará a ser la capa "escalera | ba-randa".

Con esto se entra en lo que es propiamente laconfección de un proyecto. Hasta aquí hemos des-crito los medios que permiten confeccionar unmodelo 2D aislado. En determinados casos estopuede ser suficiente. Un archivo informático únicopuede contener toda la información necesaria paraexplicar un proyecto si este proyecto es relativa-mente simple y no se necesita más que conocer losrecursos que se han presentado y practicar el tiem-po suficiente como para poder manejarlos con fa-cilidad.

Pero un proyecto arquitectónico es algo máscomplejo. Aún cuando fuera posible resumir todala información en un único archivo que incluyera,entre otras muchas cosas, los marcos y las carátu-las para imprimir diferentes vistas del modelo, estaforma de organización es ineficaz. Es el equiva-lente, desde un punto de vista tradicional, a guar-dar toda la información en un gran armario, lo quenos obliga a mover cosas de un lado para otro cadavez que queremos encontrar algo.

La organización de un proyecto requiere unaestructura lógica que se traduce en una estructurade modelos y en una estructura de archivosinformáticos. Desde el punto de vista que aquí es-tamos abordando esto quiere decir que habrá que

Figura 22 Detalle arquitectónico compuestopor diferentes bloques

Page 112: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 111

comenzar por distinguir entre archivos destinadosa la impresión, archivos de planos, y archivos des-tinados a la concepción, archivos de modelos.Ambos implican una división del proyecto globalen diferentes partes y, por consiguiente, un métodosistemático de puesta en relación, con agilidad yfiabilidad, de todos estos componentes entre sí.

Dado que esto debe abordarse desde una pers-pectiva más general, que proporcione criterios so-bre cómo organizar un proyecto arquitectónico, de-jaremos este tema pendiente de desarrollo hasta elcapítulo 10. Pero esta sección quiere introducir eltema y subrayar el hecho de que lo que podemosdenominar genéricamente CAD2D no termina conla descripción de las herramientas de modeladobásico sino que debe completarse desde un puntode vista superior.

Archivos de planos

Un "archivo de plano" es un archivo preparado paraimprimir. Se debe distinguir por un nombre espe-cífico, del tipo de los que se sugerirán en el capítu-lo 10, y consta de tres partes básicas: un marco,una carátula y una ventana que se abre al conteni-do que, en general, proviene de otros archivos alos que se vincula.

Los archivos de planos se generan a partir de lamodificación de otros archivos similares que ac-túan como plantillas. Si un despacho imprime co-rrientemente sus planos en formato DinA1 y conuna carátula que lleva incorporado un logotipo oalgún tipo de seña de identidad del despacho, bas-tará con copiar un archivo, ya preparado con estascaracterísticas, o contar con él como archivo pro-totipo. A partir de aquí basta con cambiar los datosrelativos al proyecto en curso o adaptar la carátulapara tener una base común a todos los planos delproyecto.

Este archivo se prepara para imprimir a escala1:1 en el plotter con que se trabaje, de tal modoque el marco coincida con los límites aceptadospor esta máquina, una operación que puede resul-tar menos trivial de lo que parece. Una vez calibra-dos archivo y plotter la operación de imprimir sevuelve algo tan sencillo como apretar un botón.

El control de la escala se efectúa a partir de lainserción del modelo en una ventana preparada paraeste fin. En AutoCad toda esta operación se lleva acabo mediante un cambio del "espacio modelo" al"espacio papel". El espacio propio de los archivos

de plano es el espacio papel. Desde éste, se dibujala ventana a través de la cual van a aparecer lasvistas que interesen del modelo, como se dibujaríaun rectángulo corriente. Al conmutar, desde el es-pacio papel, al espacio modelo, se "penetra" en estaventana y, desde su interior, se controla la escala ala que se va a visualizar el modelo con la opción"XP" del zoom. De este modo, los cambios de es-cala no afectan a la configuración del plotter o dela impresora sino que dependen exclusivamente dela composición del dibujo.

Archivos de modelos

El trabajo con archivos de planos implica el traba-jo con referencias externas. En un programa deCAD esto quiere decir que pueden abrirse otrosarchivos desde un archivo dado e insertar su con-tenido en una posición determinada. Este conteni-do es el modelo, un término que vale tanto para eltrabajo en 2D como para el trabajo en 3D. Losmodelos, en CAD, se elaboran a "escala natural",es decir, se utilizan dimensiones virtuales que co-inciden con las reales, relegando a los archivos deplanos todo lo referente a la gestión de las escalas.

Por razones obvias, siempre que se pueda espreferible trabajar con un sólo archivo por mode-lo. De este modo tenemos toda la información "amano" y podemos navegar por los diferentes ele-mentos comprobando cómo se relacionan entre sí.La confusión que puede crear el exceso de infor-mación se controla mediante la posibilidad de ocul-tar y desocultar elementos, adecuadamente agru-pados en capas.

Pero, en general, en un despacho se acostumbraa descomponer un modelo en diferentes partes. Laprincipal razón es la necesidad de trabajar en equi-po lo que obliga a que diferentes partes de un mis-mo proyecto se desarrollen por diferentes perso-nas. Esto supone un inconveniente, por lo que res-pecta al control de la relación entre las diversaspartes, que se puede solucionar mediante el uso deun sistema de vinculación de archivos basado enreferencias externas. Es conveniente contar con unarchivo principal, en donde figuren los ejes o loselementos fundamentales del proyecto al cual seremitan los demás archivos. Y es aún más conve-niente contar con un sistema de organización delproyecto bien pensado que facilite el intercambioconsistente de información. Como ya hemos dicho,volveremos sobre este tema en el capítulo 10.

Page 113: [Architecture eBook] Aplicaciones as en Arquitectura

112 Aplicaciones informáticas en arquitectura

8 Personalización. Diseño paramétrico

Como ya se ha mencionado en la primera sección,sobre interfaz, los programas de CAD no debenutilizarse "en crudo" sino que es más convenientepersonalizarlos para que sean más eficaces. Estoquiere decir, fundamentalmente, llevar a cabo unaselección drástica de la multitud de órdenes ysubórdenes con que cuenta el programa y elegir unmétodo preferente para introducir las órdenes máscorrientes. También se han mencionado, en el apar-tado sobre organización del entorno de trabajo,otros aspectos importantes que se deben tener encuenta y que dependen no sólo de las preferenciaspersonales sino del tipo de trabajo que se va a de-sarrollar.

La personalización no puede ser rígida pues de-pende no sólo de preferencias personales, que pue-den ir variando a medida que se conozca mejor elprograma utilizado, sino de condiciones de trabajoque también se irán modificando. Sin embargo,cuando se dan situaciones parecidas una y otra vez,que dan lugar a respuestas prácticamente idénti-cas, acabará resultando tanto más obvia la necesi-dad de tener preparada una respuesta adecuada demodo automático.

Repetimos brevemente aspectos que ya se hanmencionado antes de mencionar otros que se desa-rrollarán más extensamente más adelante.

El primer aspecto que se debe tener en cuentaes la personalización del entorno de trabajo lo queimplica elegir cosas tales como la resolución, eltamaño de fuentes de pantalla, el color del fondo, olos menús presentes en pantalla durante una sesiónnormal de trabajo. Muchos de los aspectos queentrarían en este apartado, sobre todo aquellos quepueden depender del tipo de trabajo que se vaya arealizar, deben incorporarse a dibujos prototipo delos que puede haber uno o varios.

Otro aspecto a personalizar es la elección de unagama de colores con los que trabajar. La elecciónde un determinado color de fondo modifica las ga-mas posibles. Hay que tener en cuenta, en cual-quier caso, que aunque AutoCad ofrece la posibili-dad de trabajar con 256 colores codificados, la ma-yoría de estos colores o bien no son claramente vi-sibles porque no destacan con suficiente claridadcontra el fondo, o bien se confunden entre sí. Re-sulta necesario llevar a cabo una selección perso-nal atendiendo al menos a estos dos criterios.

Los tipos de línea deben también personalizarse

al menos por las siguientes razones: para asegurar-se que está presente el tipo que conviene al trabajoprevisto, para renombrarlo de modo adecuado ypara reducir la variedad de tipos que no se van autilizar nunca.

Tanto los textos como las cotas se utilizan entres fases características: definiendo un estilo, in-sertando un texto o una acotación y editando lo in-sertado para introducir modificaciones. La defini-ción de un estilo, tanto para textos generales comopara acotaciones, es un paso previo al que con fre-cuencia no se concede la importancia suficiente yque es más que conveniente personalizar, esto es,contar con una definición previa de varios estilosque incorporen un tipo de letra, un tamaño prefe-rente, alineación, etc.

El aspecto más importante de la personalizaciónes, sin embargo, todo lo que afecta a la reducción yampliación de las órdenes utilizadas por medio derutinas propias, menús y alias. Reducción, porqueun porcentaje importante de ordenes de cualquierprograma de CAD no se utiliza nunca y hay queasegurarse de que las órdenes que se tienen más amano son las frecuentes. Ampliación, porque unusuario experto siempre cuenta con macros y ruti-nas adicionales que extienden la funcionalidad delprograma en función de sus intereses.

Diseño paramétrico

Un parámetro es una variable relacionada con unafamilia de elementos. Los elementos de esta fami-lia tienen una serie de propiedades y mantienenentre sí una relación topológica, no geométrica. Elelemento está caracterizado por sus parámetros,que son valores numéricos. Si todos los parámetrosde un elemento reciben un valor numérico el ele-mento queda plenamente definido y pasa a ser unainstancia particular de ese elemento genérico.

Por diseño paramétrico se entiende el procesode generación de formas cuyos elementos consti-tuyentes no están determinados geométricamente,de un modo estático, sino por medio de variablescuyos valores se especifican en cada caso. En lossistemas de diseño paramétrico en sentido estricto,los elementos pueden ser modificados a posteriorisin que se altere la coherencia del conjunto. Estorequiere la especificación de unas propiedades res-trictivas que afecten de un modo selectivo a algu-nos de los elementos que constituyen la forma o ala relación que algunos de ellos mantienen entre sí.

Page 114: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 113

Aunque el concepto de diseño paramétrico esun concepto complejo que requiere una investiga-ción aún por desarrollar, sus bases son muy ele-mentales. Las primitivas gráficas que hemos men-cionado en la sección 2 son un ejemplo elementalde diseño paramétrico. Una "circunferencia" es unafamilia de elementos que admite tres parámetros:la posición de su centro (dos coordenadas) y el ra-dio. Una vez que se han especificado estas dos va-riables la circunferencia genérica pasa a ser unacircunferencia concreta situada en una posición de-terminada, en un contexto determinado y con untamaño determinado. Un "segmento de recta" estambién una familia de elementos que admite cua-tro parámetros; en este caso podemos elegir dife-rentes modos para estos cuatro parámetros; el seg-mento quedará igualmente determinado si damosdos puntos (dos pares de coordenadas) o si damosel punto inicial (dos coordenadas), el ángulo y ladistancia. La nueva entidad "parábola" que hemosindicado más arriba como ejemplo de "nueva pri-mitiva" del programa sería otro ejemplo de lo mis-mo.

No existe, por consiguiente, una frontera biendelimitada entre lo que se denomina diseñoparamétrico y el dibujo automatizado o el modela-do geométrico. En estos casos, la generación deformas se lleva a cabo mediante el recurso a enti-dades básicas que se insertan en el modelo pormedio de una especificación de sus descriptoresbásicos. En este sentido las entidades primitivas olos elementos más simples de un programa de CADtambién son paramétricos, puesto que son descrip-ciones genéricas que tan sólo adquieren un valoren el momento de ser insertadas. Por añadidura, enalgunos casos también es posible la modificacióna posteriori de estos parámetros. Una orden comostretch, por ejemplo, disponible en diversos pro-gramas de CAD, permite modificar partes de uncontorno en una única dirección, lo que puede con-siderarse como una forma elemental de diseñoparamétrico.

Otro tanto cabe decir de otros recursos básicosen estos programas. La utilización de modificado-res de escala o la inserción de "bloques", "células"o "símbolos", elementos elaborados genéricamen-te y almacenados en bibliotecas de elementos ar-quitectónicos, permiten variar las dimensionesglobales a lo largo de los dos ejes del dibujo, con-junta o independientemente, o a lo largo de los tresejes principales si se trata de un elemento

tridimensional.Sin embargo, todo esto vale para elementos muy

simples que quedan descritos tan sólo por tres di-recciones principales. Pero no para elementos com-plejos en los que todas las variaciones quedaríanalteradas por igual por un cambio de escala. Si,por ejemplo, definimos una ventana o una puertacomo un bloque unitario, la modificación de su lon-gitud para adaptar el detalle a un caso particularnos modificaría también las dimensiones del mar-co en la misma proporción que la anchura de lapuerta, lo que resulta, en general, indeseado. Loque se necesita es un modo de almacenamiento quemantenga las dimensiones del marco y del vanocomo variables independientes. De esto trata el di-seño paramétrico.

El interés del tema en el caso de la arquitecturaes evidente debido al hecho de que un número muyimportante de elementos constructivos y de diseñopueden agruparse en familias que se prestan demodo espontáneo a ser parametrizadas. Si esto seconsigue llevar a cabo de un modo satisfactorio,permite economizar espacio de almacenamiento ysimplifica la gestión de estos elementos. A un nivelmás elaborado esto podría también facilitar el pro-ceso de diseño en la medida en el ajuste dimensio-nal podría dejarse, en determinados casos, para unafase posterior.

En la creación de una célula parametrizable serequieren fundamentalmente dos cosas: la descrip-ción topológica que especifica las partes y las rela-ciones que estas partes mantienen entre sí y, en se-gundo lugar, el esquema dimensional que especifi-ca las prioridades o las restricciones dimensionalesque deben afectar a algunas de estas entidades o asu relación. Esta fase inicial se denomina diseñoprimario. El diseño primario da lugar a una seriede variantes, en una segunda fase, por medio de unmétodo de evaluación de variantes dimensionales.

La creación de una célula parametrizable es unproceso más complejo de lo que pudiera parecerpuesto que es preciso especificar todas las restric-ciones que delimitan la forma. Muchas de estasrestricciones se dan por supuestas en el procesointuitivo o corriente de generación gráfica y tien-den a ser pasadas por alto. La necesidad de tornar-las explícitas obliga a un etiquetado bastante labo-riosos en el que es fácil pasar por alto alguna deellas. Una de las líneas de investigación que se si-gue actualmente en diseño persigue, como no po-dría ser menos, la creación de una interfaz adecua-

Page 115: [Architecture eBook] Aplicaciones as en Arquitectura

114 Aplicaciones informáticas en arquitectura

da que facilite al usuario tanto la ordenación gráfi-ca de las restricciones como el control global deestas de modo que se asegure la coherencia del re-sultado.

El tipo de programa depende fundamentalmen-te del método de evaluación dimensional escogi-do. Podemos resumir los trabajos sobre estos te-mas en una serie de métodos que resumiremos acontinuación.

Programación de variantes (variantsprogramming)

La programación de variantes dimensionales con-

(defun ini ( )(setq P1 (getpoint "Introducir punto de inicio: ")

a (getdist "Anchura marco: ")b (getdist "Profundidad marco: ")v (getdist "Anchura vano: ")

)(initget 6 "Propia Corriente Ninguna")(if (setq op1 (getkword "Anchura hoja (Propia/Corriente(3.5)/

<Ninguna>): ")) ()(setq op1 "Ninguna")

)(initget 6 "Izquierda Derecha")(setq op2 (getkword "Apertura a (Izquierda/Derecha): ")

P2 (list (+ (car P1) a) (cadr P1) )P3 (list (+ (car P1) a) (+ (cadr P1) b) )P4 (list (car P1) (+ (cadr P1) b) )P5 (list (+ (car P2) v) (cadr P1) )P6 (list (car P5) (cadr P3) )P7 (list (car P3) (+ (cadr P3) v) )P8 (list (car P6) (cadr P7) )

))(defun prta ( )

(command "pline" P1 P2 P3 P4 "c")(command "copy" "last" " " P1 P5)(if (= op1 "Ninguna")

(if (= op2 "Izquierda")(command "pline" P6 "a" "ce" P3 P7 "l" P3 " ")(command "pline" P6 P8 "a" "ce" P6 P3 " ")

) )(if (or (= op1 "Propia")(= op1 "Corriente(3.5)"))

(progn(if (= op1 "Propia")

(setq c (getdist "Anchura de la hoja: "))(setq c 3.5)

)(if (= op2 "Izquierda")

(progn(setq P31 (list (+ (car P3) c) (cadr P3) )

P71 (list (+ (car P7) c) (cadr P7) ))(command "pline" P3 P31 P71 P7 P3 " ")(command "pline2 P6 "a" "ce" P3 P71 " ")

)(progn

(setq P61 (list (- (car P6) c) (cadr P6) )P81 (list (- (car P8) c) (cadr P8) )

)(command "pline" P6 P8 P81 P61 P6 " ")(command "pline" P81 "a" "ce" P6 P3 " ")

))

))

)(defun C:PRTA ( )

(setvar "blipmode" 0)(setvar "cmdecho" 0)(ini)(prta)(setvar "blipmode" 1)(setvar "cmdecho" 1)

)

siste en la generación de un elemento de un gradode complejidad limitado por medio de un progra-ma que llama secuencialmente a ordenes elemen-tales de generación de entidades de un programade CAD, asignando valores a las variables. El pro-grama solicita los valores dimensionales principa-les de modo interactivo para determinar las varia-bles y, a continuación, ejecuta las órdenes progra-madas para definir la forma. Los principales limi-taciones de este método son, en primer lugar, queel número de variables posibles es bastante limita-do si no se quiere multiplicar hasta límites intrata-bles la complejidad del programa y la multiplica-ción de mensajes de error que invaliden opcionesde valores de entrada que lleven a resultados im-

Figura 23. Código en AutoLisp para inserción de una puerta dada por parámetros simples

Page 116: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 3. CAD 2D 115

posibles. En segundo lugar que este método nopermite modificar a posteriori los valores trabajan-do directamente sobre la forma ya generada.

Las variantes pueden desarrollarse en un len-guaje de alto nivel que forme parte de un programade CAD, tal como AutoLisp para AutoCad o MDLpara Microstation. El elemento se especifica a par-tir de variables relacionadas entre sí y por mediode órdenes propias del programa que se aplican aestas variables. El valor de estas variables se esta-blece interactivamente para cada caso.

Hay múltiples ejemplos de esta forma básica dediseño paramétrico. Pueden crearse rutinas que di-bujen e inserten elementos de carpintería corrien-tes, tales como puertas y ventanas en 2D, u otrostipos de elementos similares adecuados para unproyecto concreto. Pueden igualmente crearse ru-tinas que dibujen e inserten huecos en muros 2D oque generen muros 3D con huecos en posicionesdeterminadas. Pueden generarse escaleras o perfi-les de escaleras en 3D que se desplieguen entre dospuntos dados, etc. En algunos trabajos de investi-gación se han parametrizado también pequeñas vi-viendas aunque la utilidad de esto es meramenteexperimental.

La figura 23 muestra un ejemplo sencillo de unapuerta que puede insertarse en cualquier posicióny con cualquier dimensión con una rutina enAutoLisp. Consta de dos funciones. La primera("ini") abarca 20 líneas de código. Las primeras 4líneas solicitan datos del usuario. La línea 6 solici-ta tres alternativas que darán lugar a tres bucles enla siguiente función: si se quiere dibujar una hojacon una ancho dado, con un ancho corriente (3,5cms) o si no se quiere dibujar hoja. El resto de laslíneas son datos derivados a partir de los datos in-troducidos por medio de cálculos simples. Las pa-labras clave "car", "cadr" son códigos característi-cos de Lisp que permiten procesar listas; en nues-tro caso, coordenadas: "car P1" indica que se tomeel primer valor de la lista asociada a P1, es decir, lacoordenada x.

La segunda función "prta" ejecuta la secuenciade órdenes necesarias para dibujar la puerta segúncuál de las variantes se haya escogido.

Finalmente, las 8 últimas líneas definen una nue-va orden denominada "prta" mediante la secuenciade AutoLisp "C:PRTA", desactivan variables mo-lestas, llaman a las dos funciones anteriores y vuel-ven a dejar las variables como estaban.

Especificación de restricciones paramétricas

Un problema fundamental en CAD es cómo hacerexplícitos ciertos conocimientos intuitivos, de talmodo que sean interpretables por una máquina ypuedan ser tratados de modo automático. Uno delos aspectos cruciales de este problema generalsurge de la constatación de una gran parte del co-nocimiento con que contamos se da por supuesto,es sentido "común" y no parece necesario especifi-carlo hasta el momento en que intentamos automa-tizarlo por un dispositivo tal como un computador.

Un método genérico de abordar este problemaes la especificación de restricciones sobre un mo-delo constituido por una serie de entidades primiti-vas. El modelo puede ser entendido entonces comoun conjunto de restricciones y variables. Una res-tricción es una relación que enunciamos y que afectaa una o más variables o, si se prefiere, una condi-ción a la que debe someterse una entidad o un gru-po de entidades. Ejemplos elementales de restric-ciones son: una línea con una orientación fija, unalínea recta con una longitud fija, dos líneas que de-ben cortarse en un punto fijo, dos arcos que debenser tangentes en un punto fijo, dos segmentos cu-yas dimensiones deben mantener una proporciónfija, etc.

Cada conjunto de restricciones configura unconjunto de variantes que configuran a su vez unaregión en el espacio modelo. Un modelo puede serentendido, desde este punto de vista, como una fa-milia con n variables o dimensiones independien-tes. Cada restricción especificada disminuye la di-mensión en un grado. Cuanto mayor sea el númerode restricciones, por otro lado, más difícil es orga-nizar un modelo coherente y que sea consistentepara un rango determinado de valores. El tipo, elnúmero y la complejidad de las restricciones lleva-rían desde el diseño paramétrico hasta los sistemasexpertos.

El concepto de restricción implica el de toleran-cia, grado de libertad, subrestricción, ysuperrestricción. Los sistemas de diseñoparamétrico permiten especificar distintos gradosde tolerancia para transformar bocetos iniciales encélulas paramétricas. Así, una tolerancia angularde entrada inferior a 5º, por ejemplo, implicaríaque líneas dibujadas con una diferencia inferior aeste ángulo con respecto a la horizontal y verticalse transformarían automáticamente en líneas per-fectamente horizontales o verticales. El grado de

Page 117: [Architecture eBook] Aplicaciones as en Arquitectura

116 Aplicaciones informáticas en arquitectura

libertad de una célula paramétrica especificaría elnúmero de restricciones adicionales que cabe es-pecificar en un caso concreto. Una célulasubrestringida sería un célula con una definicióninsuficiente. Una célula superrestringida contaríapor el contrario con una definición conflictiva quesería preciso resolver. Los programas comercialesde diseño paramétrico cuentan con controles queavisan al usuario de este tipo de situaciones.

Hay diversos modos de especificar una restric-ción. Un método obvio es formular las restriccio-nes por medio de ecuaciones internas que reflejanlas condiciones relacionales especificadas por elusuario. Este método se basa en enunciar todas lasrestricciones del modelo en forma de ecuaciones,tomando como variables los puntos característicos.El sistema de ecuaciones se resuelve en cada casopor un método numérico iterativo. Las ecuacionespueden ser muy simples o relativamente comple-jas, según la capacidad del programa.

A diferencia de los métodos anteriores que pue-den desarrollarse con programas de uso corriente,sin otra condición que la voluntad del usuario deadentrarse hasta cierto punto en las técnicas de pro-gramación, la especificación de restricciones re-quiere que el programa cuente con módulos espe-cíficos para reconocer y gestionar estas restriccio-nes. Hay diversos programas disponibles para di-seño paramétrico en diseño industrial: uno de losmás conocidos y utilizados es ProEngineer. El pro-grama Mechanical Desktop de AutoDesk, que fun-ciona sobre AutoCad puede integrarse con mayorfacilidad en los métodos de trabajo propios de losdespachos de arquitectura aunque está orientadoen principio a otro tipo de aplicaciones.Microstation cuenta también con complementosque permiten generar células paramétricas en 2D.

Objetos parametrizables

Un objeto es, en términos informáticos, una enti-dad que incorpora una funcionalidad autónoma, esdecir que incorpora, por ejemplo, funciones quepermiten realizar operaciones adecuadas a esteobjeto tales como moverlo, girarlo, cambiar sus di-mensiones, etc. La orientación a objetos es una es-trategia de programación relativamente reciente quebusca aumentar la interrelación entre programas yla facilidad de uso por medio de la creación de en-tidades que se asemejan intuitivamente a los obje-

tos de la vida real, que tengan propiedades seme-jantes a estos que faciliten su manejo.

La dificultad para incorporar objetos, entendi-dos en este sentido, a los programas de CAD es,actualmente, de índole meramente cuantitativa; serequieren máquinas capaces de soportar la mayorcantidad de memoria y velocidad que exige un pro-grama que cuente con "objetos" en lugar de "enti-dades", es decir que cuente con elementos con unadefinición interna muy compleja en lugar de ele-mentos cuya definición se reduce a la especifica-ción de dos puntos y un modo de dibujar el recorri-do entre estos dos puntos, como es el caso de laentidad línea.

Desde el punto de vista de un arquitecto estoquiere decir que, si se cuenta con un programa deestas características, no se dibujarán "líneas" sino"muros" o "perfiles de carpintería". Si el objeto esparametrizable, cualquier cambio posterior no im-plicará borrar o mover la entidad sino abrir un cua-dro de diálogo amodal (se denominan "amodales"los cuadros de diálogo que pueden permanecerabiertos mientras se efectúan operaciones en otraposición de pantalla) y cambiar los valoresdimensionales o las propiedades del elemento encuestión.

Este modo de trabajar favorece la interacción yla experimentación. El diseñador no necesita pre-ocuparse por los datos, puede realmente, crear "bo-cetos" 2D o 3D y dejar la definición dimensional olos ajustes geométricos para una fase posterior dedesarrollo. Favorece igualmente las innumerablescorrecciones que tienen lugar corrientemente en elproceso de diseño.

Un buen ejemplo de este diferente modo de tra-bajar lo proporciona el programa 3DStudio Maxque es uno de los primeros programas que utilizaobjetos paramétricos y cuadros de diálogo amodalespara interaccionar con ellos. No debe perderse devista, sin embargo, que este modo de trabajo esadecuado para objetos aislados pero es aún insufi-ciente para trabajar con modelos arquitectónicosrelativamente complejos en 3D y que presenta di-ficultades aún no resueltas para modelos en 2D,por lo que no debe considerarse sino como el co-mienzo de una historia que aún debe dar muchasvueltas.

Page 118: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 119

Capítulo 4 . CAD3D

La inmensa mayoría de los despachos de arquitec-tura operativos en el último año del siglo actualdesarrollan sus proyectos con métodos que se hanresumido a grandes rasgos en el capítulo anterior.El número de los que utilizan la informática paraproyectar comienza a descender en picado cuandonos salimos de este marco y nos adentramos en lacreación de modelos más elaborados. Hay variasrazones que explican el que esto sea así. Una deellas, que no debe perderse de vista, pese a lo quedigan los más entusiastas defensores de los méto-dos informáticos, es que en muchos casos se tienemayor control sobre el diseño trabajando en dosdimensiones que trabajando en tres. Para ser másexactos: trabajar en tres dimensiones sobre unapantalla plana, no es exactamente trabajar "en tresdimensiones". Y la propia noción de trabajar sobreun objeto "en tres dimensiones" es discutible, puessólo vemos, en cada momento, un aspecto del ob-jeto.

Estas observaciones implican, de hecho, unametodología de trabajo con diversas variantes. Laspreferencias de los arquitectos pueden ponerse enrelación, en este sentido, con las de los escultores.Miguel Angel esculpía sobre un plano frontal delque surgían sus figuras "como un cuerpo en unabañera que se estuviera vaciando". Rodin giraba ygiraba incesantemente en torno a su modelo. Mi-guel Angel esculpía, es decir, quitaba. Rodin mo-delaba con barro, es decir, añadía.

Como veremos a lo largo de este capítulo, losmétodos de modelado en 3D admiten variantesmetodológicas que se relacionan con estas varian-tes universales. Por desgracia son escasamente co-nocidas y así venimos a parar a otra razón, másprosaica, por la que los arquitectos no utilizan lainformática como herramienta, real, de proyecto.Esta razón es, sencillamente, que en un gran núme-ro de casos es una herramienta desconocida a la

que se mira con prevención, como algo innecesa-riamente complicado que costará demasiado tra-bajo llegar a dominar. Esta prevención podía estarjustificada hace algunos años pero no lo está en laactualidad. Un mínimo conocimiento de los funda-mentos teóricos de los modelos geométricostridimensionales junto con la mayor capacidad deinteracción de los programas actuales contribuiráen pocos años a cambiar radicalmente, con todaseguridad, el modo en que se desarrollan los pro-yectos.

1 Definición. Tipos de representaciones.Aplicaciones

Las diversas técnicas incluidas bajo la denomina-ción CAD3D o modelado geométrico por mediosinformatizados o modelado tridimensional, omaquetación virtual, se han desarrollado en deter-minados sectores pioneros, en donde han surgidolos métodos principales, que posteriormente se hanextendido a otras áreas. Estos sectores son princi-palmente los de la industria aeronáutica, automo-vilística y naval. No debe de perderse de vista esteorigen a la hora de evaluar las herramientas conque se cuenta en los programas comerciales, quepara un arquitecto pueden parecer descompensadas;demasiado abundantes por un lado y muy escasaspor otro. En arquitectura, el modelado geométricopor medios informáticos está adquiriendo, poco apoco, una importancia creciente que es de preverque aumente en los próximos años.

Los problemas que se presentan al generar unmodelo arquitectónico son en buena medida dife-rentes a los que se presentan al generar modelospropios de las áreas industriales pioneras que he-mos mencionado. En la gran mayoría de los casos,los modelos arquitectónicos están constituidos porsuperficies planas, verticales u horizontales, cuya

Page 119: [Architecture eBook] Aplicaciones as en Arquitectura

120 Aplicaciones informáticas en arquitectura

generación resulta más bien trivial; las dificultadesaparecen más bien a la hora de gestionar los ele-mentos que configuran el espacio, elementos muydiversos, muy numerosos y que mantienen entre sírelaciones complejas. Los arquitectos diseñan es-pacios y el espacio se constituye por relaciones entreformas. Este punto de partida marca una diferenciaesencial entre la producción de la arquitectura y laproducción de objetos industriales que deberá re-flejarse más pronto o más tarde en la propia evolu-ción de las técnicas de modelado geométrico ar-quitectónico. Hechas estas salvedades podemosabordar una descripción más general.

Entendemos por modelado geométrico el pro-ceso que sigue un sistema informatizado para in-troducir, almacenar y modificar representacionesde objetos, con la suficiente precisión como paraque puedan servir de base a su producción real enla ingeniería o en la arquitectura.

Un sistema de modelado geométrico puede con-siderarse constituido de acuerdo con tres funcio-nes o procedimientos principales, comunes a losdiversos sistemas de modelado que se describiránmás adelante. Estas funciones son la representa-ción, la interacción y la aplicación a otros sistemaso bien su integración como módulos de otros siste-mas.

Un sistema de modelado geométrico es un mó-dulo independiente y fundamental de un sistemacompleto de diseño asistido por computador. Lascaracterísticas específicas que diferencian un sis-tema de otro dependen del tipo de aplicación y deltipo de plataforma física, en la medida en que esta-blecen unos límites que son accesibles por unossistemas pero no por otros. Es importante subrayar

que, como ocurre con todo modelo, un modelogeométrico informatizado implica una abstracción.Hay ciertas características del posible objeto físi-co real que se construye a partir del modelo, quehabrán quedado adecuadamente representadas;otras no.

Tipos de representaciones

Todas estas funciones son similares a las funcionesgenerales de un sistema gráfico que volvemos aresumir enfatizando las diferencias propias delmodelado en 3D. En un sistema de modeladogeométrico es preciso distinguir entre la represen-tación principal y las representaciones auxiliares.La representación principal es la representaciónde la que derivan las demás y que se va actualizan-do a medida que evoluciona el proceso. La repre-sentación de los objetos se lleva a cabo por mediode estructuras simbólicas que no son en generalaccesibles para los usuarios. De ahí que una partefundamental de todo sistema de modelado geomé-trico esté constituida, como en el CAD2D, por elmodo específico en que se realiza la interacción,por la serie de protocolos y órdenes inmediatas quepermiten introducir los datos de modo intuitivo, seagráficamente, sea mediante especificaciones numé-ricas o especificaciones de texto convenientemen-te simplificadas. Las representaciones auxiliaresdependen de otras funciones o de otras aplicacio-nes y derivan en todo momento de la representa-ción principal. La representación principal estásujeta, como toda estructura de datos informáticos,a procesos de entrada y salida de datos. Esto impli-ca la existencia de un tipo especial de representa-ciones auxiliares dirigidas específicamente a lasfunciones de interacción.

Las representaciones auxiliares de entrada y sa-lida de datos son las propias de la interfaz, un mó-dulo clave que diferencia de modo más inmediatoun sistema de otro. Son básicamente las dos que yahemos visto en el caso del CAD2D: representaciónpor lenguajes de órdenes (cadenas de texto) y re-presentación por técnicas gráficas tales como la se-lección puntual de una lista de alternativas (menús)o la indicación directa de una posición en el espa-cio de la pantalla. Las técnicas de entrada de datospueden también diferenciarse en técnicas de espe-cificación inicial y técnicas de edición o modifica-ción de objetos ya representados. Las primeras sir-ven para crear nuevos objetos y las segundas para

Representación Interacción Aplicación

Principal

Aux1 2

Aux3

Aux

Proc1

2Proc

...Procn

Conv

Conv

Conv

Conv

-Uso Directo-Exportación

Figura 1 Funciones de un modelo geométrico

Page 120: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 121

modificar objetos ya creados. Las técnicas de sali-da de datos dependen del tipo de dispositivo, deltipo de imagen que se busque conseguir y del gra-do de calidad de tal imagen. No debe perderse devista que, desde un punto de vista técnico, la salidade pantalla es un tipo de salida similar al de otrassalidas permanentes y que involucra técnicas se-mejantes.

Cabría llevar a cabo el modelado geométrico deun objeto complejo sin recurrir a otro tipo de re-presentación que la representación simbólica de suscaracterísticas principales. Sin embargo, desde elpunto de vista de la interacción entre el usuario yel ordenador, este modo de representación requie-re ser complementado con métodos que permitanvisualizar las entidades con que se trabaja sobre unmonitor y actuar sobre ellas, sea para modificarlassea para visualizarlas de diversos modos, tambiéna través de un monitor. Esto implica toda una seriede técnicas de representación dirigidas a facilitarla visualización. En primer lugar, el trabajo convistas diferentes que pueden aparecer simultánea-mente en diferentes ventanas. En segundo lugar,técnicas específicas de generación de áreas sóli-das y eliminación de superficies ocultas. Por últi-mo, hay otro aspecto importante y que a veces quedainsuficientemente clarificado: para poder visualizarobjetos que estén formados por superficies curvasy para que, en consecuencia , se dé una interacciónefectiva entre la máquina y el usuario, es necesariauna representación que, en muchos casos, implicauna reducción de los atributos visuales del objetoen cuestión. La representación de objetospoligonales resulta ser, por consiguiente, una par-te fundamental del modelado geométrico por dosrazones que es importante distinguir con claridadpues tienden a confundirse. En primer lugar, por-que hay numerosos objetos, y más aún en el casode la arquitectura, cuya representación propia tam-bién es poligonal. Y, en segundo lugar, porque esel modo habitual de reducir la complejidad de su-perficies curvas de tal modo que sea posible su re-presentación gráfica.

También cabe distinguir, como en CAD2D ydesde un punto de vista ya más cercano a los tiposde modelos que se utilizan en la práctica, entre re-presentaciones simples y compuestas. Dado un sis-tema de coordenadas cartesiano universal, en 3D,la representación de una entidad, tal como un pla-no, un cilindro, un cubo, una esfera o un paraboloidehiperbólico, puede llevarse a cabo mediante una

función única que limita los valores que puedenadoptar todos los puntos de esa entidad a una de-terminada región del espacio que identificamoscomo "la forma" de esa entidad. Así, por ejemplo,la ecuación x2 + y2 + z2 = r2 limita los valores quepueden tomar todos los puntos x, y, z al cumpli-miento de la igualdad que establece la ecuación, yla región del espacio que así queda delimitada, des-cribe una forma que denominamos "esfera". Sinembargo hay muchas otras formas de interés queno admiten una formalización matemática tan di-recta. En estos casos será preciso elaborar una des-cripción articulada en partes que admitan algún tipode formalización matemática, junto con una espe-cificación de la relación que mantienen estas par-tes entre sí. El tipo de representación, así como elmodo en que muy diversos tipos de representaciónse relacionan para dar una descripción compleja yadecuada a una determinada aplicación de un ob-jeto, es uno de los aspectos claves del modeladogeométrico. De nuevo aparece aquí una tensiónentre la noción de "primitiva" por un lado y losdiversos modos en que éstas pueden combinarseentre sí para formar entidades compuestas.

Por último, otro tipo de requisito fundamentalque debe cumplir una representación, desde el pun-to de vista de su disponibilidad para cualquier tipode aplicación, es el de ofrecer una estructura biendefinida y normalizada, de tal modo que los datosprincipales con que se cuente puedan generar todauna variedad de datos secundarios. La normaliza-ción supone, por el momento, una meta aún no al-canzada, si bien se cuenta con una colección deformatos de hecho, junto a formatos oficiales queintentan recoger la dinámica de los formatos co-merciales. Las siglas "dxf","iges" o "step", comolas "gif", "tif" o "tga" que veremos en el capítulodedicado a imágenes, son muestras de una colec-ción que está a la espera de un formato único paralos diversos tipos de aplicación, o que busca impo-nerse como formato de facto, con todas las venta-jas comerciales que ello puede reportar para quienlo consiga.

Page 121: [Architecture eBook] Aplicaciones as en Arquitectura

122 Aplicaciones informáticas en arquitectura

Representación

2D

Visualización

Simulación A. Visual

A. Geométrico

A. Funcional

Aplicaciones de los modelos geométricos

Los modelos geométricos se usan con una diversi-dad de fines, incluso dentro de un mismo campode aplicaciones generales como es el que nos ocu-pa. Las principales son las siguientes.

1 Visualización. Un modelo geométrico puede uti-lizarse como una herramienta de diseño que per-mite verificar la forma, el aspecto que va adqui-riendo una idea de proyecto, sea con fines inter-nos, para orientar las correcciones que deberá su-frir el proyecto, sea con fines externos, como basepara generar perspectivas lineales que puedan serpresentadas al cliente.

2 Representación. Lo anterior no implica que losmodelos 3D se utilicen como parte de la represen-tación final del proyecto aunque evidentemente estoes así en muchos casos si bien no tanto como seesperaba. Cuando surgieron los primeros prototi-pos, hace más de 20 años, se pensó que en un futu-ro cercano todo el proceso de trabajo en un despa-cho se vería radicalmente alterado y que, en pocosaños, lo natural sería generar un modelo arquitec-tónico tridimensional y extraer de él los planos 2D.Progresivamente se ha ido comprendiendo con másclaridad hasta qué punto la representaciónbidimensional tradicional incorpora numerosos ele-mentos simbólicos que no pueden obtenerse porproyección directa de elementos tridimensionales.En la actualidad la mayoría de los despachos pro-fesionales trabajan de modo independiente losmodelos 2D y 3D aunque la cuestión sigue abierta,sigue generando polémica y en ciertos casos se uti-liza, de modo total o parcial, el modelo geométricocomo base de los documentos corrientes, los pla-nos de proyecto.

3 Análisis geométrico. La generación de un mode-lo geométrico permite, entre otras cosas, obtenernumerosos datos, longitudes, áreas y volúmenes deelementos aislados o conjuntos de elementos, demodo automático. Esto es fundamental desde elpunto de vista de la coherencia constructiva y esuna las razones principales que justifican el uso demodelos geométricos. Otra razón importante es quepuede permitir realizar una medición automatiza-da completa del proyecto, lo que permitiría a suvez la realización de presupuestos automatizados

integrales. En cualquier caso, el modelo geométri-co es la base de la que parten diversos modelosderivados algunos de los cuales se dan a continua-ción.

4 Análisis y simulación visual. Una de las aplica-ciones más habituales de un modelo geométrico enel sector de la arquitectura es, en la actualidad, enconexión con otros módulos de rendering, anima-ción y tratamiento de imágenes, la obtención devistas "realistas" del proyecto dirigidas a la pro-moción o la comunicación de la obra. El modeladogeométrico es el punto de partida de este proceso yde la precisión del modelado depende directamen-te la calidad de la imagen final.

5 Análisis funcional. La generación de un modelogeométrico permite asociar al modelo atributos di-versos tales como peso, temperatura o resistenciamecánica. La simulación funcional es un área en laque se han alcanzado notables resultados en lossectores pioneros mencionados al comienzo, la in-geniería automovilística, naval o aeronáutica; lainteracción de un modelo geométrico con un mo-delo eólico y el análisis de los resultados por me-dio de un programa de elementos finitos es un ejem-plo entre muchos. En el caso de la arquitectura sehan realizado experiencias diversas, de considera-ble interés y menos conocidas de lo que deberíanser, en esta línea.

Figura 2 Aplicaciones de losmodelos geométricos

Page 122: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 123

Límites de aplicación. Otros sistemas demodelización

En general, puede decirse que todo sistema demodelado geométrico parte de unas limitacionesque se pondrán de manifiesto en función del tipode objeto que se pretenda representar. Esto es algoobvio si se consideran dos extremos: la representa-ción de objetos artificiales simples, tales como cu-bos, conos o esferas, y la representación de obje-tos orgánicos, tales como árboles, plantas o terre-nos irregulares. Entre estos dos extremos hay unadiversidad infinita de casos que establecen una gra-dación aproximada que podría orientar las posiblesformas de clasificación de los sistemas de modela-do geométrico. Esto implica igualmente la presen-cia de otro concepto ya mencionado: el grado deprecisión del modelo en relación con el objeto quese pretende representar, lo que se relaciona, desdeel punto de vista de la producción real, con la tole-rancia que se especifique para un determinado pro-ducto.

Hay por otro lado sistemas diversos, puestos encirculación durante la década de los ochenta, queno encajan bajo la denominación de "modeladogeométrico" si bien, por otro lado, tampoco son deaplicación directa al campo de la arquitectura conalgunas excepciones notables. La mayoría de estosmétodos surgieron de la necesidad y del interés porgenerar objetos virtuales que fueran capaces de si-mular de modo satisfactorio objetos naturales o so-metidos a la acción directa de dinámicas naturales,tales como la fuerza del viento, de las olas o defuerzas de crecimiento que impulsan el desarrollode plantas y árboles.

Los métodos denominados genéricamenteprocedurales, los fractales, las gramáticas de for-ma, los sistemas basados en modelización de partí-culas, entre otros, permiten generar objetos irregu-lares, tales como nubes, montañas, humo, fuego,etc., que serían impensables por métodosgeométricos. Los métodos basados en leyes físicaspermiten modelar objetos tales como superficieselásticas, objetos de plástico o telas sometidas a laacción de fuerzas gravitatorias, a la acción del vien-to o a la interacción con otras superficies. Otrosmétodos, en fin, como el volume rendering, permi-ten generar matrices de propiedades espaciales queson utilizadas posteriormente para la generaciónde imágenes del interior de objetos virtuales quemodelan objetos reales. Algunos de estos mode-

los, particularmente los fractales y las gramáticasde forma se han utilizado y se están utilizando enarquitectura con carácter experimental.

2 Tipos principales y desarrollo histórico

Se acepta en la literatura especializada que el tér-mino "modelado geométrico" abarca toda una se-rie de técnicas y subsistemas que pueden englobarseen cuatro grupos principales, por orden de apari-ción histórica, que se resumen en la figura 3.

a) Modelos alámbricos (wireframes)

Los modelos alámbricos consisten en la represen-tación simple, por medio de aristas o líneas princi-pales, de la envoltura externa de un objeto. Esto seremonta a los inicios de la computación gráfica, afinales de los 1950. Sigue siendo la representaciónauxiliar más utilizada durante la interacción peroes obviamente insuficiente como medio de trabajotanto por problemas de visualización como por faltade definición completa del objeto representado.

b) Mallas poligonales

La representación por medio de mallas poligonalesconsiste en la representación de un objeto por me-dio de facetas planas yuxtapuestas por sus aristas.Se remonta a la misma época y constituye un modosuficiente de modelar objetos simples y, por añadi-dura, es el modo más utilizado durante el procesode visualización, tanto para conseguir representa-ciones lineales simples, mediante algoritmos deeliminación de superficies ocultas, como para con-seguir representaciones en color mediante progra-mas especiales que incorporen modelos de ilumi-nación (rendering).

c) Modelado de superficies de forma libre

El modelado de superficies de "superficies escul-pidas" (sculptured surfaces), "parchesparamétricos" (parametric patches) o "superficiesde forma libre" (free form surfaces) consiste en larepresentación de un objeto por medio de facetasformadas por superficies cuádricas o cúbicas quemantienen sus continuidad en las aristas producien-do globalmente una superficie continua que puedeser modificada interactivamente. Como ya se hamencionado, el desarrollo del CAD se llevó a cabo

Page 123: [Architecture eBook] Aplicaciones as en Arquitectura

124 Aplicaciones informáticas en arquitectura

1950

1960

1970

1980

1990

2000

2D

2'5D

3D

Alámbricos Poligonales SólidosSuperficies

Algoritmos de eliminación de líneas y superficies ocultas

Algoritmos mejorados. Suavizado de aristas

Integración en hardware

Splines (Bézier, De Casteljau...)

Parches paramétricos (Coons, Ferguson...)

B-Splines, Beta-Splines, Nurbs

Extrusiones. Instancias de primitivas

CSG, B-Reps, Árboles octales

Objetos paramétricos

Integración de CSG y B-Reps

Figura 3 Tipos de modelos.Evolución histórica

Page 124: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 125

de modo principal en el mundo de la ingenieríanaval, aeronaval y aeronáutica, en donde tienen unaimportancia fundamental las superficies de curva-tura compleja que no admiten representaciones sim-ples por medio de mallas poligonales o superficiesde definición matemática relativamente simple,como es el caso de las cuádricas. Esto llevó al de-sarrollo de nuevos métodos de representación quehan constituido y constituyen uno de los camposmás activos de investigación en el mundo del CADy que tienen un interés algo menor pero en absolu-to despreciable desde el punto de vista de la arqui-tectura.

d) Modelado de sólidos

El modelado de sólidos consiste en la representa-ción de objetos unitarios a los que se pueda asig-nar atributos complejos y combinar con otros ob-jetos unitarios. A finales de los setenta e inicios delos ochenta, se planteó la necesidad de avanzar enla automatización de los procesos de definición deobjetos de tal modo que se eliminaran ambigüeda-des y se pudieran utilizar estas definiciones en lasimulación de procesos reales, estructurales o di-námicos. De ahí nacieron nuevos tipos de repre-sentación que, desde el punto de vista de la arqui-tectura, es previsible que vayan adquiriendo unaimportancia creciente.

Evolución histórica

Resumiremos brevemente la evolución histórica deestos tipos por lo que hace principalmente a losdos últimos mencionados en el apartado anterior.

El antecedente histórico principal de los méto-dos de diseño de superficies de forma libre se en-cuentra en la ingeniería naval. Las técnicas utiliza-das en este área derivaban de métodos tradiciona-les de construcción. La superficie se generaba apartir de líneas maestras que proporcionaban laslíneas de curvatura principal. El relleno de estosmarcos maestros se producía de modo natural si larelación entre ellos era adecuada. Este requerimien-to implicaba una notable precisión en la especifi-cación de las líneas de curvatura. Las curvas se di-bujaban a escala natural para barcos pequeños o aescala 1:10 para barcos grandes. Eso generaba unagran colección de marcos, agrupados en tres vistasprincipales, que se sometían a correcciones sucesi-vas hasta conseguir una transición suficientemente

continua entre todas las partes.En cuanto surgieron los métodos informáticos

se pusieron a disposición de los diseñadores técni-cas extraordinariamente potentes de generación yrectificación de estos marcos y comenzaron a im-ponerse paulatinamente como nuevo método de tra-bajo hasta que, a mediados de los sesenta, la ma-yoría de las compañías navales y aeronáuticas ha-bían pasado a utilizarlas con carácter principal. Afinales de los cincuenta, comenzó también a plan-tearse la conveniencia de utilizar lo que se deno-mina "métodos numéricos", esto es, máquinas pro-ductoras de formas metálicas o de madera, contro-ladas por ordenador. Este interés surgió principal-mente en la industria del automóvil que necesitabaespecificaciones precisas capaces de ser aplicadasautomáticamente sobre grandes series. Progresiva-mente se fue aplicando por igual en las tres gran-des áreas pioneras en el uso de sistemas CAD/CAM, la industria automovilística, la industriaaeroespacial y la industria naval. Actualmente, laproducción de las compañías aeronavales está ba-sada en un 100% en sistemas CAD/CAM.

Los primeros sistemas utilizados en la industrianaval y aeronaval para dibujar los perfiles estabanbasados en lo que se denominaba conic lofting yque podría traducirse como "levantamientos en basea cónicas" y que se basaban en la utilización desecciones cónicas para ajustar las curvas caracte-rísticas del fuselaje. Se pueden encontrar descrip-ciones de estos métodos en trabajos de la décadade los cuarenta. Sin embargo, el uso de seccionescónicas era torpe y la necesidad de contar con mé-todos más flexibles se hacía sentir en todas estas

Figura 4 Modelado de un aviónpor conic lofting

Page 125: [Architecture eBook] Aplicaciones as en Arquitectura

126 Aplicaciones informáticas en arquitectura

áreas de la industria. El punto clave estaba en en-contrar técnicas capaces de especificar en térmi-nos matemáticos cualquier tipo de curva. Para com-prender bien el enlace entre los nuevos y los viejosmétodos es necesario comprender el tipo de técni-cas tradicionales que se utilizaban hasta el momen-to.

Un modo sencillo de especificar una curva decomplejidad superior es hacerlo en términos de ladeformación simple de una curva de complejidadinferior. Por ejemplo, es sencillo dibujar una elip-se a partir de un círculo delimitado por un marcorectangular sobre el que se han situado una seriede puntos. La deformación controlada de este mar-co permite generar la elipse. La misma idea puedeser utilizada para especificar una curva en el espa-cio.

Estos principios elementales estaban en la basede los primeros intentos de definir curvas por me-dio de funciones analíticas que las relacionasen contres lados de un cuadrilátero de base. Los ladosextremos definían los puntos de arranque de la curvay sus tangentes. Pronto se llegó a la conclusión deque la solución más operativa era expresar la fun-ción analítica como suma de polinomiosparamétricos. Uno de los principales innovadoresen este campo, el ingeniero P. Bezier, cuenta cómosus primeros hallazgos chocaron con la oposiciónde diseñadores veteranos que habían llegado a de-sarrollar curvas propias de las que habían elabora-do cuidadosas plantillas que guardaban celosamen-te. La idea de traducir sus plantillas manuales afunciones generales que podrían ser utilizadas porcualquiera que comprendiera sus principios no leshacía ninguna gracia y fue preciso asegurarles que

se mantendría el secreto haciendo que las funcio-nes a partir de las cuales se dibujaban las curvaspermanecieran codificadas en lugares inaccesiblesdel ordenador. Los primeros métodos eficaces sur-gieron a principios de los años ’60. Los trabajospioneros fueron debidos a P. De Casteljau enCitroën y a P. Bezier en Renault. Estos ingenierosidearon métodos matemáticos de definición de cur-vas que permitían una interacción intuitiva y ungrado de control suficiente sobre ellas, no muy ale-jados de los métodos tradicionales una vez se su-peraba la distancia con el aparato informático quepermitía su aplicación. Las "curvas Bezier" se uti-lizan ahora en innumerables programas popularesde diseño, desde AutoCad y Microstation a CorelDraw o Photoshop.

El término spline tiene un origen similar. Se de-nominaban splines a unas tiras de metal flexible omadera utilizadas para trazar curvas. En ciertasaplicaciones industriales se utilizaban variassplines, unidas entre sí, y deformadas a base decolocar pequeños pesos metálicos en puntos clave.Las catenarias que utilizaba Gaudí son un caso par-ticular de este tipo de splines. El modo de cons-trucción de las splines asegura la creación de cur-vas con continuidad de segundo orden, esto es, contangentes comunes en cualquiera de sus puntos. Laventaja principal de las B-splines, de las que se tra-tará más adelante, es similar.

Las splines informatizadas aparecieron a media-dos de los sesenta como respuesta a una demandamuy concreta. Se necesitaba una curva capaz deinterpolar tantos puntos como se desease, mante-niendo una continuidad de segundo grado en todossus puntos y capaz de efectuar esta interpolaciónsin las complicaciones provocadas por la utiliza-ción de polinomios de orden superior. Se denomi-naron B-splines para distinguirlas de las splines tra-dicionales. La "B" viene de "base" y alude al he-cho de que estas nuevas splines pueden ser repre-sentadas como suma ponderada de funcionespolinómicas de base, a diferencia de las antiguassplines en las que esto no era posible.

Las NURBS (Non-Uniform-Rational-B-Splines)proporcionan los métodos más potentes hasta lafecha para definir superficies de forma libre y quepuedan ser modificadas interactivamente mante-niendo la coherencia y la unidad de aspecto quederivan del mantenimiento de una representaciónanalítica y de una serie de propiedades asociadas aella, que se mantienen constantes. Desde un punto

Figura 5 Splines

Page 126: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 127

de vista práctico la principal diferencia entre lasnurbs y sus predecesoras es que admiten un con-trol local más fino, esto es, permiten hacer ajustesque no se propagan excesivamente lejos.

Hasta aquí hemos hablado de curvas. La exten-sión de estos métodos al caso de superficies pormedio de "parches biparamétricos" (biparametricpatches) se inspiró también en métodos utilizadosen fundición para obtener superficies de diversasformas tales como el recurso a cajas irregulares lle-nas de arena. El exceso de arena se eliminaba pormedio de una plantilla que se deslizaba sobre dosperfiles cuidadosamente diseñados. Esta idea se ex-tendió a la de generar superficies de un modo simi-lar, por medios matemáticos, pero permitiendo quela curva generadora variara de forma y tamaño paraadaptarse mejor a los perfiles directrices, algo que,obviamente, no era posible por medios mecánicospero sí con métodos matemáticos.

En esta dirección hay que situar los trabajos deCoons y Ferguson, entre otros, que trabajaron endiversas factorías navales y aeronáuticas. Estos tra-bajos partían de una dirección distinta a lo que hastaentonces había sido el método tradicional en lasindustrias y que se basaba en la especificación desuperficies a base de secciones maestras queactuaban como directrices globales de la superfi-cie total. No intentaban representar la superficiepor medio de secciones generales sino que partíande representarla mediante "parches" unitarios.

Un "parche" (patch) se definía, de modo simi-lar a las curvas paramétricas, como una funciónbiparamétrica que establecía una aplicación entreun cuadrado unitario en un espacio paramétrico y

una región de la superficie considerada comotopológicamente cuadrada. Los trabajos deFerguson describían el parche bicúbico a partir de4 puntos de control y vectores tangentes. Estos tra-bajos constituyeron la base de métodos de controlnumérico de producción. Los trabajos de Coonseran muy similares pero partían de un parche dadoen función de cuatro curvas específicas que con-formaban sus cuatro lados. Estas curvas debían sa-tisfacer determinadas condiciones de continuidady correspondencia que permitieran la interpolacióninterna. Estas condiciones implicaban que las cur-vas de apoyo fueran paramétricas.

Por lo que respecta al modelado de sólidos, éstesurgió a partir de la necesidad de automatizar de-terminadas opciones realizadas sobre objetos queno podían llevarse a cabo mediante meras repre-sentaciones de superficie dado que, en determina-dos momentos, necesitaban una interpretación porparte del usuario para resolver ambigüedades dereferencia. Los primeros trabajos, aislados, surgie-ron a principios de los sesenta y los primeros tra-bajos experimentales se sitúan en un período detransición entre los sesenta y los setenta.

La primera representación de sólidos utilizandoel sistema CSG, uno de los dos sistemas principa-les utilizados en la actualidad, parece que fue de-sarrollado por MAGI (Matehematic ApplicationsGroup Inc), a principios de los sesenta por encargodel BRL (Ballistic Research Laboratory), una or-ganización dependiente del Departamento de De-fensa de USA que ya había estado detrás del pri-mer acontecimiento notable de la historia de lacomputación al promover la construcción del

Figura 6 Nurbs. Dibujo Figura 7 Nurbs. Imagen

Page 127: [Architecture eBook] Aplicaciones as en Arquitectura

128 Aplicaciones informáticas en arquitectura

ENIAC, en 1946.Los primeros modelos de esta época se cons-

truían laboriosamente entrando los datos manual-mente. Cada sólido se describía por medio de do-cenas de parámetros introducidos en la unidad pormedio de tarjetas agujereadas. A pesar de esto, haydocumentación de alrededor de 150 modelos cons-truidos por el equipo de BRL a lo largo de unos 14años. Hacia 1969 aparecen también en Europa losprimeros sistemas, entre los que cabe citar elCompac, el Euklid y el Proren. El primero se desa-rrolla en la universidad de Berlín, el segundo enFrancia (por Brun) y en Suiza (por Engeli) y el ter-cero en la Universidad de Ruhr. En 1973 aparecenen Inglaterra, en los laboratorios del ComputerLaboratory de la Universidad de Cambridge, lossistemas Build-1 y Build-2. A comienzos de los se-tenta aparecen en USA algunos sistemas bastantecompletos tales como SynthaVision, que se comer-cializó a finales de esa década y que había surgidoa partir de estudios sobre los efectos de impactosbalísticos y nucleares. Otro producto importante fueel Glide-1 desarrollado por Eastman en los labora-torios de Carnegie-Mellon y que es, por añadidura,uno de los pocos modelos sólidos que provienendel mundo de la arquitectura. Eastman ha conti-nuado produciendo trabajos de notable interés eneste área.

Un tercer producto importante de esta mismaépoca es el PADL-1, seguido por el PADL-2, desa-rrollados a partir del 1973 en la Universidad deRochester en el marco del Production AutomationProject. A finales de los setenta los sistemas de mo-delado de sólidos habían configurado un área deinvestigación de creciente interés. En 1976 CAM-I organizó el Geometric Modelling Project. En 1977la General Motors comenzó el desarrollo deGMSolid. En 1978 apareció el ShapeData deRomulus. En 1979 se lanzaron dos proyectos decolaboración entre universidad y empresa: elPADL-2 de Rochester y el Geometric ModellingProject de Leeds, en Gran Bretaña. En 1980, Evansy Sutherland comercializaron Romulus, uno de losprogramas principales y que ha influido notable-mente en el desarrollo de otros programas comer-ciales. En 1981 Applicon sacó al mercado un pro-grama de modelado de sólidos basado enSynthavision. En este mismo año Computer Visionsacó al mercado el programa Solidesign. Por estasmismas fechas apareció un artículo de Requicha,citado con frecuencia, en donde se resumían las

bases teóricas y la terminología de lo que ya sedenominó Solid Modelling y que recogía cinco sis-temas principales (B-reps, CSG, Celldecomposition, PPI, Sweeppings), que en 1999 sehan reducido prácticamente a tres (los tres prime-ros). En la actualidad, y en el campo de la arquitec-tura, hay dos sistemas principales que a menudo seutilizan en combinación: los modelos basados enrepresentación de fronteras, boundaryrepresentations o b-reps, y los modelos basadosen geometría constructiva de sólidos, constructivesolid geometry o CSG.

3 Modelado por mallas poligonales

Una malla poligonal es una colección de vértices,aristas y facetas planas constituidas por polígonossimples, generalmente triángulos o rectángulos, co-nectadas de tal modo que una arista es compartidapor dos polígonos o constituye un límite de la ma-lla. Son el recurso de modelización elemental másantiguo con que se cuenta en modelado geométri-co por medios informatizados y sin duda lo seguirásiendo durante mucho tiempo debido a su simpli-cidad y a las numerosas ventajas que presenta.

Sistema propio de modelado y recurso devisualización

Las mallas poligonales son el tipo de representa-ción más utilizado para representar objetostridimensionales por dos razones fundamentales.

En primer lugar, porque resulta ser, en sí mis-mo, un tipo de representación adecuado para ungran número de casos que se presentan en la prác-tica; esto es particularmente pertinente en el casode la arquitectura. Muchos motivos arquitectóni-cos quedan adecuadamente representados por unconjunto de polígonos planos concatenados entresí, sin necesidad de recurrir a superficies de repre-sentación compleja, a diferencia de lo que ocurreen el ámbito de la ingeniería automovilística, na-val o aeronáutica.

En segundo lugar porque la representación pormallas poligonales es un modo, en muchos casosinevitable, de simplificar la representación de unasuperficie compleja en el momento de visualizarlade modo temporal, a través del monitor o de modopermanente, mediante una copia impresa. Muchosprogramas comerciales sustituyen automáticamentela representación interna de una superficie, dada

Page 128: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 129

por una función paramétrica, por su traducciónaproximada a una retícula más o menos densa defacetas poligonales.

Estas dos razones deben tenerse distinguirse conclaridad. Un método determinado de modeladopuede incluir operaciones que no son propiamenteasequibles para un sistema de modelado por ma-llas y, sin embargo, requerir una conversión a unamalla incorporando algunas de sus peculiaridadesy limitaciones por razones exclusivas de visualiza-ción.

Características del sistema de representación

Dado que los datos fundamentales que se introdu-cen al generar una malla poligonal son los vérticeses preciso conocer el tipo de polígono que se haasociado a estos vértices, lo que puede variar se-gún los diferentes programas. En primer lugar, unpolígono puede ser convexo o cóncavo.Intuitivamente se define un polígono como convexocuando es posible envolver el conjunto de vérticespor una cinta elástica de modo que el recorrido dela cinta siga a todos sus vértices de modo consecu-tivo. Esta definición tiene un correlato matemáticoexacto, que obviaremos, que permite pasar de ladefinición intuitiva o la comprobación y manipu-lación numérica. En segundo lugar, un polígonopuede ser plano o no plano. En el primer caso to-dos los vértices especificados están contenidos enun mismo plano dado por una ecuación algebraica.En el segundo caso esto no es necesariamente así.Algunos programas permiten la generación de ma-llas poligonales por medio de polígonos no planosde configuración arbitraria. Por último, el polígo-no puede o no admitir agujeros en su interior. Engeneral, las mallas poligonales se especifican apartir de polígonos simples, esto es, polígonos pla-nos, convexos y sin agujeros.

Esta especificación admite todavía diversas va-riantes en función del número de vértices. Dadoque una de las funciones principales de las mallaspoligonales está dirigida a la visualización y queesta función requiere la interpolación de los atri-butos asignados a los puntos de una superficie sedescarta por lo general la utilización de polígonoscon más de cuatro vértices que imposibilitarían larealización de modo eficiente de este y otros tiposde cálculos.

Las mallas generadas por un sistema corrienteestán formadas, por consiguiente, por triángulos o

rectángulos planos. A partir de aquí hay diversosmodos de estructurar la representación de una ma-lla poligonal. Las principales son: la representa-ción explícita de polígonos, la basada en vértices yla basada en aristas. Cada una de estas formas derepresentación tiene ventajas e inconvenientes.Estas ventajas e inconvenientes se sintetizan, engeneral, por una relación inversa, constante en cual-quier aplicación informática, entre memoria y ve-locidad. Sin entrar en la discusión técnica de estosaspectos, bastará con señalar que ésta puede seruna de las causas por las que un programa o unarutina pueden funcionar con mayor o menor velo-cidad en igualdad de condiciones físicas.

Las mallas deben ser consistentes. Por consis-tencia de una malla se entiende el cumplimientode la condición de definición de la malla que pue-de haber quedado alterada por errores en su gene-ración o en su manipulación. Esto quiere decir quetodos los polígonos de la malla deben permanecerconectados, las superficies implicadas por la repre-sentación deben ser planas, todos los polígonosdeben ser cerrados y todas las aristas deben estardefinidas por al menos dos vértices. Otras condi-ciones adicionales pueden ser especificadas como,por ejemplo, que no haya duplicidades de aristas.

Orientación de la normal

Para los procesos de visualización se necesitan otrosdatos acerca de las mallas poligonales que se de-ducen automáticamente de los datos principalesdados por las coordenadas de los vértices. A partirde 3 vértices adyacentes de una cara poligonal seestablecen tres ecuaciones de la misma forma, quepermiten obtener los valores de los coeficientes A,B, C, D de la ecuación del plano que forman estosvértices y que está dada en general por la fórmulaAx + By + Cz + D = 0. Obtenida esta ecuación, loscoeficientes A, B, C proporcionan de modo direc-to los componentes cartesianos y por consiguientela orientación del vector normal a la superficie, N= (A,B,C).

La consideración de la normal al trabajar conmallas poligonales es un hábito que puede ser con-veniente adquirir por diversas razones. Aunque lamayoría de los conceptos que estamos comentan-do permanecen ocultos a los usuarios es convenien-te conocerlos para prever el comportamiento de losprogramas y, principalmente para comprender queéste es el modo en que finalmente se traducen los

Page 129: [Architecture eBook] Aplicaciones as en Arquitectura

130 Aplicaciones informáticas en arquitectura

datos introducidos por el usuario en el ordenador.La orientación de la normal depende conven-

cionalmente del orden en que se hayan especifica-do los vértices del polígono. Si consideramos quelos polígonos son las caras de un objeto cerrado yespecificamos los vértices en sentido antihorariomirando desde el exterior de dicho objeto, la nor-mal apuntará al exterior. En el caso del modeladode superficies, a diferencia de lo que ocurre con elmodelado de sólidos, no es posible saber cuál "es"la cara externa y cuál la cara interna de una super-ficie. Esta distinción sólo puede hacerla el usuariode acuerdo con las intenciones, no explícitas, conque esté modelando un determinado objeto. La di-rección de la normal, por consiguiente, dependede criterios que pueden variar en el curso del mo-delado o simplemente de errores o falta de aten-ción a la hora de introducir los vértices en un de-terminado orden. Por esta razón se necesita contarcon la posibilidad de invertir la dirección de la nor-mal, sea de modo manual sea de modo automático,para evitar tener que volver a generar la lista devértices de la malla.

Muchos programas proporcionan o bien la po-sibilidad de cambiar manualmente la dirección dela normal o bien de duplicarla, de tal modo quesiempre se asegure la visibilidad de una cara quede otro modo quedaría descartada en el rastreo pre-vio (back-face culling) que es un método estándarde eliminación de superficies ocultas. Evidentemen-te esta última posibilidad tiene un coste en tiempode computación que es preferible evitar.

El modelado por mallas poligonales puede ha-cerse de modo manual, introduciendo los vérticesde las caras uno a uno o por medios automáticos osemiautomáticos. La mayoría de los programas deCAD proporcionan rutinas que permiten generar"primitivas" constituidas por mallas poligonales.Sobre esto, así como la necesidad de no confundireste tipo de primitivas con las de los modelos sóli-dos volveremos en la sección 7 de este capítulo.

4 Modelado de superficies de forma libre

La teoría de superficies paramétricas puede consi-derarse como una extensión de la teoría de curvaspor lo que se tratará de éstas en primer lugar.

Curvas paramétricas

Las splines, la versión informatizada de los dispo-sitivos mecánicos con que se modelaban curvascomplejas, que hemos mencionado más arriba,pueden expresarse por medio de un polinomio degrado 3. Esta forma de representación tiene pro-piedades específicas de las que estas curvas deri-van sus propiedades principales. La representaciónparamétrica de una curva en 2D se basa, en gene-ral, en una expresión de la forma x = x(t), y = y(t).Similarmente, una curva en 3D vendría dada poruna expresión de la forma x = x(t), y = y(t), z = z(t)y una superficie en 3D por una expresión de la for-ma x = x(t,s) , y = y(t,s), z = z(t, s). Cada una deestas funciones es un polinomio de grado k.

Cada segmento de una curva 2D vendrá dadopor consiguiente por dos funciones polinómicas ycada segmento de una curva 3D por tres funcionespolinómicas. Las propiedades de las curvas depen-derán de las propiedades de las funciones escogi-das comenzando por su grado. Por encima o pordebajo del grado 3, la utilidad de la representaciónparamétrica disminuye. Un polinomio de grado 2no ofrece suficiente flexibilidad. Un polinomio degrado 4 ofrece mayor flexibilidad pero mayor difi-cultad de control, tanto por el aumento de coefi-cientes, que complica el cálculo, como por la ma-yor oscilación de la curva. El punto crucial vienedado por la necesidad de controlar el paso de lacurva por puntos dados en una dirección dada. Elgrado cúbico es el mínimo que posibilita el gradode continuidad requerido.

Estos polinomios linealmente independientespueden ser entendidos como las coordenadas deun espacio constituido por todos los polinomiosposibles de su mismo grado cada uno de los cualesllevaría a una configuración de la curva, que man-tendría, sin embargo, ciertas propiedades comunes.Por esta razón se denominan funciones de base obases y ejercen un papel similar al que ejercen losejes principales en un sistema de coordenadascartesianas; puede decirse que especifican la con-figuración genérica del espacio en que se va a mo-ver la curva. Como este espacio es de cuarto orden(k + 1) se necesitan cuatro coordenadas para defi-nir un segmento de curva. Esto es lo mismo quedecir que, dado un polinomio cúbico con cuatrocoeficientes que hay que determinar se necesitancuatro datos para poder resolver las cuatro

Page 130: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 131

ecuaciones con cuatro incógnitas. Estos cuatro da-tos son los que configuran el polígono de controlen el caso de las curvas de Bezier si bien puedenser de otro tipo en diferentes bases. En cualquiercaso, dado que son los datos de que se ha partidopara resolver la curva, son el equivalente de suscoordenadas en el espacio polinómico y, por estarazón, se denominan puntos de control.

Estas curvas tienen por añadidura una serie depropiedades que las hacen extraordinariamentevaliosa para su aplicación al diseño. En particular,son invariantes bajo transformaciones afines lo quesignifica que pueden pasar por todas las transfor-maciones básicas que se llevan a caboautomáticamente en un sistema de CAD:traslaciones, rotaciones, inversiones, cambios deescala y cambios de sistema de proyección. Ade-más de esto admiten un determinado grado de con-trol local y un determinado grado de continuidad,variable según los tipos. Tienen por lo general con-tinuidad geométrica G1, es decir, la tangente escomún aunque la curvatura cambie, y continuidadparamétrica C1, es decir, que el vector tangentecoincide en dirección y también en magnitud. Haycontinuidad paramétrica C2 si además de la tan-gente la curvatura es igual en el punto considera-do.

Desde el punto de vista práctico, la principaldiferencia con respecto al tipo de splines es que setrate de una curva que funciona por interpolacióno por aproximación. Es decir, si se trata de unacurva que debe pasar por puntos dados, esto es, sise basa en una función que interpole dichos pun-tos, o si debe tan sólo acercarse a ellos.

Todos los tipos proporcionan la capacidad demanipular a posteriori los puntos de control paramodificar el recorrido de la curva. Esta manipula-ción es generalmente favorecida por un polígonográfico de control. Este polígono conecta en se-cuencia los puntos de control de modo que sevisualice su orden para una mejor comprensión delas características de la curva y del modo en que vaa ser afectada por el desplazamiento de los puntosde control. Este polígono se denomina indistinta-mente, en la literatura especializada controlpolygon, characteristic polygon o control graph.

Al igual que en coordenadas cartesianas es po-sible representar un mismo objeto con diferentesbases cartesianas, esto es, con diferentes tripletesde vectores unitarios de referencia, así, una mismacurva puede ser representada mediante diferentes

representaciones paramétricas. Esto genera todauna estrategia de tipos de bases que tienen diferen-tes propiedades que pueden ser útiles para diferen-tes aplicaciones. Existen diversos tipos, Mencio-naremos sólo los principales.

Las curvas de Bezier tienen una serie de propie-dades importantes que justifican su utilización ge-neralizada en distintos sistemas de CAD. En pri-mer lugar, son fáciles de desarrollar utilizando cál-culos recursivos. En segundo lugar, la curva pasapor sus puntos de control inicial y final y la tangen-te en estos puntos coincide con la recta que unedichos puntos con sus correlativos, siguiente y an-terior respectivamente; esto proporciona un buencontrol de la configuración general de la curva ypermite concatenar curvas de Bezier con facilidad.En tercer lugar, la curva siempre se mantiene en elinterior del casco convexo, convex hull formadopor sus puntos de control.

Las curvas b-splines uniformes y no uniformesson curvas compuestas por segmentos cuyos co-eficientes polinómicos dependen de unos pocospuntos de control. El mover uno de estos puntos decontrol afecta a una pequeña parte de la curva, conescaso coste de computación, lo que se indica di-ciendo que la curva admite control local; una mo-dificación local no afecta a la totalidad de la curvacomo ocurre con las splines tradicionales. Son cur-vas de aproximación, a diferencia de las splinesnaturales, no interpolan sus puntos de control quepermanecen externos a la curva. Su principal in-conveniente es que son más complejas y de aplica-ción más difícil. El término uniforme significa quelos nodos o knots (puntos complementarios de con-trol) están separados a intervalos iguales. Las nouniformes son similares, con la diferencia de quelos knots no quedan espaciados de modo regularsino que varían de segmento de curva a segmento acurva.

Las curvas Beta-splines son una generalizaciónde las B-splines obtenidas a partir de la imposiciónde condiciones de continuidad geométrica sobre lasderivadas del primero y el segundo parámetro. Suprimera característica principal es que tienen con-tinuidad geométrica G2 pero no continuidadparamétrica C2. Desde el punto de vista de la prác-tica, la característica más sobresaliente es que pue-den ser especificadas de modo intuitivo medianteparámetros de configuración (shape parameters)denominados beta1 (b1) y beta2 (b2). Estosparámetros controlan la continuidad de la curva y

Page 131: [Architecture eBook] Aplicaciones as en Arquitectura

132 Aplicaciones informáticas en arquitectura

se denominan respectivamente bias y tension. Per-miten modificar de modo intuitivo la mayor o me-nor curvatura de la spline.

Las curvas nurbs (siglas de non uniformrational b-splines) son el tipo más flexible y queproporciona mayores posibilidades demodelización. Una curva racional viene dada porun cociente entre polinomios. Esto permite homo-geneizar la curva que puede ser considerada comola proyección de una curva en un espaciotridimensional sobre el plano homogéneo dado porla coordenada w. Esto permite asignar un "peso" acada punto de control que puede intuitivamente serconsiderado como la proyección de un punto ho-mólogo más o menos alejado en el espacio y pro-porciona un control aún mayor sobre la curva.

Hasta aquí lo referente a los nuevos tipos decurvas que el desarrollo informático ha puesto adisposición de los diseñadores. Las nuevas super-ficie están basadas directamente en estos tipos.

Superficies y parches paramétricos

Una superficie puede venir representada matemá-ticamente de diversos modos, sea de forma implí-cita, mediante una función que tendría la formageneral f(x,y,z) = 0 sea, de forma explícita, medianteuna función del tipo z = f(x,y), sea de otros modosadecuados a determinados casos. La ventaja de larepresentación paramétrica es, por un lado, quepermite aplicar con facilidad algoritmos que aso-cian puntos reales de la superficie a "puntos"(pixels) discretos del dispositivo de salida, lo quefacilita considerablemente el proceso de visualiza-ción. Por otro lado, proporcionan un dominio sinprecedentes sobre las operaciones de modeladodebido a las posibilidades de escoger diferentesmodos de parametrización y de subdivisión de losparches que se adapten de la manera más adecuadaa las necesidades de los diversos casos que se pue-den presentar.

El elemento fundamental en la teoría de las su-perficies paramétricas es lo que se denomina en laliteratura especializada un parametric surfacepatch y que se traduce corrientemente por "par-che" superficial o paramétrico. Un parcheparamétrico se define como una serie de puntosdados por funciones matemáticas que representansus coordenadas mediante tres series de ecuacionesparamétricas del tipo x = x(u,v), y = y (u,v), z = z(u,v) con los parámetros u,v restringidos al inter-

valo [0,1]. Si se fija el valor de uno de losparámetros se obtiene una curva dada por el otroparámetro. De este modo, asignando valores cons-tantes en el intervalo 0,1 se obtienen familias decurvas que forman una red sobre el parche y queconstituyen unos de los modos habituales devisualizar un parche paramétrico.

Las diferentes estrategias de control de las su-perficies paramétricas se relacionan directamentecon los diferentes modos de determinar sus gradosde libertad. Al igual que ocurría con las curvasparamétricas, esto puede llevarse a cabo de diver-sos modos. Unos de estos modos puede consistiren especificar los 4 puntos correspondientes a lasesquinas, 8 vectores tangentes en estos puntos y 4vectores torsión que se obtienen, de modo similara los vectores tangente, por medio de las derivadassegundas en un punto determinado. Otro modo esespecificar directamente 16 puntos de la superfi-cie. Otro modo es definir 4 curvas a partir de lascuales se pueden derivar los puntos requeridos. Engeneral, los procedimientos principales son simi-lares a los seguidos en el caso de las splines; setrata de contar con una provisión adecuada de re-cursos, de modos diversos de solucionar las 16variables triádicas independientes que se puedanadaptar a los diversos casos que pueden surgir enla práctica.

Una superficie de Bezier se define como exten-sión de una curva de Bezier. Al igual que el ele-mento más característico de ésta era un polígonocon cuatro puntos de control, el primero y el cuar-to de interpolación y los dos intermedios de aproxi-mación, que permitían modificar la curva asegu-rando el mantenimiento de determinadas propie-dades claves, de modo similar, una superficie deBezier cuenta con un poliedro de control constitui-do por 16 puntos (4 × 4). La superficie pasa porcuatro de ellos, los correspondientes a las cuatroesquinas del parche y se aproxima a los restantesde modo tal que modificaciones de estos tienen elefecto de modificar la curva manteniendo sus pro-piedades geométricas principales. La formaalgebraica es una extensión directa de la ya dadapara la curvas de Bezier considerando dosparámetros u,v en lugar de uno. El lector interesa-do puede encontrar esta fórmula en la literaturaespecializada que se indica en la bibliografía. Elnotable interés práctico de este tipo de superficieses que, al igual que ocurría con las curvas análogases posible editar con facilidad la curva modifican-

Page 132: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 133

do su aspecto a partir de la modificación de la po-sición de sus puntos de control.

Una superficie B-spline se define igualmentecomo una extensión de una curva B-spline. Lo di-cho para las Bezier vale exactamente igual para estetipo de curvas. En fin, las non-uniform-rational-b-splines o nurbs, extensión de las curvas nurbs alcampo de las superficies, proporcionan los méto-dos más potentes hasta la fecha para definir super-ficies de forma libre y que puedan ser modificadasinteractivamente, con un máximo grado de controllocal, manteniendo la coherencia y la unidad de as-pecto.

Pueden formarse parches bicúbicos con diferen-tes tipos de curvas, por ejemplo, Bezier en un sen-tido y b-spline en otro. Los parches bicúbicos pue-den también combinarse entre si para formar ma-llas bicúbicas (bicubic meshes). El número de par-ches con que se represente una superficie dependede las características de la aplicación. Cuanto ma-yor sea este número mayor será la precisión conque se representa la superficie de que se trate, acosta de un aumento en el tiempo de procesamien-to y en los requerimientos de almacenamiento. Poresta razón es importante escoger con cuidado larepresentación adecuada para cada caso y tener uncierto conocimiento de las propiedades geométricasde la herramienta que se va a utilizar en relacióncon las propiedades latentes del objeto que se bus-ca representar.

5 Modelado de sólidos

El objetivo del modelado de sólidos es la repre-sentación de objetos físicos tridimensionales de unmodo compacto que posibilite su tratamiento uni-tario. La diferencia entre la representación de unobjeto por medio de superficies envolventes, y larepresentación de un objeto por medio de un mo-delo sólido es que la segunda nos proporciona unainformación adicional que permite someter el ob-jeto a operaciones automáticas. Esta informaciónadicional es, precisamente, la información que es-pecifica el objeto como una entidad unitaria quedeberá mantener ese status a través de cualquierproceso a que quede sometido.

Requisitos. Tipos principales. Operacionesbooleanas

Un modelo sólido debe cumplir por consiguiente

con una serie de requisitos. El primer requisito conque debe contar un sistema de modelado de sóli-dos es la asignación de un dominio. Se entiendepor dominio el conjunto de objetos que sonrepresentables por el sistema. Una de las caracte-rísticas de cada sistema viene dada por el poderdescriptivo de su dominio que debe ser lo suficien-temente grande como para ser de interés en rela-ción con la aplicación prescrita. El segundo requi-sito con que debe contar un sistema de modeladode sólidos es que la representación sea válida. Estoquiere decir que la configuración de símbolos yreglas que constituyen la representación de un ob-jeto debe cumplir determinadas condiciones queaseguren que tan sólo objetos del dominio puedencorresponder a esta configuración. Es decir, no se-ría, en general, aceptable una representación quepueda corresponder a objetos tales como, por ejem-plo, la botella de Klein o los objetos sugeridos poralgunos dibujos de Escher. En tercer lugar, la re-presentación debe ser completa. Se entiende porrepresentación completa una representación noambigua. No puede haber varios objetos del domi-nio que se correspondan con una única representa-ción. Por último, sería también necesario que la re-presentación fuera única, si bien este no es el casopara la mayoría de los sistemas. Que la representa-ción sea única significa que, procediendo en direc-ción inversa a lo anterior, un objeto del dominio

Figura 8 Ambigüedad delos modelos poligonales

Page 133: [Architecture eBook] Aplicaciones as en Arquitectura

134 Aplicaciones informáticas en arquitectura

sólo podría ser representado de un modo, median-te una única combinación de símbolos y reglas. Porrazones de eficacia y de compatibilidad entre sis-temas diversos, esto no es así en la actualidad, loque complica algunas operaciones elementales quedeben llevarse a cabo repetidamente, tales como ladeterminación de la igualdad entre dos objetos.

La figura 8 muestra un ejemplo clásico de cómola información de vértices y aristas puede ser insu-ficiente para que el sistema pueda resolver con exac-titud que tipo de objeto responde a la especifica-ción "prisma con un hueco". Los tres modelos quese muestran a la derecha contienen la misma infor-mación geométrica pero distinta informacióntopológica.

Los tipos principales que cumplen estas condi-ciones, y los más utilizados actualmente en CAD,son principalmente dos: los basados en modelosde fronteras (B-Reps, boundary representations) ylos basados en geometría constructiva de sólidos(CSG, Constructive Solids Geometry). Los progra-mas comerciales más utilizados en arquitectura, ta-les como AutoCad, Microstation, utilizan princi-palmente estos dos sistemas, solos o en combina-ción.

Una de las utilidades principales de la represen-tación de objetos por medio de modelos sólidos esque estos pueden ser combinados entre sí para for-mar otros objetos complejos por medio de opera-ciones que pueden automatizarse. La posibilidadde automatizar operaciones se basa en la teoría deconjuntos y en las operaciones de unión, intersec-ción y diferencia conocidas corrientemente comooperaciones booleanas y a las que ya nos hemosreferido. En general, dados dos objetos A, B, quetiene parte de su volumen en común, la aplicaciónde los operadores booleanos daría lugar a cuatroobjetos derivados: el objeto unión de A,B, el obje-to intersección de A,B, el objeto obtenido al sus-traer B de A y el objeto obtenido al sustraer A de B.Las figuras 9 y 10 presentan un esquema de la apli-cación de las cuatro operaciones booleanas bási-cas a objetos de dos y tres dimensiones. La figura11 muestra cómo un muro con un hueco podría serrepresentado mediante uniones o interseccionesbooleanas de diferentes primitivas. Las figuras 12y 13 muestran el tipo de representación interna quese generaría utilizando uno u otro de los sistemasque describiremos en los dos siguientes apartados.

A B

A B A B A B B A

Figura 9 Operaciones booleanas en 2D

����� ���������

�������� ������ �������� ������

Figura 10 Operaciones booleanas en 3D

Figura 11 Generación de un muro con un huecopor unión o intersección de sólidos

Page 134: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 135

Modelos de fronteras (b-reps)

Los modelos de fronteras (b-reps) son similares alas mallas poligonales. Un modelo sólido puede serdescrito exactamente en términos de mallas depolígonos sin más que añadir otra condición: queel objeto sea cerrado, esto es, que la representa-ción describa un volumen completamente rodeadode superficies, de tal modo que se produzca unabipartición del espacio modelo en "espacio exter-no al objeto" y "espacio interno al objeto". La re-presentación debe entonces describir con exacti-tud la frontera entre estas dos particiones.

La representación de un objeto por un modelode fronteras está basada en registros que contieneninformación geométrica y topológica del objeto.Algunos autores prefieren evitar esta distinción ydescriben simplemente la representacióngeométrica del objeto. En cualquier caso, el regis-tro se basa en una triple entrada de: 1) caras ofacetas (faces) o fronteras (boundaries) del objeto,que especifican sus límites con el espacio interno yexterno; 2) aristas (edges) que especifican los lí-mites de las caras; 3) vértices (vertexes) que espe-cifican los límites de las aristas. Los vértices con-tienen los datos correspondientes a la posición delobjeto en el sistema de coordenadas utilizado.

Este registro es, básicamente, una descripcióntopológica del objeto que debe ser complementa-da con una descripción geométrica. Esta descrip-ción geométrica, en la descripción anterior, se halimitado a la especificación de las coordenadas delos vértices. Esta descripción, por sí sola, sería in-suficiente para conocer la naturaleza del objeto re-presentado. La descripción topológica complemen-taria, que especifica la relación de aristas y caras,tampoco sería suficiente. La información deberíaser complementada con una especificación del tipode superficie que constituye una cara que en gene-ral, vendrá dada por la ecuación del plano cuyoscoeficientes pueden deducirse a partir de las coor-denadas de los vértices.

Otras superficies cuádricas, como cilindros oesferas, podrían venir igualmente representadas porlos coeficientes de sus ecuaciones. La mayoría delos modelos de fronteras admiten sólo límites pla-nos por razones de simplicidad de los procesos,aunque es posible en un modelo de fronteras quelas fronteras sean parches superficiales dados porsuperficies paramétricas. Esto proporciona herra-mientas extraordinariamente poderosas a costa de

P1+P2+P3+P4

U

P1 P2 P4P3

U U

U

P1+P2

P1 P2

Figura 13 Muro con un hueco.Módelos sólido obtenido por CSG

Figura 12 Muro con un hueco.Modelo sólido obtenido por B-Reps

Page 135: [Architecture eBook] Aplicaciones as en Arquitectura

136 Aplicaciones informáticas en arquitectura

un considerable incremento en la complicación dela representación.

La representación interna se basa en una eva-luación de las fronteras que pertenecen a uno u otrode los objetos sobre los que se opera, por medio dematrices que representan la estructura topológicade estos objetos a partir de vértices y caras. La com-binación de estos objetos resulta en la supresión defilas y columnas lo que da lugar a nuevas matrices

que contienen la información del nuevo objeto. Lafigura 14 muestra un ejemplo simple que puededar una idea del tipo de procesamiento interno quetiene lugar en este tipo de modelos.

Los modelos de fronteras pueden combinarsepara crear nuevos modelos de fronteras medianteoperaciones booleanas regularizadas. Se han desa-rrollado diversos algoritmos que permiten combi-nar objetos dados por modelos de fronteras. Estosalgoritmos parten de las tablas que contienen larepresentación de los vértices, aristas y facetas yreelaboran automáticamente las nuevas tablas parael objeto resultante que tienen lugar.

Una de las principales ventajas de los modelosen b-reps está en que la información está disponi-ble de modo directo, por lo que resulta un modeloprácticamente adecuado para cualquier proceso devisualización. El control local se ve favorecido yes relativamente fácil efectuar cambios de detallesin tener que reelaborar todo el modelo. Las prin-cipales desventajas derivan de su estructura com-pleja, que tiende a ocupar una gran cantidad dememoria y es de difícil control por parte de cual-quier programa de aplicación. No sólo se requieremantener tablas para todos los vértices, facetas yaristas del objeto sino someter estas tablas a ruti-nas de comprobación de la consistencia del mode-lo en tanto que modelo sólido.

Modelos de geometría constructiva de sólidos (csg)

El sistema conocido como geometría constructivade sólidos (csg) representa un objeto por medio deuna estructura en árbol que describe en función de

A B DCA

B

CD

341

3 1 2

34

1 2 4

2

H

G

8

6

E

E

F 7

8

7

5

5

5

7

HGF

6 8

6

4DCB

13

AA

24

232

1

D3

B1

C4

ABCD

A B C D

B

A 1

DCB

A3

13

2

A B41

C D BA

AB

E

F H

1

23

4

5

6

78

3

B A4

2

1

5

HF

23

4

2 4 3

4

2 52 5

54

3

3

42

3

24

3

5245

532

4

Figura 14 Cómputo interno para la uniónde dos tetraedros con B-Reps

z=-1

z=1

x=-1x=1 y=1

y=-1

Figura 15 Estructura de un modelo en CSG. Definición de primitivas y árbol binario de operacionesbooleanas para formar un objeto compuesto

Page 136: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 137

operaciones booleanas consecutivas realizadas apartir de un repertorio inicial de objetos denomi-nados "primitivas sólidas". Las primitivas y las ope-raciones de construcción son explícitas, esto es, sonaccesibles directamente al usuario. Las represen-taciones internas son implícitas, esto es, no son ac-cesibles y su estructura recoge todos los estadiosde la construcción a partir de las primitivas inicia-les. Los nodos-hoja (leaf-nodes) recogen informa-ción sobre el estado del objeto tras cada operación.Los nodos-internos (internal-nodes) recogen infor-mación acerca del tipo de operador utilizado sobrecada objeto situado en un nivel anterior y a dere-cha e izquierda del nodo.

Las primitivas son objetos cuyo tipo de especi-ficación interna es idéntico al de los objetos secun-darios si bien se produce a un nivel no accesiblepara el programa de aplicación. La especificaciónterminal de las primitivas y, por consiguiente, laespecificación terminal de todo objeto construidocon primitivas, se da en términos de operacionesbooleanas sobre semiespacios (halfspaces). Unsemiespacio puede considerarse como una primiti-va fundamental que sirve de base a cualquier otraprimitiva. Todo semiespacio queda definido por unaecuación que describe analíticamente las dos re-giones delimitadas por una superficie "adecuada"esto es, que carezca de discontinuidades o de com-plejidades que dificulten su descripción elemental.Por ejemplo, un cubo con un vértice en el origenpodría venir descrito por las intersecciones de lossemiespacios dados por las ecuaciones de los seisplanos que lo limitan. La figura 15 muestra la defi-nición de una de estas primitivas, un cubo definidopor la intersección de 6 semiespacios, junto a unárbol binario que representa como las primitivas(círculos negros) pueden combinarse por medio dealguna de las cuatro operaciones booleanas quehemos visto (círculos rayados) para generar el ob-jeto situado en la raíz del árbol (círculo blanco).

Las principales ventajas de los modelos csg son:la información es compacta, facilitan la construc-ción de objetos de cierto grado de complejidad ypueden editarse: es posible modificar tanto las com-ponentes del árbol binario como sus relaciones, loque supone contar con una herramienta muy po-tente de control de la forma. Las desventajas prin-cipales son que no existe información explícita so-bre aristas y caras, por lo que no es posible unautilización directa para rutinas de visualización.Para visualizarse adecuadamente, con eliminación

de superficies ocultas, los modelos csg deben"mallarse", esto es, recubrirse de mallas poligonaleso convertirse en modelos b-reps. Lo primero pue-de hacerse por medio de algoritmos automáticos, acosta de un notable incremento de memoria y delriesgo de que se produzcan errores como ocurríacon la extensión AME de AutoCad (versión 12) quefue abandonada, probablemente, por esta causa..

Otros modelos

Hay otros modelos que se utilizan bastante en laingeniería pero escasamente en la arquitectura. Elsistema de modelado geométrico conocido genéri-camente como "enumeración espacial" (spatialenumeration) o "descomposición en células espa-ciales" (cell decomposition) (figura 16) posibilitala representación de un objeto mediante una colec-ción de células espaciales yuxtapuestas. Esta des-composición puede hacerse de dos modos princi-pales: a) por enumeración espacial de voxels; b)por enumeración espacial de octrees, árbolesoctales.

La primera (figura 17) consiste en la divisióndel espacio propio del objeto en un número sufi-ciente de cubos yuxtapuestos de igual tamaño dis-tribuidos sobre una malla tridimensional fija. Loscubos se denominan voxels (volume elements) poranalogía con pixels (picture elements). Para cadauno de los cubos se determina si queda fuera del

Figura 16 Descomposición en células

Page 137: [Architecture eBook] Aplicaciones as en Arquitectura

138 Aplicaciones informáticas en arquitectura

objeto o si queda dentro. Los cubos que quedan enuna posición intermedia, a caballo entre el interiory el exterior, se asignan a uno de estos dos lados enfunción de un criterio preestablecido que suele con-sistir, por lo general, en aceptar que es interno simás de la mitad del volumen queda dentro del ob-jeto o bien, alternativamente, si el centro del cuboqueda dentro del objeto. La enumeración espacialpor octrees (figura 18) es una respuesta a la nece-sidad de reducir el volumen de memoria y permiteuna adecuación entre el tamaño de la malla y las

necesidades de la representación, haciéndose másfina en las zonas de frontera y más tosca en otrasregiones.La estructura de datos resultante es una matrizbooleana tridimensional en la que cada elementoidentifica un voxel e indica si está fuera o dentrodel objeto. Las ventajas de esta estructura son, enprimer lugar, que es muy simple, lo que facilita suprocesamiento y, en segundo lugar, que es particu-larmente adecuada para aplicaciones que necesi-ten manejar datos acerca de la masa o el volumende un objeto. Las principales desventajas son, enprimer lugar, que los objetos con superficies de for-ma libre deben ser representados con un grado deaproximación que para ciertas aplicaciones puedeser insuficiente y, en segundo lugar, que si se au-menta el tamaño de la malla, para aumentar el gra-do de aproximación, aparecen con rapidez límitesinsostenibles para la capacidad de computacióncorriente. Una malla de 1000 ×1000 × 1000 voxelsrequeriría más de 1000 Mb de memoria, algo bas-tante difícil de manejar por la mayoría de los com-putadores.

6 Operaciones de edición global y local

La potencia de los sistemas de modelado geomé-trico no proviene solamente de la capacidad degenerar objetos geométricos sino también, de modoprincipal, de la capacidad de modificar y combinarestos objetos. Esto se lleva a cabo mediante dostipos de operaciones que son técnicamente distin-tas: la edición global y la edición local.

Operadores de modificación global

Las transformaciones generales que se vieron en lalección anterior pueden aplicarse a un objeto 3Ddel mismo modo que se aplicarían a un objeto 2D.Esto quiere decir que un modelo geométrico puedeser modificado, en principio, de 4 modos principa-les: se puede trasladar, girar, invertir y cambiar deescala tal como se muestra en la figura 19. Es de-cir, una vez generado un elemento 3D podemos mo-ver este elemento para situarlo en otra posición opara obtener un nuevo elemento; podemos rotareste elemento; podemos invertir dicho elemento ypodemos modificar su escala para adaptarlo a unnuevo contexto. Cada una de estas operaciones pue-den alterar un objeto dado o pueden dar lugar a

Figura 17 Voxels

��

��

� �

� �

�� �

Figura 18 Ärboles octales

Page 138: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 139

una copia, un nuevo objeto, lo que evidentementeproporciona una herramienta que no difiere en loesencial de lo que hemos visto para CAD2D peroque facilita considerablemente el modelado.

La principal diferencia con respecto a las mis-mas operaciones en 2D es que los resultados pue-den ser menos controlables; girar un objeto en 3Dno es una operación que pueda ser seguida de unmodo preciso a través de un monitor en muchoscasos y se requiere cierta experiencia para contro-lar adecuadamente los resultados. Los métodos demodificación global, en combinación con un siste-ma que permita realizar operaciones booleanas so-bre los objetos, son un medio de composición ex-traordinariamente potente y que aún no se está uti-lizando a pleno rendimiento debido principalmen-te a la falta de programas de modelado de sólidosque funcionen adecuadamente sobre plataformasasequibles y, por otro lado, a la escasez de recur-sos de interfaz que faciliten este tipo de operacio-nes.

Estos operadores se complementan, en el casodel modelado de sólidos, con los operadoresbooleanos que ya hemos comentado. Hay que ad-vertir que algunos programas permiten también,aparentemente, realizar operaciones booleanas consuperficies. Estas operaciones no son, sin embar-go, reales. Parte de la superficie queda oculta, nomodificada en sentido estricto, lo que puede darlugar a efectos imprevistos. Una combinación desuperficies da lugar, en cualquier caso, a una inter-sección y el procedimiento correcto es obtener estaintersección de modo riguroso.

Si la superficie está aproximada por medio defacetas planas el procedimiento correcto es obte-ner la intersección para cada una de las facetas loque puede hacerse por medio de rutinas especia-les.

Operadores de modificación local

Con frecuencia se necesitan modificaciones loca-lizadas de un modelo tridimensional que obliga-rían a replantear todo el objeto pero que puedenresolverse de un modo mucho más rápido y máseficaz por medio de algoritmos específicos quepueden adaptarse de modo independiente a los di-ferentes sistemas que hemos presentado en la sec-ción anterior. Las superficies de transición o blendsurfaces son superficies que se insertan sobre unasuperficie dada para resolver el encuentro entre dospartes de la misma de un modo genéricamente de-terminado, tal como el dado por una curva que re-suelva con mayor suavidad la transición. Estosmétodos se desarrollaron a mediados de los ochentay actualmente se encuentran incorporados a la ma-yoría de los programas comerciales de modeladogeométrico en 3D.

Estos métodos estaban a su vez basados en mé-todos propuestos en los cuarenta para el diseño desecciones maestras en la industria naval. Este tipode operadores locales permite modelar localmenteel encuentro entre dos superficies locales de muydiversos modos. El más corriente es la inserciónde una cuádrica como superficie de transición quese extiende según un rango determinado por el pro-pio usuario entre las dos superficies.

Las operaciones más corrientes son equivalen-tes a las que hemos visto en CAD2D, con las com-plicaciones propias del 3D. Un fillet 3D es una ope-ración que genera una arista curva como superficiede transición entre dos planos en lugar de una aris-ta recta (figura 20). Los fillets pueden acumularsede modo que se obtenga un vértice que es un sectorde cuádrica (ver en la figura 20, derecha, un deta-lle de la esquina) como encuentro de esta misma

Translación Simetría Rotación Escala

Figura 19 Transformaciones básicas en 3D

Page 139: [Architecture eBook] Aplicaciones as en Arquitectura

140 Aplicaciones informáticas en arquitectura

operación realizada sobre tres aristas que conflu-yen en un punto, si bien no todos los programascontrolan igual de bien este tipo de operaciones.

Lo mismo cabe decir con respecto a otra opera-ción corriente como un chamfer 3D. La única dife-rencia es que lo que se inserta es un plano oblicuode transición.

Las deformaciones son operaciones que se si-túan a medio camino entre las operaciones localesy las globales. Un operador de deformación defineparte de la superficie como deformable y partecomo fija; la traslación de alguno de los puntos setransmite de modo variable a los otros punto.

Los recortes son operadores que se aplican auna superficie modificando sus límites en funciónde una curva determinada. En el caso de superfi-cies paramétricas la operación no implica un re-corte real sino, como ya se ha indicado, una modi-ficación de los atributos de visualización de la su-perficie. Dado que una superficie paramétrica de-riva su configuración de una serie de puntos de con-trol, si el recorte altera estos puntos de control semodifica la propia configuración de la curva.

7 Métodos generales de construcción ygeneración

Dada la progresiva difusión de programas comer-ciales de CAD y el interés de las casas comercialespor conseguir que sus programas resulten fácilesde utilizar y se introduzcan con rapidez en el mun-do profesional y universitario, todos los recursosse han volcado en los métodos de diálogo con elusuario que hagan más atractiva y novedosa la en-trada de datos. Puede decirse que la mayoría de losprogramas comerciales de CAD de segunda fila que

circulan en nuestro entorno son poco más queinterfaces, es decir, sistemas, más o menos propios,de gestión de algoritmos básicos, conocidos y pu-blicados desde hace más de diez o veinte años. Estoes algo que queda oculto para el usuario. En pri-mer lugar porque se supone, en general, con fun-damento, que el usuario medio no está interesadoen conocer los detalles técnicos de lo que está ha-ciendo. En segundo lugar porque el dar a conocerlos recursos fundamentales en que se basa el pro-grama, la mayoría de los cuales, como ya se ha di-cho, han sido dados a conocer hace muchos años,como puede comprobarse en las referencias biblio-gráficas, empañaría la imagen de novedad, de pro-ducto de tecnología punta, que interesa promover.

Por otro lado, también los mejores programasde CAD están interesados en proporcionar herra-mientas cómodas de introducción y modificaciónde datos que faciliten el trabajo, si bien los manua-les oficiales de los programas de primera fila dis-tinguen con claridad (unos más que otros, AutoCades en este sentido más explícito y generoso queMicrostation, o ha preferido jugar, con éxito, unapolítica de apertura técnica) entre procedimientosde interfaz y procedimientos genuinos de genera-ción. El problema es que, en muchos casos, esto sedetalla en apéndices o en textos complementariosque son poco accesibles o pasan inadvertidos, obien las explicaciones resultan incompletas. Todoesto viene a complicarse aún más por el hecho deque procedimientos que comenzaron siendogenerativos han pasado a ser intermediarios. Esdecir, muchos programas presentan, de cara al usua-rio, procedimientos de entrada de datos que luegoson convertidos internamente a otra estructura dedatos, a otro formato de almacenamiento interno.

1 2 3

Figura 20 Modelado de esquinas con operadores locales

Page 140: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 141

El resultado de todo esto es que hay, en la actua-lidad, una notable confusión entre lo que son ge-nuinos procedimientos de generación y lo que sonprocedimientos de interfaz una distinción que yaes de por sí dificultosa, si bien resultameridianamente clara en los extremos. Una confu-sión que las propias casas comerciales han contri-buido a crear y que se va desvelando poco a pococon la práctica a los usuarios expertos en forma deanomalías o comportamientos inesperados que secomprenden con claridad cuando se llega a cono-cer mínimamente el tipo de estructura de datos quesubyace en el procedimiento.

Métodos generales de entrada de datos.Primitivas del programa

Como ya se ha recalcado en el capítulo anterior, unprograma comercial incluye una serie de protoco-los más o menos normalizados para la entrada dedatos. Por lo general, este protocolo se basa en unléxico, una colección de palabras clave que ponenen marcha algoritmos que realizan tareas específi-cas. El léxico es accesible por medio de menús quepresentan las palabras claves ordenadas por temaso bien mediante entradas textuales en la línea deordenes. Los datos que acompañan las ordenespueden determinarse textual o gráficamente, seña-lando posiciones en la pantalla. El léxico incluye,por lo general, una serie de "primitivas" que nodeben confundirse con la noción de primitiva pro-pia de un sistema de modelado. Una primitiva, enun sistema tal como el csg, es una entidadconstituída a partir de unos procesos básicos de ge-

neración que no son accesibles de modo directo alusuario y que están en la base de la generación deobjetos complejos. Este es el sentido estricto deltérmino primitiva; implica combinaciones posiblesdentro de un rango, operaciones que pueden reali-zarse sobre el dominio de las primitivas.

Muchos programas incluyen la posibilidad degenerar objetos simples de modo directo sin tenerque construirlos manualmente. Así, programas omódulos de programas que generan mallaspoligonales pueden dar la opción de generar obje-tos como esferas, cilindros, cubos, prismas regula-res o pirámides sin más que entrar directamentelos datos relativos a estos objetos, tales como laposición de su centro o de una de sus esquinas, elradio o las dimensiones de la base y la altura, etc.Ahora bien, esto no son sino facilidades que se pro-porcionan para generar cuerpos que se supone queserán utilizados con frecuencia. El resultado finalserá exactamente el mismo que si generamos algu-no de estos objetos entrando cada uno de los vérti-ces de la malla que lo constituyen; es evidente queen el caso de un objeto tal como una esfera, aproxi-mada a partir de una malla poligonal, el contar conun pequeño programa que genere los vértices de lamalla a partir de los datos generales es algo bas-tante conveniente; pero lo que hace la rutina no esotra cosa que introducir los vértices de modo auto-mático siguiendo exactamente los mismos pasosque seguiría el usuario si tuviera que hacerlo ma-nualmente para aproximar una esfera de este modo.Esta posibilidad es, como decíamos, un recurso deinterfaz, no un sistema en sí mismo.

Todo esto es particularmente pertinente por loque respecta a la generación de mallas poligonales.Como se ha dicho más arriba, la generación de ma-llas poligonales puede hacerse de modo directo ode modo automático. Entre estos dos extremos hayvarias posibilidades intermedias. En sentido estric-to, la entrada directa de datos supondría la especi-ficación de las coordenadas de cada uno de los vér-tices que componen la malla. Aún en este caso senecesita al menos un protocolo de interfaz que so-licite los vértices en un orden determinado que ase-gure la consistencia interna de la tabla. La ordenmesh de AutoCad o la orden place surface deMicrostation son dos ejemplos de esto. Sin embar-go esta posibilidad raramente es utilizada exceptopara la generación de rutinas personalizadas ya quees considerablemente trabajosa y resulta fácil equi-vocarse. Por el contrario, cualquier programa deFigura 21 Primitivas del programa

Page 141: [Architecture eBook] Aplicaciones as en Arquitectura

142 Aplicaciones informáticas en arquitectura

thickness mayor que 0, genera un polígono o unaserie de polígonos concatenados que, de hecho,constituyen una malla. Pero debido a la necesidadde mantener la compatibilidad con versiones ante-riores el registro interno puede no ser aceptadocomo tal malla por algunos programas externos porlo que, en general, sería preferible generar estamisma serie de polígonos con la orden mesh o3dface.

La extrusión generalizada o barrido (sweeping)es otro método de generación de elementos 3D quetanto puede ser un método específico en determi-nados programas como un recurso de interfaz. Lasordenes tabsurf o revsurf de AutoCad, por ejem-plo, son recursos de interfaz, no son extrusionespropiamente dichas. El término lofting, traducidoen algún caso con el neologismo "solevación", pue-de asimilarse a esta técnica: se parte de dos entida-des, una o varias curvas cerradas y un recorrido(path) al que se van adptando las curvas, en loslugares especificados por el usuario. Lo que se ge-nera es una malla poligonal por cómputo interno apartir de un recorrido especificado por el usuario.Pero según se haya generado internamente el obje-to tendrá unas propiedades u otras, entre las queestán las de poder ser editado a posteriori o no.

En general, pueden considerarse tres tipos prin-cipales de extrusiones: a) extrusiones simples, enlas que la sección generadora se desplaza a lo lar-go de una recta o de una curva con un centro decurvatura; b) cilindros generalizados en donde lasección generadora se desplaza formando ángulosrectos (secciones rectas normales) con una curvadirectriz en el espacio; c) extrusiones generaliza-das en donde la sección generadora puede ser unacurva compleja o un objeto tridimensional que cam-bien de forma, tamaño u orientación al desplazarsea lo largo de una trayectoria directriz en el espacio.

Los dos primeros han pasado a constituir, enmuchos casos, recursos de interfaz que generanrealmente una malla por cálculo interno de las po-siciones de los vértices. El tercer método se en-cuentra en sistemas más sofisticados de modelado.El principal problema de las extrusiones generali-zadas es la dificultad de someter los objetos resul-tantes a operaciones de edición, sobre todo a ope-raciones booleanas. El conjunto no es cerrado paraeste tipo de operaciones, y el objeto resultante dela combinación de dos extrusiones no es unaextrusión; esto impide automatizar las transforma-ciones. Por esta razón, las extrusiones generaliza-

Figura 22 Extrusión simple

Figura 23 Extrusión a lo largo de un recorrido

Figura 24 Extrusión generalizada

modelado geométrico proporciona opciones mássofisticadas de generación de mallas que facilitanla entrada de datos al usuario y que son converti-das posteriormente en mallas poligonales median-te rutinas internas de conversión. Esto da lugar acierta confusión metodológica ya que se toma porun método de representación lo que no es sino unmétodo de entrada de datos.

Las extrusiones simples, por ejemplo, son, ac-tualmente, en la mayoría de los casos, un métodode entrada de datos, no un método de representa-ción con algunas excepciones o ambigüedades. Porejemplo, la orden de AutoCad line, con el atributo

Page 142: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 143

das se utilizan en combinación con otros métodosde modelado de sólidos, principalmente con b-repsy csg.

Esto último es también un rasgo notable que hayque subrayar. La multirrepresentación y conversiónes una característica que comparten muchos pro-gramas comerciales. Debido a las diferentes carac-terísticas de los sistemas de modelado de sólidos,muchos programas de modelado proporcionan re-presentaciones múltiples. Esto implica la conver-sión automática entre sistemas y plantea la cues-tión de la exactitud y la posibilidad de tal conver-sión. El tipo de conversión más corriente, y prácti-camente obligado en muchas aplicaciones es la quedebe realizarse entre modelos en b-rep y modelosen csg. Hay diversos algoritmos, que permiten laevaluación de fronteras (boundary evaluation) enun sistema csg. Por otro lado, muchos programasparecen estar utilizando en la actualidad sistemashíbridos aunque resulta difícil saber con exactitudcuáles pues no se proporciona información sobreestos puntos.

8 Aplicaciones arquitectónicas

Como ya se ha dicho más arriba, la mayoría de lastécnicas disponibles en CAD provienen de diver-sos sectores industriales, pero muy pocas se handesarrollado directamente para la arquitectura. Deahí que, aunque las técnicas principales son comu-nes a todos los sectores, desde el punto de vista dela arquitectura puede resumirse la situación dicien-do que hay superabundancia por un lado y escasezpor otro. Hay herramientas para modular superfi-cies muy complejas, algo que se da tan sólo de modo

ocasional en el campo de la arquitectura. Y faltanherramientas para modificar con rapidez y facili-dad agregaciones complejas de elementos simples.La aparición de sistemas extraordinariamente po-tentes de control del diseño ha desvelado con ma-yor claridad algunas de las peculiaridades del tra-bajo de los arquitectos, que implican métodos detrabajo bastante más diferenciados de lo que se pen-saba en los primeros tiempos del diseño asistidopor computador.

Funciones de los modelos 3D en el trabajo delos arquitectos

En la década de los setenta se mantenía el paradig-ma del modelo 3D como referente principal del tra-bajo de un arquitecto que utilizara corrientementemedios informáticos. La idea básica partía de unatransposición casi directa de los métodos utiliza-dos en las industrias pioneras del uso del CAD:definir un prototipo con todo tipo de detalles, per-fectamente especificados y, de aquí, obtener todala información que se incluía en los proyectos rea-lizados con medios tradicionales, particularmentelos dibujos 2D, plantas, alzados, secciones, etc. Elmodelo 3D se constituía, así, en el corazón del pro-ceso, como el referente por antonomasia.

Progresivamente se ha ido admitiendo que lascosas son bastante más complicadas. Hay diversasconclusiones de expertos en este campo que avalanuna serie de conclusiones. Por un lado, se ha reco-nocido explícitamente hasta qué punto determina-dos aspectos del dibujo tradicional, concretamen-te, la utilización de ciertos simbolismos gráficosque aparentemente se dan como proyecciones deelementos reales, había sido insuficientemente va-lorada en el paradigma mencionado. Por otro lado,y desde el propio campo de la ingeniería se ha lle-gado también a la conclusión de que los modelos3D tan sólo resultan adecuados cuando se aplicana estructuras de ingeniería compleja, tal como plan-tas industriales que incluyen trazados intrincadosde tuberías, en las que la visualización 2D implica-ría una combinación confusa y poco orientativa dediferentes niveles por medio de diferentes seccio-nes. Por último, también se ha reconocido que noes operativo desarrollar un modelo 3D de un con-junto muy complejo (tal como un edificio) y quelas maquetas virtuales son adecuadas cuando seaplican a elementos muy específicos o bien cuan-do se aplican a modelos esquemáticos que impli-

Figura 25 Superficie de revoluciónaproximada por una malla poligonal

Page 143: [Architecture eBook] Aplicaciones as en Arquitectura

144 Aplicaciones informáticas en arquitectura

can una abstracción útil para ciertos propósitos, talcomo la descripción de secuencias constructivasdeterminadas pero que no pretenden representartodos los elementos realmente implicados.

Estas ideas coinciden plenamente con la opiniónde quienes llevan años trabajando en este campo.El hecho es que la construcción de un modelo si-gue siendo, en la actualidad, algo parecido a la cons-trucción de una maqueta. Algo que, en general, seencarga a un especialista externo o integrado en unequipo con una misión muy concreta a partir deplanos 2D y bocetos en 3D.

Sin embargo es de prever una utilización pro-gresiva de los modelos geométricos como herra-mienta de proyectación. A medida en que los pro-gramas resultan más potentes y más fáciles de uti-lizar aumenta el número de testimonios de arqui-tectos que manifiestan que lo utilizan como ayudapara la propia concepción del proyecto, como al-ternativa o complemento de pequeñas maquetas odibujos que permiten analizar una idea y producirvariaciones de esta idea con agilidad. Y podríanser más, y lo harían de un modo más eficiente, si secomprendieran mejor las características del proble-ma que es lo que intentaremos resumir en lo quesigue.

En primer lugar, hay una cuestión que afecta ala propia actividad del arquitecto. La naturaleza delproceso de generación de una obra arquitectónicaimpide la definición de un prototipo arquitectóni-co como si fuera un prototipo industrial. Un pro-yecto de arquitectura debe ser necesariamente am-biguo y dejar un margen considerable de indefini-ción para ajustes en obra. Tan sólo la distancia tem-poral que media habitualmente entre un proyecto ysu realización es razón más que suficiente para queesto sea así.

En segundo lugar, en un edificio participan di-versos industriales que, en el mejor de los casospueden formar parte del equipo habitual de un con-tratista determinado y, en el peor, intervienen en laobra cuando se les necesita, con los consiguientesproblemas de coordinación que esto ocasiona. Peroincluso en los casos más favorables, todos los in-dustriales están sujetos a fluctuaciones de merca-do que les pueden obligar a modificar especifica-ciones de sus productos que pueden afectar enmayor o menor medida a las previsiones de la obra.

Por último, a diferencia de un prototipo indus-trial, una obra de arquitectura está anclada a un lu-gar. Y el lugar impone condiciones no sólo sobre la

propia concepción del proyecto sino también so-bre la dinámica de su construcción. Nunca se tienela plena seguridad de que no vayan a surgir facto-res imprevistos que obliguen a modificar partes delproyecto. El producto industrial es repetitivo, decada prototipo se fabricaran numerosas unidadescon diferentes destinos. Esto justifica el esfuerzodedicado a construir un modelo real o virtual. Laobra arquitectónica, por el contrario, es única.

Carácter de los elementos arquitectónicos.Tipos de modelos 3D

En arquitectura, la descomposición en elementostiene un límite. De hecho podría decirse que losarquitectos trabajan con dos tipos de elementos:elementos preformados y elementos informes. Sila arquitectura aparece como una continuidad queen ocasiones se acerca a la continuidad de lo orgá-nico es porque prevalece el segundo tipo. Si apare-ce como un artefacto similar a una "máquina dehabitar" es porque prevalece el primero. Pero am-bos están presentes en todos los casos.

Determinados "elementos" como los constitui-dos por hormigón, mortero, yeso, no puedenmodelarse como se modela una carpintería metáli-ca o de madera. Estos materiales tienen un com-portamiento fluido que resulta particularmente ade-cuado para constituir articulaciones entre elemen-tos con límites más precisos. Pero esta misma cua-lidad de entidad fronteriza, que es fundamental parasu uso en arquitectura, es un inconveniente a la horade representar un edificio por medios digitalizadosy obliga a adoptar criterios relativamente arbitra-rios sobre dónde acaba un elemento y dónde em-pieza otro.

La ambigüedad de la noción de elemento arqui-tectónico está en la base de una distinción funda-mental para la noción de modelado arquitectónico,la distinción entre tipos de modelos.

En arquitectura se utilizan varios tipos de mo-delos, tanto por medios tradicionales como pormedios informáticos. Estos diferentes tipos corres-ponden a diferentes intenciones o diferentes fasesdel proyecto. Aunque no respondan a una clasifi-cación corriente, a fines expositivos podemos di-ferenciarlos del siguiente modo: 1) modelo básicoo boceto 3D; 2) modelo de análisis visual; 3) mo-delo de análisis constructivo. La figura 26 muestraun esquema característico que puede relacionarsecon estos tipos.

Page 144: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 145

El primero es ágil, puede producirse directamen-te en 3D y permite desarrollar un proyecto senci-llo, tal como una vivienda unifamiliar, en pocashoras. Es el tipo de modelo que realiza un arqui-tecto que utiliza el ordenador como herramienta deconcepción del proyecto. Hace 5 años los ejem-plos eran escasos pero en los últimos años han au-mentado las referencias de arquitectos conocidosque manifiestan servirse del ordenador como ayu-da para visualizar ideas incipientes. Los "elemen-tos" que se modelan en este caso son los volúme-nes principales del proyecto. Lo que llamamos pro-piamente elementos están simplificados al máxi-mo o incluso suprimidos, como puede ser el casode carpinterías de puertas y ventanas, barandillas,etc.

El segundo es un modelo geométrico, estricto, ycuya finalidad puede ser analizar un determinadoaspecto del proyecto para comprobar el modo enque se articulan determinados elementos si bien,con mayor frecuencia, se utiliza en la fase final delanteproyecto para presentar o comunicar el primerresultado. Los "elementos" que se modelan en estecaso son básicamente revestimientos. La figura 26(centro) enumera 8 superficies que puedenrecubrirse con otros tantos materiales. Todo lo quepuede quedar de un muro, en uno de estos mode-los, es una lámina externa, sobre la que se proyec-tará una textura o un color determinados y una lá-mina interna sobre la que ocurrirá otro tanto. Entrelas dos láminas no se necesita nada más para satis-facer las intenciones que rigen este modelo que re-quiere ser completado con programas de simula-ción (rendering).

El tercero es un modelo complejo en el que,cuando se da el caso, mucho menos frecuente de loque sugiere la propaganda de determinados pro-gramas de CAD, pueden modelarse, hasta ciertopunto, los elementos constructivos reales, lo quepermitiría un control exhaustivo de los mismos parala gestión del presupuesto de la obra. En la prácti-ca, esto se da, si se da, de un modo parcial: ciertoselementos pueden ser modelados con rigor, inclu-yendo especificaciones y atributos materiales, paraefectuar determinados cálculos. Pero esto no ocu-rre jamás de modo generalizado, pues sería incom-patible con el carácter real de un proyecto arqui-tectónico tal como lo hemos resumido más arriba.

Los métodos adoptados en cada uno de estoscasos son muy distintos. En los dos primeros casosno es necesario recurrir a modelos sólidos, algo quepuede ser inevitable en el tercer caso para ciertostipos de análisis. Pero, sobre todo, el tipo de des-composición que se llevará a cabo, es decir, la re-lación de "elementos" que se tomará en considera-ción varía de un modo absoluto.

En el primer caso, lo que hemos etiquetado como"boceto tridimensional", podría llegarse a un mo-delo simple con rapidez por medio de extrusionessimples, aunque las uniones no queden resueltascon precisión, y esto podía ser suficiente para ha-cerse una idea del volumen global del ámbito quese está estudiando. En el segundo caso, lo que he-mos etiquetado como "análisis visual" o "modelode presentación de anteproyecto", no es necesarioplantearse articulaciones constructivas reales; pue-de modelarse únicamente el revestimiento, por me-dio de superficies y generar así un modelo fantas-mal, sin substancia interna, pero que presente to-dos los atributos de la forma aparente y que resulteperfectamente adecuado para comprender o pre-sentar el proyecto. Por último, el tercer caso debe-rá precisar y definir qué es muro, qué es tabique,qué es losa de forjado, qué es losa de escalera, quées cielo raso y qué es pavimento, etc., si quiere mo-delar adecuadamente los elementos reales, los ele-mentos que se corresponden con acciones construc-tivas concretas. Extrusiones, superficies y sólidosserían, en principio, las técnicas de modelado másadecuadas para cada uno de estos casos.

Esta situación, característica de las aplicacionesarquitectónicas, debe contrastarse con la evoluciónpropia de los programas que ofrecen técnicas demodelado en 3D. Los programas de modeladogeométrico tridimensional se han mostrado parti-

1

4

567

8

23

Figura 26 Tres esquemas de modelado deuna escalera entre dos niveles

Page 145: [Architecture eBook] Aplicaciones as en Arquitectura

146 Aplicaciones informáticas en arquitectura

cularmente escurridizos a lo largo de la última dé-cada por razones que se han resistido a un diagnós-tico claro. Primero no funcionaban adecuadamen-te porque faltaba potencia; se confiaban animosa-mente en que esto se resolvería con la llegada demicroprocesadores más potentes. Cuando se alcan-zó una velocidad suficiente resultó que lo realmentefaltaba era una técnica adecuada; pero los tres mo-delos principales, csg, b-reps y árboles octales sehan disputado la primacía, sin que resulte claro conseguridad en cuál de ellos las ventajas superan alos inconvenientes; resulta claro, por el contrario,cuáles son las limitaciones que todos compartenpor lo que respecta principalmente a las posibili-dades de modificación a posteriori del modelo.

Una vez que esto se ha comenzado a vislumbrarcomo el problema principal ha surgido un nuevoparadigma: el modelo basado en orientación a ob-jetos. Las dos principales empresas de CAD utili-zado por arquitectos, a las que nos hemos ido refi-riendo constantemente, AutoDesk (AutoCad) eIntergraph (Microstation) están preparando versio-nes orientadas a objetos de sus programas y mu-chas firmas de arquitectura, principalmente en Es-tados Unidos, han decidido esperar a que estas ver-siones estén ultimadas para cambiar de versión. Encualquier caso, y al margen del interés de estos de-sarrollos, lo que probablemente se necesita es unamayor investigación y una mayor experimentaciónpor parte de los propios arquitectos para precisarlos diferentes modos de modelar que hay que to-mar en consideración a la hora de desarrollar téc-nicas adecuadas.

Tendencias. Parametrización de elementos.Orientación a objetos

Los dos sistemas utilizados principalmente en laactualidad, el csg y los b-reps son básicamente es-táticos o, como se dice a veces en la literatura es-pecializada, "history based"; los parámetros quedefinen el elemento se especifican en el momentode su definición y cualquier modificación poste-rior deberá tener en cuenta la sucesión y la secuen-cia propia de estos parámetros. Un ejemplo carac-terístico era el módulo AME de AutoCad. Si se creaun elemento basado en la combinación de varioselementos primitivos, la modificación de alguno delos valores implica recorrer el árbol CSG, editarlos parámetros correspondientes del elemento pri-

mitivo que se quiere modificar y, por último, re-construir el árbol.

Para entender mejor las tendencias actuales y loque depara el futuro inmediato analizaremossumariamente algunas de las peculariedades técni-cas de la situación actual y la evolución de los pro-gramas de aplicación, que derivan a su vez de laevolución de las estrategias de programación.

Hasta la fecha, la mayoría de los programas es-taban basados fundamentalmente en acciones. Di-bujar un rectángulo, por poner un ejemplo elemen-tal, consistiría en la concatenación de una serie deacciones: a) ordenar al dispositivo de salida que sedesplazara a una posición determinada, v1; b) quese desplazara después a una posición v2 y que com-putase los puntos o vectores barridos en este des-plazamiento para su salida gráfica asignándoles atri-butos de color, espesor y tipo de línea; c) que hi-ciera lo mismo con las posiciones v3 y v4 (= v1);d) que guardará la posición de estos vectores en labase de datos asociado al fichero gráfico junto conla etiqueta "línea" y sus atributos asociada a cadauno de estos pares.

Cualquier modificación posterior de este "rec-tángulo" implicaría la modificación de la posiciónde estos vectores y de sus líneas asociadas comoentidades básicas, y la reconstrucción del rectán-gulo como entidad compuesta de entidades bási-cas. Más aún, algunos de estos atributos podían per-derse al pasar a otro ordenador. Por ejemplo, si eltipo de línea fuera un tipo de línea personalizado,este atributo desaparecería al cambiar a otro orde-nador que tan sólo contara con los tipos de líneaestándar.

Si reelaboramos el ejemplo, y en lugar de unrectángulo 2D consideramos un rectánguloextrusionado para formar el agujero de un muro, lasituación se complica aún más. El coste de rehacertoda la operación, multiplicado por muchos aguje-ros en muchos muros similares, comienza a pesarde tal modo que hace que se abandone la tarea a laespera de soluciones más efectivas. Este tipo deproblemas, comunes en su estructura interna a mu-chos tipos de aplicaciones, es lo que ha propiciadola aparición de técnicas de diseño paramétrico y dediseño orientado a objetos.

El diseño paramétrico implica diversos nivelesque no rebasan necesariamente el ámbito de los pro-gramas actuales. El nivel más elemental es lo quehemos introducido en el capítulo anterior y que seconoce en la literatura especializada como progra-

Page 146: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 147

mación de variantes. Un ejemplo, ya mencionado,son los "objetos 3D" que incorpora AutoCad des-de las primeras versiones propiamentetridimensionales. Un prisma, una pirámide, un conoo una esfera, junto con otros objetos simples queaparecen en los menús de generación de formas deAutoCad no son, como ya hemos mencionado, sinomallas poligonales generadas por una rutina exter-na de AutoLisp, lo que evita al usuario el enojosotrabajo de tener que computar los vértices corres-pondientes a un objeto de estas características. Deun modo similar pueden generarse otros objetostridimensionales.

La limitación principal de esta técnica es que nopermite editar el elemento y cambiar alguna de susdimensiones. O permite hacerlo utilizando órde-nes específicas de edición de elementos poligonalesque son excesivamente genéricas y resultan pocooperativas; se adaptan mal a las características pro-pias del elemento que se quiere modificar.

Una opción más avanzada la proporcionan losmódulos o programas específicos de diseñoparamétrico que también hemos mencionado. Laversión 12 de AutoCad venía acompañada de unode estos módulos, el AutoCad Designer 1.0 desa-rrollado en ACIS, el sistema que AutoCad incor-poraría posteriormente a la versión 13.0 y que per-

mitía crear objetos parametrizados incorporandoelementos constructivos (planos y ejes de trabajoasociados paramétricamente al modelo) y restric-ciones de diversos tipos, tanto topológicas(ortogonalidad, tangencias, coalineaciones entreelementos) como métricas (acotación por medio deparámetros ligados a la entidad, ecuaciones quepermiten relacionar unos elementos con otros, etc.).

El desarrollo avanzado de este tipo de técnicasrequiere, sin embargo, el salto a una tecnología di-ferente capaz de abordar de modo consecuente losdiversos problemas técnicos que implican. Las con-diciones técnicas, esto es, una velocidad y capaci-dad suficiente, ya se han comenzado a dar. Las di-ficultades principales quizá son comerciales. Lasgrandes casas productoras de CAD requerirían unareestructuración de sus programas que difícilmen-te soportaría la compatibilidad con versiones ante-riores. Pero es altamente probable que este cambiose de en breve plazo.

El término objeto, al que ya nos hemos referidoen el capítulo anterior, se utilizó por primera vez afinales de los sesenta, en relación con un progra-ma, Simula (acrónimo de SIMUlation LAnguage)desarrollado en Noruega, y que comenzó a utili-zarse a principios de los setenta con la intención decrear simulaciones de procesos reales entre obje-tos reales. El término, sin embargo, no estaba liga-do a un programa específico si bien en los comien-zos se le identificó con un programa concreto, SmallTalk, que estaba específicamente diseñado con estaorientación. A mediados de los ochenta, programasde gran implantación sacaron versiones que incluíanpalabras clave, órdenes específicas, basadas en ob-jetos. Este fue el caso del Object Pascal o del C++.Por estas mismas fechas, la orientación a objetospasó a convertirse en el "nuevo paradigma" de laingeniería de programación. Hay que subrayar, sinembargo, que se trata más de un estrategia o filo-sofía de organización que de un conjunto de técni-cas específicas, por lo que cualquier programa po-tente puede desarrollarse "en base a objetos" si bien,lógicamente, el esfuerzo de diseño sería mucho ma-yor. Los dos lenguajes de programación más utili-zados a finales de los noventa, C++ y Java, sonprogramas orientados a objetos.

El término "orientación a objeto" puede descon-certar a quien no esté muy familiarizado con losconceptos informáticos porque algunas de sus ideasbásicas son muy sencillas. Uno de los primerospromotores de la idea sostenía que era más fácil

Figura 27 Parametrización de un hueco en un muro

Page 147: [Architecture eBook] Aplicaciones as en Arquitectura

148 Aplicaciones informáticas en arquitectura

enseñar programación con esta técnica a niños quea expertos en informática, pues éstos sabían dema-siado para aceptar de modo natural las nuevas ideas.Puede entenderse esto mejor con un ejemplo.

Supongamos que queremos construir un muro yque consideramos dos métodos. El método A con-siste en comprar ladrillos, cemento, arena, instru-mentos para manipular estos materiales, cuerda paraalinear las hiladas, etc., y, con todos estos ingre-dientes a mano, comenzamos a construir el muro.El método B consiste en describir lo que hay quehacer por medio de dibujos, textos y palabras, ex-plicárselo a un experto en construcción de muros ydesentenderse del asunto. La diferencia entre estosdos métodos, así como los matices que cabría aña-dir para completar la descripción de un modo rea-lista, debe ser plenamente familiar para un arqui-tecto. Pues bien, la programación orientada a obje-tos se aproximaría al segundo método.

Lo esencial del método consistiría en que setransmite un mensaje a un agente que es capaz derealizar la acción por medio de una serie de méto-dos que se activarán al comenzar la tarea. Este agen-te-capaz que incorpora métodos adecuados a lastareas que se preve pueda realizar es, desde el pun-to de vista informático, el objeto. El mensaje sonlos datos.

Quien envía el mensaje/datos, el cliente/usua-rio, delega su responsabilidad en el agente, inclu-yendo la interpretación de los datos. Esta interpre-tación puede variar según los agentes (como pasatambién en la vida real). Los agentes son, de he-cho, de diferentes tipos, si bien pertenecen a unamisma clase, son instancias de dicha clase. Las cla-ses, a su vez están relacionadas entre sí, haysuperclases y subclases. Los atributos de las cla-ses superiores se heredan por las clases inferiores,con lo que no es necesario volver a definirlos encada caso.

Desde un punto de vista más técnico puede de-cirse que un objeto es una extensión de gran gene-ralidad de la noción de dato informático. Un datoinformático, en el nivel más elemental, es una com-binación de 0s y 1s que representan cifras o letras.Esto puede utilizarse para representar entidadeselementales y acciones elementales tales como "tra-zar una línea". Datos elementales y acciones ele-mentales dan lugar a rutinas, esto es, series igualesque pueden copiarse de una parte a otra de un mis-mo programa. Se denomina procedimientos(procedures) a rutinas más complejas que pueden

asimilarse a mecanismos abstractos; un procedi-miento puede bautizarse con un nombre, lo que nosevita tener que pensar en todo lo que hace y nosfacilita pensar en para que sirve. Los procedimien-tos están en la base de los módulos, que son comopequeños programas de considerable complejidadpero que mantienen el suficiente grado de genera-lidad como para ser compartidos por diferentes pro-gramas. Así llegamos, por otra vía, a la noción deobjeto como algo que estaría, en cierta medida,compuesto, o bien que vendría a continuación, delos módulos; un dato abstracto, que puede asimi-larse de un modo unitario pero que encierra diver-sos datos entrelazados que permiten a su vez larelación con otros datos similares. Ni más ni me-nos que lo que se puede decir, simplificando, delos objetos que pueblan el mundo real.

La mayoría de los programas actuales, del tipoque sean, están organizados por medio de módulos(procedimientos o subrutinas) que llevan a cabotareas específicas. La mayoría de estos módulosestán orientados en función de datos externos alprograma que serán introducidos por el usuario yque se adaptan al formato específico utilizado porel programa. Esto genera diversos problemas: porejemplo, los formatos de intercambio de texto odibujos pueden perder información adicional va-liosa. O bien el cambio de formato obliga a los pro-gramadores a modificar todas las rutinas relacio-nadas y efectuar revisiones inacabables en cadacambio de versión.

En la orientación a objetos, por el contrario, losmódulos no son procedimientos a la espera de da-tos. Los procedimientos y los datos estarían conte-nidos en el mismo objeto. La utilización de objetospermite, entre otras cosas, simplificar la dependen-cia del formato, hacer que los datos fundamentalestengan una estructura tan sencilla como un archivode texto ASCII o un bitmap. También facilita elintercambio entre programas. El tipo más conoci-do por todo tipo de usuarios debido a la difusiónde Microsoft Windows, un objeto OLE (ObjectLinking and Embedding), lleva información acer-ca de cómo debe mostrarse y de dónde viene. Estopermite enlazar aplicaciones con comodidad. Per-mite también abrir una aplicación desde otra sinnecesidad de salir y entrar al programa.

Puede indicarse cierta similitud con los Xrefs deAutoCad o con los archivos vinculados deMicrostation. Si el objeto-padre se modifica, loshijos cambian sus atributos. O bien, en un progra-

Page 148: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 4. CAD 3D 149

ma de autoedición que también trabaje con víncu-los, si un capítulo contiene una ilustración que estágenerada con otro programa, al modificarse estailustración desde el programa en que se creó, lailustración contenida en el capítulo cambiaautomáticamente.

Todo esto significaría, volviendo al caso delmodelado 3D, que si, por ejemplo, tenemos un ob-jeto definido como "muro con un hueco", podre-mos modificar la posición y las dimensiones delhueco sin tener que preocuparnos por lo que ocu-rrirá con el resto del muro, pues el hueco seguirásiendo parte del muro aunque se modifiquen susdimensiones o su posición o ambas cosas.

Los objetos, en sentido informático, se relacio-nan de modo bastante directo con lo que denomi-namos corrientemente "elementos" arquitectónicos.Esto es particularmente notorio en el caso de insta-laciones. Si un arquitecto especifica una lámparaen una determinada posición, no necesita dibujarlacon todos sus detalles y todas sus conexiones. Bas-ta con que indique la posición exacta, el tipo gené-rico de conexión y las dimensiones globales. El mo-delo concreto podría variar con libertad dentro deun rango más o menos amplio y no será necesariorehacer todo el proyecto cuando se cambie el mo-delo. La programación basada en objetos intentamantener esta situación tan lejos como sea posi-ble; es decir, procura que la modificación de unelemento del modelo pueda efectuarse localmente,en todos los casos posibles, sin que afecte a la tota-lidad del modelo.

Estas son las tendencias que, por lo que parece,pueden modificar la técnicas disponibles en un pla-zo muy breve. En junio de 1995 se creó la A/E/CInteroperability Association entre cuyos miembrosfundadores estaban, además de AutoDesk, empre-sas como la ATT, Carrier, Softdesk, Timberline,Tishman y otras grandes empresas americanas. Lafinalidad de la asociación es crear un lenguaje orien-tado a objetos para los proyectos de construcciónmediante la definición de un conjunto de "clasesfundacionales para la industria" (IFC, industryfoundation classes), lo que facilitaría el intercam-bio de información entre los diferentes sectores queparticipan en los procesos de construcción.

La finalidad es clara y, sin duda, sería comparti-da por todos los arquitectos: se trataría, no sólo defacilitar al máximo la comunicación externa e in-terna sino, sobre todo, de permitir la modificaciónágil de un tipo de documento, como son los planos

de proyectos, de enorme complejidad, que formanparte de una red de interacciones entre profesiona-les muy diversos y que necesita ser modificado múl-tiples veces a lo largo de un proyecto real. Está porver hasta qué punto esta finalidad puede ser alcan-zada. Muchos problemas implícitos en la situaciónactual habrían desaparecido si se hubiera llegado,hace tiempo, a algo mucho más simple: el estable-cimiento de un formato estándar para los archivosgráficos. Esto no ha ocurrido porque todas las em-presas involucradas pretendían imponer su propioformato.

El desarrollo de programas que incorporen es-tos nuevos avances supondrá, en cualquier caso,un incremento en la complejidad de los programasy en los costes de computación. No cabe duda deque ésta es una finalidad no explícita que interesaa las empresas que desarrollan programas. Es pre-ciso considerar con cautela si también interesa y, silo hace, hasta qué punto, a los usuarios. De aquí laimportancia de conocer hasta cierto punto algunade las peculiaridades internas de los procesos im-plicados.

Para concluir diremos que la situación actual(1999) se caracteriza por la relativa difusión de losdiversos métodos de modelado que se han ido ex-plicando a lo largo de apartados anteriores. Lamayoría de ellos se utilizan por diferentes progra-mas de CAD3D, accesibles para cualquier arqui-tecto que disponga de un PC con velocidad y me-moria suficientes para trabajar con comodidad. Nohay, sin embargo, una respuesta única. Un mismoprograma puede utilizar diferentes técnicas y, porañadidura, un usuario exigente puede preferir uti-lizar más de un programa para alcanzar ciertos re-sultados.

Deben considerarse también los condicionantesde máquina. A pesar del espectacular crecimientoen el rendimiento de los PCs, los pocos programasque han surgido que parecen incorporar de un modorelativamente satisfactorio esta nueva estructura,requieren configuraciones que aún están lejos delequipamiento habitual de un usuario medio. Es in-cluso discutible que la actual estructura de placa-base conectada a placa-gráfica independientes, aplacas de red y a una variedad difícilmentegobernable de periféricos subsista durante muchotiempo. Todos estos factores, que conocerán sinduda una evolución vertiginosa en los próximosaños, afectarán a los sistemas que hemos comenta-do y que deberán moverse con velocidad para adap-

Page 149: [Architecture eBook] Aplicaciones as en Arquitectura

150 Aplicaciones informáticas en arquitectura

tarse a las crecientes posibilidades ofrecidas por elequipamiento físico. Sin embargo no debe olvidar-se que los programas que han aparecido en los or-denadores personales llevaban, en la gran mayoríade los casos, varios años funcionando en máquinasmás potentes, por lo que tampoco es seguro que seproduzcan grandes revoluciones en la oferta desoftware y que aparezcan técnicas muy distintas delas que hemos presentado.

Page 150: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 151

Capítulo 5 . Rendering

Un modelo geométrico de un proyecto de arqui-tectura requiere ser completado con atributos ma-teriales y ser analizado bajo diferentes condicio-nes de iluminación para comprobar su eficaciacomo propuesta que aspira a contribuir a la crea-ción de un entorno coherente. La adición de obje-tos tales como luces y cámaras virtuales a un mo-delo geométrico, así como la puesta en relación desus superficies con atributos de color o con mapasde texturas materiales, configura una escenografíaarquitectónica con diferentes grados de realismo ycontribuye notoriamente a este análisis, así como auna presentación y comunicación de ideas arqui-tectónicas más directa.

El desarrollo de técnicas de simulación es unade las ramas de la informática que ha conocido undesarrollo más espectacular y popular en los últi-mos años a través del cine y la televisión. Y todoparece indicar que seguirá siendo así durante va-rios años. La arquitectura se ha beneficiado deldesarrollo de estas técnicas, si bien el trabajo degenerar una escenografía arquitectónica virtual, contodo lujo de detalles, requiere un trabajo conside-rable y requiere un cierto grado de especialización.El objetivo de este capítulo es presentar las técni-cas principales, insistiendo principalmente en aque-llas que son de fácil aplicación y que pueden per-mitir a un arquitecto ampliar la gama de las herra-mientas que utiliza para proyectar; especialmentelas relativas a la simulación de materiales, que abrenuna nueva vía de posibilidades inéditas. Y, por aña-didura, partir de este conocimiento, estar en condi-ciones de calibrar el trabajo de otros y saber hastadónde se puede llegar en un plazo razonable.

1 Noción general de representaciónrealista y modelo de iluminación

Supongamos que hemos elaborado un modelogeométrico de acuerdo con alguno de los métodosexplicados en el capítulo anterior. Este modelo esabstracto, no contiene otra especificación que lasdimensiones propias de los elementos que lo cons-tituyen y de las relaciones que éstos mantienen en-tre sí. El siguiente paso, tras la elaboración de unarepresentación de la forma arquitectónica, es redu-cir la abstracción, asignar a las formas colores ymateriales y comprobar como interaccionan con laluz.

La palabra rendering no tiene una traducciónexacta en español; lo más cercano sería "represen-tación en color" o "acabado" o "representación grá-fica que reproduce efectos materiales y de ilumi-nación". Aunque el sentido es claro, no existe unapalabra que lo sintetice de una manera inequívocacomo ocurre en inglés, por lo que se prefiere co-rrientemente utilizar este término que no es, porotro lado, un termino informático sino que se refie-re, tradicionalmente, a cualquier técnica gráfica.Está implicada en cualquier caso la idea de repre-sentación "realista". Y el éxito de los sistemasinformáticos estriba en que parecen conseguir esteobjetivo con relativa facilidad y con unos resulta-dos bastante espectaculares.

La primera advertencia que hay que hacer es queeste logro es bastante equívoco, como lo es la pro-pia noción de "realismo". Ningún programa actualde rendering, y menos aún los basados en modeloslocales, consigue reproducir correctamente lainteracción entre la luz y los objetos. Si, pese a esto,los resultados resultan satisfactorios es debido fun-damentalmente a dos razones, una positiva y la otranegativa. La razón positiva es que a menudo resul-ta más eficaz y más satisfactoria una representa-

Page 151: [Architecture eBook] Aplicaciones as en Arquitectura

152 Aplicaciones informáticas en arquitectura

ción simplificada de la realidad que una represen-tación exacta. La razón negativa es que es necesa-rio contar con una sensibilidad educada para exi-gir mayor finura en la reproducción de ciertos efec-tos, cosa que no suele darse con demasiada fre-cuencia.

En cualquier caso, es importante comprender,para aprovechar de un modo positivo las carenciasde los programas de rendering, que cualquier "re-presentación realista" está basada en unainteracción muy compleja entre imágenes reales eimágenes mentales, entre estímulos físicos y con-ceptos sobre objetos, entre estructuras receptivasprioritarias y figuraciones prioritarias, entre sensa-ción e imaginación como constituyentes fundamen-tales de la percepción que están en interrelaciónconstante.

La consecuencia de esto es que hay una grandiversidad de representaciones "realistas" por me-dios informáticos que deben valorarse en funcióndel contexto.

Características generales de una escena real yuna escena virtual

Una escena real, tal como se nos aparece en cual-quier circunstancia, es el resultado de la interacciónde tres cosas o tres fenómenos: la luz, los objetos yel ojo. Si desapareciera alguno de estos constitu-yentes de una escena no veríamos nada.

Una escena virtual se compone de lo mismo: lu-ces, objetos y ojos. La única diferencia es que lostres son productos de un cálculo numérico y des-aparecen al apagar la pantalla.

Comencemos por los objetos. Hasta aquí hemosvisto cómo se generan objetos por mediosinformáticos. Pero los objetos informáticos quehemos creado eran, hasta ahora, objetosgeométricos. Lo primero que habrá que hacer, porconsiguiente, es asignar algún tipo de atributo visi-ble a estos objetos, lo que equivale a definir laspropiedades visibles de su superficie. Todos losprogramas de rendering cuentan, como veremos,con técnicas adecuadas para especificar estas pro-piedades.

Lo siguiente que se requiere en un programa desimulación es generar ojos virtuales y lucesvirtuales. Lo "ojos" vienen dados implícitamenteen los procesos que se han descrito en las leccio-nes anteriores. Lo que aparece en la pantalla de unmonitor es el resultado de una proyección final (una

quinta transformación normalizada de coordena-das) sobre un dispositivo físico. Este dispositivofísico es el equivalente al ojo virtual que se requie-re para comenzar a completar la escena. La princi-pal diferencia es que la noción de ojo o cámaravirtual implica una configuración específica que si-mule las características de la visión humana. To-dos los programas de rendering contarán, por con-siguiente, con mecanismos que permitan definir unao varias cámaras, así como controlar con más o me-nos facilidad y precisión, tanto la posición de estacámara con respecto a los objetos como el ángulode visión e, incluso, el enfoque y la profundidad decampo.

La incorporación de una cámara en la escenapuede llevarse a cabo como si de otro objeto geomé-trico más se tratase con métodos similares a losque ya se han visto, es decir, asignándole una posi-ción y una orientación en la escena. Las cámarasvirtuales incorporan propiedades adicionales quepermiten especificar las condiciones de proyecciónpor medio de un vector de dirección y un ángulode visión (FOV, Field of View angle). El vector dedirección se especifica a menudo a partir de unadiana o target, a la cual apunta la cámara y formaparte de su definición. En algunos programas (perono en todos) es posible también especificar las pro-porciones del plano de cuadro o ventana de pro-yección, así como un plano frontal y un plano tra-sero que limiten en profundidad la imagen. Resul-ta de esto una imagen geométrica sobre la que seproyecta una escena limitada por seis planos queconfiguran un volumen piramidal truncado.

Por último, será preciso iluminar la escena. Estosignifica que será preciso generar luces virtuales.Y esto implica varias cosas. En primer lugar, quees preciso definir las características de la fuente deluz que vamos a definir. En segundo lugar, que serápreciso calcular cómo modifica esta luz el color delas superficies que hemos definido sobre los obje-tos. Y, por último, que habrá que calcular tanto lageometría de las sombras que se producen sobrelos objetos como la gradación de estas sombras enfunción de los efectos de umbra y penumbra que sedarían en la escena.

Los algoritmos desarrollados a lo largo de losúltimos 25 años aproximadamente, dan respuestascada vez más precisas a estas cuestiones. Más con-cretamente, permiten especificar un modelo de ilu-minación que se aproxime al máximo a los fenó-menos que tienen lugar en las escenas reales. Los

Page 152: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 153

nombres y fechas siguientes, que volverán a apare-cer más adelante, resumen esta evolución hasta prin-cipios de los noventa y cubren ampliamente lo quese puede hacer con un ordenador personal en losinicios del año 2000. De hecho, en la mayoría delos casos, no hemos ido mucho más allá de 1975fecha en la que Bui-Tuong Phong, un investigadorchino que trabajaba en Estados Unidos, dio a co-nocer un método que ahora está incorporado a to-dos los programas de rendering. Algunos de estosnombres y fechas son: Bouknight (1970), Gouraud(1971), Phong (1975), Blinn & Newell (1976),Catmull (1978), Whitted (1980), Cook (1984),Greenberg, Torrance, et al. (1984), Peachey (1985),Perlin (1985), Kajiya (1986) y Glassner (1986).Estos y otros investigadores, han desarrollado losprincipales modelos que resumiremos en lo quesigue.

Pasos en el proceso de rendering

Desde el punto de vista del usuario las cosas tienenotro aspecto. Lo que interesa conocer es, sobre todo,cuáles son los pasos que hay que dar para conse-guir unos determinados resultados. Pero es nece-sario comprender que tan sólo desde una compren-sión mínima de los procesos que realmente estánteniendo lugar internamente se pueden controlar losresultados y sacar partido de las limitaciones in-trínsecas de todos estos sistemas.

Estos pasos son los siguientes: a) preparacióndel modelo geométrico; b) exportación de ficherosen el caso de módulos no compartidos; c) puestaen escena, esto es, adición de luces y cámaras; d)adición de atributos superficiales a los objetos (estopuede hacerse igualmente antes del paso anterior);e) rendering: pruebas parciales y ajuste de losparámetros de cada objeto; f) pruebas generales;g) salida provisional por pantalla y vuelta a empe-zar si el resultado no es el esperado; h) activaciónde filtros, controles de aliasing y aumento de laresolución para la obtención de la imagen final; i)grabación, filmación, impresión sobre un soportepermanente o incorporación a una animación.

Desde un punto de vista general, puedesintetizarse todo lo anterior y describir la nociónde simulación visual, modelización lumínica orendering, como el proceso de transformación deun modelo en una imagen. Las fases característi-cas que esto implica y que hemos detallado en elpárrafo anterior son: la incorporación de atributos

Modelo Geométrico(Representación Principal)

Módulo Rendering(Representaciones

Auxiliares)

Cámara

-Parámetros de visión

-Resolución

Luces

-Tipo -Sombras-Modelo cálculo

Objetos

-Color Local-Proyección de Texturas

Rendering Simple a baja resolución

Salida Provisional

Ajustes, Filtro, Antialiasing

Salida Permanente (Mapa de Bits)

Figura 1 Esquema general del procesode rendering

Page 153: [Architecture eBook] Aplicaciones as en Arquitectura

154 Aplicaciones informáticas en arquitectura

adicionales al modelo geométrico; la asignación yajuste de los parámetros de control de los atributosy la activación del proceso para la generación de laimagen.

Desde un punto de vista más técnico puede des-cribirse este mismo proceso como la transforma-ción de una determinada estructura de datos (unmodelo geométrico y un modelo lumínico) en unmapa de bits. Esto implica una notable similitudentre lo que entendemos como visualización y loque entendemos por rendering, lo que invita a pre-cisar las diferencias y las coincidencias. Ya hemosvisto que las fases características de los procesosbásicos de visualización consistían en una serie detransformaciones entre a) coordenadas locales, b)coordenadas globales, c) coordenadas de visión,d) coordenadas normalizadas y e) coordenadas dedispositivo.

Para comprender correctamente el proceso quetiene lugar, debe abandonarse la idea de que losatributos visuales son algo que, por decirlo así, "sedesprenden" o "emanan" de los objetos tal como,más o menos, ocurre en la vida real. En el procesode rendering lo que tiene realmente lugar es unprocesamiento independiente y una inserción de loscómputos propios del proceso de modelizaciónlumínica en el proceso básico de visualización. Másexactamente, lo que ocurre es que se sustituyen ose corrigen los valores que tendría un pixel, si sólose hubieran tomado en consideración estos proce-sos básicos, por los valores que se deducen del mo-delo de iluminación aplicado.

Esto quiere decir que en el proceso de renderingestán implicados, en cualquier caso, los algoritmospropios del proceso básico de visualización, entrelos que figuran en primer lugar los algoritmos ge-nerales de eliminación de superficies ocultas. Talimbricación implica una casuística compleja, quepasaremos por alto, acerca de los métodos másadecuados, en sí mismos, y en relación con el pro-ceso de rendering.

Eliminación de superficies ocultas

Como ya hemos dicho, no existe una frontera quedelimite con exactitud lo que es "un rendering" delo que es "visualizar" una escena a través de unmonitor. Cuando comprobamos cómo se va modi-ficando un modelo en la pantalla a medida queañadimos nuevos elementos, el programa "está ha-ciendo un rendering" para nosotros solos, para que

Cálculos Rendering

x, y, z x', y', z'

0.5, 0.5, 0.5

x , y , zr r r

1, 1, 1

0, 0, 0

0,0

1024,768

512, 384

Figura 2 Inserción de los cálculos de renderingen el proceso general de visualización

Page 154: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 155

podamos seguir el proceso. Esto puede ser muy sim-ple y reducirse a una proyección sobre la pantallade los elementos que hemos creado. Pero a medidaque el modelo se complique tal proyección resul-tará en un amasijo de líneas. Para dar este sentido aestas líneas necesitaremos, en algún momento, uti-lizar una proyección más sofisticada y utilizaremosalgún tipo de orden que haga que los objetos máscercanos oculten a los lejanos, como ocurre cuan-do observamos una escena real. Esto implica la uti-lización de un algoritmo de eliminación de super-ficies ocultas.

Los algoritmos de eliminación de líneas o su-perficies ocultas permiten establecer el aspecto queofrecería un objeto tridimensional opaco desde unpunto de vista determinado. El problema es consi-derablemente complejo y dio lugar a numerosostrabajos de investigación durante la década de lossetenta y los ochenta. En 1974 Sutherland, juntocon otros colaboradores, publicó un artículo ("Acharacterization of ten-hidden surface algorithms")en el que evaluaba los diferentes procedimientosaparecidos hasta entonces. Puede considerarse unproblema resuelto desde mediados de los ochentasi bien se han ido produciendo diversas mejorastécnicas desde esta fecha. Muchas placas gráficasllevan incorporados en la actualidad algoritmos quehasta hace poco formaban parte de programas deCAD, de modo que se aceleran espectacularmentelos tiempos de procesamiento. El aumento de lascapacidades de memoria y de las velocidades deprocesamiento ha favorecido por otra parte méto-dos sencillos pero que requerían una gran cantidadde fuerza bruta para su aplicación, como el z-bu-ffer que en la actualidad está incorporado a placasgráficas de primera línea para PCs.

Los métodos utilizados se dividen habitualmen-te en dos grandes grupos: algoritmos desarrolladosen el espacio objeto y algoritmos desarrollados enel espacio imagen. Los primeros efectúan los cál-culos de determinación de las caras visibles de unobjeto desde un punto dado en coordenadasglobales y subsecuentemente transforman los re-sultados a coordenadas del dispositivo. Su princi-pal ventaja es que su precisión es óptima, es dehecho la misma que la de las entidades que compo-nen la escena y son plenamente independientes delformato de salida. Los segundos efectúan sus cál-culos en función del formato de salida, procedien-do básicamente a la inversa, buscando qué líneasresultarían visibles desde una posición dada. Su

ventaja principal es que permiten optimizar el cál-culo para el formato que se esté utilizando y son,de hecho, los más corrientes; el inconveniente prin-cipal, la falta de portabilidad, se ve minimizadopor el hecho de que los cálculos de este tipo serealizan por lo general en función del dispositivode salida que estemos utilizando.

Todos los métodos utilizan algunos procedimien-to generales para optimizar el cálculo. El primerode estos métodos es la detección automática decaras posteriores, un procedimiento denominadoback-face detection o back-face culling en la lite-ratura especializada. El procedimiento consiste encomparar los vectores normales a las superficiesde la escena con el vector de visualización. Si elángulo que forman estos vectores entre sí es supe-rior a 90º es evidente que la superficie no será visi-ble por lo que puede eliminarse de la lista a proce-sar. Este método básico forma parte de estrategiasgenerales de ordenación y estimación de la cohe-rencia de la escena que aceleran el procesamiento.Aunque las ordenes de eliminación de líneas y su-perficie ocultas funcionan actualmente con rapidezy sencillez en los programas de CAD, conocer losprincipios en que se basan es importante.

La figura 3 muestra lo esencial del proceso. Sise cuenta con las orientaciones de los vectores nor-males a todas las caras de los elementos que cons-tituyen el modelo es posible comparar esta orien-

Figura 3 Eliminación de polígonos ocultos porcómputo directo del ángulo de normales

Page 155: [Architecture eBook] Aplicaciones as en Arquitectura

156 Aplicaciones informáticas en arquitectura

tación con la dirección principal dada por el vectorde visualización. Si el ángulo que forman estos dosvectores es de 0º esto significa que estamos viendodicha cara de frente. A medida que aumente el án-gulo, la cara se irá escorzando. Cuando se alcan-cen los 90º estaremos viendo la cara de canto. Ymás allá de 90º veremos la cara posterior. Por con-siguiente basta con detectar todas las caras que for-men más de 90º con la dirección de la visual parasaber que pertenecen a caras posteriores de un ob-jeto modelado por caras poligonales.

El punto de partida es similar cuando se utilizaun z-buffer. Si el sistema de coordenadas está cen-trado en el punto de vista cada punto de la escenaque pertenezca a un polígono tendrá unas coorde-nadas x,y,z relativas a este origen. Cuando las co-ordenadas x e y coincidan tendremos dos puntossuperpuestos, uno de los cuales debe ser anterioral otro y, por consiguiente, debe ocultarlo. Bastarácomparar sus coordenadas de profundidad, dadaspor la coordenada z para saber cuál de los dos es elque tiene prioridad.

Parámetros de ajuste de la imagen resultante.Filtros y antialiasing

Un último aspecto, sobre el que se insitirá más enel capítulo dedicado a las técnicas de procesamientode imágenes, es el relativo a lo que se denominaaliasing y antialiasing. Debido a la falta de co-rrespondencia que hay entre el espacio del mode-lo, un espacio en donde las coordenadas puedendarse en números en coma flotante, próximos anúmeros reales, y el espacio propio del dispositi-vo, en donde las coordenadas se dan en un rangolimitado de números enteros, se produce un desfaseque se traduce visualmente en la aparición de "efec-tos extraños", "artefactos" o "alias". Para corregireste defecto, se han desarrollado diversas técnicasdenominadas genéricamente de antialiasing, mé-todos correctores o métodos de acabado final, queforman parte actualmente de cualquier programacomercial de rendering.

La figura 4 muestra dos ejemplos característi-cos. El primero no es propiamente un "artefacto",un alias o elemento extraño introducido en la re-presentación pero podemos decir que pertenece ala familia y se le combate con las mismas técnicas.Cualquier línea o borde inclinado presentará unaapariencia escalonada si la resolución es insuficien-te. La técnica más sencilla para hacer que este de-

fecto sea menos perceptible es aplicar un filtro quedé una transición de intensidades entre las dos su-perficies yuxtapuestas. Esto crea un efecto de de-gradado o suavizado de los bordes que oculta eldefecto.

Un segundo ejemplo característico es la pérdi-da de consistencia geométrica cuando la resoluciónde salida no tiene medios para proyectar distanciasexactas sobre una trama rígida. En este caso apare-cen efectos extraños o sorprendentes que introdu-cen realmente un elemento indeseado que puedeechar a perder el sentido de la imagen. La figura 5muestra, a la izquierda, un pavimento ajedrezadoque se dispersa hacia el fondo, formando extrañospatrones debido a la incapacidad del sistema paraproyectar el modelo geométrico sobre la resolu-ción limitada de la impresora. A la izquierda semuestra la misma escena después de haber aplica-do filtros correctores.

Dejaremos para el próximo capítulo el comen-tario sobre otros aspectos principales de esta cues-tión. Mientras tanto baste con subrayar que es unaspecto fundamental que se debe tener en cuentaen el proceso final de rendering, sobre todo en de-terminados casos más susceptibles de generar es-tos patrones indeseados.

2. Iluminación. Tipos de fuentes de luz

Las luces que nos rodean se pueden diferenciar ini-cialmente en luces primarias y luces secundarias.Las luces primarias están constituidas por objetosque emiten energía lumínica y las secundarias porsuperficies que reflejan la luz emitida por las pri-marias. Podemos distinguir también una serie detipos básicos de luces primarias: luces distantes odireccionales (rayos paralelos); luces puntuales (ra-yos en direcciones divergentes); luces apantalladas(rayos en direcciones divergentes restringidas); lu-

Figura 4 Aliasing y antialiasing en elcaso de un borde inclinado

Page 156: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 157

ces distribuidas (rayos en direcciones divergentesrestringidas y de intensidad variable); luces exten-didas de pequeño tamaño (lámparas corrientes,sombras de contornos suaves); luces extendidas detamaño medio (ventanas, sombras de contornosdifusos); luces extendidas envolventes (cielo nu-blado, sombras sólo insinuadas). Esto es lo que nosofrecen los escenarios reales y que no habrá deperder de vista a la hora de juzgar la capacidad desimulación de escenarios virtuales.

Las distinciones anteriores son básicamentegeométricas. Pero las luces se distinguen tambiénpor sus cualidades propias. Los principales atribu-tos lumínicos son la intensidad y el color. La inten-sidad es un parámetro que presenta en sí mismouna notable complejidad; no es, en general, un va-lor constante sino que se presenta con un rango ymodulación característicos. Hay, en los escenariosreales, una variación continua de la intensidad porcausas diversas (geometría local, distancia, filtra-do atmosférico). Esta variación continua es, en ge-neral, difícil de reproducir por dispositivos de sali-da de insuficiente capacidad y aún más difícil desimular por cálculo. Por añadidura las luces tienencolor; no existe un blanco universal, perfectamen-te homogéneo, sino que cada luz artificial tiene superfil cromático característico y la luz natural va-

ría de perfil cromático según las horas del día y delaño.

Las luces arrojan sombras. También distingui-mos diferentes tipos de sombras: sombras propias;sombras derivadas o arrojadas; sombras compues-tas y sombras derivadas de luces extendidas quepresentan zonas características de transición entreumbra y penumbra. Es importante resaltar el valorque tienen las sombras desde el punto de vista dela visualización y la importancia de la posición re-lativa de luces, sombras y punto de vista para laacentuación de las figuras. En muchos casos com-prendemos la forma de un objeto gracias a una luzadecuadamente situada para resaltar, por medio desombras, sus perfiles internos.

Estas son las principales características de losescenarios reales. Veamos ahora el desarrollo deestos conceptos básicos en términos informáticos.

Tipos básicos de luces en modelos locales

Hay 4 tipos de luces normalizadas en los progra-mas de rendering: luces puntuales, direccionales,focales y ambientales. Cada una de estas luces cuen-ta con una serie de parámetros de control igual-mente normalizados. Una luz puntual uomnidireccional es una luz que emite por igual entodas direcciones a partir de un punto determina-do. Sus parámetros de control son el color, la in-tensidad y la posición geométrica. Una luz distan-te o direccional es una luz que emite en una soladirección. Sus parámetros de control son el color,la intensidad y un vector direccional. Una luz focales una luz que emite en un rango delimitado dedirecciones. Sus parámetros de control son el co-lor, la intensidad, la posición, el ángulo sólido enel que emite y el ángulo de dispersión a lo largo delcual se atenúa hasta anularse. Una luz ambientales una luz que afecta por igual a todos los objetos.

La figura 6 presenta un diagrama que resumegráficamente las características de cada una de es-

Figura 5 Aliasing y antialiasing en elcaso de una textura lejana

Valor Color Posición Dirección Atenuación Dispersión

Ambiental * * - - - -

Directa * * - * * según app

Puntual * * * - * -

Focal * * * * * *

Figura 6 Propiedades generales de tipos básicos de luces virtuales

Page 157: [Architecture eBook] Aplicaciones as en Arquitectura

158 Aplicaciones informáticas en arquitectura

tas luces. La tabla de la figura 7 resume las propie-dades que acabamos de dar y que cubren las prin-cipales de estos cuatro tipos de luces virtuales.

Tanto la luz ambiental como la luz tipo focalson recursos artificiosos para simular los efectosde variación de intensidad y los efectos de umbra ypenumbra, propios de las luces reales pero que nopueden ser simulados por modelos de iluminaciónlocal. Las figuras 9, 10 y 11 muestran estos efectosque pueden encontrarse por otra parte en los cua-dernos de notas de Leonardo da Vinci. No existenluces "puntuales" en la naturaleza, todas las luces,incluida la del sol, tienen una determinada exten-sión, por muy lejos que estén. Esto hace que se déuna divergencia entre sus rayos y que aparezcan,tras el objeto que arroja sombra, tres zonas dife-renciadas: una que recibe luz, otra que no recibeluz, la zona de "umbra" y otra que recibe una partede luz, tanto mayor cuanto más se aproxime al ladode la luz y tanto menor cuanto más se aproxime allado de la sombra, la zona de "penumbra".

El que los programas de rendering, con la ex-cepción de los que utilizan radiosity, que veremosal final de este capítulo, no cuenten con mediospara simular luces extensas es una de sus principa-les limitaciones. Ha habido diversos trabajos quehan buscado enriquecer este repertorio, tales comolos que han buscado la simulación de la distribu-ción de intensidades por incorporación dediagramas goniométricos al modelo (Verbeck y

Greenberg, 1984) o los que se están llevando a cabosobre luces extendidas de diversos tipos, con luceslineales, luces de área y luces volumétricas pero, almenos de momento, chocan con las limitacionesde los microcomputadores y con las propias insu-ficiencias de los modelos.

El único recurso disponible es simular estos efec-tos por medio de luces complementarias introduci-das hábilmente en la escena para simular reflejos odispersión de las sombras. Estos artificios vienenfavorecidos por el hecho de que la mayoría de es-tos programas cuentan con ciertos medios, muylógicos desde el punto de vista del los algoritmosinternos, pero bastante inesperados si uno no hasido advertido de su existencia. Es posible, por

Figura 7 Tipos básicos de luces virtuales

Figura 8 Luz "direccional" producida por el sol

Figura 9 Detalle de la figura anterior condesviaciones direccionales

Page 158: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 159

ejemplo, hacer que una luz ilumine a unos objetospero no a otros. Basta con eliminar los objetos queno nos interesen a partir de una lista asociada a laspropiedades de dicha luz virtual. También es posi-ble especificar que una luz arroje "luz negativa",es decir que reste color a un objeto o un conjuntode objetos o, si se prefiere explicarlo de otro modo,que cree "sombras directas". Un manejo hábil deestos y otros recursos, puede compensar las caren-cias inherentes a estos programas.

Recursos complementarios. Atenuación.Efectos de niebla

Hay otros recursos para simular el efecto de lasvariaciones reales. Uno de ellos es la atenuaciónde la intensidad por efecto de la distancia, utilizan-do parámetros de corrección de diversos tipos. Losprincipales son el "decrecimiento lineal inverso"(inverse linear) y el "decrecimiento cuadrático in-verso" (inverse square). Por lo general son efectoscuya finura, teórica, no se corresponde con las se-veras limitaciones del tipo de cálculo interno utili-zado en los modelos locales por lo que raramentese utilizan. En algún caso particular pueden pro-porcionar una herramienta cómoda para simular unaatmósfera neblinosa o un cierto efecto de profun-didad.

También se utilizan métodos de filtrado atmos-férico en "clave de profundidad" (depth cueing)que permiten modificar la intensidad dentro de unrango dado por planos de referencia anterior y pos-terior (front and back depth-cue reference planes).

La luz, al atravesar la atmósfera en condiciones co-rrientes, modifica su intensidad y su color por efectode las partículas de polvo o la diferente humedaddel aire. Estos efectos son muy variables e imposi-bles de generalizar, pero es importante tomarlos enconsideración porque se dan en mayor o menorgrado en todas las situaciones reales en que se ob-servan objetos similares a distancias variables. Enestas situaciones, la atenuación atmosférica propor-ciona indicaciones sobre la profundidad (depthcues) que enriquecen y complementan la percep-ción del espacio.

La indicación de profundidad (depth cueing) esuna técnica que ajusta el color de una primitiva enfunción de su distancia al punto de vista. Muchosprogramas utilizan esta técnica para simular la ate-nuación atmosférica que hace que los objetos máslejanos aparezcan menos saturados que los cerca-nos. En los programas mejor desarrollados se aña-de también una modificación de la definicióncromática por la que se desplazan los tonos haciala región de ondas cortas (azules y violetas) tal comoocurre en la visión de objetos reales a distancia.

En fin, hay recursos específicos para simular nie-blas de diferentes tipos. La casuística es relativa-mente larga y sin demasiado interés desde un pun-to de vista general como el que aquí estamos desa-rrollando. El lector interesado en estos y otros efec-tos similares deberá consultar los manuales de re-ferencia de los programas con que cuente.

Figura 10 Fuentes de iluminación secundarias

Figura 11 Umbra y penumbra provocada poruna fuente de iluminación extensa

Page 159: [Architecture eBook] Aplicaciones as en Arquitectura

160 Aplicaciones informáticas en arquitectura

Sombras

Las sombras arrojadas o derivadas (shadows) re-quieren cálculos específicos distintos de los reque-ridos en el caso de sombras internas o propias(shades). Es necesario efectuar un cálculo que de-limite los polígonos de sombra que quedan defini-dos sobre las diferentes superficie que componenla escena. Se ha experimentado con diversas técni-cas y, a diferencia de lo que ha ocurrido con otroscasos, no hay ninguna que se haya impuesta comola clara favorita. Probablemente la razón es que losproblemas inherentes a algunos de estos métodosrevelan las limitaciones inherentes a los métodosgenerales de cálculo de iluminación. En lo que si-gue describiremos sumariamente los principales,que son los que se encuentran en los programas derendering actuales.

Uno de los primeros sistemas fue propuesto ini-cialmente por Apple (1968) en un artículo que,como más adelante veremos, fue también uno delos fundamentos teóricos del ray tracing. En la li-teratura especializada se puede encontrar bajo ladescripción de scan-line shadow algorithm y po-demos traducirlo como "cálculo de sombras porproyección directa de polígonos". A diferencia delos otros métodos que describiremos, es un méto-do directo que efectúa los cálculos a medida queavanza el proceso de rendering. Utilizando el pun-to de luz como centro de proyección, cada polígo-no que pudiera arrojar sombra se proyecta sobrelos polígonos que crucen la línea de rastreo. Si lalínea de rastreo pasa por puntos que correspondena sombras, los pixels correspondientes seobscurecen. Bouknight y Kelly (1970) mejoraronel algoritmo con un preprocesamiento que proyec-taba todos los polígonos de la escena sobre unaesfera situada alrededor del punto de luz. Todoslos polígonos que no se solaparan se eliminabande la tabla de polígonos a computar lo que acelera-ba el proceso de cálculo. La figura 12 muestra unesquema que ilustra lo principal de este proceso.La línea a, sobre la línea de rastreo, corresponde alpolígono A, la líneas B1 y B2 corresponden a laspartes visibles del polígono B, la línea Bs corres-ponde a la parte en sombra del polígono B obteni-da por proyección del polígono A sobre el B to-mando el punto de luz como centro de proyección. El método más utilizado, con las variantes queluego veremos, es basar el cálculo en una transfor-mación de las coordenadas de proyección, toman-

do como punto de vista el de la luz y comparandolos resultados con el punto de vista del observador.Como ya Goethe observó, hace unos cuantos años,"el sol no ve sombras". Y otro tanto podemos decirde cualquier fuente de luz. Pero los bordes de losobjetos, vistos por una luz, corresponden precisa-mente a los bordes de las sombras vistos desdecualquier otro punto de vista desde el que éstas seanvisibles. El método fue propuesto inicialmente porAtherton, Weyler y Greenberg (1978) y se basabaen aplicar los algoritmos propios de los métodosde eliminación de superficies ocultas para obtenerlos polígonos de contorno de las sombras y, en unasegunda vuelta, proyectar estos resultados sobre laimagen obtenida desde el punto de vista corriente.Una ventaja importante de este algoritmo con res-pecto al anterior es que opera en el espacio objetoy obtiene resultados globales que puedenalmacenarse y utilizarse con otros fines. Esto esparticularmente importante en el caso de la arqui-tectura, pues permite efectuar análisis detalladosde la iluminación de un edificio. Variantes de estemétodo han sido utilizados con estos fines. La fi-gura 13 muestra las imágenes obtenidas a lo largode estos procesos de transformación.

Otro método utilizado ampliamente en progra-mas de CAD es el basado en "volúmenes de som-bra" (shadow volumes). Fue propuesto inicialmen-te por Crow (1977) en un artículo que contiene unavaliosa clasificación de los métodos utilizados hastala fecha y desarrollado, entre otros, por Bergeron(1986) con importantes mejoras técnicas. Por cada

A

B

A1

B1

B2

3B

Figura 12 Cálculo de sombras por proyecciónsobre línea de rastreo

Page 160: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 161

punto de luz y objeto que se quiera iluminar se ge-nera un volumen de sombra que será, en general,un tronco prismático cuya cara superior correspon-de al objeto iluminado, la base a una proyecciónaumentada de este objeto y las caras laterales a losplanos definidos por el punto de luz y las aristasdel objeto iluminado. La base puede estar situadaen el infinito pero, en principio, se corresponderácon una cierta "área de atenuación" más allá de lacual la luz no tiene efecto. Los polígonos lateralesestán representado por vectores normales que apun-tan hacia el exterior del volumen de sombra. Estosvectores se comparan con los vectores correspon-dientes al punto de vista. Si desde el punto de vis-ta, que supondremos que no está en sombra parasimplificar la exposición, se envían rayos de ras-treo hacia los diferentes objetos que integran laescena puede ocurrir que este rayo se encuentre ensu camino con un número mayor o menor de nor-males de sombra que apuntan en su dirección o ensentido contrario. Si asignamos a los primeros unvalor +1 y a los segundos un valor -1 bastará com-putar el número de vectores encontrados. Un valorpositivo nos dirá que el objeto considerado estádentro de un volumen de sombra y, por consiguien-te, está en sombra. La figura 14 presenta un esque-ma correpondiente a este algoritmo.

El método más utilizado actualmente en progra-mas de simulación local es el de mapas de sombras

(shadow maps) que fue propuesto inicialmente porL.Williams (1978). El punto de partida es similaral segundo de los que hemos presentado hasta aquíy se basa en una transformación, computando enprimer lugar la escena tal como se vería desde laluz, para comparar después los resultados con losobtenidos desde el punto de vista principal. Pero, adiferencia del mencionado anteriormente, utilizacálculos basados en la propia imagen generada apartir de esta proyección hacia la luz. La imagenobtenida desde la posición de la luz incorpora di-ferencias de intensidad que se corresponden condiferencias de distancia, asociadas a la coordenadaz en un cambio de coordenadas en que el origenestá situado en el punto de luz y los ejes x e yenmarcan la escena.

Se obtiene así una imagen que representa, en unz-buffer, todos los puntos iluminados y su distan-cia a la fuente de luz. Esta imagen o, más exacta-mente, estos datos, el conjunto de datos L, se com-paran con los datos similares correspondientes alpunto de vista del observador, el conjunto de datosV, haciendo que cada punto de la escena, dado enV, se transforme en un punto dado en L. En estatransformación, todos los puntos coincidirán ex-cepto unos cuantos cuya coordenada z tendrá dis-tinto valor. Los puntos cuya coordenada z transfor-mada tenga un valor mayor que la coordenada zcorrespondiente a la escena vista desde la luz co-rresponden evidentemente a puntos que tienen al-gún obstáculo que les impide "ver la luz" y, porconsiguiente, están en sombra.

1 2

3 4

Figura 13 Cálculo de sombras portransformación de coordenadas de visión

A

B

Figura 14 Cálculo de sombras por cómputode vólumenes no iluminados

Page 161: [Architecture eBook] Aplicaciones as en Arquitectura

162 Aplicaciones informáticas en arquitectura

Dado que el proceso es similar al de un procesogeneral de visualización, hay que especificar la re-solución con que se desea realizar este cálculo. Estoquiere decir que es necesario definir el tamaño delmapa de proyección (depth mapsize) y calcular ohacer una estimación de la memoria requerida, enfunción de la distancia y de la resolución final quese desee, que, en general, será del orden de M × M× 4 si consideramos 4 canales por punto. Una reso-lución baja, del orden de los 512 puntos, requeriría512 × 512 × 4 = 1 Mb de memoria principal desti-nada sólo a este cálculo. Una resolución media/alta,del orden de los 2048 puntos, requeriría 16 Mb.Una resolución alta, del orden de los 4096, reque-riría 64 Mb. Evidentemente los términos "baja" o"alta" son relativos y depende del tipo de aplica-ción que estemos considerando. La figura 15 mues-tra los diferentes resultados obtenidos variando eltamaño de los mapas.

Debe tenerse también en cuenta que en la ma-yoría de los programas aparecen errores inevita-bles tales como el desplazamiento de la sombra conrespecto al objeto, lo que se controla por unparámetro denominado bias (literalmente "sesgo"o "tendencia") traducido a veces como "alteración".El valor asignado al bias afecta a este desplaza-miento; cuanto más alto sea su valor mayor será eldesplazamiento. Esto es un inconveniente pero evitaque aparezcan efectos de moiré o franjas desigua-

les en las sombras del propio objeto o del objetosobre el que cae la sombra. Otra alternativa es au-mentar el tamaño del mapa (mapsize) si se cuentacon suficiente memoria. El valor del bias puedeser cualquier número positivo. En principio es pre-ferible aceptar los valores dados por el programa(en 3DStudio es 2.0). Es inevitable experimentarde modo personal con estos parámetros hasta en-contrar valores adecuados a la escena que quera-mos representar y a la plataforma y el programacon que trabajemos. La figura 16 ilustra estas di-ferencias para distintos valores de alguno de losparámetros principales de ajuste de sombras en losmétodos más corrientes.

Los métodos descritos aquí son métodos pro-pios de los que hemos denominado genéricamentemétodos "de simulación local". En el caso de losmétodos "de simulación global" que veremos másadelante, el cálculo de sombras está integrado enel cálculo general de la iluminación de la escenapor lo que no es preciso contar con métodos espe-cíficos. Ésta es probablemente la razón por la queeste tipo de algoritmos tampoco han recibido unagran atención en los últimos años. Es de suponerque, a medio plazo, y a medida que aumente lapotencia de computación, todos estos sistemas que-daran desplazados por los métodos globales.

También deben tomarse en consideración losproblemas específicos de aliasing y antialiasing

Figura 15 Repercusión del tamaño del mapa en el cálculo de sombras

Page 162: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 163

en el caso de las sombras arrojadas y utilizar filtrosadecuados que minimicen efectos indeseados.

3 Superficies ópticas. Simulación deefectos básicos

La superficie de un cuerpo es una zona en donde seconfunden su espacio externo e interno y en la quese produce una discontinuidad en las propiedadesde ambos medios. Una cuestión más difícil de re-solver de lo que pueda parecer inicialmente es pre-cisar el concepto de superficie. Los fenómenos quedebemos considerar se producen en un espacio quepuede variar, según los casos, entre algunosnanómetros y algunas micras y donde no es fácildeterminar cuál es el "exterior" o el "interior" deun objeto.

Los fenómenos que tienen lugar cuando la luzincide sobre la superficie de un cuerpo son muydiversos y son objeto de estudio para muy diversasdisciplinas cuyos resultados pueden completarsemutuamente en el mejor de los caso o entrar encontradicción en el peor. Las principales son laóptica geométrica y la óptica física. Desde un puntode vista muy general podemos decir que la superfi-cie de un cuerpo refleja, absorbe o transmite la luzque recibe. El porcentaje correspondiente a cadauno de estos fenómenos básicos permite estable-cer una ecuación general que iguala la energía in-cidente sobre una superficie con el porcentaje re-lativo, para cada longitud de onda, de estos trescomponentes básicos de modo que si Eλ representael flujo incidente y Rλ , Tλ , Aλ representan respec-tivamente los porcentajes de flujo reflejado, trans-mitido y absorbido se cumple que

Eλ = Rλ + Tλ + Aλ

Estos son los tres fenómenos principales que se

tomarán en consideración en lo que sigue, y queconstituyen el grupo de fenómenos principales des-de un punto de vista macroscópico. En principio seprescinde de las cualidades materiales de los obje-tos y se atiende tan sólo a su comportamiento glo-bal frente a estos fenómenos, como si este compor-tamiento fuera homogéneo; esta idea es la que serecoge bajo el término "superficie ópticas" queencabeza esta sección.

Reflexión, absorción y transmisión

El principal de estos fenómenos, desde el punto devista de la modelización lumínica, es la reflexión.La reflexión no es un fenómeno unilateral sino quepuede darse de tres modos característicos que sim-plifican o generalizan las interacciones entre la luzy las propiedades de diversos tipos de materiales.Si la luz que incide sobre la superficie se refleja enuna única dirección decimos que la reflexión es es-pecular. Si se refleja en todas las direcciones porigual, decimos que la reflexión es difusa. Si se re-fleja en una dirección dominante decimos que esmixta o especular/difusa

La mayoría de los objetos que nos rodean sonopacos y reflejan parte de la luz que reciben y ab-sorben el resto. La absorción es selectiva. Segúnlas propiedades materiales de la superficie de quese trate, determinadas longitudes de onda serándevueltas al exterior y otras serán retenidas por elcuerpo transformándose en energía. Resulta así quecada superficie material puede venir descrita poruna curva que nos indicará cuál es su comporta-miento ante las diferentes longitudes de onda queconstituyen el espectro visible. Esta curva de ab-sorción/reflexión es captada visualmente como elcolor característico de dicha superficie.

Los objetos que no son opacos participan de untercer fenómeno que es la transmisión de la luz a

Figura 16 Repercusión del factor de alteración (bias) en el cálculo de sombras

Page 163: [Architecture eBook] Aplicaciones as en Arquitectura

164 Aplicaciones informáticas en arquitectura

través de los cuerpos. Al igual que la reflexión puraes infrecuente en la naturaleza también lo es la trans-misión pura. La transmisión se produce en cual-quier cuerpo si su espesor es suficientemente pe-queño y, por añadidura, va acompañada, igualmen-te, de absorción. Tanto en el caso de la reflexióncomo en el de la transmisión, la absorción es selec-tiva y depende de las propiedades del material omateriales de que esté compuesto el cuerpo en cues-tión. En fin, cuando la luz atraviesa un cuerpo seda también un cuarto fenómeno que es la refrac-ción, esto es, la desviación del recorrido rectilíneode los rayos de luz al atravesar medios de distintadensidad y que puede considerarse como una va-riante de los fenómenos de desviación de la trayec-toria de la luz y, por consiguiente, de la misma fa-milia que la reflexión.

Reflexión y modulación local (shading)

La simulación informática de los fenómenos de re-flexión, en el caso de modelos de iluminación lo-cal, es decir, modelos que no tengan en cuenta losefectos de interacción entre los diferentes objetosque constituyen una escena, se basa fundamental-mente en cuatro métodos que resumiremos en loque sigue. Estos métodos se denominan en generalmétodos de shading o de modelización por varia-ción superficial de la intensidad reflejada.

El primer método se denomina modelado planoo flat shading y se dio a conocer por primera vezen un artículo de Bouknight, en 1970. Consistesumariamente en comparar el ángulo que forma elvector correspondiente a la orientación de la fuen-te de luz con el vector normal a la superficie que sequiere simular. A partir de esta comparación puedeestablecerse una relación directa entre ángulos eintensidades: un ángulo de 0º implicará máxima ilu-minación y un ángulo de 90º implicará mínima ilu-minación. Este cómputo sencillo permite estable-cer una gradación de intensidades en función delos ángulos. La figura 17 muestra un diagrama queilustra lo esencial de este y de los métodos alterna-tivos que se describen en los siguientes párrafos.

Lo que se conoce como Gouraud shading(Gouraud, 1971) o modelado local por incremen-tos o por interpolación lineal (incremental shading,interpolated shading) es un método que se utilizapara simular superficies curvas aunque el modelogeométrico del que se parta consista en una aproxi-mación a una superficie curva por medio de facetas

planas. El algoritmo en que se fundamenta el mé-todo lleva a cabo una interpolación lineal entre vér-tices adyacentes y asigna a los pixels correspon-dientes valores incrementales que producen el efec-to de un degradado continuo. El principal inconve-niente del método es que el artificio se revela enlos contornos que siguen viéndose planos (apare-cen como líneas quebradas). Tampoco permite si-mular superficie brillantes en las que apareceríanreflejos en posiciones determinadas.

Esta última limitación se resuelve mejor por elmétodo conocido como Phong shading (Phong,1975). El método de Phong cumple dos objetivosen cierto modo diferentes. Por un lado proporcio-na una técnica más eficaz que el método de Gouraudpara simular la curvatura de las superficies. En lu-gar de obtener vectores para los vértices adyacen-tes y de interpolar las intensidades de las regionesintermedias en a partir de estos, computa losvectores que corresponderían directamente a estasregiones intermedias y calcula las intensidades enrelación con estos nuevos vectores. Esto propor-ciona una distribución más homogénea como pue-de apreciarse en la figura 19 que muestra una esfe-ra, modelada con facetas planas y representada conlos tres métodos que acabamos de describir.

Por añadidura, el método de Phong permite cal-cular el modo en que se distribuiría la luz en unasuperficie que no fuera ni plenamente difusa ni ple-namente especular, como ocurre en un considera-ble número de casos. Utiliza para ello un sistemade asignación empírica del coeficiente de concen-tración especular o exponente de reflexión especu-lar. Un aumento del exponente se traduce en unaconcentración del punto especular lo que se perci-be como la cualidad propia de una superficie "másbrillante". La figura 18 muestra un diagrama queresume los principios en que se basa este métodoque es el más ampliamente utilizado en la mayoríade los programas comerciales.

A pesar del éxito espectacular de estos métodoslos resultados son insuficientes para espectadoresexigentes o, en general, para simulaciones en lasque se pretende conseguir efectos verdaderamentecercanos a los naturales. Los objetos modeladoscon el método de Phong tienen un aspecto caracte-rístico, "plástico", lo que da una sensación deartificialidad que, por otro lado, es inherente, engeneral, a los modelos de simulación local.

Para remediar este inconveniente en particular,se ha investigado considerablemente en la produc-

Page 164: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 165

ción de modelos materiales más exactos. Puededecirse que los resultados de estos trabajos hacenavanzar los recursos de simulación desde la ópticageométrica hacia la óptica física. El modelo deCook y Torrance (incorporado en algunas versio-nes comerciales como modo "metal") y otros mo-delos más avanzados, toman en consideración pro-piedades específicas de materiales reales. Por logeneral se consigue esta transición de modo máseficaz por los métodos que describiremos en la si-guiente sección aunque no debe perderse de vistaque lo que aquí se está tratando es el modo en quesuperficies genéricas reaccionan ante la luz, algoque no puede conseguirse sino por una combina-ción de métodos de simulación material indepen-dientes de la luz con métodos generales de simula-ción lumínica.

Asignación de color local

La simulación de los fenómenos de absorción equi-vale a la asignación de parámetros de absorción entres o más bandas delimitadas de longitud de ondadel espectro visible (canales RGB) lo que equiva-le, más familiarmente, a la asignación de color lo-cal a las diversas superficies, algo que se consiguecon notable facilidad por medios informáticos y es,sin duda, una de las razones por las que los siste-mas de rendering son tan populares.

La posibilidad de cambiar el color de una su-perficie y probar diferentes combinacionescromáticas sin poco más que apretar unas cuantasteclas, es una experiencia verdaderamente revolu-cionaria, indudablemente seductora y con una in-discutible aplicación práctica. Es preciso advertirsin embargo, frente a la publicidad que promete

L

L

L

I1 1

2 I2I3 3

ß

ß

ß

Figura 17 Modelado por facetas planas ypor interpolación de intensidades

Ii

Ir

V

Especular

I = I × Kr i r

Ii

Ir

Ir

N

N

N

Ii

rI

Ir

Difusa (Lambert)

Mixta (Phong)

I = I cosß Kr i d

I = I (cos a + cos b) Kir d

n

NIi i

IN

rI = max.

cos a = 1 cos a = 0I = min.r

a

a

a

bV

Figura 18 Simulación de reflexiónespecular, difusa y mixta

Page 165: [Architecture eBook] Aplicaciones as en Arquitectura

166 Aplicaciones informáticas en arquitectura

que podremos trabajar con "color real" si adquiri-mos tal o cual producto, de las limitaciones insu-perables de los rangos cromáticos que pueden serproducidos por diferentes dispositivos, monitores,impresoras, filmadoras de diapositivas, etc.

En primer lugar hay que subrayar que los famo-sos "16.7 millones de colores" de que se puede dis-poner en cualquier ordenador actual no se corres-ponden con el rango real de diferencias cromáticaspercibidas; poco más del 5% de estos colores sonpercibidos como distintos. En el siguiente capítulose indicarán las razones técnicas por lo que se ne-cesita trabajar con "color real" (true color, 24 bppo 16,7 millones de colores). Estas razones se pue-den condensar en la siguiente regla práctica. Si setrabaja con una escena en al que vayan a aparecerdegradados, cielos azules o paredes lisas ilumina-das con luces más o menos rasantes, es preciso tra-bajar con color real para evitar que aparezcan fran-jas que rompan la continuidad de este degradado.En escenas en las que no hay degradados y todaslas superficies tienen bastante textura y, en gene-ral, en modelos simples en las que no se necesiteun gran grado de realismo es más que suficientetrabajar con lo que se denomina "color indexado"que utiliza paletas de 256 colores (8 bpp) en lugarde 16,7 millones (24 bpp) lo que reduce considera-blemente el volumen de memoria necesario. La fi-gura 20 muestra el modo en que un sistema de co-lor indexado utiliza una tabla (look up table) paraguardar los valores cromáticos economizando me-moria. En ambos casos (parte superior e inferiorde la figura) se está especificando un color "ma-rrón rojizo". Pero en el primero este color es partede una preselección basada en especificacionesRGB mientras que en el segundo caso la especifi-cación es directa.

Los sistemas de codificación digital se basan enla mezcla aditiva. Esto quiere decir, entre otras co-

sas que, quienes tengan experiencia en pintura ofotografía deberán olvidarse de que los colores pri-marios son el amarillo, magenta y cyan, y comen-zar a pensar de acuerdo con otros primarios másgenuinos: el rojo, verde y azul. Ambas tríadas son,por otra parte, complementarias entre sí. Si se yux-taponen amarillo con azul, magenta con verde ocyan con rojo el resultado será una combinaciónque tiene la curiosa propiedad de que, observada agran distancia (o reducida a un par de puntos) seconvierte en gris mientras que observada de cercase satura; ambos colores se muestran en todo suesplendor, se realzan mutuamente.

Hay dos sistemas principales utilizados para laespecificación del color, el sistema RGB que se co-rresponde con el propio sistema de generación delcolor en un monitor, a partir de tres canales rojo,verde y azul asociados a los cañones electrónicos

Figura 19 Simulación de una esfera por facetas, por interpolación de vértices (Gouraud)y por interpolación de normales (Phong)

Pos.0,0 742

545

800,600

742,545

0,0

800,600 255

035000

LUT Tabla RGB

0,70 0,35 0,27

742,545

800,600 255

Pos.0,0

R

180

90

255

G

70

255

B

8

180156

255255 255

LH S

Figura 20 Asignación cromática por paletas decolor indexado (256 colores) o especificación

directa (16,7 millones de colores)

Page 166: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 167

que activan los fósforos de la pantalla, y el sistemaHLS (o HBS o HVS), siglas de tono (hue), lumi-nosidad, brillo o valor acromático (lightness,brightness o value) y saturación (saturation), quepermite especificar un color de acuerdo con varia-bles perceptivas.

Estos sistemas deben ser puestos en correspon-dencia con sistemas propios de mezcla sustractivapor medio de mecanismos de conversiónintersistema y de conversión analógica. El princi-pal sistema dirigido a dispositivos de salida es elsistema CYMK (cian, yellow, magenta, black) sibien hay otros, más eficaces, basados en el dispo-sitivo específico de impresión que se va a utilizar,y que ayudan a prevenir, hasta cierto punto, las des-agradables sorpresas con que se encuentra quienpasa a recoger de la imprenta la imagen que habíaido trabajando cuidadosamente en su monitor.

Una profundización en el uso del color deberíaconsiderar que los sistemas de codificación son muydiversos y que, en determinadas circunstancias,puede ser necesaria una especificación más exac-ta. El referente principal es el diagrama cromáticode la CIE por el que se rigen internamente todaslas especificaciones técnicas de dispositivos. Hayvarias versiones de esta especificación. Las princi-pales son las correspondientes a la normativa de1931 que especifica los colores en base a dos coor-denadas imaginarias, x,y y a un porcentaje deLuminancia, L y las correspondientes a la normati-va de CIE Lab de 1964 que especifica los coloresen relación con dos parámetros que indican el por-centaje relativo de rojo-verde o amarillo-azul.

La figura 21 muestra en primero y segundo lu-gar unos esquemas que se corresponden con losdiagramas y espacios cromáticos de la CIE. El pri-mero (a) corresponde al modelo de 1931 y el se-gundo al de 1976 (b). Los esquemas siguientes co-rresponden a: los cubos RGB (c) y CMY (d) queya hemos descrito; el semicono (e) y el doble cono(f) que corresponden a diferentes variantes de lossistemas HLS; el modelo de Munsell (g) que siguesiendo, desde principio de siglo, un sistema aúnampliament utilizado y que conviene tener presen-te y el modelo NCS (Natural Color System) (h)que comenzó a utilizarse en Suecia y posteriormenteen varios paises de Europa en los últimos años.

Transparencia y refracción

La simulación de los fenómenos de transparenciase consigue con relativa facilidad por medio de la

L*

*b

*a

B

R G

Blanco Negro

C M

Y

L

HS

L

HS

5Y

5G

5B 5P

5R

5Y

5P

R

Y W

C

SB

G

a b

dc

e f

g h

Figura 21 Principales modelos deespecificación cromática

Page 167: [Architecture eBook] Aplicaciones as en Arquitectura

168 Aplicaciones informáticas en arquitectura

asignación de porcentajes de transparencia/opaci-dad a las superficie que se esté intentando simular.Esto permite reducir linealmente la intensidad co-rrespondiente de los pixels afectados lo que produ-ce un efecto de transparencia bastante convincen-te.

Los programas de rendering permiten asignartransparencia en, al menos, tres modos. En el modomás corriente, en modo "sustractivo" se resta lu-minosidad a los pixels correspondientes a objetosque están tras el objeto transparente, según el por-centaje especificado por el usuario. En modo "adi-tivo" se suma luminosidad a los pixels. Esto pro-duce el efecto de un halo de luz y se utiliza ocasio-nalmente para simular luces que penetran en recin-tos obscuros. En modo "filtro" resta luminosidad ymodifica el color de los objetos situados detrás se-gún el color del filtro especificado, lo que produceel efecto de un vidrio de color.

Algo más complicada es la simulación de la re-fracción lo que se lleva a cabo por la asignación deíndices materiales de desviación de los rayoslumínicos a partir de la ley de Snell (la ley que es-tipula que el seno del ángulo que el rayo incidenteforma con la normal a la superficie y el que formael rayo refractado están en relación constante). Esun efecto de escasa aplicación en la arquitectura,por lo que no merece la pena entrar en la casuísticade los diversos controles que pueden utilizarse paraajustar los efectos de la dispersión de los rayos deluz en estos casos.

4 Superficies materiales. Proyección ygeneración de texturas

La parte más compleja, más interesante y con ma-yores posibilidades de utilización directa en arqui-tectura, es la simulación de materiales. El desarro-llo de una infinidad de técnicas, asociadas a pro-gramas de rendering, permite representar con no-table exactitud prácticamente cualquier tipo dematerial y, por añadidura, diseñar directamente elacabado de las superficies. Puede decirse sin te-mor a exagerar que se ha abierto una nueva vía detrabajo para los arquitectos o, como mínimo, unnuevo modo de trabajar que recupera la importan-cia de los acabados superficiales. Ahora es posibleenviar un plano a un industrial en el que quedenespecificadas con exactitud no sólo las dimensio-nes y las características nominales de los elemen-tos sino su aspecto externo. Pueden citarse algu-

nos ejemplos de obras conocidas en las que los in-dustriales han respondido perfectamente a la de-manda de reproducir un determinado estuco, crea-do con un programa de simulación, en el estudiodel arquitecto. En lo que sigue resumiremos las téc-nicas principales de la enorme cantidad de varian-tes que han surgido en los últimos años.

Texturas

Utilizamos el término "textura" para describir elaspecto que presenta la superficie de un objeto. Sinembargo, esta descripción unitaria se basa en fenó-menos bastante diferentes, que podemos agruparen dos grandes grupos. Por un lado, los que se de-ben a variaciones en la geometría local de la super-ficie y, por otro lado, los que se deben a variacio-nes en el color local. La textura de una naranja esun ejemplo de lo primero, que englobamos bajo laidea de "rugosidad", y la textura de una pieza demármol pulido es un ejemplo de lo segundo, quepodemos denominar "patrón de textura". En lo quesigue se describirán los métodos principales parasimular estos dos tipos generales. Hay también untercer factor, fundamental, que modifica la texturade un objeto y que debe tenerse siempre presente:la distancia de observación.

Podemos definir la rugosidad como la variaciónperiódica de profundidad de una parte elementalde una superficie, que puede ser percibida comocaracterística reconocible de dicha superficie aun-que no se pueda identificar con precisión. La ru-gosidad, como toda característica superficial, es unconcepto relativo y que depende de la distancia aque contemplemos un objeto.

Podemos definir un patrón de textura como lavariación periódica de color de una parte elemen-tal de una superficie que, como ocurría con la ru-gosidad, puede ser reconocida aunque no se puedadescribir con exactitud. Y, como la rugosidad, de-penderá siempre de la distancia a que estemos si-tuados con respecto al objeto.

Es evidente que tanto la rugosidad como lospatrones de textura podrían ser simuladas median-te modulaciones geométricas locales, sea por ma-llas poligonales o representaciones paramétricas,que permitirían describir el tipo de variación pro-pio del material de que se trate. Es igualmente evi-dente que semejante método tiene dos serios in-convenientes. El primer inconveniente es el coste,en horas de trabajo, de preparación. Esto es relati-

Page 168: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 169

vamente importante porque cabría pensar en la po-sibilidad de generación de superficies genéricas queformasen una biblioteca de materiales compartidaaunque la adaptación de una biblioteca de estas ca-racterísticas a los diferentes casos que se presenta-sen fuera una tanto problemática. El segundo in-conveniente es el coste en términos de memoria yde velocidad de computación. Es un inconvenienteaún más grave pues la carga adicional que unamodelación de estas características impondría so-bre el modelo es tan considerable que queda de-masiado lejos de las posibilidades actuales y es, encualquier caso, un procedimiento de fuerza brutaque invita a buscar soluciones más ágiles. De ahíque los métodos de simulación que se emplean enla práctica se basen en recursos alternativos quepermitan superar estas limitaciones.

Simulación de rugosidad por mapas de relieve

Los métodos de simulación de rugosidad y relieveque se emplean en la práctica se basan en la simu-lación automatizada de una alteración superficial.El principal de estos métodos es lo que se denomi-na bump mapping aunque existen otros que men-cionaremos brevemente.

El bump mapping es una técnica desarrolladainicialmente por Blinn (1978) para simular la ru-gosidad de una superficie sin tener que modelarlarealmente. Se basa en que la representación corrien-te por mallas poligonales permite computar con fa-cilidad el valor de la normal en un punto de unasuperficie. La idea básica es perturbar esta normala partir de la información proporcionada por unmapa de textura simplificado que indica las regio-nes de la superficie que deben aparecer elevadas ylas que deben aparecer deprimidas.

El mapa secundario de textura es, en los casosmás simples, una distribución de patrones en blan-co y negro. Este mapa se traduce a un mapa de bitsen el que "blanco" queda representado por un 1 y"negro" queda representado por un 0. La utiliza-ción de estos valores por el bump map se basa enasignar un desplazamiento positivo a la normalcuando el valor es 1 y asignar un desplazamientonegativo o no desplazamiento a la normal cuandoeste valor es 0. Si se utilizan patrones de grises sepueden obtener desplazamientos intermedios y unaperturbación más matizada.

Esta técnica, al preservar la geometría real delobjeto, evita muchos problemas, el principal de los

cuales es el considerable ahorro de memoria y tiem-po de computación. Dado que los modelos de ilu-minación pueden procesar el sentido de la pertur-bación y situar las sombras de modo adecuado pararealzar la rugosidad de la superficie, proporcionauna solución eficaz a las limitaciones de la proyec-ción de imágenes que se verá más adelante.

El principal inconveniente de esta técnica es queel artificio se detecta en los contornos del objeto.Debido a que el desplazamiento no es real, sinoque afecta a la información proporcionada por lasnormales a la superficie en el momento de la repre-sentación, la información relativa a la geometríadel objeto no cambia y los contornos del objetomuestran su apariencia real. En algunos casos, estopuede pasar desapercibido mientras que en otrospuede echar a perder la simulación. Como ocurrecon muchas técnicas desarrolladas en los últimosaños, es un recurso que conviene tener a mano parautilizarlo en el contexto adecuado y sobre el objetoadecuado y siendo consciente de sus limitaciones.

Para evitar este inconveniente se han desarro-llado otras técnicas, la principal de las cuales es loque se conoce como displacement mapping odisplacement shader, que se puede traducir por"proyección de desplazamiento" o "modulación de

Figura 22 Simulación de rugosidad con mapasde relieve (bump mapping)

Page 169: [Architecture eBook] Aplicaciones as en Arquitectura

170 Aplicaciones informáticas en arquitectura

desplazamiento" propuesta por Cook (1984, 1987)y utilizada principalmente por la interfazRenderMan y ahora disponible en otras programas,por ejemplo 3D Studio Max a partir de la versión2.5. La perturbación de la superficie se lleva a caboa partir de una modificación, no sólo de la orienta-ción, sino de la posición de la normal a la superfi-cie. Esto se consigue a partir de un proceso de sub-división que recorta el polígono o el parche en pie-zas pequeñas o micropolígonos que puedan serdesplazados localmente. El proceso es eficaz cuan-do una imagen de textura puede proyectarse direc-tamente sobre el parche que se subdivide. Otrosmétodos similares han sido utilizados por Hiller(1987), en donde la subdivisión es adaptativa. Elsistema proporciona tan sólo un campo de despla-zamientos verticales. Esto quiere decir que los des-plazamientos quedan limitados a una dirección; nopueden simularse texturas que incorporen cavida-des o formas relativamente complejas.

Hay otros métodos de simulación de la rugosi-dad que nos limitaremos a mencionar para que secomprenda que se trata de un campo en el que seha producido una intensa actividad de investiga-ción que es de esperar revierta en nuevas técnicas.Entre ellos se pueden citar: métodos de simulaciónde la variación de la geometría local por desplaza-miento modular de regiones específicas; métodosde expansión algorítmica de la base geométrica(Csuri, 1979); métodos de subdivisión estocásticay generación de nuevos vértices (Fournier, 1982,Haruyama, 1984) y métodos de desplazamientopor subdivisión algorítmica en función de valorestexturales (Hiller, 1987).

Simulación de patrones planos por mapas debits

El segundo gran grupo al que nos hemos referidoal comienzo, es el de la simulación de textura porvariación del color local o de la capacidad de ab-sorción de la superficie, esto es, textura producidapor patrones superficiales o patrones planos de tex-tura. En este casos los métodos se basan en la pro-yección de un modelo que incorpora las variacio-nes dadas por estos patrones sobre el modelogeométrico.

En general, todos los métodos que caen bajo esteepígrafe se basan en una triple proyección a travésde tres espacios: a) el espacio objeto; b) el espaciopantalla; c) el espacio textura. El espacio objeto es

el espacio, tridimensional, en que está contenida laespecificación geométrica del objeto sobre el quese va a simular la textura. El espacio pantalla es elespacio, bidimensional, formado por la sucesiónfinita de los puntos con que se cuenta en funciónde la resolución del dispositivo con que se trabaja;cada uno de estos puntos deberá representar, engeneral, a un gran número de puntos del espacioobjeto, lo que da lugar a problemas concretos(aliasing) por falta de correspondencia directa en-tre los puntos. El espacio textura puede serbidimensional o tridimensional, como veremos enel siguiente apartado, y es el espacio en el que estácontenida la información sobre la textura que sequiere simular.

Las técnicas utilizadas son variaciones de mé-todos básicos que se iniciaron a mediados de lossetenta y que se basaban en técnicas de proyeccióna partir de una base bidimensional. Este modo deabordar el problema fue propuesto inicialmente porCatmull (1974) y fue desarrollado por Blinn yNewell (1976) entre otros. A partir de estas fechasse conoce en la literatura especializada como "pro-yección de texturas en mapas de bits" (bitmaptexture mapping), "proyección de patrones"(pattern mapping) o "proyección de textura"(texture mapping). A los elementos proyectados seles denomina a veces texels (texture elements).

Para que se comprendan mejor las característi-cas del proceso puntualizaremos que no es estric-tamente necesario partir de un espacio textura (unaimagen concreta). El método más sencillo, que pue-de servir para introducir el tema, es utilizar una fun-ción de intensidades en un rango de 0 a 1 asociadaa los pixels que representan la superficie de un ob-jeto determinado. Si el valor es 1, los pixels retie-nen su valor y muestran el color que corresponde ala superficie en función del modelo de iluminaciónutilizado. Si el valor es 0, la superficie no muestraningún color. Si el valor está comprendido entre 0y 1 el color se modifica proporcionalmente a la co-rrección especificada. Si utilizamos tres canales enlugar de uno, de modo que la función proporcioneun triplete de valores correspondientes a los pri-marios r,g,b, esto permitiría especificar directamen-te el color de cada punto de la superficie por mediode esta función.

En el caso que nos interesa, el bitmap texturemapping o proyección de texturas en mapas de bits,partimos de una imagen plana que reproduce conmayor o menor fidelidad el aspecto que tendría un

Page 170: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 171

determinado material en una proyección frontal. Elvalor de cada punto de esta imagen es el que seutiliza para corregir el valor del pixel de salida.

Las mayores dificultades se dan por lo que res-pecta a la proyección de bases 2D sobre objetos3D. Sin embargo, debido a que la fuente principalde generación de texturas viene de imágenesbidimensionales, es el método que tiene mayor in-terés. Aunque implique dificultades técnicas nocabe duda de que, desde el punto de vista del usua-rio, el medio más sencillo de simular una superfi-cie real, es disponer de una imagen plana en la quelas figuras y colores puedan ser trazados o repro-ducidos con comodidad y proyectar esta imagensobre la superficie de que se trate.

Hay dos cuestiones principales a partir de esteplanteamiento. En primer lugar, cómo se genera laimagen y, en segundo lugar, cómo se proyecta so-bre el objeto. La imagen de que se parte es unbitmap, esto es un mapa de puntos de diferente pro-fundidad de color. Esto significa que puedegenerarse por cualquiera de los tres métodos habi-tuales que nos permitan obtener mapas de bits: ge-neración directa, captura externa y captura interna.

En el primer caso, la imagen puede ser genera-da directamente a partir de un programa de pinturaelectrónica que incorpore lápices, pinceles, gomas,rodillos o cualquier otro remedo electrónico de los

medios tradicionales. En determinados casos pue-de ser más eficaz generar una textura a partir deuna imagen de estas características que intentar en-contrar una que se ajuste exactamente a nuestrasexpectativas.

En el segundo caso, la imagen puede ser captu-rada con un escáner a partir de una fotografía o deuna superficie real. Este es probablemente el mé-todo más corriente que se utiliza para generar tex-turas. De hecho, quienes se dedican a generar si-mulaciones visuales de escenas arquitectónicas sue-len contar con ingentes cantidades de materialesalmacenados a diferentes resoluciones y de diver-sos modos, y que se han obtenido por lo general apartir de fotografías de materiales arquitectónicosreales.

En el tercer caso, la imagen puede ser generadainternamente, por un programa de simulación vi-sual. Esto quiere decir que podemos incorporarcomo textura una imagen que es una vista de unaescena determinada o, incluso, la vista de la propiaescena que estamos preparando. Esto proporcionauna vía para una técnica específica de simulaciónde reflejos que, en estricto sentido, sería una técni-ca de proyección de textura equivalente a las cita-das y como tal suele aparecer en la literatura espe-cializada con el nombre de "proyección de entor-no" (environmental mapping) y que describiremosmás adelante.

Ajuste de la proyección de patrones planos

Como ya hemos dicho, el problema principal plan-teado por la utilización de texturas planas es resol-ver la proyección, el modo en que se acopla estatextura a un objeto 3D.

El mapa de textura reside en su espacio propio,el espacio de coordenadas de textura (u,v). El pro-blema principal que aparece con la proyección detexturas en 2D es la proyección en sí misma. Engeneral, el problema es similar al de las proyeccio-nes cartográficas pero a la inversa; en una proyec-ción cartográfica la "textura" se da en la superficiede la tierra que es aproximadamente una esfera, unobjeto 3D; del que es preciso derivar una repre-sentación 2D. En la proyección de texturas el pro-blema es exactamente el contrario y las dificulta-des son similares; de hecho, son máximas cuantomás se acerca a este caso que es estrictamenteirresoluble como bien saben los geógrafos.

Por esta razón, antes de aplicar una textura so-

T (u,v) (espacio textura)

O (x, y, z) (espacio objeto)

u, v x, y, z x , y

p p

pp

Figura 23 Relación entre espacio textura,espacio objeto y espacio pantalla

Page 171: [Architecture eBook] Aplicaciones as en Arquitectura

172 Aplicaciones informáticas en arquitectura

bre una superficie es preciso determinar cómo seajusta la textura a la superficie. El método originalde Catmull (1974) utilizaba formas que consistíanen parches bicúbicos, lo que simplifica notablemen-te los problemas. Los parámetros de los parchesbicúbicos proporcionaban un tipo de referenciainmediato para relacionar con la imagen de texturay permitía establecer una proyección biunívocaentre ambos. Lo malo es que la mayoría de los ob-jetos que utilizamos, sobre todo en arquitectura,no están constituidos por parches bicúbicos sinopor facetas planas.

En muchos casos, sin embargo, esta idea se pue-de generalizar a otro tipo de superficies tales comolas superficies de revolución que también admitenuna puesta en correspondencia inmediata. En ge-neral, la correspondencia puede establecerse fácil-mente si los vértices del mapa de textura puedenasociarse con los vértices de la superficie. Dadoslos vértices del mapa de textura en los vértices dela superficie, las coordenadas de los pixels se pue-den encontrar por interpolación, lineal en el casode polígonos o bicúbica en el caso de parchesbicúbicos. La interpolación lineal puede dar lugara inconsistencias y fenómenos de aliasing que pue-den ser evitados utilizando otras técnicas tales comola subdivisión adaptativa. Si los polígonos son irre-gulares o la forma es una composición de formassimples será preciso utilizar otro tipo de técnicasde proyección.

Por lo general se utilizan tres tipos de proyec-ción, plana cilíndrica y esférica. Un mapa de bitspuede adaptarse con facilidad a cualquiera de es-tos tres métodos. Alguno de éstos será adecuadopara la mayoría de los casos pero de las indicacio-nes anteriores se puede deducir que, pese a la va-riedad de técnicas que se han propuesto, habrá ca-sos en que ninguna solución será satisfactoria y serápreciso recurrir a otros métodos.

La figura 24 muestra cómo podría adaptarse unpatrón ajedrezado a un objeto prismático. El ejem-plo se ha escogido de modo que se aprecien lasdeformaciones propias de cada uno de los méto-dos y que se ponga de manifiesto que, debido a lasdiferentes proporciones de las tres caras, no habríaningún método que diera la solución exacta.

La proyección de texturas planas se utiliza confrecuencia en modo repetitivo, un modo denomi-nado "mosaico" (tile). Esto permite cubrir toda lasuperficie del objeto sin dejar huecos. A pesar deque resulta cómodo y es perfectamente adecuado

en muchos casos, es un método que debería evitar-se, en el caso de materiales con texturas caracterís-ticas tales como suelos de mármol o madera, si nose quieren obtener efectos artificiosos. Una alter-nativa que puede contemplarse en algunos casoses generar una textura a medida de la superficieque se quiere representar, o con patrones ampliosque abarquen varios módulos. Esto puedeconseguirse grabando una vista del modelo y utili-zándola como base para simular la textura o ano-tando las dimensiones y creando un mapa de bitsque tenga dimensiones proporcionales en pixels.El resultado será perfecto. El inconveniente es,evidentemente, el mismo que el de hacerse un trajea medida; sentará muy bien pero es más caro (en elcaso de nuestra textura, en coste de tiempo inverti-do en el modelo).

Mapas procedurales

Los problemas inherentes a la proyección de tex-turas planas han llevado a investigar alternativas.Los principales resultados se han obtenido con téc-nicas de proyección a partir de una basetridimensional (solid texture mapping, Peachey,1985, Perlin, 1985) y texturas generadas por fun-ciones o procedimientos algorítmicos diversos(Perlin, 1985).

Los problemas mencionados para las proyeccio-nes de texturas planas desaparecen si el espaciotextura tiene las mismas dimensiones que el espa-cio objeto. La puesta en relación de ambos se re-duce a la obtención de la intersección entre dosentidades homólogas. Dicho de otro modo: se pue-de asignar unívocamente, a cada punto del objeto,un valor en el espacio textura. Un ejemplo bienilustrativo es el de un bloque de mármol al que seasigne un modelo geométrico, pongamos por casouna esfera. Si situamos idealmente esta esfera vir-tual en el interior del bloque de mármol, cada pun-to de la esfera tendrá un color y unos atributos ma-teriales dados por el valor correspondiente del blo-que material en que esta inscrita. Esto equivaleintuitivamente a esculpir una esfera real sobre talbloque.

Al igual que ocurría con la proyección de textu-ras planas, esto implica dos tipos diferentes de pro-blemas. Por un lado, cómo realizar la proyección.Por otro lado, cómo obtener imágenes sólidas delas que partir. En el caso de la proyección de textu-ras planas, las mayores dificultades residían en lo

Page 172: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 173

primero mientras que resultaba fácil obtener todotipo de imágenes planas de las que partir. En el casode la proyección de texturas sólidas la situación seinvierte. No hay ningún problema por lo que res-pecta a la proyección; de hecho el usuario no tieneque preocuparse por esto pues se realizanautomáticamente. Pero es considerablemente difí-cil obtener imágenes sólidas.

De hecho puede decirse que este inconvenientees, por ahora, y para la mayoría de los casos quenos pueden interesar, más grave. Las funciones uti-lizadas por Perlin estaban basadas en funciones deruido (noise functions). Las funciones utilizadas porPeachey estaban basadas en la subdivisión del vo-lumen en regiones paralelas en las cuales el valorde la función textura se mantiene constante. Estosmétodos y otros han sido incorporados a muchosprogramas populares y se cuenta con un númeroconsiderable de funciones que simulan lo que ocu-rriría en un cuerpo sólido de textura. Pero los re-sultados son bastante insatisfactorios. Los mejoresson los más sencillos; los procedimientos que si-mulan ruido indeterminado y que funcionan bas-tante bien, solos o en combinación, como mediode simular un efecto genérico de rugosidad inde-terminada.

Dentro de los números métodos que hay parasimular efectos naturales por procedimientos ma-temáticos, por algoritmos diseñados para imitar dis-tribuciones de patrones de color semejantes a losde maderas, mármoles, etc., hay que mencionar losfractales. También estos sistemas ofrecen variasventajas importantes. En primer lugar, permiten al-macenar la información de modo compacto y fácilde utilizar, permiten generar patrones de conside-rable complejidad con una cantidad mínima dedatos de partida. En segundo lugar, son hasta cier-to punto independientes de la resolución. En tercerlugar, permiten superar los límites en que se mue-ven los sistemas actuales de rendering que no pue-den manejar los cientos de miles de polígonos pro-pios de la geometría de la escena y los mapas detextura asociados a estos polígonos.

El inconveniente principal, por no decir el úni-co, sigue estando en la dificultad de obtener un al-goritmo capaz de simular de un modo convincenteun patrón natural. Es decir, el inconveniente es elmismo que en el caso anterior.

Figura 24 Tipos de ajuste de la proyecciónde mapas de textura

Page 173: [Architecture eBook] Aplicaciones as en Arquitectura

174 Aplicaciones informáticas en arquitectura

Materiales compuestos

Los recursos informáticos de simulación de mate-riales incluyen técnicas que permiten combinar di-ferentes sistemas de simulación en una misma de-finición. Esto sirve tanto para casos donde las téc-nicas de proyección del material sobre el objetoson insuficientes para conseguir determinados efec-tos como para casos en los que el objeto real esta-ría compuesto por diferentes materiales.

Algunos ejemplos elementales, utilizados co-rrientemente en la práctica, son los siguientes. Pue-de simularse con efectividad el relieve de un muroutilizando dos imágenes superpuestas, una que re-presente una vista frontal del muro y otra obtenidaforzando el contraste de la anterior. La primera seutiliza como mapa de textura simple y la segundacomo mapa de relieve (bump mapping). El efectode esta superposición es que juntas y agujeros apa-rezcan hundidos, lo que realza la efectividad de lasimulación.

Otro recurso corriente es combinar un mapa deopacidad con un mapa de bits. Un mapa de opaci-dad es un mapa en blanco y negro en el que laspartes negras fuerzan al sistema a considerar lospixels del mapa primario sobre el que se aplicacomo transparentes. Esto puede utilizarse tanto parasimular figuras como para simular efectos de cala-do. No es posible, de modo razonable, generar unobjeto geométrico cuyo perfil se corresponda con

una figura tal como la de una persona, un árbol, uncoche, etc. Pero si se crea un rectángulo orientadohacia el punto de vista en el lugar que estaría situa-da esta figura, sobre este rectángulo se proyecta unmapa de bits con la figura que se desee y, sobreeste mapa, se superpone un mapa de opacidad, detal modo que el fondo que rodea a la figura sea decolor negro. El resultado es que este fondo apare-cerá como transparente y veremos una figura re-cortada sobre el resto de los objetos de la escena.De modo similar puede simularse, por ejemplo, unabaranda calada, combinando un mapa de bits conun mapa de opacidad.

Hay también otros casos en donde el propioobjeto que se pretende simular consta de varios ma-teriales. O bien se trata de un mismo material quetiene que aplicarse por igual sobre diferentes ca-ras, lo que no puede resolverse de modo adecuadopor una proyección directa. Es evidente que estopodría solucionarse creando diferentes subobjetosy asignando materiales simples a cada uno de ellos.Pero es un recurso engorroso que aumenta el nú-mero de objetos que hay que gestionar. Técnica-mente es perfectamente posible asignar diferentesmateriales a las diferentes facetas de que consta unobjeto. Y es igualmente posible combinar diferen-tes materiales y mapas por medio de máscaras. Losprogramas de rendering más completos ofrecen estetipo de recursos. Una máscara es un mapa en blan-co y negro que actúa de modo similar a los mapasde opacidad. La parte blanca de la máscara es opa-ca y retiene el mapa primario mientras que la partenegra es transparente y muestra el mapa secunda-rio. La figura 26 muestra otros ejemplos de estetipo de materiales compuestos. Esto puede utili-zarse tanto para simular juntas en un pavimento,como pavimentos con dos materiales, como letraso rótulos sobre un fondo de textura.

Otro problema corriente es la simulación de unmuro con una textura muy definida en una vista deesquina. Si utilizaramos un mapa proyectado di-rectamente sobre el muro la parte frontal del muroquedaría perfectamente pero la lateral quedaríabarrida por la proyección. Una solución sencillaque puede servir para muchos casos es utilizar unmapa reducido horizontalmente en un factor de 1/1.414 (raíz de 2) y proyectar el mapa a 45º, con loque barrerá por igual las dos caras y su deforma-ción restituirá la proporción original. Pero si la tex-tura está claramente diferenciada en las dos carasla solución más correcta será definir dos mapas,

T (u,v. w) (espacio textura)

O (x, y, z) (espacio objeto)

u, v. w x, y, z x y

P (x , y ) (espacio pantalla)p p

p p

Figura 25 Mapas procedurales

Page 174: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 175

uno para cada cara, y proyectarlos como un mate-rial compuesto, uno sobre cada cara.

Hay una multitud de otras opciones: materialesobtenidos por mezclas ponderadas de dos mapas,filtros diversos, superposiciones de colores y ma-pas, etc., que rebasan los límites de este capítulo yque, por otro lado, son de escasa utilidad para laarquitectura en la mayoría de los casos.

Simulación de reflejos por proyecciones demapas

Las técnicas de proyección de texturas también seutilizan para la simulación de reflejos. El métodomás sencillo es obtener una vista de la escena des-de el objeto que se quiere hacer aparecer como re-flectante y reproyectar esta imagen sobre el mismoobjeto, como si fuera una textura dada por un mapade bits, combinándola con características de defi-nición local adecuadas para un objeto reflectante(color frío, reflexión en modo "metal", etc.). Haytécnicas adicionales de uso corriente que permitenque esta retroproyección sea efectiva tan sólo so-bre las zonas especulares, lo que aumenta la efica-cia del recurso.

Un método aún más eficaz para simular reflejoscon técnicas similares a la simulación de texturases el conocido como proyección de entorno(environmental mapping, reflection mapping,Blinn& Newell, 1978). La proyección de entornoes una especie de ray tracing de bajo coste (un "raytracing para pobres" se le ha denominado en algúnartículo especializado). Utilizado con habilidad, sinembargo, puede generar imágenes de calidad simi-lar a las de procedimientos bastante más costosos

y más sofísticados. Es aún más efectiva en el casode las animaciones, donde no cabe la posibilidadde inspeccionar con detalle los reflejos para des-cubrir inconsistencias.

El procedimiento se basa en los siguiente. Seconsidera que el objeto sobre el que se quiere si-mular la reflexión está circunscrito por una esferao por un cubo virtual. Un punto interior del objetose designa como centro de proyección. A partir deeste punto se construyen seis vistas tomando comovolumen visual la pirámide formada por el puntode proyección, cada una de las caras del cubo ycada una de las 4 semidiagonales que unen el pun-to con los vértices correspondientes del cubo. Es-tas seis vistas se combinan para formar un mapa dereflexión que se asemejaría a una vista del entornotomada con seis cámaras de gran angular.

Este mapa se utiliza como una textura que sereproyecta sobre el propio objeto a partir del cualse ha obtenido la proyección. La impresión resul-tante es que el objeto refleja todo lo que le rodea.El grado de especularidad puede controlarse y tam-bién es posible fundir con diferentes grados estaproyección con la de otra textura que simule carac-terísticas materiales del objeto con lo que el resul-tado es aún más efectivo.

El método es muy efectivo en el caso de esferasu objetos cuya forma se aproxime a la de una esfe-ra pero no tanto en otros casos. En el caso de su-perficies planas hay que utilizar variantes específi-cas que corrijan las distorsiones que se produci-rían si se proyecta la escena a partir del centro. Yes preciso seleccionar de modo independiente lacara poligonal superior del objeto. Al margen dealguna pequeña complicación técnica de esta ín-dole los resultados son bastante espectaculares. Lafigura 27 resume lo que hay detrás de este recur-so.

5 Superficies materiales. Marco práctico

La simulación de materiales implica a toda una se-rie de procedimientos que no implican a ningunatécnica específica pero que deben ser conocidos ydiscutidos. Se resumen en lo que sigue y se am-pliarán, por lo que respecta a los métodos de cap-tación, tratamiento y almacenamiento de imágenes,en el siguiente capítulo.

El proceso de trabajo implica básicamente lo si-guiente: 1) organización de un catálogo de imáge-nes de referencia; 2) organización de un catálogo o

objetomáscaratextura 1textura 2

Figura 26 Materiales compuestos

Page 175: [Architecture eBook] Aplicaciones as en Arquitectura

176 Aplicaciones informáticas en arquitectura

"biblioteca" de materiales; 3) asignación de mate-riales a modelos; 4) mantenimiento.

Este sería el orden más lógico. No podemos de-finir materiales complejos, que incorporen textu-ras, si no contamos previamente con una colecciónde mapas de bits. Tampoco podemos asignar mate-riales a objetos si no contamos previamente con unmodo de llevar a cabo esta asignación. En los pro-gramas de rendering esto implica que existe unadefinición previa de propiedades, con un formatoespecífico que permite llevar a cabo esta asigna-ción y que se reúne en lo que se denomina una "bi-blioteca" de materiales. A partir de esto podemosdefinir materiales y asignarlos a los objetos delmodelo.

Pero quizás es mejor comenzar por el final ysuponer que ya contamos con una colección de ma-teriales y queremos incorporarlo a la escena. Lospasos básicos son, entonces, los siguientes: a) elec-ción del material; b) si el material incluye un mapade bits, elección del tipo de proyección, escala yorientación adecuada para la proyección; c) apli-cación de las coordenadas de proyección sobre elobjeto correspondiente; d) asignación del materialal objeto.

Este es el tipo de operaciones que tienen lugarcuando se prepara un modelo y que se repiten unay otra vez, comprobando el resultado hasta que seobtiene una representación satisfactoria. En muchoscasos, sobre todo al comenzar a trabajar con estetipo de programas, se parte de bibliotecas y mapaspuestos a disposición del usuario por el propio pro-grama. Sólo más adelante, cuando se ha adquiridoun control suficiente sobre las técnicas básicas deasignación de materiales, mapas y proyecciones alos objetos, se siente la necesidad de ordenar conmayor rigor estas colecciones que venían dadas.

A partir de este momento lo lógico es plantearseuna serie de cuestiones elementales: ¿cuál es elmétodo más adecuado de definir materiales? y ¿cuáles el método más adecuado de ordenar los mapasde apoyo a estas definiciones? Sobre esto se trata-rá en los dos siguientes apartados.

Dando esto por bueno, un último aspecto que sedebe considerar es el relativo al mantenimiento. Lasbibliotecas de materiales y mapas son dinámicas,hay que renovarlas y, quizás, conviene contar conuna lista que indique en todo momento con quémateriales se cuenta y de qué tipo de material setrata. Esto puede hacerse por medio de un archivode texto con claves para nombres, resolución, ta-maño, descripción, tipo de parámetros utilizados,etc. Dado que los mapas de bits ocupan una grancantidad de espacio en el disco duro es tambiénconveniente contar con unidades de almacenamien-to externo. En cualquier caso, es preciso hacerse ala idea de que, como ocurre con todos los sistemasde clasificación, por muy perfectos que sean, ha-brá que revisarlos y modificarlos periódicamente.

Catálogos ("bibliotecas") de materiales

Un catálogo o biblioteca (library) de materialesconsiste en un archivo, de estructura similar a unabase de datos, que asocia un nombre a una serie deparámetros entre los cuales puede, o no, figurar lavinculación con un mapa de bits. Las bibliotecasde materiales tienen una extensión característica quesirve para reconocerlas (por ejemplo .mli en 3DStudio, AutoCad, AutoVision o Acu Render; .maten 3D Studio Max). Ocupan muy poco espaciopuesto que consisten en poco más que descripcio-nes numéricas del color y las propiedades básicasde sus materiales. Puede resultar desconcertante

T (u,v)

O (x, y, z) u, v x, y, z x , y

P (x , y ) (espacio pantalla)

(espacio textura)

(espacio objeto)

p p

p p

Figura 27 Proyección de entorno

Page 176: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 177

comprobar que las "bibliotecas" ocupan muchomenos espacio que alguno de sus componentes, talcomo los mapas. Esto es así porque, en el caso delos mapas, la biblioteca sólo guarda la direcciónen donde está situado el mapa de bits cuyos datosva a leer el sistema en tiempo de computación. Po-demos imaginarnos las bibliotecas de materialescomo pequeños recintos que sólo contienen librosde bolsillo y fichas y que están conectadas con gran-des almacenes a donde se van a buscar los gruesosvolúmenes, cuya dirección está en las fichas, en elmomento en que se necesitan.

En cualquier caso todos los programas derendering funcionan con bibliotecas de este tipoque contienen la definición de los materiales dis-ponibles. Esta definición puede ser copiada, modi-ficada o creada desde su inicio por el usuario. Unacuestión básica que hay que plantearse, por consi-guiente, es cómo organizar estas bibliotecas. Po-demos partir de dos extremos posibles, ninguno delos cuales es ideal. Podemos tener una sola biblio-teca, muy grande, que nos sirva para todos los mo-delos que creemos. O bien podemos crear una bi-blioteca nueva para cada modelo. Hay que añadirque tampoco es estrictamente necesario contar conuna biblioteca pues, en la mayoría de los casos, ladefinición de los materiales se guarda con el archi-vo. Pero esta última opción implica que tenemosque estar muy seguros de nuestras decisiones; nocabe la posibilidad de guardar variantes que nospermitan volver a una situación anterior.

En principio parece una buena idea buscar unequilibrio entre economía y disponibilidad. Unaopción adecuada puede ser aceptar que no hay unasolución ideal y admitir la posibilidad de trabajarcon tres tipos de bibliotecas: a) una biblioteca ge-nérica con definiciones tales como "roble", "bron-ce" o "granito"; b) una biblioteca genérica adapta-da a elementos arquitectónicos, con definicionestales como "pavimento de madera", "muro de hor-migón" o "carpintería de aluminio"; c) una serie debibliotecas, obtenidas por variaciones de elemen-tos tomados de las anteriores, adaptadas a proyec-tos concretos. A partir de esto pueden surgir todaslas variantes que uno pueda imaginar para adaptaresta organización básica a sus preferencias perso-nales.

Catálogos ("bibliotecas") de imágenes (mapasde bits)

Más importante que lo anterior, debido al gran vo-lumen que ocupan, son las bibliotecas de mapas.Los pasos requeridos para crear una biblioteca demapas son básicamente los siguientes.

a) Selección de imágenes. Esto implica hacersecon una buena colección de mapas previamentedigitalizados a partir de CDs comprados o com-partidos o bien a partir de fotografías o referentesadecuados. Además de criterios obvios, como sonla calidad de las imágenes, el contraste y la repro-ducción de color adecuados, etc., deben tenerse encuenta los tamaños, las resoluciones, y los formatosde archivo. Puede ser conveniente utilizar dos ar-chivos para un mismo patrón, uno a baja resolu-ción y en un formato comprimido (por ejemplo .jpg) y otro a resolución mayor en formato másadecuado para impresión de calidad (por ejemplo.tif o .tga). En el siguiente capítulo se dará más in-formación sobre formatos.

b) Digitalización. Si se parte de fotografías, estoimplica el cálculo de la resolución adecuada en fun-ción de los diferentes casos que se prevean. Si seutilizan dos versiones en diferente resolución estopuede hacerse tanto en el momento de ladigitalización como a posteriori, por medio de pro-gramas de tratamiento de imágenes que permitenmodificar el tamaño. También sobre estos temasvolveremos en el siguiente capítulo.

c) Ajuste y corrección de defectos. En muchoscasos será preciso ajustar la imagen, corregir de-fectos o recortar los márgenes por medio de un pro-grama de tratamiento de imágenes.

d) Elección de un sistema de clasificación. Lomejor es colocar todos los mapas en una mismacarpeta etiquetada "mapas" y, a partir de aquí, crearsubcarpetas con nombres inequívocos tales como"maderas", "rocas", "metales" o bien "muros" "pa-vimentos", etc.

6 Modelos de iluminación global

Hasta aquí se han descrito las diferentes técnicasutilizadas para llevar a cabo una simulación pormedio de modelos de iluminación local, esto es,modelos que no consideran la interacción entreobjetos de una escena. Esto supone una limitaciónimportante de cara a conseguir efectos convincen-tes. Aunque quizás no se aprecie conscientemente,

Page 177: [Architecture eBook] Aplicaciones as en Arquitectura

178 Aplicaciones informáticas en arquitectura

la cualidad de las escenas reales deriva en gran partede esta interacción; los reflejos modifican no sóloel aspecto de los objetos brillantes sino también elde los objetos mates que cambian ligeramente sucolor en función de lo que les rodea. Esto hace quelas escenas reales tengan un aspecto unitario, esténarmonizadas por un modo similar de reaccionar ala luz y por cierto grado de intercambio cromático.Este efecto se pierde en los modelos que basan elcálculo de iluminación en los algoritmos deGouraud, Phong o Cook y Torrance.

Para superar esta limitación se han buscado sis-temas de modelado que permitan computar el efectoglobal de la iluminación en una escena, que debeincluir la interacción entre objetos. Hay dos mode-los que permiten, de muy diferente modo, alcanzareste objetivo. Hasta hace poco eran escasamenteutilizados, sobre todo el segundo, sobre PCs, puestoque requieren una gran capacidad de computaciónque superaba la corriente en ordenadores persona-les. Pero interesa conocerlos, entre otras razones,porque la velocidad de evolución de la tecnologíainformática hace prever que esta limitación dejede serlo en breve plazo.

Trazado de rayos (ray tracing)

La visión era concebida, en la antigüedad, comoun proceso activo. Se ilustraba el proceso de la per-cepción visual por medio de unos "rayos visuales",pero éstos, a diferencia de lo que aparece en lostextos académicos actuales, no iban de la fuente deluz al ojo después de rebotar en los objetos sinoque partían de los ojos para ir a buscar los objetos.Esta teoría resulta ingenua desde nuestro punto devista pues parece mezclar de un modo inconsisten-te nociones psicológicas con nociones físicas. Sinembargo proporciona un modelo que no sólo inte-resa a la psicología.

La técnica conocida como "trazado de rayos"(ray tracing) invierte el modelo científico corrien-te, en el que la visión es un proceso pasivo, yreplantea el modelo en términos análogos a los delas ideas de los antiguos de un modosorprendentemente fecundo. La idea básica es con-siderar que el ojo virtual incorporado al modelorastrea la escena enviando rayos en direccionesrestringidas, en busca de información relevante.La restricción viene dada en principio por la pro-pia geometría del campo visual pero pueden au-mentarse de diversos modos que se verán a

continuación.La técnica de ray tracing tiene su origen en la

progresiva asimilación de los primeros modelos deiluminación y en la progresiva consciencia de susinsuficiencias. El modelo de Phong, que todavíasigue siendo utilizado extensamente, conoció unéxito espectacular al ser el primer modelo capazde generar escenas virtuales que podían ser califi-cadas de realistas. Sin embargo, una vez superadoel primer impacto, resultaron evidentes las caren-cias características tales como la falta de coheren-cia global de la iluminación y el aspecto plásticode los materiales simulados. Como sería de espe-rar, las investigaciones más intensas se produjeronen estas dos direcciones.

Los orígenes del ray tracing se remontan dehecho a finales de la década de los sesenta y a lasprimeras técnicas eficaces para eliminar superfi-cies ocultas y para generar sombras arrojadas. Unade estas técnicas, debida a Appel (1968) consistíaen enviar rayos desde la fuente de luz y computarlos lugares en que estos rayos se encontraban conlos objetos. Aunque el artículo de Apple se citacomo precursor, se considera generalmente que elprimer paso se dio hacia 1980 con la publicaciónde los trabajos de Kay & Greenberg (1979) y conel primer modelo explícito propuesto por Whitted(1980). Con posterioridad a estos apareció un nú-mero creciente de contribuciones que pueden en-contrarse en la literatura especializada.

En su forma más sencilla, el procedimiento pue-de describirse del siguiente modo. Desde la posi-ción correspondiente al punto de vista o al ojo ocámara virtual, se envía un rayo por cada pixel co-rrespondiente a la pantalla sobre la que vaya a fi-jarse la imagen. Este rayo puede perderse en elvacío, puede encontrarse con una fuente de luz, obien puede encontrarse con una superficie corres-pondiente a alguno de los objetos que conformanla escena.

Al encontrarse con una superficie el rayo se des-viará de su trayectoria rectilínea en función de lascaracterísticas asignadas a dicha superficie y mo-dificará sus atributos lumínicos. En general, se veráafectado por alguno de los cuatro fenómenos prin-cipales que hemos descritos en las secciones ante-riores: será reflejado, refractado, transmitido o ab-sorbido total o parcialmente por dicha superficie.Estos fenómenos pueden combinarse entre sí, esdecir, cabe que un rayo sea parcialmente reflejado,refractado, transmitido y absorbido. La nueva tra-

Page 178: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 179

yectoria puede ser calculada en función de losparámetros de reflexión y refracción asignados ala superficie, dado que todo el proceso se conside-ra que tiene lugar en el ámbito de la ópticageométrica y los nuevos atributos lumínicos pue-den también ser computados por medio de losparámetros de absorción selectiva y de transparen-cia/opacidad que se hayan asignado a la superfi-cie.

El esquema teórico del recorrido característicodel rayo trazador a partir de un pixel es, por consi-guiente: 1) Intersección de la línea trazadora conlos objetos de la escena. Esta intersección se llevaa cabo mediante la representación paramétrica dela línea trazadora y de las superficies de los obje-tos, lo que permite su obtención automática. 2) Es-pecificación de la desviación del recorrido y de laatenuación de la intensidad, en función de los co-eficientes de reflexión, refracción y transparenciaespecificados para las superficies. 3) Final del pro-ceso por alguna de las siguientes causas: a) inter-sección con una fuente de luz primaria; b) no inter-sección con ningún objeto; c) cumplimiento delnúmero de iteraciones establecidas; d) atenuaciónde la intensidad por debajo del límitepreestablecido.

Una de las principales ventajas de ray tracinges que incorpora en el procedimiento básico la eli-minación de superficies ocultas, el cálculo de som-bras arrojadas y el cálculo de los valores propiosde la interacción lumínica.

La eliminación de superficies ocultas queda in-corporada naturalmente a un proceso que, comoya se ha dicho, está emparentado directamente conuno de los primeros algoritmos de visualización.Al enviar rayos sobre la escena, las interseccionescon las diversas superficies se computan por ordende profundidad; un punto de una superficie, situa-do en línea recta con otro punto anterior que ya hasido computado, queda eliminado del cómputo ge-neral a no ser que aparezca en el recorrido de unrayo secundario (reflejado, refractado o transmiti-do por transparencia).

Otro tanto ocurre con las sombras arrojadas. Unasuperficie en sombra no necesita computarse conarreglo a los métodos que hemos visto más arriba.Las sombras son el resultado de un cómputo glo-bal que les asigna un valor lumínico concordantecon el hecho de que un rayo que alcance una zonaen sombra se refleja en una dirección en la que noexisten fuentes de luz.

El procedimiento informatizado utilizado en raytracing es característicamente recursivo. Cada pixelde la escena da origen a un rayo que, en general, seestructura como un árbol binario. Al llegar el rayoa una superficie se subdivide en dos rayos, un rayoreflejado y un rayo refractado. El árbol binario ge-neral estará compuesto, por consiguiente, de dosramas, una rama de rayos reflejados y una rama derayos refractados.

Se utilizan procedimientos simplificados en unaprimera ronda para reducir el cómputo de intersec-ciones. De no ser así el cálculo de interseccionesllevaría la mayor parte del tiempo de cómputo. Parauna escena de complejidad media, Whitted da lacifra de un 95% de los cálculos dedicados al cálcu-lo de intersecciones.

El coste de computación está directamente rela-cionado con el tipo de representación del objeto.Las superficies cuádricas, tal como esferas o cilin-dros, son, en principio, las más adecuadas porqueadmiten una representación muy compacta, quefacilita el cálculo de intersecciones y que, por aña-didura, proporciona resultados espectaculares.

Las principales inconsistencias del ray tracingson las siguientes: a) las reflexiones especularesdirectas se tratan de modo diferente que las indi-rectas; b) al depender del cómputo de rayos pun-tuales tan sólo pueden tratarse los fenómenos dereflexión especular y transmisión. Esto excluye losfenómenos de interacción debidos a la reflexióndifusa, que son, en realidad, los más corrientes enla mayoría de los escenarios reales, y tiene comoconsecuencia la generación de imágenes con unaspecto característico, que tienden a mostrar esce-

Figura 28 Ray tracing. Interacción entre rayostrazadores y objetos de la escena

Page 179: [Architecture eBook] Aplicaciones as en Arquitectura

180 Aplicaciones informáticas en arquitectura

narios irreales constituidos por superficies ópticaspuras; c) en su formulación primitiva, ray tracinges excesivamente costoso debido al elevadísimonúmero de cálculos de intersección que deben lle-varse a cabo. Esto se ha resuelto en parte con unnúmero considerable de técnicas de optimización.

Los métodos de optimización del proceso sebasan, sucintamente, en alguna de las siguientesalternativas.

El control de la profundidad de rastreo permiteajustar el número de rebotes en función de la natu-raleza de la región explorada. Cuando un rayo en-cuentra una superficie su intensidad resultará ate-nuada en el cómputo final de intensidades en fun-ción de las características asignadas al material deque se trate. Si el rayo es reflejado, la atenuacióndependerá del coeficiente de reflexión especularque se ha asignado a esta superficie. Si el rayo esrefractado, la atenuación dependerá a su vez delcoeficiente de transmisión de dicha superficie. Laacumulación de estas atenuaciones resultará en unvalor de intensidad que puede ser considerado irre-levante. Si se especifica un umbral por debajo delcual el valor de la intensidad se desprecia, el nivelde profundidad de rastreo queda abortadoautomáticamente al alcanzar este valor. Esto seinstrumenta automáticamente a partir del árbol derecursiones; la contribución de un rayo a la ilumi-nación de la escena queda atenuada por el produc-to de todos los coeficientes de reflexión o transmi-sión que queden situados por encima de su nivel.

La utilización de volúmenes envolventes comomedio de realizar una estimación previa del núme-ro de intersecciones es otra técnica utilizada desdelos propios comienzos del ray tracing. La idea bá-sica es simplificar al máximo la complejidad de lageometría de todos los objetos que componen laescena y realizar un barrido previo que descartetodas las regiones de la escena en la que no puedenproducirse intersecciones. Se utilizan corrientemen-te esferas debido a que su representación analíticaes muy adecuada para el cómputo de las intersec-ciones, y a que es un volumen adecuado para en-volver la mayoría de los objetos. Evidentementeesto tiene limitaciones; un objeto largo y delgadoqueda recubierto de un modo más eficaz por uncilindro, que también tiene una representación ana-lítica adecuada para el cálculo, que por una esfera.Sin embargo el rastreo preliminar debe poder au-tomatizarse, lo que impide realizar ajustes manua-les en función del envolvente adecuado.

Otra aproximación similar consiste en organi-zar los objetos en diferentes grupos que son consi-derados, a efectos de su simplificación para el ras-treo previo, como objetos únicos. Una vez realiza-do el primer rastreo se analizan estos supergruposen sus componentes originales. En estos casos sue-len utilizarse envolventes prismáticos que, si bienofrecen mayor coste de computación para el cálcu-lo de las intersecciones, se adaptan mejor a unasubdivisión jerárquica en grupos y supergrupos.Otros métodos desarrollados por Kay y Kajiya(1986) utilizan poliedros formados por pares de pla-nos paralelos.

Otros métodos de optimización de los resulta-dos buscan reducir la excesiva dureza de las imá-genes generadas por ray tracing. Nos limitaremosa mencionarlos. Puede encontrarse una descripciónmás completa en la bibliografía, principalmente enWatt (1992).

El beam tracing es un método de optimizacióndesarrollado por Heckbert y Hanrahan (1984) y queparte de la idea de que es más efectivo considerarla trayectoria de un grupo de rayos en lugar de unrayo único. En general, la trayectoria de un rayoúnico es compartida por sus vecinos lo que permi-tiría compartir también la intersección hallada paraun rayo, economizando cálculo. Otro método si-milar, variante del beam tracing, es el denominadopencil tracing. En este método se forma un "lapiz"a partir de rayos denominados "rayos paraxiales",cercanos a un rayo de referencia denominado "rayoaxial".

El "trazado de rayos inverso" (backwards raytracing), es un método propuesto inicialmente porHeckbert y Hanrahan (1984) y por J.Arvo (1986)y desarrollado posteriormente por Chattopadhyayy Fujimoto (1987) y Y.Zhu (1988). Su principal ven-taja es de orden cualitativo. Uno de los principalesinconvenientes del ray tracing, ya mencionado, esque no toma en cuenta fenómenos propios de lareflexión difusa, lo que repercute en el aspecto ca-racterísticamente "óptico" de las imágenes; una ca-racterística que puede resultar interesante en cier-tos casos pero inaceptable en otros. Evidentemen-te, resulta más lógico intentar averiguar hacia dón-de va una fuente de luz puntual que confiar en queun número limitado de rayos trazadores tenga lafortuna de encontrar la luz. Este es el punto de par-tida del trazado de rayos inverso o backwards raytracing. El método se estructura generalmente endos fases. En la primera, se envían rayos desde la

Page 180: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 181

fuente de luz sobre la superficie de que se trate.Los puntos en que los rayos de luz inciden en lasuperficie se toman como puntos de partida paraun cómputo aproximado de la reflexión difusa. Enla segunda fase, se envían rayos trazadores desdeel ojo virtual que toman los valores de la reflexióndifusa computada como valores propios de las pro-piedades de la superfcie.

Otro de los métodos ensayados para superar lasdeficiencias características de ray tracing básicoes el "trazado de conos" o cone tracing. Esta técni-ca fue propuesta por Amantides (1984). Su puntode partida viene dado por la necesidad de superarel modelo de un rayo por pixel, que es causa detodos los problemas comentados. Una alternativalógica es considerar, en lugar de un rayo por pixel,una pirámide por pixel, cuya base serían los cuatrolados del pixel y cuyo eje vendría dado por el rayocentral. Este punto de partida es similar al de beamtracing si bien este parte de la globalidad de la

imagen para proceder por subdivisiones. El méto-do piramidal operaría a la inversa. Sin embargo, elcoste computacional es excesivo debido a que obli-ga a calcular todas las intersecciones correspon-dientes a los planos de la pirámide. La idea deAmantides parte de simplificar la representación yapoyarse en la mayor eficacia de las cuádricas: lapirámide sería sustituida por un cono, que tendríasu vértice en el ojo virtual y un diámetro de baseigual a la anchura del pixel. El cálculo de intersec-ciones con esta técnica añadiría a las interseccio-nes del rayo principal, el cómputo del áreainterseccionada, así como la integración de esta in-formación para proporcionar un valor único en elápice del cono. Esto permite simular los bordes di-fusos de las sombras y la rugosidad de las superfi-cies, controlando el radio del cono para simular elefecto de dispersión característico de estos dos ca-sos.

La técnica conocida como distributed ray

Figura 29 Simulación del interior de la casa Isiko (1989-90) de Tadao Ando con ray tracing

Page 181: [Architecture eBook] Aplicaciones as en Arquitectura

182 Aplicaciones informáticas en arquitectura

tracing aborda los mismos problemas y los resuel-ve de un modo que se ha calificado como "máselegante" en la medida en que unificaba problemasen el dominio espacial y temporal a partir de unatécnica de muestreo probabilístico multi-dimensional. Fue propuesta por Cook (1984b). Lasolución dada por Cook consiste en utilizar un hazde rayos por pixel, para solucionar los problemasmencionados, de modo similar a los métodos yadescritos, pero limitando su número por métodosprobabilísticos. Esto da lugar a una serie deproblemas específicos de otro orden que se solu-cionan parcialmente mediante la recurrencia a téc-nicas estocásticas de antialiasing que se integranobligatoriamente en el método.

Radiosidad (radiosity)

Los modelos de iluminación local permitían com-putar la luz reflejada directamente desde la super-ficie al punto de vista. No admitían reflexiones múl-tiples. Esta es una de sus deficiencias que se puedesuperar por el método de ray tracing que se ha vis-to en el apartado anterior. Pero no es la única; lainteracción debida a la reflexión difusa era aproxi-mada de un modo bastante tosco por medio de una"luz ambiente", de valor constante, que servía parapoco más que atenuar la intensidad de las sombraspropias y arrojadas o bien por luces puntuales co-locadas con baja intensidad en el lado de la som-bra, de difícil control y efectos secundariosindeseados.

Estas deficiencias no pueden ser abordadas co-rrectamente con ray tracing, y han constituido unode los problemas principales cuya investigación haconducido al método de radiosity o "radiosidad".Con ray tracing se puede, en un único proceso,computar el solapamiento entre objetos, el cálculode sombras y el cálculo de la reflexión especular yla refracción. Pero subsiste la incapacidad de com-putar un aspecto fundamental en los fenómenos deinteracción lumínica: la reflexión difusa. A estodebe añadirse que el método es dependiente delpunto de vista, lo que obliga a repetir todo el pro-ceso para cambio de posición.

El método de radiosidad soluciona estos dos úl-timos problemas. Pero, como contrapartida, no pue-de integrar en el proceso la reflexión especular ytiene un coste de computación muy alto. Pese a todoel método ha producido los resultados más espec-taculares en simulación visual, sobre todo cuando

se trata de interiores iluminados con luces indirec-tas. Es también, a diferencia de ray tracing, unmétodo bastante riguroso desde el punto de vistateórico. Otra ventaja importante es que es indepen-diente del punto de vista. Esto permite utilizar unmismo cálculo para diferentes vistas, cosa que noocurre con ray tracing.

Las técnicas de radiosity fueron desarrolladasoriginalmente en la universidad de Cornell a prin-cipios de los ochenta. El primer artículo en que seda a conocer el método es obra de Goral, Torrancey Greenberg (1984). Éste, junto con el de Nishita yNakame (1985), algo menos general que el ante-rior, son las primeras referencias citadas corriente-mente en la literatura especializada.

La investigación posterior se ha centrado prin-cipalmente en la búsqueda de técnicas deoptimización, tanto por lo que hace a la velocidaddel proceso como por lo que hace a solucionar pro-blemas de aliasing a los que se aludirá más adelan-te.

Los fundamentos teóricos del método provie-nen del campo de la física, en relación con estu-dios dirigidos a analizar la transferencia térmicapor radiación, que se han llevado a cabo en el mun-do de la industria metalúrgica y aeronaval. Esto pro-porcionó una estructura analítica en la que todoslos componentes del entorno estudiado se tratabancomo superficies emisoras de calor.

El método, aplicado a la simulación de una se-rie de objetos en el espacio, parte de la considera-ción de todas las superficies de los objetos comodifusores perfectos, esto es, como superficies quecumplen estrictamente las leyes de Lambert con-cernientes a la reflexión difusa de superficies ópti-cas ideales. La escena se subdivide en aéreas rec-tangulares denominadas "parches" (patches) en laliteratura especializada a partir de las publicacio-nes de la Universidad de Cornell. Cada uno de es-tos parches es considerado como un emisor de luz,como una superficie que irradia energía, sea por-que la genera, sea por que la refleja. Se consideraque la radiación de luz es constante sobre cada unode estos parches. De ahí que la precisión de lasimulación dependa del grado de subdivisión delos objetos que constituyen la escena.

La radiosidad, B, se define como la energía ra-diante emitida por unidad de área por unidad detiempo en un parche superficial. Esta energía es lasuma de la energía emitida y de la energía refleja-da. El método simula la propagación de un modelo

Page 182: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 183

lambertiano de reflexión difusa en un entorno dado.La energía emitida es nula en el caso de todos losobjetos excepto de la fuente de luz. La energía re-flejada depende de la reflexividad del parche i mul-tiplicada por la contribución del parche j que llegaal parche i. Esta contribución se computa en fun-ción de lo que se denomina factor de forma. Elcómputo debe realizarse para todos los parches dela escena que puedan alcanzar al parche analizado.La ecuación que resuelve este equilibrio será porconsiguiente:

B E B Fi i i jj

n

ij= +=

∑ρ1

en donde el primer término simboliza la radiosidademitida por el área considerada, y el segundo tér-mino la suma de la energía emitida y la energíareflejada. En el segundo término E

i es la energía

emitida por la faceta i, ρi es el porcentaje de luz

reflejado en todas direcciones por la faceta i, Bj es

la radiosidad de la faceta j, Fij es el factor de forma

correspondiente a la relación entre la faceta i y lafaceta j o el porcentaje de energía que llega a i des-de j.

Los valores correspondientes a Ei serán cero en

todos los parches excepto en aquellas superficiesque correspondan a fuentes de luz y que represen-tan, por consiguiente, los puntos de entrada de ener-gía en el sistema. El coste de computación depen-de directamente del número de factores de formaque deben de ser determinados para una escena yque es igual a n2.

El proceso se basa en iteraciones sucesivas. Enel inicio, todas las radiosidades de los parches, ex-

cepto las correspondientes a las fuentes de luz, es-tán inicializadas a cero. Si la imagen se obtiene enese estado, la escena aparecería totalmente oscuraa excepción de las fuentes de luz. A medida queavanza el proceso, cada parche va "recogiendo"energía adicional de los parches que le rodean.

La ecuación dada es válida para el caso de lucesexclusivamente monocromáticas. En el caso másgeneral de luces de diferente cromatismo habría quetriplicar el número de ecuaciones, una por cada ca-nal RGB o, en general, calcular tantas ecuacionescomo muestras tomadas por longitud de onda. Parasimplificar la exposición esto no se tendrá en cuentaen lo que sigue.

La determinación del factor de forma se desa-rrolló por Cohen y Greenberg (1985) con un méto-do conocido como el método del hemicubo. Si con-sideramos el intercambio entre dos facetas planascualesquiera, el tránsito de energía puede aproxi-marse a partir de una ecuación que define F

ij, el fac-

tor de forma correspondiente a las facetas i, j de unelemento centrado sobre las facetas respectivas, enfunción de los ángulos entre la línea que une loscentros de los elementos considerados, la normal alas superficies respectivas en esos puntos y la dis-tancia r entre dichos centros. Los factores de for-ma dependen sólo de la geometría, es decir de laorientación y visibilidad mutua de los parches emi-sores y receptores.

Si se considera la totalidad de los parches quepueden ser puestos en relación con el parche anali-zado podría utilizarse un hemisferio centrado en elcentro del elemento, con su semieje coincidente conla normal a la superficie y obtener las proyeccio-nes sobre este hemisferio como método de siste-matizar la evaluación de la contribución de los par-ches que rodean al analizado.

El método de Cohen y Greenberg sustituye estehemisferio teórico, que conduciría a cálculos cos-tosos, por un hemicubo que permite reducir loscostes de computación al efectuar todas las pro-yecciones sobre lados planos. El eje z del hemicuboy la normal a la superficie son ahora los coinciden-tes. Las caras del hemicubo son divididas en ele-mentos unitarios denominados pixels y que no de-ben confundirse con el uso corriente del término,pues los cálculos se realizan en el espacio real noen el espacio del dispositivo de salida. Si dos par-ches tienen su proyección sobre el mismo "pixel"sus distancias se comparan y el más lejano se eli-mina, pues su contribución quedaría anulada por

rmn

θn

Nn

mN

dAm

dAn

Figura 30 Radiosity. Intercambio de radiacionesentre dos parches superficiales

Page 183: [Architecture eBook] Aplicaciones as en Arquitectura

184 Aplicaciones informáticas en arquitectura

el más cercano. Este método sería similar al utili-zado en algoritmos de visualización tales como elz-buffer.

La precisión de los resultados depende, comoya se ha dicho, del grado de subdivisión de los ob-jetos que constituyen la escena. La precisión re-querida no es uniforme; depende de las caracterís-ticas de las diferentes regiones y de una diversidadde factores difíciles de controlar a priori. En gene-ral, en las regiones con fuertes gradientes energéti-cos, que podrían traducirse en irregularidades dela imagen (bandas de Mach, etc.) es preciso subdi-vidir el número de parches.

Cohen et al. (1986) desarrollaron una técnicadenominada "subestructuración" (substructuring).En términos generales la técnica consiste en gene-rar una solución general para la escena a partir deuna subdivisión genérica y, a partir de una evalua-ción del resultado obtenido, proceder a una subdi-visión de los parches en "elementos". La cantidad

de luz reflejada por cada parche no se modifica.Esto permite calcular la radiosidad del grupo deelementos incluidos en un parche de modo inde-pendiente. La matriz inicial que servía para calcu-lar la radiosidad se mantiene. El número de facto-res de forma de la escena se aumenta: si el númerode parches en la escena era de N y, por consiguien-te, el número de factores de forma de la soluciónprimitiva era N x N, este número pasa a ser de M xN en donde M es el número de elementos y M es,obviamente, superior a N lo que incrementa el cos-te de computación.

La subdivisión de parches en elementos se pue-de llevar a cabo adaptativamente. Los resultadosde la fase inicial son evaluados y, en función deesta evaluación, se decide qué áreas necesitan unasubdivisión posterior. El método permite variar lajerarquía de subestructuración en cada fase del pro-ceso.

Las principales limitaciones del método de

Figura 31 Simulación del interior de la casa Isiko (1989-90) de Tadao Ando con radiosity

Page 184: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 5. Rendering 185

radiosidad son las siguientes. En primer lugar, lasfuentes de luz se consideran como emisoreslambertianos. Esto no se corresponde con la reali-dad: las fuentes de luz tienen una distribución deintensidades, que viene dada por sus diagramasgoniométricos, y que se manifiesta en gradacionescaracterísticas. Otro inconveniente grave es que elsistema requiere una enorme cantidad de memo-ria. Según Cohen, una escena que contenga 50.000parches y en la que un 90% de los factores de for-ma puedan ser innecesarios dado que los parchesno son visibles entre ellos, requiriría alrededor de1.000 Mb de memoria de almacenamiento (1 Gb).Por último, el método no permite simular reflexio-nes especulares; esto se ha intentado solucionar pormétodos mixtos de ray tracing y radiosity. Contodo, sigue siendo el método que proporciona re-sultados más realistas para la simulación de inte-riores o, en general, de escenas en donde el com-ponente de emisión difusa sea importante.

Page 185: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 187

Capítulo 6 . Imágenes

El tratamiento de imágenes completa el proceso quese ha descrito en los capítulos anteriores, permi-tiendo actuar directamente sobre los resultados vi-sibles de todo el proceso de computación, tanto enfases intermedias como en la fase final de un pro-yecto. En este capítulo se presentan los conceptosfundamentales, las técnicas y los métodos de pro-cesamiento de imágenes, que tienen especial inci-dencia en el diseño arquitectónico, con especial én-fasis en las aplicaciones que se valen de procedi-mientos gráficos equivalentes a los de las técnicastradicionales de pintura.

El tratamiento de imágenes ha conocido un de-sarrollo espectacular en los últimos años y consti-tuye uno de los sectores de investigación más acti-vos en los países desarrollados. Recordaremos bre-vemente el contexto en que esto se ha llevado acabo antes de proseguir describiendo las herramien-tas que pueden relacionarse de modo más directocon las aplicaciones arquitectónicas.

Una de las primeras aplicaciones del tratamien-to de imágenes consistió en la mejora de fotogra-fías de periódico enviadas por un cable submarinoentre Londres y Nueva York, por medio del siste-ma Bartlane, inventado en 1921. A través del cablese transmitían impulsos eléctricos codificados encinco niveles de brillo. Con posterioridad, en 1929,se ampliaron estos niveles a 15 tonos, gracias a loscuales una especie de máquina de escribir impri-mía la fotografía al otro lado del cable al cabo detres horas.

Aunque las mejoras de los métodos para la trans-misión de imágenes continuaron durante los 35 añossiguientes, no fue hasta la aparición de los prime-ros ordenadores digitales que el procesamiento deimágenes se consolidó como disciplina científica.La utilización de las técnicas computacionales pro-cedentes de las misiones espaciales, realizadas apartir de 1964 por el JPL (Jet Propulsion

Laboratory) en Pasadena, California, se considerael inicio de lo que ahora se denomina procesamientodigital de imágenes. Los primeros trabajos fueronrealizados a partir de la imágenes de la Luna, trans-mitidas por la sonda Ranger 7, que fueron procesa-das por un computador para corregir diversos ti-pos de distorsión inherentes a la cámara utilizada.

Aquellas técnicas sirvieron como base a losmétodos utilizados para la mejora y restauraciónde imágenes de los programas Surveyor, Mariner yApollo. A partir de 1967 estas experiencias se apli-caron al campo de la salud pública con programasde investigación realizados por la Escuela de Me-dicina de UCLA, de las cuales se hizo eco elNational Institute of Health que subvencionó al JPLen tres líneas de investigación, las imágenes enmicroscopía óptica, electrónica y de rayos X, parael estudio de la arteriosclerosis, el cáncer cervical,y otras patologías.

El procesamiento de imágenes es la base de otraspotentes área de investigación, el análisis de imá-genes y la visión por computador, de las que se handerivado indirectamente muchas herramientas deuso corriente. Estas se originaron principalmenteen las investigaciones del MIT, en Harvard y de laUniversidad de Stanford, en California a finales delos sesenta, en el campo de la robótica. En Japónse desarrollaron otros proyectos similares entre losque se puede citar el PIPS (Pattern-InformationProcesing System) hacia 1970. En 1976, en Esta-dos Unidos, el ARPA (Advanced Reasearch ProjectAgency) financió otra serie de proyectos, que per-mitieron avances considerables. En este contextohay que mencionar las notables contribuciones teó-ricas de David Marr, en la década de los setenta.

Por lo que respecta a Europa, los primeros pre-cedentes del procesamiento y el análisis de imáge-nes se pueden remontar a los siglos XVIII y XIX, ya autores como Crofton, Euler o Minkowsky, que

Page 186: [Architecture eBook] Aplicaciones as en Arquitectura

188 Aplicaciones informáticas en arquitectura

desarrollaron muchas herramientas matemáticasutilizadas actualmente en el tratamiento de imáge-nes. De 1848 son los primeros trabajos deestereología en el campo de la geología, que pue-den relacionarse con contribuciones recientes, ta-les como la geometría fractal de Mandelbrot o lamorfología matemática de G. Matheron y J. Serra.

De todo este conjunto de investigaciones hansurgido aplicaciones a muy diversas áreas, talescomo la geografía o la meteorología, a partir delprocesamiento de fotografías tomadas por satéli-tes; la arqueología, en donde ha sido posible recu-perar pinturas borradas mediante técnicas de aná-lisis, en física, con aplicaciones al campo de lasaltas energías. En arquitectura las aplicaciones prin-cipales se han dado en fotogrametría y, más recien-temente, en la aplicación de técnicas de manipula-ción digital al desarrollo de proyectos.

1 Nociones elementales sobre teoría de laimagen y de las señales

Los apartados que siguen resumen algunas de lasprincipales nociones teóricas que están en la basede las técnicas de aplicación a las que nosrefereriremos más adelante.

Noción general de imagen

En términos generales, se entiende por "imagen"la apariencia visible de una forma. Esta definiciónse extiende corrientemente hasta aceptar que unaimagen es, así, la "representación" de una forma ode una entidad determinada. La palabra "imagen"

tiende a confundirse, por un lado, con la cosa mis-ma, como sería en el caso de un objeto que sólotuviera dos dimensiones, y, por otro lado, con unsímbolo de la cosa, como sería en el caso de laplanta de una vivienda, entendida como represen-tación de su espacio interior.

Además de las imágenes físicas visibles hay tam-bién imágenes físicas invisibles, o imágenes quetienen las mismas características que las visiblespero quedan fuera del rango al que los seres huma-nos son sensibles, por ejemplo las imágenesinfrarrojas o ultravioletas, que pueden servisualizadas por medio de filtros especiales. Tam-bién cabe hablar de imágenes abstractas, tal comolas imágenes matemáticas que son conceptos y, enconsecuencia, invisibles, pero que admiten repre-sentaciones de diverso tipo. También podemos pun-tualizar que las imágenes físicas visibles puedenser permanentes; por ejemplo un cuadro, un docu-mento impreso, o transitorias tales como las pro-ducidas por un monitor CRT.

La distinción entre imagen, en su acepción ge-neral, e imagen en el sentido técnico que se desa-rrollará en lo que sigue, es más que una precisiónsemántica y debe tenerse en cuenta en las aplica-ciones a las que está introducción va dirigida.

Noción informática de imagen

En términos informáticos, una imagen es, comoveremos a continuación, un caso particular de se-ñal, más exactamente, una función que especificauna determinada distribución de intensidadeslumínicas. Dicho de otro modo, una imagen es en-

Figura 1 La imagen como función de valores(tomado de Monet: "La débâcle", 1880, Lille, Musée des Beaux-Arts)

Page 187: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 189

tendida, desde este punto de vista, como la seriede valores atribuidos a una función bidimensionalque asigna a todos los puntos de un segmento deun plano un valor visual determinado.

En el caso de una imagen monocromática estevalor vendría dado por una función simple de dosvariables f(x,y), en donde x,y denotan coordenadasespaciales y f un valor en cada punto que es pro-porcional a la intensidad de iluminación en esepunto o "nivel de gris", en el caso de una imagenacromática. Las coordenadas x, y están referidas aun ámbito espacial determinado, por ejemplo, porun extremo inferior x

0y

0 y un extremo superior

xmax

ymax

. En el caso de una imagen cromática estavalor vendría dado por tres funciones simples dedos variables, f

r(x,y), f

g(x,y), f

b(x,y), que expresa-

rían la intensidad de iluminación de un punto x,y,en el mismo ámbito, y para los tres componentescromáticos primarios rojo (R), verde (G) y azul (B).

La figura 1 ilustra esta definición. La imagenque se muestra se puede suponer que está captadade un monitor con una resolución de 1.024 puntosen sentido horizontal y 768 en sentido vertical, unaresolución corriente en los monitores actuales. In-ternamente, esto se representa en un sistema decoordenadas, el sistema propio del dispositivo desalida, con el origen 0,0 en la parte superior iz-quierda y el final, correspondiente a las coordena-das 1.024, 768 en la parte inferior derecha.

El punto marcado tiene las coordenadas 850,545. Vamos a suponer, para simplificar detalles téc-nicos que la función asociada asigna a este puntoel valor 34 sobre un rango de 256 valores posibles,esto es, f(x,y) = 34. Este valor se traduce a la inten-sidad de los cañones que envían electrones haciala pantalla, con el resultado de que los diminutospuntos de fósforo son estimulados en una propor-ción equivalente para producir este nivel relativode iluminación. El valor digital se traduce a unimpulso analógico a lo largo de una curva conti-nua, tal como la que se muestra en la figura 2, querecoge todos los valores correspondientes al mar-co activo en ese momento sobre la pantalla.

La imagen como señal

En términos corrientes, se entiende por "señal" unamarca que porta un objeto y que proporciona cier-

ta información convenida. En términosinformáticos, una señal es una función asociada aun fenómeno físico cuya variación determinada enun dominio dado porta información codificada. Lasimágenes, tal como las hemos definido en el apar-tado anterior, son 2D. Las señales son 1D.

El ámbito en que se mueve una señal se deno-mina su dominio. El dominio característico de unaseñal es, en principio, el propio de los sistemas decomunicación: un dominio lineal, temporal, y ba-sado principalmente en fenómenos eléctricos, quetraducen fenómenos acústicos o mecánicos. En elcaso de sistemas ópticos, el dominio es espacial, lafunción es bidimensional y el término "señal" tien-de a confundirse con el término "imagen" que, comohemos visto, es una función asociada a una distri-bución de intensidades de luz en un determinadodominio espacial. Pero una imagen, de hecho, sereduce a una señal lineal que recorre un canal dedeterminadas características, en conformidad conla teoría de la información que especifica que, enun canal, todo mensaje se reduce a un forma tem-poral f (t).

Esta reducción, en el caso de un dispositivoinformático de salida, tal como una impresora o unmonitor, viene dada por el hecho de que la salidareal se basa en un mecanismo que recorresecuencialmente, uno a uno todos los puntos detodas las líneas que componen un marco (frame),

Figura 2 Fragmento de imagen yseñal asociada

Page 188: [Architecture eBook] Aplicaciones as en Arquitectura

190 Aplicaciones informáticas en arquitectura

comenzando por el primero y terminando por elúltimo. Si proseguimos, en una imagen, entendidacomo función de intensidades lumínicas, una de lasdos dimensiones, el recorrido de una imagenmonocromática a lo largo de una línea horizontal,a lo largo de la coordenada x, nos irá presentandolos valores de la función para cada uno de estospuntos. Esto resultará en una distribución de inten-sidades que, en principio, será distinta para todoslos puntos de esta línea. Estas intensidades puedenrepresentarse en un diagrama que nos mostraría laintensidad o la "profundidad" de la señal en cadauno de los puntos de la imagen, grafiados sobre eleje de ordenadas, a lo largo del tiempo, grafiadosobre el eje de abscisas.

Como toda función, una señal puede represen-tarse en un sistema de coordenadas cartesiano. Eleje vertical, de ordenadas, se utiliza para represen-tar las amplitudes que corresponden a los valoresmáximos y mínimos que alcanza la función/señal.El eje horizontal, de abscisas, se utiliza para repre-sentar el dominio de la señal. Si la señal es periódi-ca, esto es, si se repite cíclicamente en un determi-nado dominio, lo que se representa es su frecuen-cia.

Las señales pueden ser continuas o discretas.Las señales analógicas, denominadas así porqueson un reflejo directo del fenómeno que las ha ori-ginado, son continuas. Las señales digitales, deno-minadas así porque pueden ser traducidas a dígitos,a números enteros, son discretas. Lainformatización de una señal supone un paso reite-rado de lo analógico a digital y viceversa. Es obvioque esto implica una perdida de información y lateoría de señales trata, en buena medida, de los sis-temas y de las técnicas utilizados para controlaresta perdida de información o, incluso, paraoptimizar esta pérdida, de tal modo que resulte enuna ganancia, es decir, en una información más efi-caz.

Muestreo y cuantificación

El proceso de seleccionar un conjunto de valoresfinitos, discretos, de una señal continua se denomi-na muestreo (sampling) y los valores selecciona-dos se denominan muestras (samples). Las mues-tras seleccionadas siguen siendo continuas, esto es,tienen un valor real, no acotado en un determinadorango de valores discretos. El proceso dediscretización de este valor real se denomina

cuantificación (quantification) y es el segundo pasoen el proceso de digitalización de una señal. El ter-cero y último paso es la codificación de los resul-tados obtenidos lo que supone, en general, en in-formática, la traducción a un código binario.

La teoría de señales establece ciertas condicio-nes que deben cumplir los procesos de muestreo ycuantificación para que la reconstrucción permitaobtener una imagen idéntica a la original. Esto,como se verá, es imposible en numerosos casos ysurgen perturbaciones que deben ser tratadas dediversos modos.

La señal se analiza en función de dos caracte-rísticas fundamentales: la amplitud, entendida comoel registro del rango de energías que conlleva elfenómeno físico asociado y la forma, entendidacomo registro de las diversas configuraciones queadopta la señal. El análisis de estas diversas confi-guraciones se remite a unos principios fundamen-tales, establecidos por Fourier, a principios del si-glo pasado, y que permiten analizar las diversasconfiguraciones de una señal en una serie de com-ponentes simples, periódicos y armónicos. Esteanálisis lleva a una forma distinta de representa-ción de las señales, más abstracta pero más revela-dora, en donde se relacionan amplitudes y frecuen-cias en un segundo sistema de coordenadascartesianas que se denomina el espectro de la se-ñal.

En el capítulo dedicado a redes se volverá sobreeste tema. Allí pueden encontrarse algunas figurasadicionales que ilustran los parámetros principalesde una señal y el modo en que una señal periódicade distribución irregular puede ser descompuestaen una serie de señales básicas, regulares por me-dio del análisis de Fourier.

La teoría de señales permite obtener resultadosnotables mediante una modificación del marco dereferencia y tomando en consideración no el domi-

Posición

Señal Analógica

Inte

nsid

ad

Muestreo Señal Digital

Figura 3 Muestreo y cuantificación

Page 189: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 191

nio espacial (spatial domain) sino el dominio defrecuencias (frequency domain). Esto implica con-tar con algún modo de asimilar una señal que, enprincipio es singular, esto es, no presenta periodi-cidad aparente, a una señal que puede ser tratadacomo una señal cíclica caracterizada por una am-plitud dada como función de una frecuencia. Lavariedad estadística de las configuraciones adop-tadas por una señal determinada se presenta así me-diante su espectro, como relación encontrada entrela gama de frecuencias y la gama de amplitudes. Elanálisis espectral se utiliza como base de los diver-sos métodos de corrección de las perturbaciones alas que nos referiremos más adelante.

Rastreo (rastering)

Las imágenes utilizadas en informática están gene-radas por una señal que barre sistemáticamente todoel dominio espacial mediante líneas horizontalesde exploración (horizontal scan lines) que van re-corriendo verticalmente el ámbito propio de la ima-gen que se pretende captar o reconstruir. La ampli-tud corresponde, en este caso, a un valor que esproporcional a la intensidad luminosa en cada unode los pixels que constituyan la imagen. El ejem-plo más habitual es el monitor, pero la mayoría delos dispositivos de salida se basan en el mismo sis-tema. La figura 4 muestra un esquema en el que serepresenta una señal analógica a lo largo de unalínea de rastreo. Al final de cada línea hay una inte-rrupción de la señal que corresponde a un salto alcomienzo de la siguiente línea.

Este procedimiento se utiliza tanto para generarla imagen como para reproducirla. En la sección 3se describirán los medios y métodos principales decaptación. Una cámara de vídeo o un escáner desobremesa operan según un mismo principio quese resume en: 1) la presentación de la imagen quese quiere captar a un sistema óptico que conduce laimagen a unos sensores capaces de convertir laenergía lumínica a señales eléctricas. Esta señal esllevada a un conversor A/D (analógico/digital). Laimagen digitalizada puede almacenarse, procesarseo enviarse a otros sistemas pero, en última instan-cia deberá ser sometida a un proceso inverso; 2) lamodulación de la señal digital para dirigir un hazde electrones que se proyecta sobre la pantalla deun monitor, convertida de nuevo en señal analógica,y activando en diferentes grados los diminutos pun-tos que darán lugar a una imagen equivalente a la

original.El proceso de barrido supone, de hecho, como

ya hemos indicado, la conversión de la señalbidimensional en unidimensional. La señal de ba-rrido lleva incorporada una señal de "intervalo deblanqueo horizontal" (horizontal blanking interval)que indica al haz de rayos que debe cesar de emitirelectrones y situarse en la siguiente línea. Esta se-ñal se produce al final de cada línea hasta llegar ala última línea en donde incorpora una señal de "in-tervalo de blanqueo vertical" que indica al haz derayos que debe volver a situarse en la línea 1ª. Estoes parte de una codificación lineal que se traduceen movimientos espaciales. En sí misma, la señalelectrónica sigue siendo una señal lineal, tempo-ral, cuyo dominio completo constituye un marco.

El marco debe tener una proporción normaliza-da para permitir la utilización de diferentes pro-gramas y tipos de información con un mismo dis-positivo. Todos los monitores utilizan una mismarelación de aspecto (aspect ratio) de proporción4/3. La televisión de alta definición, cuando lleguea implantarse, utilizará una relación de aspecto másalargada, de 16/9.

El proceso de rasterización sirve tanto para losdispositivos de entrada como para los de salida.En ambos casos se ha seguido una evolución simi-lar por razones parecidas. Los primeros monitoresno eran de rastreo sino vectoriales. Una línea, defi-

Línea 545 Lin

544

545

547

546

543

Figura 4 Señal enviada a un monitor durante elproceso de rastreo

Page 190: [Architecture eBook] Aplicaciones as en Arquitectura

192 Aplicaciones informáticas en arquitectura

nida por un programa de CAD como una entidadcon un principio y un final, tenía unas coordenadaspropias que se traducían a las coordenadas propiasdel dispositivo. En el caso de un monitor de rayoscatódicos podía indicarse al dispositivo que envia-ra un flujo de electrones a lo largo del recorridoespecificado por este par de coordenadas, lo quese traducía en una línea perfecta, sin escalones, ycon un gasto de memoria adaptado a la informa-ción requerida por la entidad.

Esto era sin duda una ventaja. Pero tal ventajaempezaba a dejar de serlo cuando lo que se trazabaen pantalla era, no unas pocas, sino un enjambrede líneas. Debido a la necesidad de refrescar lapantalla, unas líneas comenzaban a borrarse mien-tras otras no habían acabado de dibujarse. Proble-mas similares se daban con los plotters de plumi-llas que funcionaban según el mismo principio.Cuando el número de líneas era muy grande, elcontinuo ir y venir del dispositivo trazador podíaprovocar desajustes y el tiempo de trazado seincrementaba considerablemente.

Un sistema de rastreo tiene dos inconvenientesimportantes. En primer lugar que todo el área aimprimir o visualizar debe quedar representada enmemoria. Tanto da si lo que se representa es unasimple línea o una escena compleja; cada puntodebe contar con una especificación. En segundolugar, si se quieren representar líneas o bordes in-clinados con precisión no hay otra opción que in-crementar el número de puntos, lo que obliga aaumentar aún más la memoria. Pero tiene la venta-ja de que se cuenta con un único método, preciso,para cualquier caso, lo que permite unificar los pro-cedimientos y sacar el máximo partido de la tecno-logía disponible. Estas son las razones principalespor las que las pantallas de rastreo sustituyeron alas vectoriales hace ya muchos años y los plotterselectrostáticos a los de plumillas hace pocos años.

Procesamiento y análisis de imágenes

La literatura especializada distingue dos áreas prin-cipales de aplicación. El procesamiento de imáge-nes con la finalidad de mejorar la información demodo que sea comprensible por observadores hu-manos, y el procesamiento y análisis de imágenes,con la finalidad de hacer que sean reconocidasautomáticamente por computadores especializados.

Ambos grupos se dirigen a una gran variedadde aplicaciones. La medicina, la geografía, la ar-

queología, la astronomía, y diversos sectores in-dustriales interesados en automatizar tareas reali-zadas hasta ahora por seres humanos, son algunasde las áreas pioneras en aplicaciones en este cam-po. La utilización de técnicas de procesamiento deimágenes en cartografía es una de las áreas másdirectamente relacionadas con la arquitectura en laque se han producido avances notables, así comootras que comentaremos al final de este capítulo.La utilización de robots dotados de capacidad dereconocimiento de formas que puedan llevar a cabotareas peligrosas o difíciles en el sector de la cons-trucción es otra de las áreas en las que se está in-vestigando con considerable intensidad en los últi-mos años.

Por procesamiento se entiende genéricamenteel conjunto de técnicas y métodos encaminados amejorar una imagen, con cierta independencia desu contenido, con el fin de facilitar su posterior in-terpretación.

Ejemplos característicos son: el tratamiento deradiografías para realzar zonas de interés, el pro-cesamiento de fotografías en mal estado para faci-litar el reconocimiento de personas, el procesamien-to de imágenes tomadas desde aviones o desde sa-télites para identificar relieves del terreno o edifi-cios significativos. En todos estos casos las técni-cas van dirigidas a librar a la imagen de ruido pro-vocado por diversas interferencias o a corregir de-formaciones de los aparatos ópticos con que se hancaptado las imágenes o a corregir deformacionessecundarias de los propios objetos o de la superfi-cie observada, como ocurre en el caso de la carto-grafía para generar ortofotoplanos.

Por análisis de imágenes se alude convencio-nalmente al conjunto de técnicas y métodos enca-minados a facilitar la extracción automatizada dela información contenida en ellas. La finalidad prin-cipal sería llegar a hacer eficaz la visión por com-putador, esto es, conseguir que una máquina dota-da de sensores pueda reconocer fragmentos más omenos grandes del espacio y los objetos que le ro-dean y ajustar su conducta de acuerdo con esta in-formación. El proceso implica la detección, la iden-tificación y la comprensión de patrones que sonrelevantes en un contexto o en una aplicación de-terminada.

Ejemplos en fase de experimentación que pue-den citarse son: el uso de robots en cadenas de pro-ducción que pueden reconocer si un producto tie-ne defectos y debe ser retirado de la cadena; el uso

Page 191: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 193

de robots utilizados en procesos de fabricación asis-tida por computador para reconocer formas carac-terísticas, de un rango limitado de objetos, y mani-pularlas adecuadamente. Otros ejemplos más ele-mentales pero que estarían en esta misma línea sonlos programas de reconocimiento óptico de carac-teres y patrones.

Los pasos característicos en el procesamiento yanálisis de imágenes son los siguientes:

a) Adquisición de la imagen. Esto requiere unconjunto de dispositivos, tales como cámaras foto-gráficas tradicionales, cámaras digitales, cámarasde vídeo o escáners, capaces de grabar la informa-ción y digitalizarla para su procesamiento poste-rior. Se necesitarán por añadidura medios de alma-cenamiento y medios básicos de manipulación,comunicación y presentación de la imagen.

b) Preprocesamiento. Durante esta fase se lle-van a cabo una serie de acciones que tienen porfinalidad facilitar el trabajo posterior; acciones ta-les como eliminar ruidos parásitos o calibrar ade-cuadamente los rangos monocromáticos ycromáticos, el contraste o la definición de las dife-rentes áreas.

c) Segmentación. Bajo este término se englobanlos procesos destinados a separar una imagen ensus partes constituyentes, con lo que entramos enel dominio del análisis y, con ello, en el núcleo delos problemas propios del procesamiento de imá-genes y nos alejamos de nuestro campo de aplica-ción inmediato. Sin embargo hay puntos de interésque merece la pena subrayar y que aparecerán dealgún modo más adelante. La segmentación de unaimagen supone en un primer estadio la detecciónde puntos, líneas y bordes. A partir de aquí se bus-ca, por diversos procedimientos, identificar bordescontinuos, fronteras y regiones. La segmentacióndepende por lo general del contexto de la aplica-ción que dicta las propiedades visuales de los ele-mentos de interés cuya detección se busca. El mé-todo más general se basa en la detección dediscontinuidades y el problema más general derivadel hecho de que, en general (pero no siempre), lasdiscontinuidades resultan de bordes significativos.

d) Representación y descripción. El resultadode la segmentación es una imagen en la que, en loscasos más corrientes, se habrá diferenciado entrepixels correspondientes a bordes y pixels corres-pondientes a regiones. De nuevo, el que una u otrarepresentación resulte más adecuada dependerá delcontexto. Si lo que se busca es diferenciar figuras

de fondos, como puede ser el caso de edificios so-bre un terreno, la segmentación en bordes resulta-rá más adecuada. Si lo que se busca es identificarpropiedades materiales, texturas características,será preferible identificar regiones. Y puede ser quese necesiten ambas cosas.

La representación es la base de la descripciónque consiste fundamentalmente en una selecciónde características (feature selection) que se real-zan y se procesan para obtener datos adicionalesdados generalmente en forma numérica o median-te especificaciones acerca de la topología de la ima-gen (si contiene agujeros, si hay regiones conecta-das de determinado modo, etc.).

e) Reconocimiento e interpretación. A partir dela descripción de la imagen es posible compararlos datos obtenidos con los datos contenidos en unabase de datos adecuada a la aplicación y asignaretiquetas identificadoras a los distintos elementos.Este proceso de asignación se denomina "recono-cimiento". Por "interpretación" se alude al paso fi-nal de asignar un significado determinado a un con-junto de objetos etiquetados. Podemos compararel proceso con el de reconocer letras y palabrasque forman frases con sentido. Esta última faseimplica por lo general contar con una base de da-tos del tipo de las que describiremos en el capítulo11 en relación con los sistemas expertos.

2 Parámetros de control de la calidad deuna imagen

La calidad de una imagen se mide fundamental-mente en función de dos tipos de parámetros : losrelativos a la extensión y los relativos a la inten-sión o profundidad, entendida como capacidad dedistinguir diferencias de intensidad y de color enun mismo punto.

Resolución

Se entiende por resolución la capacidad de un de-tector para discriminar detalles o, más exactamen-te, la capacidad para distinguir ("resolver") dos pun-tos muy próximos antes de que se fundan en unosolo. Dado que las imágenes digitales están com-puestas de puntos discontinuos que se percibencomo un continuo a una determinada distancia, esteparámetro tiene una importancia básica.

Según datos aportados por la psicología experi-mental, dos líneas negras de 1 mm sobre un fondo

Page 192: [Architecture eBook] Aplicaciones as en Arquitectura

194 Aplicaciones informáticas en arquitectura

blanco comienzan a fundirse en una mancha conti-nua entre los 4 y los 7 m de distancia por términomedio. Este dato depende de la capacidad del suje-to, de la iluminación ambiental y de otros factores,por lo que es considerablemente variable. Si toma-mos el segundo valor esto quiere decir que líneasnegras de 0.25 mm sobre un fondo blanco comen-zarían a confundirse a 1,75 metros de distancia.Para puntos luminosos de intensidad variable estacifra disminuiría apreciablemente debido a la irra-diación lo que permite afirmar, en relación con otrosexperimentos similares, que una trama de puntosluminosos, de unos 0,25 mm de diámetro, equiva-lentes a una resolución de 72 dpi (dots per inch)que son precisamente las características de un mo-nitor más o menos corriente, son indestinguiblescomo tales puntos a partir de unos 50 cm de distan-cia. Más exactamente, se acepta la cifra de 127 dpiequivalentes a 5 lpm (líneas por milímetro) comoresolución límite para la distancia de observaciónde 25 cms.

Un escáner de baja calidad digitaliza imágenesa resoluciones comprendidas entre 50 y 300 dpi.Un escáner de calidad media/alta llega hasta los1.200. Una impresora láser de calidad media/ altaimprime a 600 dpi. Las impresoras de máxima ca-lidad, como la Linotronic, llegan hasta más de 3.000dpi en algunos modelos. Una filmadora dediapositivas genera imágenes de resolución aúnmayor. Todas estas cifras son muy superiores a lasque hemos dado como mínimo para percibir unaimagen como continua pese a estar formada depequeños puntos. La explicación se da en la siguien-te sección de este capítulo y subraya el hecho deque los dos parámetros mencionados al principiode este párrafo, la extensión y la intensión, estánestrechamente relacionados entre sí.

Número de grises

La calidad de una imagen depende, como segundofactor principal, del número de valores de intensi-dad que es capaz de representar. Estos valores sondiferentes si se trata de una imagen acromática ocromática, por lo que abordaremos el primer casoen este apartado y el segundo caso en el siguienteapartado.

Entendemos por imagen acromática aquellacompuesta por una escala tonal de grises cuyo ran-go varía de 2, tal como un dibujo en blanco y negro(1 bpp) hasta 256 (8 bpp). El parámetro bpp (bits

per pixel) representa la cantidad de informacióncon la que contamos y permite saber el número devalores que nos proporcionará una imagen y queserá igual a 2n, donde n es el valor en bpp. Así, si elvalor en bpp es 2, 4 u 8, el número de grises quepodremos tener será respectivamente 4 (22), 16 (24)y 256 (28). En general, se toma este último valorcomo el apropiado para una imagen que presenteuna escala completa de grises en la que no se apre-cien discontinuidades.

El número de grises de esta escala es superior alque un observador humano puede percibir pero serelaciona con un fenómeno que permite establecer,no el número de grises que un observador medioes capaz de percibir conscientemente en una esce-na, sino el número de grises necesario para que unabanda continua aparezca como tal sin que se pro-duzcan efectos de "contorneado". Esto se relacio-na con un fenómeno visual detectado por ErnestMach en 1865 y que se conoce como "bandas deMach". El fenómeno puede ser analizado con ins-trumentos de precisión y muestra que el ojo exage-ra el cambio de intensidad real que se da cuandohay un cambio relativamente abrupto en un fondocontinuo.

La capacidad de discriminación de este efectose sitúa aproximadamente, según diversos experi-mentos, en torno al 0,5% de la luminancia globalpercibida. Esto permite establecer la cifra de unos200, como número máximo de niveles de gris quese detectan, virtualmente, en el caso particular delos degradados continuos y, por consiguiente, comomínimo número de grises que un sistemareproductor debería ser capaz de generar para evi-tar efectos de contorneado tales como los descri-tos. Como trabajamos con bits hay que escoger entre128 (7 bpp) que sería suficiente para la gran mayo-ría de los casos y 256 (8 bpp). Se escoge este últi-mo valor por las razones dadas pero también porrazones técnicas, pues resulta más convenienteempaquetar la información en paquetes de 8 bits.

Número de colores

En el caso de las imágenes cromáticas losparámetros que se deben considerar son los 256niveles de gris a través de tres canales RGB (Red,Green, Blue), rojo, verde y azul. Estos son los trescolores primarios utilizados en mezcla aditiva. Sise envía la imagen a imprimir hay que traducir es-tos valores al código CMYK (Cyan, Magenta,

Page 193: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 195

Yellow, Black), cían, magenta, amarillo y negro,basado en los tres colores primarios utilizados enmezcla sustractiva. Cuando se trabaja con imáge-nes muchos prefieren utilizar un tercer código quees intuitivamente más fácil de comprender, el HLS(Hue, Saturation, Lightness) pues está basado envariables perceptivas.

Si cada uno de los ejes que representan los co-lores primarios Red (rojo), Green (verde) y Blue(azul), tiene una escala ponderada en 256 interva-los, las posibles combinaciones que se pueden ob-tener se darán en un rango dado por el producto256 × 256 × 256 o lo que es lo mismo 224 (24 bpps,8 bpp × 3 canales). Es decir unos 16,7 millones decolores. Este rango es el propio de lo que se deno-mina true color (color real) y proporciona una re-presentación libre de las imperfecciones que men-cionábamos en el apartado anterior.

No todas las placas gráficas proporcionan lamisma cantidad de colores. Es posible encontrarsepor diversas causas con alguna de estas combina-ciones u otras intermedias.

bpp: colores:1 12 44 168 256

15 32.76816 65.53620 1.048.57624 16.777.216

Tanto la etiqueta "color real", como la cifra de 16,7millones de colores, deben tomarse con reserva.En primer lugar, para captar el "color real" de unaimagen habría que utilizar un número de muestrassuperior a los convencionales 3 colores primarios.Las mediciones más exactas, llevadas a cabo conespectrofotómetros, toman muestra cromáticas cada5 o 10 nanómetros lo que, para un ancho del espec-tro visible que podemos situar entre los 400 y 800nm aproximadamente, daría del orden de 40 mues-tras requeridas para una reproducción verdadera-mente fiel. En segundo lugar, los dispositivos utili-zados en informática tienen rangos limitados queles impiden reproducir muchos colores que se en-cuentran en escenarios reales, rangos que, por aña-didura, son diferentes en un monitor o en una im-presora de color; ésta es una limitación que hayque tener muy presente cuando se lleva a imprimiruna imagen que se ha trabajado en un monitor.

Por último, los 256 colores por canal son nece-sarios para evitar la aparición de bandas de Machpero esto no implica que haya una mayor cantidadde colores realmente percibidos. Una escena queno contenga degradados y que se reproduzca con 8bpp (3, 3 y 2 bpp por canal) esto es, con tan sólo256 colores totales, será prácticamente indistingui-ble de la misma escena reproducida con 24 bpp.De los 16,7 millones de colores requeridos por ra-zones técnicas, una cifra muy inferior al 5% puedeser efectivamente distinguida por una persona nor-mal.

3 Perturbaciones características de lasimágenes y métodos de corrección

Las perturbaciones más características de las seña-les analógicas son el ruido, las interferencias, lasmanchas, las franjas, los bordes de colores, las pér-didas o alteraciones de tono, intensidad o satura-ción. Casi todas estas alteraciones tienen su origenen fallos del dispositivo que impiden una respues-ta adecuada. Las perturbaciones más característi-cas de las señales digitales son el contorneado, lapixelación y el aliasing. El ruido es una perturba-ción característica de las señales analógicas peroque se da también en las señales digitales y puedeser inducida ex profeso para conseguir determina-dos efectos. En los siguientes apartados nos referi-remos a las perturbaciones principales que se pue-den dar en las imágenes digitales.

Pixelación

Tanto la pixelación como el contorneado son dosperturbaciones características de las señalesdigitales que se producen por insuficiencia de laresolución en el primer caso y por insuficiencia delrango de intensidades en el segundo. La figura 5muestra un esquema que correspondería a una ima-gen determinada (izquierda) de la que se han su-primido la mitad de las muestras (centro) lo queproduciría un efecto de pixelación, o la mitad delos valores (derecha) lo que produciría un efectode contorneado.

El número de pixels de una imagen depende, enúltima instancia, del número de puntos físicos quetenga el dispositivo reproductor y obviamente, nopuede superar esta cifra. En el caso de un monitor,que es el ejemplo más familiar, el diámetro de lospuntos terminales (dots) debe ser tal que no pue-

Page 194: [Architecture eBook] Aplicaciones as en Arquitectura

196 Aplicaciones informáticas en arquitectura

dan distinguirse a cierta distancia. Para un monitorcorriente esta distancia es de, aproximadamente,40-50 cm lo que se corresponde, para una resolu-ción de 127 dpi, a la distancia normalizada de ob-servación de 25 cm, según lo visto más arriba, conla resolución media de los monitores que es de unos72 dpi.

Cuando el adaptador gráfico es incapaz de ges-tionar esta resolución reduce la imagen a un sub-múltiplo de la máxima resolución agrupando pun-tos para formar pixels mayores. Una misma ima-gen puede ser mostrada, sobre un mismo monitor,con una resolución de 1024 × 768, 800 × 600 o640 × 480 (VGA). En este último caso, en dondelos pixels de la imagen mostrada corresponden acélulas formadas por agrupaciones de varios dotsse puede apreciar claramente el efecto conocidocomo pixelación (pixellation). Otro tanto ocurre sise imprime una imagen a una resolución insuficien-te. La figura 6 muestra un ejemplo de este defecto.

Contorneado

El contorneado (contouring) es otra perturbacióncaracterística de las imágenes digitales producidapor un insuficiente rango de intensidades. El nú-mero de grises necesario para mostrar una imagencon suficiente fidelidad estaría situado, en princi-pio, y en función de diversos estudios, basados tantoen la capacidad de discriminación como en el con-trol del ruido, en los 5 bpp, lo que equivale a 32niveles de grises. Sin embargo esta cifra, que essuficiente para reproducir la escala de grises de unaimagen con buena calidad, es insuficiente paramostrar degradados continuos como ya hemos di-cho anteriormente; aparecen franjas claramentevisibles (bandas de Mach) que muestran la insufi-ciencia del rango utilizado para superar la hiper-sensibilidad de nuestro sistema receptor a los cam-bios relativamente bruscos de un degradado conti-nuo. Es por esta razón, como ya hemos dicho, quese requieren 256 niveles de gris.

Figura 5 Pérdida de calidad de una imagen (a) porinsuficiente muestreo (b) y cuantificación (c)

Figura 6 Efecto de pixelación por reducción dela resolución: a) 600 dpi; b) 150; c) 60; d) 20(la fotografía corresponde a las Oficinas Centrales

Nunotani, Tokio, 1991-92, de Peter Eisenman)

Page 195: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 197

Si no se alcanza esta cifra, en el caso de imágenescon degradados finos y continuos, o la cifra ante-rior en el caso de imágenes sin degradados nota-bles, aparecen franjas visibles en la imagen quefalsean la calidad de la reproducción. Esto puedeapreciarse en un monitor si se modifica la configu-ración de pantalla para que trabaje en un rangomenor y se abre un archivo en el que aparezcandegradados continuos, cielos sin nubes, paredesblancas iluminadas con una luz tenue, etc. Se com-probará cómo este degradado queda fragmentadopor leves franjas que rompen su continuidad. Lafigura 7 muestra una imagen impresa con una ran-go de valores limitado, que permite apreciar estedefecto.

Ruido

En el caso de señales analógicas se denomina rui-do a una señal no deseada que aparece en un siste-ma de transmisión. Esta señal puede tener diversosorígenes. En general se consideran como "erroresde medición" superpuestos a la imagen. La distin-ción es más esquiva de lo que puede parecer pueslas señales "con ruido" no son intrínsecamente di-ferentes a las señales "sin ruido". Y tanto es así queuno de los métodos de corrección de imágenes pormedio de filtros es introducir cierto grado de ruidopara igualar y corregir rasgos excesivamente acu-sados que no se desean mantener.

El ruido de fondo, en una señal, es debido a laagitación de electrones presentes en el canal antesdel paso de los electrones propios de la señal. Elruido no puede evitarse sino disminuyendo las fre-cuencias esto es, la capacidad del canal. La infor-mación que se gana por un lado se pierde por otro.

La medición del ruido se expresa en decibelios(dB) referidos a números S/N (signal to noise ratio).Aunque el término y las unidades se refieren habi-tualmente a señales auditivas, se utilizan, en gene-ral, para expresar pérdidas y ganancias en cualquiersistema de comunicación, especialmente en aque-llos basados en distribución de señales.

En general todos los sistemas físicos reales in-corporan cierto grado de ruido a la imagen, tanto siésta se ha generado internamente como si se ha cap-tado por algún dispositivo. Desde un punto de vis-ta más atento a las aplicaciones prácticas se pue-den distinguir dos grandes grupos que se corres-ponden con dos tipos de distribución probabilística.

El ruido determinado o no aleatorio se genera

Figura 7 Efecto de contorneado por reducciónde los valores de la imagen anterior:a) 8 bpp; b) 4 bpp; c) 3 bpp; d) 2 bpp

Page 196: [Architecture eBook] Aplicaciones as en Arquitectura

198 Aplicaciones informáticas en arquitectura

por un sistema concreto y tiene siempre un aspectosimilar: franjas o bandas o nubes de puntos de de-terminadas características de tamaño y orientación.En muchos casos es posible identificar su patrónde recurrencia, lo que facilita su filtrado y elimina-ción. Muchos programas de tratamiento de imáge-nes llevan incorporados filtros especiales para eli-minar ciertos ruidos característicos. Un ejemplocorriente es el de una imagen captada de un libroen la que resultan claramente visibles las tramaspropias de la impresión en cuatricromía. En mu-chos programas de tratamiento de imágenes es po-sible aplicar a este tipo de imágenes un filtro de"destramado" que elimina limpiamente las huellasde la trama.

El ruido indeterminado o aleatorio se generapor causas diversas que no es posible identificar ocorregir pues su distribución es aleatoria y cambiacon el tiempo. Para eliminar este tipo de ruido nosuele haber otra opción que probar diferentes fil-tros que pueden reducir el nivel general de deterio-ro de la imagen en combinación con retoques loca-les. También puede utilizarse y se utiliza con fre-cuencia de modo constructivo. Puede introducirsedeliberadamente ruido en una imagen o en un sec-tor de una imagen para ocultar defectos o, incluso,para generar efectos de textura. Muchas de las tex-turas generadas por procedimientos algorítmicos,tales como las introducidas por Perlin a las que noshemos referido en el capítulo anterior, utilizan fun-ciones matemáticas de diversos tipos que introdu-cen ruido en una imagen para generar efectos detextura más o menos controlados. La figura 8 mues-tra la misma imagen de las figuras anteriores en laque se ha aplicado cierto grado de ruido por mediode filtros especiales a uno de los elementos lo que,en este caso, sirve para simular un efecto de textu-

ra rugosa. La distribución más utilizada en este tipode filtros suele ser la gaussiana o variantes de lamisma, con alteraciones variables en torno a unvalor medio y con correlación nula entre puntosadyacentes.

Aliasing

Cuando se trabaja en CAD, tanto en 2D como en3D, se trabaja en un espacio donde las especifica-ciones dimensionales se dan con considerable pre-cisión, en términos cercanos a números reales. Estoes, la resolución es, a efectos prácticos, infinita.

Ahora bien, la visualización del proceso exige,en todo momento, que este espacio tridimensionalde resolución prácticamente infinita se proyecte enun espacio bidimensional de resolución finita. Estoquiere decir que las coordenadas espaciales, quepueden corresponder a números de varios dígitoscon varios decimales, deberán ajustarse a coorde-nadas de pantalla que no admiten más de, ponga-mos por caso, 1024 × 768 pixels.

El efecto más familiar de esta reducción es que,por ejemplo, una línea diagonal muestre unescalonamiento perceptible, es decir, que la líneaya ha dejado de ser tal línea para convertirse enuna yuxtaposición de segmentos. Este es un fenó-meno que entra dentro del mencionado en el apar-tado anterior, la pixelización y que ya hemos men-cionado en capítulos anteriores. Pero se incluye eneste apartado por ser una muestra fácilmente com-prensible de todo un grupo de fenómenos que reci-ben tratamientos similares y que responden en ge-neral a una falta de correspondencia entre los ca-nales de entrada y los de salida. Hay otros efectosmás graves.

En sentido estricto, el término aliasing deberíareservarse para la aparición de fenómenos extra-ños que alteren notablemente el aspecto de la ima-gen original suprimiendo información relevante oalterando la existente hasta volverla equívoca. Es-tos fenómenos se originan, en el momento de lareconstrucción, por pérdida o modificación, debi-do a que alguno de los componentes de la señaloriginal estaba comprendido en frecuencias supe-riores a un determinado límite (denominado límitede Nyquist) y ha sido reconstruido en frecuenciasmás bajas.

Otras manifestaciones típicas son temporales. Unefecto conocido es el de las ruedas que parece quevan hacia atrás en las películas del Oeste. También

Figura 8 Modificación de un elemento de laimagen anterior por adición de ruido

Page 197: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 199

las televisiones parpadeantes que aparecen al fon-do de los despachos de redacción en las secuenciasinformativas se deben a este efecto; al contemplaruna pantalla que se enciende y se apaga a gran ve-locidad a través de otra pantalla que también seenciende y se apaga, se producen interferencias.Otro tanto ocurre si se quiere obtener una imagenfotografiando una pantalla a una velocidad supe-rior al medio o un cuarto de segundo de exposi-ción: aparecerán franjas horizontales o "alias" queecharán a perder la imagen.

Antialiasing

Se denomina antialiasing al conjunto de técnicasque se utilizan para prevenir o disimular los defec-tos comprendidos genéricamente bajo la denomi-nación de aliasing. Es un área de estudio de consi-derable complejidad que nos obligaría a entrar delleno en la teoría del procesamiento de imágenespor lo que nos limitaremos a exponer los puntosprincipales. El lector interesado puede encontrarinformación adicional en las obras indicadas en labibliografía referentes a técnicas de tratamiento deimágenes tales como las de Marion (1991),González (1992) o Glassner (1995).

En todos los casos, el sistema de muestreo de-termina la calidad potencial de la imagen que seestá captando y los medios que habrá que emplearpara corregir los defectos. Básicamente se trata deescoger el modo más efectivo para pasar de unaimagen que podemos considerar de "resolucióninfinita" a una de resolución finita. Aunque no esnecesario, en la mayoría de los casos, especificarun tipo de técnica determinado, un conocimientosumario de las técnicas básicas puede ayudar a com-prender mejor las alternativas con que se cuentacorrientemente.

El muestreo por punto es el modo más simplede traducir una imagen a una determinada resolu-ción (figura 9). Supongamos que tenemos una reji-lla que representa la resolución de la imagen quevamos a generar o derivar, situada sobre la imagenoriginal. Muestrear por punto consiste en seleccio-nar un punto de la imagen original por cada pixelde la imagen derivada, tomar el valor en ese puntoy asignar ese valor a todo el pixel de la imagenderivada. El obvio inconveniente de este métodoes que pueden perderse detalles importantes. Y, sise modifica el punto de vista, como ocurre en unaanimación, puede ocurrir que los objetos aparez-

can y desaparezcan.Es posible mejorar la calidad de la captura, sin

aumentar directamente la resolución de la imagenderivada, aumentando el número de puntos demuestra que se toman de la imagen original. Estose denomina supermuestreo (supersampling). Equi-valdría a tomar varios puntos situados en el entor-no correspondiente a un pixel de salida, tal comose muestra en la figura 10 a. Esto no es exactamen-te así pues lo que se computa es una muestra de laimagen reconstruida en lugar de la imagen origi-nal, pero podemos aceptar el esquema como unresumen simplificado del proceso que realmentetiene lugar. Es una técnica muy utilizada porqueconsigue buenos resultados y es fácil de aplicar.Su mayor inconveniente es el coste de computa-ción.

Esto puede seguir siendo insuficiente en muchoscasos. Se seguiría produciendo un paso abrupto depequeños puntos que serían asignados arbitraria-mente a uno u otro pixel. El muestreo no pondera-do por área (figura 10 b) intenta mejorar la situa-ción tomando en cuenta la totalidad de la señal in-tegrada en el área correspondiente a un pixel desalida y tomando como dato la media de intensi-dad encontrada para este área. Esto evita que sepierdan objetos, si bien puede llegar a perderse suconfiguración exacta pues la integración de la in-tensidad es independiente de la distribución inter-na dentro del área. En el muestreo ponderado porárea se toma en cuenta la cercanía a la frontera delárea. Tal como se muestra en la figura 10 c esto esequivalente a utilizar una función que puedevisualizarse mediante un prisma ortogonal o unapirámide que nos indicarían el modo de distribu-ción de las intensidades sobre cada muestra.

Aún esta última técnica tiene limitaciones quepueden afectar a la calidad de la imagen resultanteen muchos casos, en la medida en que cada mues-tra sólo sirve para determinar la intensidad del pixelcon el que está relacionada directamente. Si nosimaginamos un pequeño objeto luminoso que semueve por el interior de un pixel, la intensidad co-rrespondiente iría decreciendo a medida que seacercara a la frontera con el pixel colindante. Peroeste pixel colindante sólo aumentaría de intensi-dad en el momento en que el objeto cruzara dichafrontera lo que implica, de nuevo, un cambio abrup-to y, en principio, indeseado. El muestreo ponde-rado por área extendida (figura 10 d) es una técni-ca que cubriría estos casos a costa de una creciente

Page 198: [Architecture eBook] Aplicaciones as en Arquitectura

200 Aplicaciones informáticas en arquitectura

complicación técnica que sólo puede cubrirse sa-tisfactoriamente mediante procedimientos matemá-ticos complejos, entre los que ocupa un lugar prin-cipal la transformada de Fourier y la convolución,que se desarrollan en lo que se conoce como teoríadel muestreo (Sampling Theory), una rama de in-vestigación de la teoría del procesamiento de imá-genes digitales.

Uno de los principios de esta teoría es que, paragarantizar que la imagen pueda ser reconstruida confidelidad, la frecuencia de muestreo debe ser, comomínimo, el doble de la frecuencia más alta del es-pectro de la imagen que queremos digitalizar. Estevalor crítico fue formulado por Nyquist en un fa-moso artículo publicado en los años veinte, al quenos volveremos a referir en el capítulo sobre redesy se conoce como la "frecuencia de Nyquist"(Nyquist frequency). Sin embargo, el muestreo aesta frecuencia resulta efectivo en general, dandopor supuesto que los valores estarán en torno a losmáximos y mínimos de frecuencia de la muestra.

En casos singulares, determinadas frecuenciascaracterísticas de la imagen, que pueden no ser re-levantes desde un punto de vista probabilístico peroque lo son desde el punto de vista de su significa-do, pueden quedar enmascaradas, lo que se tradu-ce, dicho de un modo menos técnico en que, porejemplo, determinados puntos pueden desapareceraleatoriamente o bien en que, como vimos en elcapítulo anterior, la geometría característica de unpavimento ajedrezado puede distorsionarse brus-camente en los confines de la imagen debido a quediminutas líneas, demasiado pequeñas o demasia-do juntas, pueden ir cayendo, alternativamente,dentro o fuera del área muestreada lo que ocasionaque desaparezcan o que se salgan de la alineaciónque les corresponde.

La solución para estos defectos es la utilizaciónde filtros de diversos tipos. El mecanismo más co-rriente es utilizar filtros de corrección de las fre-cuencias. Las frecuencias bajas corresponden a

zonas en las que los valores de luminancia de laimagen varían con suavidad. Las frecuencias altascorresponden a zonas en las que estos valores va-rían bruscamente y donde, en consecuencia, es másprobable que se produzcan alteraciones. Un filtra-do previo de la imagen por un filtro de pasa-bajas(low band filtering) puede eliminar estasdistorsiones.

Dado que los filtros se utilizan tanto para corre-gir errores de digitalización como para modificar aconsciencia partes de la imagen volveremos a abor-dar el tema de un modo más general en la sección 6de este capítulo.

4 Medios y métodos de digitalización

En términos generales ya se ha dicho que una señalanalógica es una señal que se asemeja, medianteuna correspondencia continua, al fenómeno que laha producido, mientras que una señal digital es unacodificación de dicha imagen en elementos discre-tos, discontinuos. Las señales analógicas y digitalesutilizan una misma base, la tecnología electrónica,con procedimientos diferentes que están asociados,históricamente, a finalidades diferentes. Las seña-les analógicas se relacionan con la radio y la tele-visión que buscaron desde un comienzo reprodu-cir el sonido y la imagen por medio de curvas quefueran variando de perfil de un modo continuo. LasFigura 9 Muestreo por punto

Figura 10 Muestreo múltiple (a), muestreo porárea sin ponderar (b), ponderada (c) y

ponderada con solapamiento (d)

Page 199: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 201

señales digitales se relacionan con los primeroscomputadores, utilizados para realizar cálculos ma-temáticos complejos con cantidades discretas.

Las ventajas de una señal analógica estriban ensu capacidad intrínseca para reproducir con fideli-dad el original. Pero una señal analógica, por estamisma razón, siempre incorpora algo más de lo queinteresa y que aparece como "ruido" o "distorsión"de la señal. Las ventajas de una señal digital estánen su exactitud y en la ausencia de errores o seña-les secundarias que interfieran con la imagen o elsonido. Una señal digital sólo reconoce un nivelpreestablecido. Las investigaciones, como sería deesperar, han ido dirigidas a combinar estas dos ven-tajas en un único sistema. La cuestión clave es sa-ber qué grado de digitalización soporta una señalen un medio determinado. En términos generalespuede decirse que todo parece estar a favor de ladigitalización. El principal inconveniente, las gran-des cantidades de memoria requeridas para mante-ner resoluciones equivalentes en calidad a las delas señales analógicas, va desapareciendo a medi-da que se incrementan las capacidades medias delos ordenadores corrientes.

La obtención de una imagen digital puede lle-varse a cabo por medios internos y por medios ex-ternos. Todos los sistemas que hemos visto en ca-pítulos anteriores no parten, en muchos casos, deuna imagen previa sino de unas ideas y de unosdatos a partir de los cuales se construyen una seriede objetos virtuales que dan lugar a una imagenproyectada sobre la pantalla del ordenador o im-presa con un dispositivo adecuado o grabada en undisco magnético u óptico para su utilización poste-rior. Una imagen, así obtenida, tiene las mismascaracterísticas que una imagen de un objeto realcaptada por un aparato adecuado.

Aunque no debe perderse de vista que la imáge-nes creadas en un ordenador tiene las mismas ca-racterísticas que las imágenes captadas del mundoreal lo que nos interesa, sin embargo, es conocer latecnología con que se cuenta para grabar imágenesreales y qué es lo que se puede esperar de esta tec-nología.

Medios de obtención de una imagen digital

Para obtener una imagen digital debe contarse enprimer lugar con un sistema adecuado para su cap-tación, un dispositivo físico sensible a unas deter-minadas bandas de energía electromagnética del

espectro visible o invisible, el cual produce unaseñal eléctrica proporcional al nivel de energía re-cibida. Y, en segundo lugar con un dispositivodigitalizador que convierta la anterior señal eléc-trica en digital.

Este proceso varía según la naturaleza de losobjetos que se quieran reproducir. Pero en térmi-nos generales puede decirse que se utilizan princi-palmente tres tipos de tecnologías: micro-densitómetros, cámaras tipo vidicon y matrices deestado sólido.

En los dispositivos que utilizan micro-densitómetros se requiere que la imagen esté dadapor medio de una película, preferentemente trans-parente, que por lo general se fija alrededor de untambor giratorio. Es el método utilizado en losescáners de tambor que se describen más adelante.Un rayo de luz, generalmente emitido por láser,rastrea la imagen enviando puntos microscópicosa un fotodetector que codifica su nivel de gris. Sondispositivos relativamente lentos pero que puedenalcanzar precisiones muy altas.

Este tipo de cámara se utilizó por primera vezen los cincuentas para televisión y fue el primertipo de cámara cuyo funcionamiento se basó enprincipios de fotoconductividad; era más pequeñay manejable y sustituyó en poco tiempo a otro tipode cámaras. La imagen enfocada sobre la superfi-cie del tubo genera un patrón de conductividad va-riable a la luz que reproduce el patrón de intensi-dades luminosas de la imagen. Un rayo de electro-nes rastrea la superficie y genera un diferencial depotencial que da lugar a una señal proporcional alpatrón luminoso. Esta señal se codifica en cantida-des discretas junto con la posición correspondien-te en la imagen, de modo similar al caso anterior.

Los dispositivos que utilizan matrices de estadosólido están basados en mínusculas células desilicon, denominadas fotositos (photosites), orde-nadas en filas y columnas. Estos sensores se suelendisponer bien en forma alineada y sometidos a undesplazamiento horizontal (line scan sensors),como es el caso de los escáners de sobremesa, obien en forma de área o matriz (area sensors) comoen las cámaras de TV.

Ambas tecnologías están basadas en lo que seconoce como CCDS, o charge-coupled devices,(dispositivos de carga acoplada). Un CCD consis-te básicamente en un hilera de fotositos, ciertos me-canismos de transferencia y un amplificador queenvía una señal eléctrica a un dispositivo de regis-

Page 200: [Architecture eBook] Aplicaciones as en Arquitectura

202 Aplicaciones informáticas en arquitectura

tro, proporcional a la intensidad de la señal lumi-nosa.

Los escáners basados en sensores de área sue-len contar con resoluciones limitadas que no supe-ran los 1.024 o, excepcionalmente los 1.280. Losescáners basados en sensores en línea, tal como losescáners de sobremesa corrientes, pueden alcanzarlos 4.096 puntos. Otra ventaja importante de estetipo de dispositivos es su velocidad (pueden llegara alcanzar los 1/ 10.000 seg)

En relación con el tipo de aplicaciones que nosinteresan, nos referiremos principalmente a losescáners y cámaras digitales dejando de lado lascámaras de vídeo, ya que éstas se usan especial-mente para la edición videográfica. Los principiosgenerales y los párametros que deben tenerse encuenta son, por otro lado, básicamente los mismos.

Escáners. Funcionamiento general

Un escáner puede definirse genéricamente comoun instrumento óptico capaz de captar imágenesmediante un sensor que traduzca impulsoslumínicos a impulsos electrónicos y estos a infor-mación digital. Todos los escáners se basan en unmismo proceso que, descrito del modo más simpleposible, consiste básicamente en lo siguiente. Unafuente de luz ilumina de modo regular la superficieque se pretende capturar. La luz se refleja, en elcaso de un original opaco, o atraviesa la imagen,en el caso de un original transparente, y se hacellegar a un sensor capaz de captar la imagen y con-vertir los datos analógicos en datos digitales. Losescáners incorporan un mecanismo que permitedesplazar el sensor sobre la imagen original o quepermite a la imagen original moverse bajo el sensor.

El dispositivo fundamental queda incorporadoen lo que se denomina el cabezal óptico. En el casode un escáner de sobremesa, el cabezal óptico in-corpora la fuente de luz, un juego de espejos o pris-mas, un sistema de filtros de colores y un CCD ca-paz de registrar la luz que recibe en forma de vol-taje eléctrico. Un convertidor A/D convierte losimpulsos eléctricos en números. La resolución de-pende directamente de la densidad de CCD. Cuan-to mayor sea la cantidad de éstos que pueda serdispuesta sobre el cabezal de lectura, mayor seráel número de puntos que puedan ser captados. Enun escáner con 300 dpi de resolución máxima, elcabezal se desplaza en cada micromovimiento, 1/300 de pulgada. La profundidad de lectura depen-

de por añadidura de la capacidad del convertidoranalógico digital para dividir la señal analógica enparticiones discretas.

En cada pasada, una fuente de luz ilumina elobjeto, la luz reflejada se hace pasar por una seriede espejos y prismas y tres filtros de color, hastallegar al CCD que registra la señal. Otros modelosemiten tres diferentes haces de luz, en lugar de uti-lizar filtros. Según los tipos de escáner puede re-gistrarse toda la información en una sola pasada oen tres pasadas, una para cada color primario.

Los primeros escáners que se construyeron fue-ron los inventados por Hardy y Wurzburg y porMurray y Morse (patente de 1941) a principios delos cuarenta. El primero fue desarrollado inicial-mente para la Interchemical Corporation y, poste-riormente para la Radio Corporation of America.Puede considerarse, con muchas reservas, como elantecesor de los actuales flatbed scanners en la me-dida en que también efectuaba lecturas sobre unoriginal dispuesto sobre un plano horizontal pormedio de un aparato de registro que iba recorrien-do línea por línea este original y transmitiendo laseñal codificada a otro dispositivo.

El segundo fue desarrollado inicialmente parala Eastman Kodak Company y subsecuentementepara la Time Incorporated y su filial PrintingDevelopment Incorporated (PDI) que dio su nom-bre a este primer escáner. Puede considerarse comoel antecesor de los actuales drum scanners.

Los primeros escáners estaban destinados a lagrabación de clichés tipográficos por lo que cual-quier comparación con los actuales puede resultarequívoca. Hasta la década de los setenta no se pu-dieron desarrollar la mayoría de los dispositivosactuales entre los cuales juega un papel fundamen-tal la exploración por medio de rayos láser. Contodo, el sistema de registro óptico y conversión en

CCD

GR B

vidrio plano

Figura 11 Funcionamiento básico de un escáner

Page 201: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 203

señal electrónica de la señal óptica es similar.

Tipos de escáners

La mayoría de los escáners pertenecen a cinco ti-pos básicos. El escáner de sobremesa (flatbed), elescáner tipo fax o de alimentación automática dehojas sueltas (sheetfed o page feed scanner), el decabezal superior (overhead escáner), el manual yel de tambor.

Los escáners de tipo plano o de sobremesa(flatbed) (figura 12) funcionan de modo semejan-te a una fotocopiadora. Se coloca el original sobreun cristal y el dispositivo CCD al que nos hemosreferido anteriormente, se desplaza por debajo delmismo, iluminando alternativa o simultáneamentecon luces de color de gran intensidad la zona quese quiere digitalizar, que ha sido previamente se-leccionada utilizando el software propio del apara-to. Existen variantes que aceptan alimentación au-tomática de originales, que siempre han de ser depoco grosor, así como adaptadores para captartrasparencias, o flatbed slides.

En los escáner tipo fax, de alimentación hoja ahoja (sheetfed o page feed) lo que se desplaza esel original. Obviamente las limitaciones por lo querespecta al tipo de originales son mayores que enel tipo anterior, ya que sólo se pueden leer imáge-nes contenidas en una hoja de grueso corriente. Sonescáners particularmente útiles cuando se quiereescanear varias hojas en sucesión, como ocurrecuando se utiliza un sistema OCR para digitalizartextos, pero que ofrecen escasas ventajas en el casode trabajo con imágenes en donde, en la gran ma-yoría de los casos, cada imagen requiere ser ajus-tada por separado. En 1999 no se comercializan demodo autónomo sino incorporados a dispositivosmultiuso como el que se muestra en la figura 13que combina las funciones de escáner, impresora yfax.

Un tercer tipo son los escáners de cabezal alto(overhead) (figura 14) . En ellos el sensor estádispuesto por encima de una plano que admite lacolocación de cualquier objetos voluminoso, utili-zando la iluminación ambiental para iluminar lamuestra lo que implica una considerable pérdidade precisión. Se utilizan como proyectores de cuer-pos opacos en conferencias. Pueden ser útiles paraobtener vistas digitalizadas de un objeto. En estesentido son equivalentes a las cámaras digitales.

Los escáners de mano (handyscan) (figura 15)

funcionan igual que los de tipo sheetfed pero sinmecanismo de motorización ya que es la mano laque impulsa el sensor sobre el papel, con las ob-vias ventajas e inconvenientes que esto implica. Susmayores ventajas son que permiten digitalizar todotipo de objetos, incluidos libros voluminosos y queson fácilmente transportables. Las versiones actua-les son inalámbricas y bastante más caras (del órdende las 90.000 pts de 1999) que los viejos escánersmanuales que han desaparecido del mercado

El último tipo son los de tambor (drum scaners). Son los más precisos ya que en ellos la fuente deluz y el sensor se desplazan muy lentamente en sen-tido paralelo a un cilindro sobre el que se ha colo-cado el original que gira a gran velocidad, y estánespecialmente indicados para trabajos de gran ta-maño ya que existen modelos con capacidad dehasta un DinA0. Una limitación importante es que

Figura 13 Escáner-fax-impresora

Figura 12 Escáner plano

Page 202: [Architecture eBook] Aplicaciones as en Arquitectura

204 Aplicaciones informáticas en arquitectura

los originales no pueden ser rígidos. Su coste esmuy superior al de cualquiera de los anteriores,superior a los 5 millones de pesetas en la gran ma-yoría de los casos, por lo que se utilizan a través dealgún tipo de empresa de servicios y para trabajosprofesionales de edición o casos especiales. En losúltimos años han aparecido escáners de pseudo-tambor, semejantes al modelo que se muestra en lafigura 16 que ofrecen calidades semejantes a unprecio algo inferior, del orden de los 2 millones depesetas de 1999, y que es previsible que bajen deprecio en los próximos años.

En el trabajo profesional de retoque de imáge-nes prácticamente sólo se utilizan los escáners desobremesa y los escáners de tambor. Las posibili-dades de los tipos descritos varían según el mode-lo o fabricante. Las resoluciones pueden ir desdelos 75 dpi en blanco y negro pasando por los 256colores a 400 dpi, hasta 16 millones de colores y

2.400 dpi. Hay que diferenciar muy claramente en-tre lo que es la resolución óptica del dispositivosensor y lo que es la resolución por interpolación,obtenida por software. Hay numerosos escáners decoste medio que ofrecen una resolución de 600 o1.200 dpi aunque la resolución óptica real no su-pere los 300 o 400. El más sofisticado y el queproporciona las mayores resoluciones es el escánerde tambor. Los mejores ofrecen resoluciones de3.000 dpi o más. Esto implica la generación deimágenes que pueden llegar fácilmente a los 100Mb.

Otro aspecto importante que se debe tener encuenta es que, por razones técnicas, los CCD, enque están basados la gran mayoría de los escánersde sobremesa, tienen limitaciones importantes alleer los tonos oscuros. Si se va a digitalizar unaimagen con bastante detalle en las zonas de som-bras deberán buscarse alternativas de digitalizacióno bien, si el software del escáner lo permite, inten-tar aclarar la imagen para recuperar el detalle.

Procedimientos corrientes de digitalización

La utilización de un escáner como instrumento ha-bitual para la captación de imágenes que se preten-den modificar por medios informáticos para vol-ver a convertirlas en imágenes similares a las ori-ginales, pasa por una serie de pasos generales quese describen a continuación.

a) Cálculo de la resolución requerida

Para calcular la resolución necesaria hay que partirdel tamaño de la imagen con que se cuenta, en pul-gadas, y del tamaño y de la resolución de la ima-gen que se quiere obtener, en pixels. Si suponemosque ambas tienen la misma proporción y que laFigura 15 Escáner de mano inalámbrico

Figura 14 Escáner de cabezal elevado

Figura 16 Escáner de pseudotambor

Page 203: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 205

anchura de la primera es A y la anchura de la se-gunda es X, la resolución requerida, en puntos porpulgada, será r = X / A dpi (dots per inch, puntospor pulgada).

Por ejemplo, supongamos que partimos de unafotografía de 15 × 10 cms que se desea convertiren una imagen de 1024 × 768 pixels. Esto implicaque tendremos que recortar parte de la dimensiónhorizontal, pues la proporción de la primera es de1,5 y la de la segunda 1.333.... A partir de esto elcálculo (con las dimensiones en pulgadas: 15 ×10cm / 2,54 = 5,90" × 3,93") será:

resolución horizontal: 1024 / 5.90 = 173 dpiresolución vertical: 768 / 3.93 = 195 dpi

Se toma la cifra mayor, 195 dpi y ésta es la resolu-ción a la que deberemos digitalizar la imagen paraobtener el resultado que buscábamos.

b) Cálculo del volumen de la imagen

En muchos casos, sobre todo cuando se preveadigitalizar varias imágenes a una resolución alta,puede ser conveniente hacer una estimación del ta-maño para prevenir problemas de almacenamien-to. Para calcular este tamaño basta multiplicar lasdos dimensiones de la imagen, en pixels, lo quenos dará el número total de pixels y, a continuaciónmultiplicar este valor por la cantidad de informa-ción por pixel en bits. En el caso de una imagenmonocroma este valor es corrientemente de 8 bpp,y en una imagen en color real 24 bpp o bien, si seprefiere, 3 canales RGB de 8 bytes cada uno. Y sise trata de una imagen que incorpora un canal adi-cional (un canal alfa) el valor es 32 bpp. Para elejemplo anterior tendríamos:

1024 × 760 = 786 432 pixels786 432 pixels × 8 = 6 291 456 bpp

6291456 bpp × 3 canales = 18 874 368 bits = 2.25 Mb

Se ha detallado el cálculo para resulte más claro,pero nótese que basta con multiplicar el número depixels por 3 para obtener directamente el tamañoen bytes.

La figura 17 muestra los volúmenes dealamcenamiento requeridos para diferentes tama-ños y resoluciones en formatos no comprimidos.

c) Proceso

El proceso se reduce básicamente a : 1) fijar losparámetros de lectura adecuados, esto es, la reso-

lución y la profundidad de lectura. En el ejemploanterior sería 195 dpi y 24 bpp o "color real"; 2)realizar una exploración preliminar o muestreo pre-vio sobre toda la imagen; 3) seleccionar una partede esta imagen; 4) activar la orden para que elescáner registre la imagen según los parámetros delectura especificados; 5) archivar la imagen en unformato determinado; la mayoría de los escánerspresentan unas opciones de conversión o de salidadirecta normalizadas por la práctica tales como tif,tga, gif, o algunos de los que mencionaremos en lasección siguiente.

El software que controla un escáner permite afi-nar el proceso con el fin de optimizar sus resulta-dos. Esto puede implicar cierto tipo depretratamiento de la imagen, ya que es muy dife-rente digitalizar un dibujo lineal en el que se nece-sita mucho contraste y precisión, que una fotogra-fía en la que priman los medios tonos. En algunoscasos estos ajustes se realizan de modo automáticopor el propio programa. Si se quiere un control ple-no sobre los resultados es preferible no confiardemasiado en estas ayudas automatizadas.

Cámaras digitales. Otros medios

Una alternativa reciente, desarrollada por EastmanKodak, que irá cobrando una progresiva importan-cia en el futuro, son las cámaras digitales. Una cá-

cm dpi mb6 × 9 300 2,15

600 8,621200 34,47

9 × 12 300 4,31600 17,24

1200 68,9612 × 18 300 8,62

600 34,471200 137,92

18 × 24 300 17,24600 68,96

1200 275,7924 × 36 300 34,47

600 137,921200 551,66

Figura 17 Volúmenes de información paradiferentes tamaños y resoluciones

Page 204: [Architecture eBook] Aplicaciones as en Arquitectura

206 Aplicaciones informáticas en arquitectura

mara digital puede considerarse como un cruceentre un escáner y una cámara fotográfica tradicio-nal. Como la primera, utiliza una lente, un meca-nismo de apertura y un sistema de enfoque. Pero,como el segundo, en lugar de enfocar la imagensobre una emulsión sensible a la luz, lo hace sobreun CCD, un dispositivo capaz de transformar se-ñales luminosas en señales eléctricas que, a su vezpasa esta información a un AD, un dispositivo ca-paz de transformar señales analógicas en digitales.Esta información se graba en un chip o en una tar-jeta removible y, de aquí, puede llevarse directa-mente a un laboratorio para que revelen la imageno puede cargarse directamente en un PC para mo-dificarla, fundirla con otras imágenes, incorporar-la a animaciones, etc.El tiempo de exposición puede ser mayor que elrequerido en las cámaras tradicionales lo que pue-de obligar a utilizar trípode en algunos casos y eltiempo de espera entre tomas puede ser tambiénalgo mayor aunque estas limitaciones se van redu-ciendo en las cámaras más modernas. El númerode tomas depende de la memoria y de la resolucióny puede variar entre 10 y 100 imágenes.

La principal limitación de los modelos actualeses la resolución y la calidad de la imagen. La ma-yoría de las cámaras de coste medio no superan los1024 × 768 puntos (en 1999) lo que limita su apli-cación a vídeo o tomas en las que no interesa lacalidad como factor prioritario. Una diapositiva de35 mm tiene del orden de 4.000 líneas, esto es, delorden de 5 veces más resolución que las obtenidaspor este sistema. Sin embargo, es de prever que laevolución tecnológica supere con rapidez estas li-mitaciones. Ya hay varios modelos de cámaras deresoluciones de 1600 × 1200 aunque su coste esmuy superior.

Se considera que la resolución de una cámaradigital comienza a ser "aceptable" si puede medir-se en megapixels, esto es si alcanza 1 millón depuntos por imagen. Una versión más flexible deeste requisito es que al menos uno de los lados al-cance los 1.000 pixels. Una cámara de 640 × 480permite imprimir imágenes de 4" × 6" (10 × 15cms) con una resolución de 160 dpi, lo que propor-ciona imágenes de calidad notoriamente inferior alas de una fotografía tradicional. Se considera quea partir de 1280 × 1024 es posible imprimir imáge-nes de 5" × 7" (algo menos de 13 × 18 cms), conuna resolución algo inferior a los 200 dpi que pue-de considerarse "aceptable". Debe tenerse en cuenta

que cualquier ampliación en fotografía tradicionaldisminuye la resolución lo que justifica, hasta cier-to punto, estas apreciaciones que son, pese a todo,más bien generosas.

Un último método de digitalización que debemencionarse aunque su uso ha retrocedido bastan-te son las tabletas digitalizadoras. Una tabletadigitalizadora consiste en un tablero por el que dis-curren internamente una serie de cables. Sobre lasuperficie de la tableta se hace discurrir undigitalizador: un lápiz electrónico o un ratón de ca-racterísticas especiales que pueden incorporar unpequeño visor de aumento. La tableta se calibra demodo que su superficie se corresponda con la deuna superficie equivalente especificada sobre elmonitor. La red de cables que discurre por el inte-rior de la tableta permite detectar la posición deldigitalizador. Todo esto permite que cualquier puntomarcado sobre la tableta quede registrado en el or-denador con ayuda de los botones con que cuentael digitalizador, lo que es un modo relativamenteeficaz de digitalizar dibujos o datos basados en lí-neas. Las razones por la que su uso ha retrocedidoson el abaratamiento de los escáners y la gran va-riedad de herramientas con que cuentan los pro-gramas de CAD actuales para leer imágenes, lo quepermite llevar a cabo este mismo operaciones consimilar precisión y bastante más comodidad.

La digitalización de imágenes puede también ha-cerse a partir de imágenes tomadas con una cáma-ra de vídeo. Esto supone una importante ventaja yun grave inconveniente. La ventaja es que puedesacarse gran partido de la agilidad y de la riquezade alternativas que proporciona el vídeo. Puede fil-marse toda una secuencia en directo y entresacar aposteriori, con toda la tranquilidad requerida, lasimágenes más adecuadas para el caso de que setrate. El inconveniente es que la resolución y lacalidad de la imagen quedan limitadas por la reso-lución propia del vídeo que es de 625 líneas.

5 Almacenamiento

El trabajo con imágenes implica manejar un volu-men de información mucho mayor que el que se dacon otro tipo de programas. Esto implica variascosas. En primer lugar, que es necesario plantearseel modo en que se va a manejar este volumen deinformación. En segundo lugar, que habrá que te-ner presente los muy diversos modos en que estainformación está empaquetada puesto que no exis-

Page 205: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 207

ten normativas universales y hay un número consi-derable de tipos de archivos que usan técnicas di-versas para optimizar este volumen de información.

Volumen y equipamiento requerido

Ya hemos visto en el ejemplo de cálculo dado másarriba que el almacenamiento de una imagen de tansólo 1024 × 768 pixels a 24 bpp o true-color re-quiere más de 2 mb. Repárese en que, por ejemplo,tal como se resumen en la figura 17, una imagen atoda página, de 18 por 24 cm, grabada a una reso-lución alta, requiere 275 Mb. Esto puede dar unaidea de hasta qué punto es importante la gestión yel almacenamiento, tanto temporal como final, deeste tipo de información.

Esto supone, en primer lugar, que se necesitauna memoria principal (memoria RAM) muy su-perior a lo corriente para otro tipo de aplicaciones.Y, en segundo lugar, un procesador lo suficiente-mente rápido como para mover los datos a veloci-dad suficiente como para que se pueda trabajar concomodidad. Y, en tercer lugar, un monitor de buentamaño que permita contemplar una parte suficientede la imagen.

Para el almacenamiento intermedio o a cortoplazo se suelen usar los dispositivos periféricospropios del ordenador, tales como el disco duro olos disquetes. Es obvio que para los volúmenes deque estamos hablando, con ficheros que superanampliamente la capacidad corriente de estos últi-mos que es 1.44 Mbytes, resultan insuficientes y lorecomendable es entonces recurrir a sistemasmagnetoópticos, jukeboxes, Winchesters,Bernoullis, Zips o Jazs, con capacidades que osci-lan desde 100 Mb hasta más de un Gigabyte. Debetambién tenerse en cuenta que la velocidad de trans-ferencia de estos dispositivos es siempre inferior ala del disco duro y bastante variable según los mo-delos.

En el caso de querer almacenar información demanera definitiva o para un uso esporádico, lo másindicado es grabarlos en un CDRom o en cintasmagnéticas. Las cintas son baratas pero de lecturamuy lenta. Lo más recomendable, en 1999, son losdiscos magnetoópticos de 100 o 120 Mb, para man-tener copias de seguridad del trabajo en curso opara trasladar información, y los CDs para grabarel resultado una vez que se ha terminado el traba-jo. Las grabadoras de CD se han convertido en unaherramienta de precio asequible y el coste de los

discos es muy inferior al de los magnetoópticos.

Formatos

El tratamiento de imágenes está lejos de ser un cam-po donde sea directo el intercambio de informa-ción. El excesivo tamaño de los ficheros que sesuelen utilizar o la especificidad de sus aplicacio-nes ha generado varias docenas de tipos de codifi-cación, muchos de ellos especialmente adaptadosa determinadas plataformas de trabajo. Otros hansurgido mediatizados por los entornos operativos,como los subsidiarios del Windows, WMF, BMP ode sus primeras aplicaciones como el Paintbrush,PCX. Otro tanto se puede decir del entorno Apple.Algunos han sido concebidos para optimizar la im-presión, este es el caso de los ficheros tipo EPS oPostScript Encapsulado, etc.; no obstante poco apoco algunos se han ido convirtiendo en formatosde transferencia generalizados. Dentro de esta ca-tegoría y en el ámbito de los ordenadores PC losformatos más extendido son probablemente el TIF,TGA, GIF o JPEG.

Cada formato de almacenamiento de datos pre-senta unas peculiaridades que lo diferencia de losdemás, y utiliza parámetros propios para la codifi-cación o gestión de la información, parámetros so-bre los que generalmente no se da una informaciónclara por parte de los programas que los usan. Esto,unido a que con frecuencia son revisados por suscreadores, sin previo aviso, para mejorar sus pres-taciones, hace que se generen frecuentes conflic-tos en el intercambio de los datos. La mayoría delos programas de retoque o edición de imágenesincorporan conversores que automáticamente tras-ladan la imagen de un formato a otro, pero en mu-chos casos no avisan de qué información se dejanpor el camino, ni qué método de conversión em-plean, ni si se utilizan algoritmos que comprimenla información para luego expandirla, con la posi-ble pérdida de datos que eso puede implicar. Paraevitar problemas es recomendable la utilización deconversores especializados o de un software deprobada eficacia y calidad.

Dentro de un formato tipo, la información sealmacena siempre precedida de una cabecera quelo identifica, y de una serie de instrucciones quedefinen el tamaño de la imagen y la organizaciónde la información que sigue a esta cabecera. Enalgunos formatos esta información puedevisualizarse, lo que es un modo de hacerse una idea

Page 206: [Architecture eBook] Aplicaciones as en Arquitectura

208 Aplicaciones informáticas en arquitectura

más cabal de cómo está organizado un mapa debits.

Se da a continuación, una relación, en ordenalfabético, que obviamente no puede ser exhausti-va, de los principales formatos que pueden encon-trarse al trabajar con imágenes, junto con una bre-ve descripción de los mismos.

BMP (Bit Map). Como su nombre indica sonmapas de bits "en crudo", con escasa informaciónadicional. Es un formato utilizado corrientementeen Microsoft Windows. Se utiliza principalmentepara transferencia de información entre programaso para capturas de pantalla. Utiliza un formato in-dependiente del sistema de color utilizado por cual-quier dispositivo lo que facilita los intercambios.

DCS (Desktop Color Separation). Es unavariante de EPS que consta de cinco archivos y quese utiliza en AutoEdición por Quark Express quees quien lo propuso inicialmente y Page Maker. Laimagen se separa en cinco componentes, los cuatrocolores de impresión más uno más de identifica-ción e información adicional.

EPS (Encapsulated Postcript). Introducido porAdobe. Es el formato más utilizado en edición pro-fesional. Sirve tanto para dibujos, con informaciónvectorial, como para textos, como para imágenes.Pueden considerarse más estables que TIF aunqueocupan aún más espacio en disco.

GIF (Graphics Interchange Format). Formatode baja resolución introducido por Compuservepara minimizar los tiempos de transferencia por laslíneas telefónicas. Graba mapas de bits en modopaleta, con 8 bpp (256 colores) y comprensión porLZW. Un formato muy popular antes de la apari-ción de JPG porque generaba imágenes de pocotamaño aptas para ser enviadas por red. Se sigueutilizando corrientemente en páginas Web y enhipertextos.

IFF (Amiga Interchange Format). Era el forma-to usado por los ordenadores Commodore, en laépoca heroica de los primeros ordenadores perso-nales, con capacidad de trabajar en gráficos, rela-cionado directamente con el trabajo en vídeo y quese ha incorporado a algunos programas actuales quefuncionan sobre PCs.

JPG (Join Photographic Experts Group). Es elformato más popular para almacenar e intercam-biar información debido a que reduce el volumenen cantidades que van del 10% al 3% del original;o sea que podemos almacenar de 10 a 30 archivos.jpg en el espacio de uno en formato .tif o .tga. Esto

se consigue a costa de una comprensión bastanteagresiva que, en algunos casos, sobre todo parainformación que vaya a salir exclusivamente porpantalla, no tiene resultado visibles pero en otros,si se imprime a media o alta resolución, puede de-teriorar apreciablemente algunas zonas de la ima-gen, sobre todo las que presentan degradados sua-ves de diferentes matices.

PCX. Formato desarrollado por ZSoft Corp. parasu PC Paint Brush. Graba imágenes en modo 2, 4,8 y 24 bpp y utiliza el método de comprensión RLEpara alcanzar proporciones máximas de 1,5 a 1. Apartir de la versión 5 soporta color real (24 bpp).

PDF (Portable Document File). Formato utili-zado por Adobe Acrobat, basado en EPS y que sir-ve tanto para vectores como para mapas de bits.Permite incorporar los hipervínculos y tablas pro-pias del lenguaje HTML. Ver el capítulo sobre re-des para más información sobre este tema.

PICT. Es el formato utilizado por los progra-mas que funcionan bajo Macintosh para transferirinformación entre aplicaciones. Puede grabar en 16o 32 en modo rgb o en 2, 4, 8 en modo blanco ynegro.

PNG. Alternativa al formato GIF para incorpo-rar imágenes a páginas Web que preserva toda lainformación de color y comprime sin pérdidas.

PXR (Pixar). Es un formato específico para or-denadores tipo Pixar utilizados en la gama alta deltrabajo con imágenes para animación y simulacio-nes de gran volumen y calidad aunque algunos pro-gramas, como Photoshop, incorporan salida en esteformato.

RAW (literalmente "crudo"). Formato que se li-mita prácticamente a grabar el valor asociado a cadapunto de una imagen, lo que facilita considerable-mente su uso por diferentes tipos de programas.

SCT (Scitex CT). Scitex Continuous Tone es unformato profesional que graba la información, porlo general en modo CMYK, con destino a impre-sión y utiliza un sistema patentado de semitonosque minimiza los efectos de Moiré y otrasinconsistencias que pueden aparecer durante laimpresión en otros formatos.

TGA (Targa). Es uno de los formatos más anti-guos y más fiables. Fue introducido por la empresaTrueVision Inc. de Indianápolis que también pro-ducía tarjetas gráficas de alta calidad. Puede gra-bar mapas de bits en 16, 24 y 32 bpp y es compati-ble con la gran mayoría de programas.

TIFF (Tagged Image File Format). Es el for-

Page 207: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 209

mato más utilizado para imprimir e intercambiarinformación. Puede grabar en formato normal ocomprimido. La comprensión se realiza con un al-goritmo estándar, el LZW (ver el siguiente aparta-do) que realiza comprensión sin pérdidas y con elque en principio no se deberían encontrar proble-mas de descompresión. Muchos prefieren sin em-bargo no usar TIFs comprimidos para no encon-trarse con desagradables sorpresas.

Hay otros formatos, como el PSD de PhotShopo el CDR CorelDraw o el AI de Adobe Illustrator,que son formatos nativos (propios de una aplica-ción comercial) aunque pueden encontrarse en otrasaplicaciones, si bien la norma no escrita es inter-cambiar información en formatos "no nativos" ta-les como los que se han relacionado.

Compresión

Debido al enorme tamaño que llegan a alcanzar losficheros de imágenes, se precisa con frecuenciarecurrir a métodos de compresión de la informa-ción. La comprensión se basa fundamentalmenteen detectar las repeticiones o las tendencias queaparezcan en la codificación de la imagen y en sus-tituirlas por codificaciones más compactas que in-diquen, por ejemplo, el número de veces que apa-rece un determinado valor en una fila en lugar deguardar todas y cada una de sus posiciones.

Lo que parece una cuestión meramente prácticase revela pronto como una gran cuestión de grancalado lo que explica el hecho de que, desde hacemuchos años, sea éste uno de los sectores en quemás activamente se ha investigado. La razón es quehay temas de gran importancia teórica que estáninvolucrados en lo que aparentemente no es sinouna cuestión meramente técnica. Estos temas giranen torno a dos conceptos que pueden parecer simi-lares pero no lo son. Lo que separa a los datos dela información es el eje de una reflexión que inte-resa a muy diversos tipos de profesionales.

Los datos son el material con el que se elaborala información. Pero este material hay que cocinarloy, como ocurre cuando se cocina, hay mucha mate-ria de relleno que puede tirarse a la basura. Estoque "se tira a la basura" porque no interesa paramantener lo esencial de la información es lo que seconoce como datos redundantes. La comprensiónpuede definirse como una operación que eliminala redundancia. Ya hemos comentado en el primercapítulo, a propósito de la teoría de la información

de Shannon hasta que punto no debe despreciarsela redundancia, una característica esencial del modoen que se comunican los humanos. Pero no es me-nos cierto que en determinados contextos la redun-dancia es un estorbo. Similarmente, podríamosdecir que la retórica puede ser, tal como la definióAristóteles, "el arte de persuadir" o bien, tal comose comprueba a diario, una pesada carga con quenos bombardean desde televisores y periódicos.

En informática, el concepto de redundancia noes, sin embargo, un concepto abstracto sino unacantidad concreta. Se define por la fórmula R

D = 1

- 1/CR, donde R

D es la redundancia relativa de los

datos y CR

el factor de comprensión, que se definea su vez por la fórmula C

R = n

1/n

2 en donde n

1 y n

2son dos conjuntos de datos que representan la mis-ma información. Si los dos son iguales C

R es igual

a 1 y RD es igual a 0, lo que indicaría que el primer

conjunto de datos no contiene datos redundantes.Un factor de comprensión tal como 5:1 indicaríaque el primer conjunto de datos tiene 5 unidadesde información por cada unidad del segundo, elconjunto comprimido.

En la teoría relativa a los métodos de compren-sión se utilizan tres tipos de redundancia que me-rece la pena mencionar. La redundancia de códigopuede analizarse con facilidad a partir de unhistograma de la imagen, tal como los que se mos-traran más adelante. La distribución de valores,revelada por el histograma, permite encontrar mé-todos más eficaces de representar los valores de laimagen por medio de fórmulas más compactas queresuman esta distribución. La redundancia espa-cial también denominada redundancia geométricao redundancia entre pixels, permite condensar lainformación basándose no en los valores de lospuntos de una imagen sino en el modo en que estándistribuidos. Es evidente que una imagen que pre-sente, por ejemplo, una serie de cuadrados grisesde iguales tonos, yuxtapuestos, puede tener la mis-ma distribución general de valores que otra ima-gen desordenada. Pero si se tiene en cuenta el modoen que están repartidos geométricamente estos va-lores se econtrarán métodos eficaces de resumir lainformación.

En tercer lugar hay sistemas que se basan en loque se puede denominar redundancia visual. El ojoes más sensible a determinadas diferencias bruscasde luminosidad en la medida en que reflejan cam-bios significativos. Las bandas de Mach son unefecto característico; se aprecian transiciones brus-

Page 208: [Architecture eBook] Aplicaciones as en Arquitectura

210 Aplicaciones informáticas en arquitectura

cas de luminosidad en degradados cuando en otrascondiciones no se verían como grises distintos. Estolimita la efectividad de muchos sistemas de com-prensión de imágenes. Pero determinados progra-mas de comprensión pueden captar estos puntosclaves de transición y, manteniendo la proporciónglobal de comprensión, introducir datos adiciona-les que proporcionen la cantidad necesaria de in-formación como para que el ojo no eche en faltalos grados necesarios de transición entre zonas con-tinuas de diferente luminosidad.

En todos estos casos puede hablarse también dedos categorías principales de comprensión: conpérdida y sin pérdida. Algunos de los que se hanmencionado en el apartado anterior son formatosque utilizan programas asociados que efectúan com-presión sin pérdida. Ejemplos de programas queefectúan comprensión de este tipo son LZW o REL.También son de este mismo tipo programas utili-zados externamente por muchos usuarios para com-primir ficheros de todo tipo como los PKZIP,WinZip o ARJ.

Otros métodos, más potentes, permiten encon-trar formulaciones que se aproximen de modo su-ficiente a la distribución probabilística de los da-tos de una imagen. De esta manera se consiguenrelaciones de comprensión mucho más mayoresaunque a costa de perder pequeños detalles, datosque no aparecerán al recomponer la imagen. Enestos casos hablamos de compresión con pérdida.El sistema más eficaz y más popular de todos elloses el JPEG que ya hemos mencionado en el aparta-do anterior y que alcanza porcentajes de compren-sión verdaderamente sorprendentes. En imágenescon abundante textura y contempladas en pantallano se aprecian diferencias entre ficheros originalesy comprimidos con valores de hasta un 3% del ori-ginal. Hay que recordar sin embargo que, en imá-genes con degradados suaves y que vayan a ser im-

presas a resolución media, las diferencias puedenser notables.

Conversión

Otra cuestión de gran interés teórico y práctico esla conversión de ficheros vectoriales a mapas debits y viceversa. Lo primero es trivial, pues es unaoperación que se está llevando a cabo siempre queobtengamos una salida de un fichero vectorial porun monitor o una impresora raster. Lo segundo esmuy complicado pues se necesita, idealmente, unprograma "inteligente" capaz de reconocer qué pun-tos de la imagen "son" líneas que deben ser sepa-radas del fondo.

Sin embargo hay ciertos rasgos que es factibledetectar con garantía de éxito y existen varios pro-gramas, con diversos grados de potencia que per-miten procesar imágenes obtenidas, por ejemplo, abase de digitalizar planos tradicionales, con unaaproximación lo suficientemente buena como paraque el trabajo, casi siempre inevitable, de revisióndel resultado para borrar elementos que el progra-ma ha tomado por líneas de dibujo y no eran sinoruido de fondo, no sea excesivo y resulte menorque el que daría volver a dibujarlo todo desde elprincipio.

La vectorización, que es como se denomina esteproceso, es una aplicación específica del procesa-miento y análisis de imágenes que tiene una impor-tancia clara en las aplicaciones arquitectónicas. Laefectividad del proceso es muy variable y dependede los casos. Un plano limpio y con abundanteslíneas rectas o curvas bien definidas, puedevectorizarse con relativa facilidad. El programa noencuentra grandes dificultades para decidir qué esinformación relevante y qué no lo es. Por otro lado,un plano complejo y en mal estado confundirá alprograma que, en principio, no tiene modo de de-cidir si una mancha o una irregularidad en el traza-do debe descartarse o debe convertirse en una enti-dad de la misma categoría que otras líneas que re-presentan pilares, muros o ventanas.

En estos casos es, probablemente, más efectivoel llevar la imagen directamente al programa y di-bujar nuevas líneas, en una nueva capa, siguiendolas de la imagen como si estuviéramos calcando elplano a través de un papel transparente. TantoAutoCad como Microstation, a partir de sus últi-mas versiones, permiten abrir un mapa de bits, in-corporarlo al dibujo y mantenerlo estable,

Figura 18 Un ejemplo de redundanciageométrica que facilita la compresión

Page 209: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 211

acércandose y alejándose, lo que facilita conside-rablemente esta labor de calco.

Se han producido varios trabajos de investiga-ción de interés sobre la posibilidad de desarrollarmétodos más inteligentes de vectorización. El re-ferente obvio son los programas denominados ge-néricamente OCR (Optical Character Recognition)que permiten escanear un texto impreso y conver-tirlo en un fichero de texto digital, es decir, con-vertir las imágenes de las letras en sus correspon-dientes caracteres codificados. En el caso de untexto estos es posible puesto que hay un númerolimitado de letras y un número limitado de familiasde tipos con los que se representan estas letras.

En el caso de los planos arquitectónicos esto esrelativamente posible y, de nuevo, varía considera-blemente según los casos. En el caso de arquitec-turas vulgares o muy estandarizadas, los elemen-tos forman parte de un repertorio iconográfico li-mitado que se puede mantener como referencia decomparación. Tampoco habría excesiva dificultadpara reconocer que una línea continua, que se cie-rra sobre sí misma, debe representar algún tipo demuro. Parece lógico intentar abordar en primer lu-gar este tipo de casos antes de plantearse otros máscomplejos. Hay investigaciones en curso que pare-cen prometedoras a corto plazo pero el hecho esque, por el momento, tan sólo se cuenta convectorizadores más o menos eficaces que no alcan-zan a realizar lecturas "inteligentes" de los planosarquitectónicos.

6 Operaciones con imágenes

Las operaciones con imágenes se pueden clasifi-car en tres grandes grupos. Las que no modificanlos valores de los diferentes puntos que constitu-yen la imagen pero alteran el modo en que esta in-formación se distribuye en el plano de la imagen,operaciones que se denominan corrientemente"geométricas". Las que modifican estos valores devarios modos y a las que podemos denominar ge-néricamente "de transformaciones puntual de va-lores" aunque la diversidad de técnicas es enormey los términos con que se alude a ellas en la litera-tura especializada muy precisos. Y, por último, lasque pueden considerarse en cierto sentido comomixtas, en la medida en que modifican los valoresde un determinado sector del plano de la imagen.

Las operaciones que se describen en lo que si-gue pueden llevarse a cabo sobre la totalidad de la

imagen o sobre partes de la misma. Para este se-gundo caso se cuenta habitualmente con diversasherramientas y modos de selección que se puedenclasificar con arreglo a los mismos principios utili-zados en el párrafo anterior para describir los tiposde operaciones. Es posible seleccionar puntos enel plano de la imagen por medio de especificacio-nes geométricas, esto es, trazando sobre partes dela imagen rectángulos, círculos o formas libres queencierren los puntos que queremos transformar. Obien, en segundo lugar, es posible seleccionar pun-tos de la imagen basándose exclusivamente en susvalores. Y, por último es posible seleccionar pun-tos de la imagen en función de sus valores y de surelación espacial.

Operaciones geométricas

Las operaciones geométricas con imágenes se re-ducen básicamente a la manipulación de matricesque almacenan la posición geométrica de los pixels.Estas matrices pueden ser sometidas a todas las ope-raciones geométricas clásicas, lo cual significa quees posible trasladar, girar, invertir y cambiar deescala la totalidad o partes determinadas de unaimagen. También es posible deformarlas, total oparcialmente, sea de modo libre, sea mediante trans-formaciones perspectivas, sea mediante transfor-maciones matemáticas de diversos tipos.

Todas estas operaciones básicas son posiblesgracias a la velocidad de cálculo que proporcionanlos ordenadores actuales pero hubieran sido impen-sables hasta hace pocos años en un ordenador ca-sero. Aún así, hay que advertir que se requierenciertos mínimos para poder manipular imágenes desuficiente resolución y, por consiguiente, de grantamaño. Al margen de esta limitación, el manejode estas herramientas, que están disponibles encualquier programa sencillo de tratamiento de imá-genes no ofrece mayor dificultad.

Estas operaciones implican un problema técni-co que conviene tener presente. Al estar constitui-dos los mapas de bits por matrices enteras, tramasregulares de puntos yuxtapuestos, cualquier ope-ración geométrica que utilice factores tales que latransformada no coincida con la trama primitivanecesitará contar con algún medio de decidir cómoasignar el valor teórico de cálculo al valor real delos pixels de la imagen.

En el caso de una traslación (figura 19) el ajusteno representa ningún problema pues la desviación

Page 210: [Architecture eBook] Aplicaciones as en Arquitectura

212 Aplicaciones informáticas en arquitectura

es igual para todos los pixels. En el caso de unarotación (figura 20) es preciso recurrir ainterpolaciones que asignen un valor al pixel enfunción de sus vecinos más próximos. Hay más deuna solución que no comentaremos dado que setrata de un proceso complejo y no visible para elusuario. Es preciso tener en cuenta sin embargo estalimitación que se traduce en problemas tan concre-tos como que nos resultará imposible rotar unaimagen con la misma facilidad con que lo hacemosen un programa de CAD2D.

En el caso de un cambio de escala el procesopuede llevar a perder información sustancial, talcomo se muestra, en un caso extremo, en la figura21 que representa sucesivas redistribuciones de lasmuestras con las que el programa intenta respon-der a una petición imposible de cumplir. Es nece-sario tener esto en cuenta en determinados casosen los que puede producirse modificaciones impor-tantes del contenido de una imagen al llevar a cabouna operación de transformación geométrica.

El ejemplo de la figura 22 muestra hasta quépunto es posible simular una imagen real por me-dio de una combinación de este tipo de transfor-maciones.

Operaciones puntuales de transformación devalores. Mapas de grises. Histogramas

Se denominan operaciones puntuales (pointprocessing) o también filtrado en el dominio espa-cial pixel a pixel a las operaciones más sencillas detodas las que se realizan en el tratamiento de imá-genes y que afectan a la información contenida enpixels individuales. Una operación puntual trans-forma los pixels de la imagen aplicando la mismafunción sobre cada uno de ellos. Ejemplos de estasoperaciones puntuales son las modificaciones decontraste y brillo en las que al aumentar el brillo enuna imagen monocromática se suma una cantidaddeterminada a cada pixel.

Las operaciones puntuales se basan en el valorde cada pixel. Las modificaciones introducidas so-bre estos valores iniciales se pueden manipular pormedio de lo que se denomina un mapa de grises(gray map) o más exactamente, un mapa de transi-ción de luminancias. Un diagrama que representaen el eje de abscisas la luminancia de entrada oluminancia del punto, imagen o sector de imagende que se parte y, en el eje de ordenadas, laluminancia de salida, la luminancia que se obten-

Figura 20 Rotación de un bloque de pixels

Figura 19 Traslación de un bloque de pixels

Figura 21 Cambios de escala de un bloque depixels con pérdida de la secuencia original

Page 211: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 213

drá con posterioridad a la operación que se ha es-pecificado con la ayuda de este mapa.

Si no se ha realizado ninguna operación, eldiagrama muestra una recta a 45º, lo que equivalea decir que los valores de entrada coinciden exac-tamente con los valores de salida. El modo mássencillo de llevar a cabo una modificación del con-junto de valores representados por un mapa de estetipo es modificar esta recta. Hay toda una serie deoperaciones elementales que se pueden realizar deeste modo. Las más corrientes son las que se enu-meran a continuación.

La obtención de un negativo es una operacióntécnicamente trivial que se reduce a invertir la di-rección del diagrama de grises. El operador modi-

fica el mapa de modo que donde antes había un 0 o"negro" el resultado de la función imagen pase aser 255 o "blanco", manteniendo la línea a 45º peroen dirección contraria. La figura 24 a muestra unejemplo de esta operación.

La binarización es otra técnica muy sencilla quepermite reducir una imagen en gama de grises auna imagen en blanco y negro sin más que sustituirla recta a 45º del diagrama de grises por una rectavertical en un determinado punto del diagrama; to-dos los grises situados a la izquierda pasan a sernegros y todos los situados a la derecha pasan a serblancos. (figura 24 b).

El clipping es una operación similar con la dife-rencia de hay dos valores en lugar de uno y se pre-

Figura 22 Ejemplo de modificación de una imagen por operaciones detraslación, rotación y cambio de escala

Page 212: [Architecture eBook] Aplicaciones as en Arquitectura

214 Aplicaciones informáticas en arquitectura

100

1000

100

1000

100

1000

Figura 23 Variación de contraste y luminosidad de una imagen por modificación del mapa de grises(tomado de Alvaro Siza Vieira: Centro Gallego de Arte Contemporáneo. Santiago de Compostela, 1988-94)

100

1000

Page 213: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 215

100

1000

100

1000

100

1000

100

1000

100

1000

100

1000

serva una zona central en la que siguen habiendogrises; por debajo del valor inferior sólo habrá ne-gros y por encima del valor inferior sólo habrá blan-cos. La umbralización (thresholding) es similar alclipping pero afecta sólo a uno de los extremos dela imagen; se igualan todos los valores superioreso inferiores a uno dado y se mantiene la gama degrises en el resto. Ver figuras 24 (c, d, e).

Para la extensión del contraste de una imagen,es decir para la mejora del contraste en aquellaszonas de una imagen que han sido registradas conpoca iluminación, se puede ampliar el rango diná-mico de las mismas, modificando la pendiente enel diagrama de escala de grises, de manera que en-tre unos valores dados, la recta que refleja la fun-ción de los nivel de grises de entrada y de salidadel proceso, se vuelva más horizontal, con lo quesus gradientes serán más largos. Para la compre-sión del contraste o comprensión del rango diná-mico se sigue un proceso inverso, haciendo máspronunciada la pendiente en aquellas zonas que sequieren fundir. La figura 23 muestra una imagenen la que se ha modificado la disitribución de valo-res por medio de una función logaritmo que modi-fica con suavidad la pendiente de la curva, hacien-do que aumente y se redistribuya el número de va-lores claros, el número de valores oscuros o la pen-diente de la curva en la zona de valores medios, loque tiene como consecuencia un aumento del con-traste. La figura 24 f muestra también este mismorecurso combinado con un recorte de los valoresmás obscuros (umbralización).

Otra herramienta de fundamental importanciapara este tipo de operaciones es el histograma. Unhistograma (del griego ιστοσ, tejido y γραµµα,inscripción gráfica) es una representación gráficade la distribución de las frecuencias de ocurrenciade un determinado suceso y se utiliza en un grannúmero de aplicaciones estadísticas. En procesa-miento de imágenes, un histograma es una gráficaen la que en el eje de abcisas representa los dife-rentes niveles de grises de la imagen y el de lasordenadas el número de pixels que tienen ese valorparticular. El cálculo de un histograma se reduce acomputar cuántos pixels hay para cada nivel de gris.

El histograma es una herramienta valiosa, enprimer lugar, porque permite conocer de un mododirecto, intuitivo, las características globales de unaimagen. El histograma de la figura 25, la mismafigura de las dos ilustraciones anteriores, muestracon precisión lo que puede apreciarse

Figura 24 Variaciones básicas delmapa de grises de la imagen anterior:

a) negativo; b) binarización; c, d) umbralización; e)clipping; f) umbralización y modificación gamma

Page 214: [Architecture eBook] Aplicaciones as en Arquitectura

216 Aplicaciones informáticas en arquitectura

cantidad de valores

valores

intuitivamente, esto es, que es una imagen con abun-dantes valores medios y escasos valores extremos,lo que contribuye a una impresión que en este caso,dadas las características arquitectónicas del ejem-plo, puede ser adecuada. Los histogramas de lasfiguras 26 y 27 revelan, a cualquiera que cuentecon un mínimo de experiencia en el uso de estastécnicas, que las imágenes correspondientes sonimágenes: a) muy oscuras; b) muy luminosas; c)poco contrastadas; d) muy contrastadas.

A partir de esta información es posible realizardiversas operaciones por modificación directa delhistograma. Es posible, por ejemplo, aclarar u os-curecer una imagen o una selección de una imagendesplazando todos sus pixels a la derecha o a laizquierda de la gráfica, o bien, por ejemplo, redu-cir o ampliar el número de posibles niveles de gris,con lo que la imagen adquirirá más o menos con-traste, etc.

Otra operación característica es laecualizalización que consiste en redistribuir losvalores de una imagen, una operación que se utili-za frecuentemente para mejorar el contraste. Si unaimagen presenta un histograma en el que los grisesse acumulan en, por ejemplo, la zona central estoindica una ausencia de blancos y negros y de valo-res cercanos a éstos. La ecualización permite me-

Figura 25 Histograma de la imagen anterior

jorar el contraste al redistribuir los valores genera-les.

Los histogramas también se utilizan para opera-ciones más sofisticadas que permiten separar par-tes de una imagen en función de sus valores de gris.Estas operaciones que se denominan operacionesde segmentación y a las que ya hemos aludido an-teriormente, se basan en la determinación automá-tica de umbrales a partir de los cuales se encuen-tran los valores que se quiere detectar.

Operaciones locales de transformación devalores. Filtros

Denominaremos operaciones locales a las opera-ciones que afectan a la información contenida enel entorno de pixels individuales. Esto requiere laintroducción de un serie de conceptos previos, losprincipales de los cuales son los de vecindad, con-torno y conectividad de un pixel.

Se denomina vecindario de un pixel a los pixelsque le rodean. Un pixel tiene 4 vecinos horizonta-les y verticales, uno a su izquierda, otro a su dere-cha, uno por encima y otro por debajo (que se de-notan técnicamente como "N4"). Además de estos,tiene 4 vecinos diagonales (denotados como "Nd").La unión de todos ellos ("N4+Nd") forma lo quese llama los "vecinos de p" (denotados por N8).Los N4 forman un contorno de orden 4 y los N8 uncontorno de orden 8 o simplemente contorno. Eltipo de conectividad (figura 28) tiene una conside-rable importancia para delimitar las fronteras entreelementos de una misma imagen. Para ello habráque ver si los dos pixel base tienen algún vecinocomún y de qué tipo, pero, sobre todo, si sus nive-les de gris respectivos satisfacen determinados cri-terios. Según qué premisas se adopten el sistemapuede simplificar en mayor o menor grado elmuestreo.

Sobre esta base se desarrollan muy diversos ti-pos de filtros que sirven para innumerables aplica-ciones y que cuentan con una gran cantidad de es-tudios técnicos. Las técnicas pasan por la utiliza-ción de convoluciones y transformadas de Fourieren la detección de los contornos de las zonas a se-leccionar de manera automática, si usamos un mo-delo espectral o por la edición de los histogramas,si usamos un modelo matricial. Los filtros espacia-les más habituales son los que siguen:

Los filtros de suavizado o alisado (smoothingfilters) se utilizan para emborronar o añadir ruido

Page 215: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 217

a una imagen en un preproceso que busca eliminarpequeños detalles para que en una operación in-versa posterior la imagen clarifique su información.Dentro de este tipo, los más importantes son los depaso bajo (lowpass spatial flltering) que son fil-tros constituidos por una matriz de, por ejemplo,tres por tres elementos, cuyos valores son 1, loscuales se suman a cada uno de los pixeles de lazona de la imagen a filtrar, dividiendo el resultadode esta operación por 9; este valor promedio susti-tuye al existente antes del filtrado. El efecto de unfitro de este tipo es que la imagen se emborronaligeramente, lo que puede convenir en determina-dos casos por diferentes razones tales como suavi-zar contornos o eliminar defectos de retoque. Losejemplos de la figura 22 llevan incorporados estetipo de filtros para suavizar las transiciones des-pués de haber aplicado operaciones geométricas ode haber insertado nuevos elementos.

Los filtros de endurecido o agudizado(sharpening filters) se utilizan, a la inversa de losanteriores, para destacar los valores más lumino-sos de una imagen o aquellos detalles que se venborrosos. Los más habituales son los filtros de pasoalto (basic highpass spatialfilteting) en los que unamatriz como la antes citada configura una másca-ra, la suma de cuyos elementos es cero y cuyo va-lor central es 8 rodeados de -l. Al operar este filtrosobre una zona de la imagen y dividir los resulta-dos por nueve se obtiene la eliminación de aque-

llos valores que no llegan al mínimo valor fijado 1,ya que los demás son números menores de cero yen consecuencia son descartados y quedan sólovalores positivos.

Hay un número enorme de filtros de diversostipos que no tienen cabida en este apartado, tantopor razones de espacio como porque la mayoría deellos tienen escasa aplicación en el caso de la ar-quitectura. Quien esté interesado en el tema puedecomenzar por experimentar con los que están in-cluidos en programas de retoque digital de imáge-nes, como Photoshop, y por revisar la bibliografíasobre este tema para comprender mejor qué es loque ocurre al aplicar alguno de los filtros mássofisticados lo que, en muchos casos, no resultafácil desde un punto de vista meramente intuitivo.

7 Impresión

Las imágenes que aparecen sobre la pantalla delmonitor desaparecen en cuanto las apagamos. Parala mayoría de las aplicaciones que nos interesan espreciso contar con copias permanentes sobre al-gún tipo de soporte, preferentemente papel, quepuedan ser consultadas o presentadas independien-temente de los complejos dispositivos que requie-re un sistema informático de generación de imáge-nes.

Las características de la imagen impresa sobrepapel son bastante diferentes de la que aparece so-

Figura 26 Histograma de una imagen demasiadooscura y de otra demasiado clara

Figura 27 Histograma de una imagen de bajocontraste y de otra de alto contraste

Page 216: [Architecture eBook] Aplicaciones as en Arquitectura

218 Aplicaciones informáticas en arquitectura

bre el monitor. El control de los parámetros queinciden sobre estas características, así como el aná-lisis de la relación calidad-coste, constituyen uncapítulo complejo que se relaciona, por un extre-mo, con los medios tradicionales de pintura e im-presión y, por otro, con tecnologías específicas quese han desarrollado en los últimos años. Ambosextremos deben ser tomados en consideración paraasegurar un control suficiente sobre las imágenesimpresas a partir de archivos informáticos.

Parámetros de control

Hay tres factores principales que se deben consi-derar y que no son sino los mismos que ya hemosvisto en apartados anteriores, considerados desdeel punto de vista de los dispositivos de salida. Es-tos son: la resolución, la reproducción correcta degama de intensidades de gris y la reproducción co-rrecta del color.

La resolución es un parámetro que nos permitecalibrar la calidad de la imagen en relación con lacapacidad de discriminación visual de un sujetomedio. Términos tales como "desenfocado", "ni-vel de detalle", "grano", etc., describen una ima-gen en relación con esta capacidad de discrimina-ción. La reproducción correcta de los valores es unparámetro que nos permite calibrar la riqueza dematices de una imagen. Términos tales como "equi-librado" o "contrastado" aluden a este segundo as-pecto que a menudo está estrechamente relaciona-do con el anterior.

Lo dicho hasta aquí vale para imágenes en blan-co y negro; en el caso de imágenes en color lostérminos descriptivos se multiplican y, con elloslas dificultades de control a través de todos los pa-sos que llevan a una imagen final, impresa sobrepapel. Los apartados que siguen ampliarán

sumariamente conceptos básicos que ya han apa-recido en otros apartados anteriores.

Resolución y resoluciones

Lo primero que hay que subrayar es que no se debehablar de "resolución" en singular sino en plural.Cada uno de los estadios por los que hay que pasaren el tratamiento de imágenes implica una serie decontroles de la resolución propios de ese estadio.Por lo general, se parte de una imagen dada en for-ma de fotografía o captada directamente por unacámara digital y que sufre una serie de manipula-ciones hasta convertirse en otra imagen similar. Através de estos pasos estaremos utilizando la pala-bra "resolución" para referirnos a cinco cosas dis-tintas: a) la resolución de digitalización; b) la reso-lución de la imagen sobre la que trabajamos; c) laresolución de la imagen que vemos en el monitormientras trabajamos; d) la resolución nominal dela impresora con la que contamos; e) la resoluciónde esta impresora en términos de semitonos.

Por consiguiente, las cosas no son tan simplescomo en el procedimiento general que hemos des-crito en la sección 4 de este capítulo bajo el epígra-fe "Procedimientos corrientes de digitalización".Ciertamente, comenzaremos por una estimación dela resolución de salida para saber a qué resolucióndebemos digitalizar una imagen. Pero ninguno deestos dos términos está suficientemente claro en lamayoría de los casos. Si queremos darnos un mar-gen de seguridad probablemente utilizaremos unaresolución de digitalización algo superior. Esto nosdará mayor margen para las operaciones que vaya-mos a efectuar sobre la imagen y, al final, podemosreducir el tamaño de la imagen, sin pérdida apre-ciable de calidad.

Por otra parte, lo que vemos sobre el monitorpuede ser engañoso por muchas razones, la princi-pal de las cuales, tal como veremos más adelante,es la relativa al color. Pero desde el punto de vistade la resolución también es preciso tener en cuentaalgunas diferencias notables. La resolución nece-saria para que los puntos discontinuos aparezcancomo continuos está en torno a las 5 lpm (líneaspor milímetro) equivalentes a 127 dpi (dots perinch, puntos por pulgada) para una distancia deobservación normalizada de 25 cm. Sin embargo,debido a varios factores, la calidad que proporcio-na esta resolución resulta insuficiente: aunque nose distinguen puntos discontinuos se aprecian

Figura 28 Conectividad de orden 4 y orden 8 de un pixel

Page 217: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 219

subjetivamente faltas de regularidad. Uno de estosfactores deriva del modo de impresión de la mayo-ría de los dispositivos: al utilizar matrices de pun-tos para almacenar la imagen, los puntos de impre-sión no coinciden siempre con los puntos corres-pondientes de la imagen, lo que se traduce en irre-gularidades en el trazo; una misma letra puede apa-recer con grosores ligeramente diferente según laposición en que haya ido a caer. Un segundo factores psicofísico; la vista humana detecta fallos de ali-neación aunque no los vea propiamente.

Esto no se aprecia en un monitor, debido a quelos puntos son luminosos e irradian, fundiéndosecon sus vecinos, y a que los puntos tienen diferenteintensidad. Por esta razón la resolución con la quetrabajan la mayoría de los monitores, que está entorno a los 72 dpi, resulta satisfactoria. Cuando lamisma imagen se imprime, en negro sobre blanco(con lo que la irradiación funciona en sentido in-verso), con puntos de igual intensidad, la resolu-ción necesaria para conseguir resultados similarespuede ser más de 5 veces mayor. Se consideran los300 dpi como un límite inferior para impresión detextos con calidad equivalente a la de un libro co-rriente y los 600 dpi como un límite adecuado parauna calidad realmente comparable a la de las bue-nas impresoras tradicionales. Las mejores impre-soras, las Linotronic, tienen modelos que alcanzanlos 1.270 dpi y los 3.386 dpi por las razones que severán a continuación. Esto quiere decir, entre otrascosas, que para controlar los detalles de la imagenen el monitor será necesario trabajar con la imagenmuy ampliada y desplazándose por sus diferentespartes para analizar los detalles.

Una resolución de 600 dpi sigue siendo sin em-bargo insuficiente para imprimir imágenes con unaamplia gama de grises y degradados continuos. Unaimpresora no puede variar la densidad de la tintapara conseguir diferentes niveles de gris tal comoocurre en fotografía o en pintura. Para simular lavariación de intensidad se recurre a una técnicamediante la cual se logra un efecto óptico similaral de utilizar diferentes intensidades, a base de crearpuntos yuxtapuestos de diferente tamaño o de di-ferente distribución, que no se aprecian a simplevista. Esta técnica se denomina convencionalmen-te de semitono (halftoning).

Semitonos, "lineatura" y dithering

Hay dos modos principales de obtener semitonos:mediante variación del tamaño de los puntos, tal

como se hace en las técnicas tradicionales de im-presión y mediante la variación de la distribuciónde los puntos, de modo que se obtengan minúscu-las áreas de diferente densidad tal como se hacepor medios informáticos.

El primer método, el semitono tradicional, delque se muestra un ejemplo en las figura 29 y 30, seconsigue fotografiando el original a través de unasplanchas de vidrio recorridas por líneas negras envertical y horizontal. Estas líneas, que tradicional-mente se obtenían haciendo incisiones verticales yhorizontales sobre el vidrio que se rellenaban debetún, crean una matriz de pequeños huecos cua-drados que permiten el paso de la luz y que actúancomo diminutos objetivos fotográficos. Cada zonacorrespondiente de la imagen original, así fotogra-fiada, proporciona una impresión sobre el negati-vo que, por efecto de la difracción, se convierte enun punto más o menos grande, en proporción di-recta con su luminosidad.

El número de líneas con que se graban estas plan-chas de vidrio, que se colocaban delante del nega-tivo y dan una medida directa de la calidad de lareproducción, se denomina lineatura, resoluciónde trama o "frecuencia de pantalla" (screenfrequency) y se mide en lpc (líneas por centímetro)o lpi (lines per inch). La figura 31 muestra unarelación de las frecuencias características que seutilizan en todas las imprentas. La calidad "grue-sa" se utiliza en folletos, boletines o periódicos debaja calidad. La calidad "media" en libros de cali-dad variable, desde 40 lpc, relativamente tosco, a60 lpc, de calidad relativamente buena. La mayo-ría de los periódicos se imprimen a unos 35 lpc (85lpi). Los valores por encima de los 70 u 80 lpc (180a 200 lpi) corresponden a libros o revistas de arte,impresos sobre papel brillante con una alta calidadde reproducción.

Estos valores están directamente relacionadoscon la calidad del papel y el proceso de impresión.Si se pretendiera imprimir un periódico, con unproceso adecuado para 35 lpc a resoluciones supe-riores, se obtendrían resultados no homogéneosdebido a que los puntos resultarían demasiado pe-queños para las condiciones de impresión y se per-derían, las áreas obscuras tenderían a confundirsey, en general, disminuiría la calidad de la impre-sión, en contra de lo que parece que sería de espe-rar. Con papeles satinados se puede llegar sin pro-blemas a los 60 lpc (150 lpi) y con papeles de altacalidad hasta 80 lpc (200 lpi). Utilizando técnicas

Page 218: [Architecture eBook] Aplicaciones as en Arquitectura

220 Aplicaciones informáticas en arquitectura

especiales, como el offset seco, pueden alcanzarselos 120 lpc (300 lpi). Pero, en general, pocas im-prentas trabajan bien por encima de los 50 o 60lpc. En blanco y negro se utilizan valores algo másaltos que en color.

En cualquier caso, esta técnica no puede utili-zarse en las impresoras corrientes que sólo admi-ten dos niveles de grises y puntos idénticos. Poresta razón es necesario utilizar técnicas de semitonodigital (digital halftoning) y agrupar puntos paraobtener células, pixels de mayor tamaño, que per-mitan obtener diferentes intensidades por combi-nación de los puntos que los forman. Cuanto ma-yor sea el número de puntos asociados para formaruna célula, mayor será el número de combinacio-nes posibles de puntos blancos y negros que se veancomo diferentes grises a una distancia adecuada y,por consiguiente, mayor será el número de grisesaparentes que se pueden crear. El número de grisesserá n × n + 1, donde n es el número de elementosde la célula. Así, por ejemplo, una célula o spot de

4 × 4 puntos proporcionará 17 niveles de gris, unacifra insuficiente para conseguir imágenes que re-produzcan adecuadamente una amplia gama de gri-ses, y una célula de 8 × 8 proporcionará 65 nivelesde grises lo que puede ser más que suficiente paramuchas aplicaciones.

Esto se consigue a costa de la resolución. Si te-nemos una impresora que imprime a 300 dpi y uti-lizamos células de 4 × 4 para imprimir imágenesgrises la resolución real será un cuarto de la nomi-nal, es decir, estaremos imprimiendo líneas con unaresolución efectiva de 75 dpi. Esta es la razón porlo que los más potentes modelos de impresora,como la Linotronic, utilizan resoluciones superio-res a los 2.000 y 3.000 dpi.

La obtención de semitonos por medio de célu-las basadas en combinaciones de puntos tiene elinconveniente de que determinadas distribucionesdan lugar a efectos geométricos que configuranpatrones visibles denominados efectos "de moirée".Para evitar efectos extraños se adoptan determina-das configuraciones geométricas en las células equi-valentes de cada nivel de gris. El patrón de basedel halftoning puede variar de forma y así existenpatrones lineales, romboidales, etc., generados apartir de matrices de diferentes tamaños. Esta téc-nica de reorganización en patrones que producendiferentes efectos se denomina dithering. La figu-ra 32 muestra los valores principales de un con-junto de 17 niveles obtenidos por agrupacionesaleatorias de puntos sobre células de 4 × 4.

¿Qué resolución utilizar si queremos obtener una

Figura 29 Imagen obtenida de un periódico(semitonos con una lineaturade 50 lpc)

calidad lpc lpi

gruesa 20 -30 50 - 75

mediana 40 - 60 100 - 150

fina 70 - 80 180 - 200

Figura 31 Frecuencias característicasutilizadas en impresión tradicional

Figura 30 Ampliación de la imagen anterioren la que se aprecian los diferentes puntos

Page 219: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 221

resolución equivalente a alguna de las que hemosdado más arriba con referencia a la impresión tra-dicional? Si supiéramos, por ejemplo, que una im-presora a 300 dpi utiliza spots de 4 × 4 esto querríadecir que la resolución efectiva de una imagen se-ría de 75 dpi (300/4).

Si, a la inversa, queremos trabajar con una im-presora capaz de generar "lineaturas" de 150 lpi yser capaz de interpretar 256 niveles de gris quieredecir que necesitaremos una impresora con unaresolución efectiva de 2.400 dpi (256 niveles re-quieren células de 16 × 16; 16 × 150 = 2400). Elproblema está en que, por lo general, no se conoceel tipo de spot utilizado por las impresoras corrien-tes; los fabricantes no suelen proporcionar este dato.Y con esta observación, a la que seguirían otrassimilares, abandonamos el terreno de los númeroscon significado claro para entrar en el de las esti-maciones con significado brumoso.

Suponiendo que conociéramos la frecuencia denuestra impresora ¿cómo relacionar este valor conel de la resolución adecuada de la imagen? Unaregla aceptada corrientemente por los profesiona-les, y que está basada más en resultados prácticosque en cálculos teóricos es que para obtener "bue-nos resultados" la resolución de la imagen deberíade ser en torno a 2 veces (entre 1,5 y 2,5 según losmás y los menos optimistas) la resolución de fre-cuencia de la impresora. Es decir, si queremos ob-tener una frecuencia de 150 lpi la resolución de laimagen debería ser de 300 dpi. Obsérvese que, se-gún esta regla, es innecesario, para imágenes cuyodestino es acabar siendo impresas por medios tra-dicionales, ir más allá de los 400 dpi (200 lpi × 2).Y, contrariamente a lo que se piensa, un exceso deresolución puede llegar a ser contraproducente.

Color

Por lo que respecta al color los problemas son bas-tantes más complejos y los resumiremos muy bre-

vemente en lo que sigue. En el capítulo anterior yase han mencionado los principales modelos que seutilizan para especificar un color (ver figuras 20 y21 de este capítulo). Por lo que respecta al controlde la impresión, en primer lugar hay que subrayarel hecho de que no es posible conseguir una repro-ducción sobre papel que reproduzca los mismoscolores que aparecen en un monitor. La figura 33muestra varios diagramas superpuestos. El mayorde todos, etiquetado con la letra "a", representa eldiagrama de la CIE que, teóricamente, representael rango de colores que es capaz de percibir unapersona "normal", esto es, una persona menor deunos 35 años y sin ninguno de los defectos en lapercepción de los colores que afectan aproxima-damente a un 6% o un 8% de la población(mayoritariamente masculina).

Los valores situados en el vértice inferior dere-cho de esta especie de suela de zapato que forma eldiagrama de la CIE representan rojos puros, lossituados arriba de todo, en la punta de la suela,verdes, con amarillos anaranjados hacia la derechay amarillos verdosos hacia la izquierda; los situa-dos en el vértice inferior izquierdo del diagramarepresentan azules puros.

El diagrama etiquetado como "b" representa loscolores que es capaz de reproducir un monitor.Como se puede apreciar en la figura este rango esmuy inferior al rango de colores que podemos real-mente apreciar.

El diagrama etiquetado como "c" representa loscolores que es capaz de reproducir una impresorade color. Este rango es aún más restringido que elde un monitor y, lo que es peor, coincide con el deun monitor tan sólo en su zona central pero hayuna marcada discrepancia en los extremos, es de-cir, hay colores que un monitor puede generar perouna impresora de color no y viceversa.

En segundo lugar, la especificación de un colorse da en función de tres colores primarios que sondistintos en mezcla aditiva y en mezcla sustractiva.Pero que también son distintos entre sí pues de-penden en gran medida del dispositivo concreto queestemos utilizando. Una misma imagen, presenta-da en monitores de diferentes marcas, mostrará di-ferencias apreciables. Pero incluso puede aparecercomo distinta en el mismo monitor si no se ha cui-dado de calibrar este monitor adecuadamente enfunción de una determinada iluminación ambien-tal.

No hay ni que decir que algo similar ocurre conFigura 32 Simulación de semitonos por célulasque agrupan diferentes densidades de puntos

Page 220: [Architecture eBook] Aplicaciones as en Arquitectura

222 Aplicaciones informáticas en arquitectura

las impresoras. Pruébese imprimir una imagen, consuficiente variedad de colores saturados de todaslas gamas, en diferentes impresoras. Los verdespueden hacerse amarillentos o azulados, los azulesverdes o violetas, los rojos anaranjados o carminesy los tonos neutros desequilibrarse en todas las di-recciones posibles.

Lo primero que se necesita para intentar contro-lar los colores es ser consciente de que este proble-ma es, por ahora, irresoluble. Lo siguiente, saberque el único medio de alcanzar cierto control estrabajar con un monitor perfectamente regulado,en condiciones ambientales idénticas e imprimirsiempre con una misma impresora con la que sehayan hecho suficientes pruebas para saber cómoresponde a las diferentes gamas del espectro cro-mático. Y, a partir de ahí, armarse de paciencia yanotar el tipo de corrección que es necesario haceren cada canal, en función de un monitor determi-nado y una impresora determinada para reducir almínimo el impacto de estas inconsistencias.

Dispositivos

Ya se han comentado las diferencias principales enel capítulo 2. Recordaremos brevemente lo dichoahí insistiendo en otros aspectos y con referenciasespeciales a la impresión en color.

a) Un plotter de color puede considerarse, porlo que respecta a su funcionamiento técnico, comouna gran impresora por lo que, según su tipo, val-drá lo dicho para alguno de los tipos de impresorasque se mencionan en lo que sigue.

b) Las impresoras de chorro de tinta (ink jetprinters) rocían el papel con minúsculas gotas dedensidad cuidadosamente calibrada que atraviesan

una matriz de puntos perforados sobre una planchametálica. La velocidad del papel debe estar tam-bién cuidadosamente calibrada pues aunque el se-cado es muy rápido ligeras diferencias en la velo-cidad se traducen en zonas emborronadas. La im-presión a color es, por esta razón, muy lenta. Utili-zan cuatro colores (cian, magenta, amarillo y ne-gro) en lugar de uno solo y, con un poco de suerte,la ligera dispersión de las tintas favorece la mez-cla. Las resoluciones nominales se dan (1999) entres categorías básicas: baja, en torno a los 300 dpi;media/ alta, en torno a los 600/700 dpi; y "muyalta", en torno a los 1200/ 1400.

c) Las impresoras electrostáticas, al igual quelos plotters electroestáticos cuentan con un dispo-sitivo que coloca una carga negativa en los puntosdel papel que van a ser impresos; el toner, carga-do, se adhiere a estas partes. También pueden utili-zar los cuatro colores de la cuatricromía sustractiva.

d) Las impresoras láser funcionan en base a unprincipio similar pero más sofisticado. Un rayo lá-ser rastrea un tambor cargado positivamente y re-cubierto de una capa de selenio. Las áreas alcanza-das por el rayo láser pierden su carga. El toner estácargado negativamente y se adhiere a las partes quehan permanecido cargadas. El principio es el mis-mo en impresión a color con la diferencia de que elrastreo se repite cuatro veces. Debido al tipo detecnología, a igualdad de resolución la calidad esbastante superior a la de las impresoras de chorrode tinta. La velocidad también es mayor. Y el pre-cio también.

e) Las impresoras de transferencia térmica(thermal transfer printers) se basan en diminutaspuntas calefactoras que se agrupan en densidadesdel orden de unas 200 por pulgada. Transfierenpigmentos desde un papel recubierto con cera decolor al papel de imprimir. Estas puntas calefactorasse calientan selectivamente en función de la infor-mación recibida que, como antes, se correspondede un modo directo con la matriz de puntos queconfiguran estas puntas. Se utilizan principalmen-te en impresión a color y el papel de transferenciaes un rollo continuo en el que se alternan 4 franjasde cian, magenta, amarillo y negro, de longitud igualal tamaño del papel de imprimir. A pesar de lo so-fisticado del proceso, la impresión puede durar me-nos de 1 minuto debido a que las puntas calefactorasse calientan y enfrían con gran rapidez.

f) Las impresoras de transferencia de colorantepor sublimación térmica (thermal sublimation dye

a) CIE 1931

b) Monitor

c) Impresora de color

Figura 33 Rangos cromáticos de un monitor yuna impresora de color

Page 221: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 223

transfer) son relativamente similares a la anterioren su funcionamiento general. El término"sublimación" se refiere a que, en teoría, hay unatransición del estado gaseoso al sólido sin pasarpor el líquido algo que parece discutible que ocu-rra exactamente así. En cualquier caso, hay unadiferencia realmente importante y es que esta téc-nica de transferencia permite alcanzar más de 200intensidades de gris por cada uno de los 4 canales.Esto, unido a una resolución suficiente, que estásiempre por encima de los 200 dpi y a que se pro-duce un cierto efecto de fusión entre las tintas, ha-cen que la calidad que se alcance sea casi fotográ-fica, claramente superior a la de las anteriores. Sonalgo más lentas pero proporcionan la máxima cali-dad para impresión a color sobre papel.

g) Otro método de obtención de copias perma-nentes es por medio de una filmadora. Se denomi-na filmadora a un dispositivo que consiste en untubo de rayos catódicos en cuyo extremo se sitúa,en lugar de una pantalla recubierta de fósforo, unacámara con la película abierta hacia el interior deltubo. La imagen se envía desde la CPU a través deun puerto paralelo, igual que se enviaría a un mo-nitor. El rayo de electrones va recorriendo muy len-tamente la película (puede tardar alrededor de 3minutos en filmar una imagen de 4 Mb) efectuan-do una pasada por cada uno de los tres canales rojo,verde y azul, a una resolución que puede alcanzarlas 4.000 líneas y hasta las 8.000 líneas en lasfilmadoras de mejor calidad.

8 Aplicaciones arquitectónicas

Como ya hemos dicho anteriormente, dentro delprocesamiento de imágenes se incluyen muchastécnicas y métodos que pueden agruparse bajo dosgrandes grupos de aplicaciones; por un lado la res-tauración o mejora de imágenes, lo que puede lle-var de hecho hasta la creación de imágenes origi-nales y, por otro lado, el análisis o la interpretaciónde imágenes.

En el primer caso se trata de corregir desde pe-queñas deficiencias que entorpecen la visión hastaanomalías muy grandes que las hacen casi inservi-bles.

El segundo caso abarca desde técnicas relativa-mente sencillas como la vectorización, hasta técni-cas propias de robótica y visión artificial. Estosgrandes grupos tienen también su paralelo en elcampo de la arquitectura.

Técnicas utilizadas

En el campo específico de la arquitectura el trata-miento de imágenes implica a una enorme varie-dad de técnicas de las que mencionaremos tan sólolas principales:

1. La preparación de imágenes de proyecto.Esto implica:a) la generación y retoque de imágenes apartir de procesos previos de modelado yrendering;b) la generación de texturas materiales quepuedan incorporarse a una simulación;c) la fusión de imágenes, obtenidas a partirde modelos virtuales, con imágenes obteni-das por fotografía de escenarios reales;d) el control de la impresión y la filmaciónde los resultados obtenidos en los procedi-mientos anteriores.

2. La generación directa de imágenes porprocedimientos directos de pintura electróni-ca o por collage electrónico a partir defotografías de escenarios reales.

3. La recuperación y restauración de imágenes.Esto puede aplicarse a:a) la recuperación de dibujos o imágenes deotros proyectos, sea con fines de cataloga-ción, sea para utilizarlos en otros proyectos;b) la vectorización de dibujos tradicionales yel retoque de los resultados para obtenermodelos de CAD2D sobre los que se puedaseguir operando.

4. La fotogrametría automatizada.

5. La conversión de textos por medio de OCRpara integrarlos en memorias de proyecto oen otro tipo de documentos.

En el último apartado de esta sección daremos al-gunas referencias adicionales sobre el uso de pro-gramas de pintura digital en arquitectura. Por loque respecta a otras técnicas que hemos menciona-do y que apenas se han tratado en secciones ante-riores insistiremos brevemente en alguna de ellas.

La vectorización permite, a partir de un mapade bits (una imagen obtenida por diversos medios,básicamente un escáner), generar representacionesvectoriales por medio de rutinas capaces de detec-tar contornos e interpretarlos como líneas. Aunque

Page 222: [Architecture eBook] Aplicaciones as en Arquitectura

224 Aplicaciones informáticas en arquitectura

por el momento en las aplicaciones comerciales mása mano su rendimiento es bajo y se necesita inver-tir una considerable cantidad de tiempo en retocarmanualmente el resultado, es de esperar que acaberesultando una herramienta potente de trabajo.Entre otras cosas, puede permitir integrar con faci-lidad bocetos hechos a mano en el procesoinformático.

Los programas de OCR (Optical ChracterRecognition) permiten la identificación automáti-ca de los caracteres de un texto de una imagen y suconversión a fuentes de un programa de tratamien-to de textos. Esto tiene un valor considerable paramuy diversas aplicaciones como es fácil imaginar.Y puede extenderse a otros campos. En la actuali-dad ya existen diversas aplicaciones experimenta-les que hacen lo mismo pero detectandosimbologías especializadas, como las usadas enarquitectura para representar aparatos sanitarios,muebles, instalaciones, etc.

Por lo que respecta a la fotogrametría automa-tizada, existen en el mercado diversas aplicacio-nes pero por el momento sus limitaciones aún sonmuchas y su coste excesivo al estar optimizadaspara equipos de alto nivel tecnológico. Reciente-mente han aparecido aplicaciones en Windows, quesalvo por el hecho de que precisan un apoyotaquimétrico tradicional y sus resultados no son tanprecisos como los habituales en topografía, es pro-bable que se acaben incorporando al trabajo profe-sional.

Características de los programas de retoquede imágenes

La mayoría de los programas de retoque de imáge-nes que existen en el mercado se basan en unainterfaz de usuario que permite la gestión de ruti-nas como las descritas a lo largo de este capítulo,en muchos casos sin aportar excesiva informaciónal respecto. No obstante incorporan una serie deinstrumentos informáticos específicos que comen-taremos brevemente.

Todas las aplicaciones informáticas de retoquede imágenes incluyen herramientas de dibujo, ta-les como un lápiz de color, una goma de borrar, unpincel, lupa, aerosol, etc., que comportan la utili-zación de funciones que, sea por la nitidez, el filoo el difuminado de sus bordes, implican algoritmosque combinan técnicas de dithering, con primiti-vas gráficas de tipo lineal. No obstante casi ningu-

na puede reproducir las diferencias de presión conel instrumento gráfico sobre el soporte. Esto haceque sean unos útiles pobres en recursos expresi-vos. Hay programas más sofisticados que funcio-nan por medio de lápices ópticos sensibles a la pre-sión, que sí permiten mayor flexibilidad en el tra-zo. Pero requieren una tableta digitalizadora espe-cial y no están, en general, disponibles para PCs.

Por contra, casi todas incorporan instrumentosque permiten replicar o clonar zonas del dibujo conregistros muy próximos a los instrumentos anterio-res, volver hacia atrás para rectificar errores, cap-turar un determinado matiz de color o reproducirlocon precisión en cualquier lugar. Esto proporcionaposibilidades de trabajo que resultan verdadera-mente espectaculares para quienes se inician en eluso de estos programas.

Incorporan también utilidades que permitenefectuar operaciones geométricas; operaciones de-nominadas de edición, que permiten cortar, copiar,duplicar, mezclar, etc., fragmentos de imágenes, yasean en forma de retales, transparencias o patro-nes, incluyendo generalmente también máscaras.Así como otras similares, denominadas de trans-formación de fragmentos de imagen, tales comogiros, cambios de tamaño, distorsiones libres,distorsiones de perspectiva, etc.

También incorporan métodos de selección no-tablemente variados que permiten trabajar sobrepartes de la imagen con muy diversos criterios. Laselección puede llevarse a cabo con herramientasgeométricas, dibujando regiones sobre la imagen obien definiendo varios tipos de rangos a partir delos cuales se realiza una selección automática enfunción de los valores. En la definición de estosrangos tienen incidencia los conceptos de vecinda-rio descritos más arriba. Los algoritmos subyacen-tes a todos estos métodos de selección son los cita-dos en las páginas precedentes para los diferentestipos de operaciones.

Suelen, además, incorporar herramientas y téc-nicas diversas de filtrado, tales como los descritosde suavizado o endurecido, y parámetros de con-trol de la imagen, color, contraste, mapa de grises,histograma, combinaciones de modelos cromáticos,etc., así como colecciones de filtros de efectos es-peciales tales como mosaicos, olas, ruidos diver-sos y un sin fin de variedades. Existe también laposibilidad de adquirir bibliotecas especializadas.

Algunos de los programas más conocidos quefuncionan sobre PCs (1999) son Adobe Photoshop,

Page 223: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 6. Imágenes 225

Picture Publisher o CorelDraw. Las diferenciasentre estas aplicaciones son relativamente peque-ñas y se limitan a unas pocas opciones, tales comola utilización de capas, la edición mediante álbu-mes o la gestión de las máscaras.

Collage electrónico

Dentro de las posibles aplicaciones arquitectóni-cas tiene particular interés, lo que hemos denomi-nado collage electrónico (ver en bibliografía, Mo-nedero, Redondo, "Electronic collage",1992). Estatécnica, de la que el Laboratorio de Técnicas Grá-ficas de la ETSAB ha realizado y expuesto variostrabajos (la figura 22 de este capítulo es parte deuno de ellos, realizada por el autor para la Diputa-ción de Barcelona en 1994), era hasta hace pocoescasamente asequible debido a los requisitos dehardware.

Sin embargo la rapidez con que ha evoluciona-do la tecnología informática ha permitido en pocotiempo pasar de pequeños estudios con imágenesde pequeño formato, 5l2 × 5l2 y 64 niveles de gris,hasta las actuales de 2.000, 3.000 o 4.000 pixels enlínea a color real. Cualquier usuario de un PC pue-de en la actualidad embarcarse en trabajos simila-res que hasta hace muy poco tiempo estaban reser-vados a equipos especializados.

Este tipo de trabajos se basa en la fusión de frag-mentos de diferentes imágenes, retocados con he-rramientas informáticas. Es posible también inte-grar modelos tridimensionales iluminados según lascondiciones de la escena, a partir de programas quepermiten reproducir aproximadamente las condi-ciones de asoleo en un lugar preciso y a una horadeterminada.

El trabajo directo sobre imágenes que vienen porun lado de un modelo virtual de un proyecto arqui-tectónico y, por otro, del lugar en donde se inserta-rá el proyecto proporciona una libertad de acciónconsiderablemente mayor que la elaboración de unmodelo geométrico y se relaciona de un modo másdirecto con el proceso de concepción de la obra. Elque los arquitectos no lo utilicen con más frecuen-cia para proyectar sólo puede ser debido al desco-nocimiento, o al respeto o la pereza por tener queusar un ordenador en lugar de un lápiz.

La inserción de modelos virtuales es un procesomás complejo que, de hecho, integra todo cuantohemos visto hasta aquí. En el siguiente capítulorevisaremos todo el proceso que hay que seguir a

partir de un modelo sencillo.La inserción de un modelo virtual en un contex-

to determinado puede llevarse a cabo por métodosaproximados o por métodos más precisos. Si lo quese necesita es una simulación muy exacta puedeser necesario llevar a cabo un levantamiento topo-gráfico del lugar que se quiere estudiar, a la vezque se toman diversas fotografías desde puntos per-fectamente localizados con cámaras de precisión.A partir de esta base se puede modelar cualquierarquitectura que interese, representarla yvisualizarla iluminada según las condiciones origi-nales y, finalmente, fundir en una sola imagen elentorno con el edificio, aplicando texturas mate-riales mediante fragmentos extraídos de otras imá-genes, adecuadamente tratados para acomodarlosa las condiciones de iluminación de la escena o, enotros casos, usando texturas procedentes de otroscontextos.

Page 224: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 227

Capítulo 7 . Anteproyecto

Los temas desarrollados en las clases precedentessumarizan los conceptos, las técnicas y las cuestio-nes principales que se plantean al concebir un pro-yecto, entendido como una propuesta formal ymaterial, sin considerar por el momento los pro-blemas específicos que se derivarían de su cons-trucción real. En este último capítulo de la primeraparte de esta obra se recogen determinados aspec-tos secundarios que se comprenderán mejor des-pués de haber desarrollado los temas anteriores yse revisan los temas tratados desde un punto de vistaunitario aportado por la propia noción de antepro-yecto y por el ejemplo propuesto.

1 Consideraciones generales

A lo largo de los 4 capítulos anteriores se ha pasa-do revista a las técnicas principales que permitenelaborar un anteproyecto. La sucesión en que sehan presentado estas técnicas ha seguido un ordenlógico que coincide aproximadamente con el quese sigue en la práctica. Hay que advertir, sin em-bargo, que este orden no tiene porque ser exacta-mente el propuesto; el hilo conductor adecuado parala exposición escrita no es el mismo que el hiloadecuado para desarrollar un proyecto.Cabe, por ejemplo, la posibilidad, de que un arqui-tecto empiece por elaborar una imagen y, después,utilice esta imagen como punto de partida para losdibujos iniciales del proyecto. También puede ocu-rrir que un arquitecto elabore una serie de dibujosa mano y, cuando ha llegado a un resultado intere-sante, pase estos dibujos por un escáner y losvectorice o los utilice como imagen de fondo so-bre los que dibujar con un programa de CAD2D.También es relativamente habitual que se comien-ce por elaborar directamente un boceto 3D y, alllegar a cierto resultado satisfactorio, se utilice estocomo base para los dibujos 2D. Aún más habitual

es que no se pase del estadio 2D. Muchos despa-chos utilizan la informática para generar planos yprescinden de los modelos e imágenes, sea porqueno les interese o porque prefieran hacerlo por me-dios tradicionales, sea porque no cuenten con losrecursos técnicos para hacerlo en su despacho.

En general, sin embargo, el proceso es el des-crito. Se comienza por elaborar una serie de dibu-jos en 2D que, cuando se ha llegado a un grado dedefinición suficiente del proyecto, se utilizan comobase para elaborar un modelo geométrico 3D. Estemodelo se completa con la adición de luces virtualesy atributos materiales. Esto implica la incorpora-ción de imágenes a la escena, sea para definir tex-turas específicas de elementos tales como pavimen-tos o muros, sea como fondos de la escena que seesté simulando.

La imagen así obtenida puede, por último, serretocada o ajustada para corregir defectos o puedeintegrarse en otra imagen que represente el lugaren que se va a construir el proyecto. Con esto que-da completado el proceso de un modo que, en loesencial, no difiere de lo que se hacía por métodostradicionales.

2 Desarrollo de un ejemplo

Todo esto adquirirá mayor sentido si se basa en unejemplo concreto. Lo más interesante sería, sinduda, describir el proceso de creación de un pro-yecto real y analizar el modo en que las herramien-tas informáticas pueden incidir en este proceso.Pero esto nos obligaría adentrarnos en cuestionesque, por el momento, parece preferible mantenerapartadas. Una alternativa más adecuada es recrearun proyecto ya existente, introduciendo un ciertogrado de interpretación, más o menos libre, en lainformación con que se cuente.

El ejemplo que se desarrollará en lo que sigue

Page 225: [Architecture eBook] Aplicaciones as en Arquitectura

228 Aplicaciones informáticas en arquitectura

puede y debe ser entendido, no sólo como algo queaclara o ilustra los conceptos desarrollados hastaaquí, sino como algo que puede funcionar como un"tutorial" y ser reelaborado, paso a paso, con lasvariantes personales que se quieran introducir, porquien quiera sacar el máximo partido de cuanto seha presentado hasta aquí.

Un tipo arquitectónico adecuado, para este fin,tanto por razones de tamaño, como por razones delibertad formal, es una vivienda unifamilar en unsolar determinado. Vamos, por consiguiente a par-tir de este tipo dando por supuesto que está resuel-to cuanto concierne a programa, cliente, condicio-nes generales, plazos, etc.

Un ejemplo que se adapta especialmente bien alo que buscamos es el proyecto para una Maisonen série pour artisains elaborado por Le Corbusieren 1924. Las dimensiones de este proyecto y la sim-plicidad del programa permiten elaborar un mode-lo completo en pocas horas de trabajo y, por consi-guiente, describirlo con cierto detalle en pocas pá-ginas.

3 Modelo 2D

En conformidad con lo dicho se comenzará, porconsiguiente, por elaborar un modelo 2D, en plan-ta y alzados. Estos se convertirán en plantillas ("blo-ques" en AutoCad) para poder dibujar sobre elloscon comodidad, situándolos en sus posiciones co-rrespondientes.

Análisis del modelo

El esquema de que se parte debe reflejar las leyesinternas de composición del modelo. El modeloelegido es particularmente interesante puesto queresulta evidente que se trata de un ejerciciocompositivo notablemente depurado y que ha se-guido pautas que es posible deducir sin demasiadoriesgo de equivocarnos, a pesar de que no conta-mos con referencias documentadas sobre los tra-zados reguladores utilizados por Le Corbusier eneste caso particular.

La construcción se ha llevado a cabo sin recu-rrir prácticamente a dimensiones, lo que respondeseguramente al proceso seguido por el propio LeCorbusier. Los pasos, que se pueden seguir másfácilmente por medio de las figuras, son los siguien-tes (entre paréntesis se indican las operaciones rea-

lizadas en CAD):

Trazados horizontales

1. Dibujo del cuadrado de base, de 7 × 7 m(cuatro líneas ortogonales de 700 unidades).

2. Trama vertical A B B B B A, con B: 1/7 delcuadrado de base y A: 3/2B (offset a 50, bo-rrando el resto).

3. Trazado del círculo inferior (centro y radiodados por trama).

4. Trazado del círculo superior (círculo, 3 pun-tos, tangencias dadas).

5. Trazado del pequeño círculo central (radioigual a 1/5 de B).

6. De este modo se obtienen el contorno del for-jado inferior y del forjado superior junto conel pilar central.

7. La intersección de la diagonal principal con

Page 226: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 229

un elemento de la trama y la intersección in-terna de este corte proporcionan la posiciónexterna de la escalera.

8. Trazando nuevas tangentes a los círculos y sub-dividiendo los segmentos de escalera resultanteen 12 y 6 partes a partir del centro se obtienela posición de los peldaños (líneas tangentes,división por 24, borrado del resto).

9. De este modo se obtiene el trazado de la esca-lera.

10. El desplazamiento de la línea de contorno delforjado superior y de la escalera completa eltrazado (offset a 10 en dirección inferior iz-quierda).

11. Los tabiques de la planta baja se obtiene a partirde una trama base.

12. Se recortan las partes que no interesan

13. Y otro tanto...

14. con los tabiques de la planta superior.

15. El trazado se completa dando un grosor uni-forme de 5 cm a los tabiques de la planta infe-rior.

16. Y otro tanto a los tabiques de la planta supe-rior.

Page 227: [Architecture eBook] Aplicaciones as en Arquitectura

230 Aplicaciones informáticas en arquitectura

Trazados verticales

15-18. Si se proyectan ortogonalmente los elemen-tos que configuran la diagonal principal seaprecia claramente que la sección está consti-tuida por dos cuadrados yuxtapuestos. Situan-do sobre este doble cuadrado las circunferen-cias reguladoras, de tal modo que sean tangen-tes a las diagonales de los cuadrados, el puntode tangencia con las diagonales y el punto detangencia superior coinciden con notable exac-titud con la posición de la baranda. Se han cua-drado las medidas a 210 cm para el límite in-ferior y a +120 para el límite superior. Laspequeñas diferencias se han dejado visibles enla ilustración por una razón de principio; esseguro que Le Corbusier utilizaba trazados re-guladores de este tipo pero es no menos segu-ro que el resultado final no obedecía al pie dela letra al trazado, pues un trazado reguladorno tiene porque dictar la geometría final de laforma sino orientarla. La geometría final de laforma se ajusta de acuerdo con razonesoperativas de diverso tipo. Por estas mismasrazones hay elementos de este proyecto queno cuadran exactamente con los trazados peroque, en otros casos, hemos dejado sin modifi-car. Por ejemplo, el arco de la baranda másalejado de la entrada es algo más pequeño delo que se muestra en nuestra reconstrucción.

19-20. El perfil de la escalera se obtiene directa-mente del trazado de la planta y de la sección.El perfil de la baranda se ha construido pormedio de una polilínea que representa el ejede un tubo de 7 cm de diámetro. El eje se hadibujado de tal modo que el tubo resulte tan-gente a la baranda por la parte superior y a laprimera contrahuella por la parte inferior. Elradio de curvatura de este eje se ha estableci-do en 35 cm. La baranda sólida de la escalerase ha dibuja con un offset con respecto a esteeje de 6,5 cm, de modo que resulte una sepa-ración de 3 cm. El perfil interior del pie de laescalera se ha dibujado a partir de una líneavertical desplazada la anchura de una huellacon respecto al perfil exterior y con una cir-cunferencia de 24 cm tangente a esta línea y ala diagonal inferior de la baranda.

Page 228: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 231

4 Modelo 3D

Se graba con otro nombre el modelo anterior o seexportan los trazados principales. A partir de ahí elproceso continúa como se detalla en los siguientesapartados. Se han utilizado exclusivamente mallaspoligonales para generar este modelo.

Plantillas

Denominaremos a los bloques que vienen del mo-delo 2D "Z0" (trazado horizontal sobre el nivel 0),"Z1" (ídem sobre los niveles superiores), "S" (sec-ción diagonal), "A" (alzado Anterior), "I" (alzadoizquierdo), "P" (alzado posterior). El punto de in-serción será la esquina inferior izquierda interioren todos los casos. El punto de inserción se etique-ta con un asa y un texto que permita identificarlo yeliminarlo con facilidad. Del dibujo de los tabiquesse conserva tan sólo el eje central. Esto permitedibujar con rapidez una polilínea de anchura igualal grueso de los tabiques que luego se extrusionahasta la altura que le corresponda que es el métodoescogido para muchos elementos de este modelo.

Para crear las superficies, las caras poligonalesse construyen de modo que la normal apunte alexterior del objeto (sentido antihorario). Lasextrusiones verticales se construyen partiendo dela cota inferior y apuntando hacia el punto de vistaprincipal (eje z positivo).

Convenios de trabajo

a) Capas auxiliaresAdemás de las capas correspondientes a cadaelemento, que se detallan a partir del siguienteapartado, se utiliza la capa 0 como capa auxi-liar. Las capas auxiliares adicionales que sevayan generando durante el proceso de traba-jo se pueden etiquetar con un nombre que co-mience por "0" para que queden agrupadas conesta. Las capas auxiliares se eliminan una vezse ha concluido el proceso.

b) Nombres de capasLa relación que se da más adelante utiliza nom-bres corrientes para los elementos. Puede serconveniente utilizar una nomenclatura más sis-temática. De hecho, en el modelo original delejemplo que estamos siguiendo, se utilizabanseis caracteres para todos los elementos. Estotiene algunas ventajas: se pueden teclear con

rapidez, son suficientes para identificar un ele-mento y el que sean siempre seis ayuda a re-cordar los nombres. También facilitan el tra-bajo otros recursos, tales como nombrar loselementos claramente relacionados con un ni-vel por medio de una etiqueta que incluya lacota en que están situados, por ejemplo,PVM000, PVM245, TAB245 (pavimento so-bre nivel 0, pavimento sobre nivel 245, tabi-ques sobre nivel 245). Se ha suprimido estanomenclatura por ser excesivamente personal.Pero es conveniente indicar que todos los quetrabajan en modelos de este tipo se toman sutiempo para encontrar un sistema de nomen-clatura que les resulte cómodo y fácil de re-cordar. Recordemos que el criterio de separa-ción de los elementos en capas corresponde ados razones distintas: a requisitos de represen-tación de materiales y a requisitos de visuali-zación.

c) ColoresLos colores utilizados dependen del fondo (ne-gro, gris o blanco) que se utilice y de las pre-ferencias de cada cual. Este modelo se ha ge-nerado sobre fondo gris con un código especí-fico de 6 colores determinados para diferen-ciar: a) dibujos auxiliares; b) elementos hori-zontales generales; c) techos; d) elementos ver-ticales generales; e) puertas y ventanas.

d) VistasSe han utilizado las siguientes. Permanentes:"z": vista general en planta; "x": vista generalen axonométrica. Variables: "zz": planta dedetalle en curso; "aa": alzado de detalle encurso; "xx": axonometría de detalle en curso.Una vez más se trata de opciones personalesque cada cual debe adaptar a sus gustos.

e) Sistemas de coordenadas locales ("ucs" enAutoCad)Se utilizan 5 de modo regular que se grabancon nombres propios de modo que se agiliceel cambio: "a", alzado anterior, "d", alzado de-recho, "i", alzado izquierdo, "p", alzado pos-terior; todos ellos con el origen en la esquinainferior izquierda correspondiente; "sec" sec-ción diagonal con origen en 0,0,0.

Page 229: [Architecture eBook] Aplicaciones as en Arquitectura

232 Aplicaciones informáticas en arquitectura

Relación de elementos

Las dimensiones se dan en unidades abstractas delsistema que se suponen equivalentes a centímetros.

1. Pavimento nivel 0Un rectángulo que se modela directamentecomo una cara poligonal de cuatro vértices.

2. Muro exterior izquierdoLos muros podrían generarse, como los tabi-ques, por medio de una polilínea extrusionada,utilizando dos, situadas a diferentes alturas,para el hueco. Sin embargo esto no permitiríadiferenciar el muro exterior y el interior quetienen materiales diferentes. Se han generadocon mallas poligonales con ayuda de una ruti-na de AutoLisp sencilla que permite introdu-cir directamente las dimensiones y la posicióndel hueco, aunque puede hacerse manualmen-te con facilidad.

3. Muro interior izquierdoBasta con cambiar de capa las partes corres-pondientes del anterior.

4. Muro exterior posteriorComo antes.

5. Muro interior posteriorÍdem.

6. Ventanas izquierda 1Para modelar las ventanas se procede, engeneral, del siguiente modo. Si denomina-mos a la anchura total de la ventana, b laanchura de la partición, c la anchura delmarco y n el número de particiones, deberácumplirse en general que a = bn + cn + c.Este cálculo puede hacerse a mano o conotra rutina sencilla en AutoLisp. A partir deaquí se dibujan las líneas maestras en unacapa auxiliar y los marcos se modelan conpolilíneas extrusionadas.

7. Ventanas izquierda 2Lo mismo.

8. Ventanas posteriores 1Lo mismo.

9. Tabiques nivel 0Los tabiques sobre el nivel 0 se modelan conuna polílinea de 5 unidades de anchoextrusionadas hasta 210 en sentido positivo.

Page 230: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 233

10. Cielo raso nivel 210El cielo raso es un triángulo que se inserta di-rectamente apoyándose en la plantilla propor-cionada por el bloque "Z1" insertado en laposición 0,0,210. Este elemento incluye las doslunetas que forman la parte inferior de los dosbalcones. Estas dos lunetas están situadas a 15por encima, en la cota 225, y se modelan comouna malla generada por una superficie regladacon 16 unidades de resolución, apoyada en elarco exterior y en la recta interior alineada conel contorno del cielo raso. En AutoCad estosupone llamar a la orden surftab1 y darle elvalor 16, y continuación a la orden rulesurfseleccionando estas dos líneas. La generaciónes automática. El arco utilizado para la cons-trucción debe borrarse o cambiarse a una capaauxiliar.

11. Pavimento nivel 245El pavimento se modela de modo semejante alelemento anterior con los dos voladizos en arcosituados al mismo nivel que el resto del pavi-mento. Las curvas de apoyo son, también comoantes, el arco exterior del pavimento y una lí-nea recta que da continuidad al borde recto.El resto del pavimento se completa con unacara poligonal triangular pero introduciendolos vértices en sentido inverso al caso anteriorpara que la normal apunte hacia el exterior.

12. BarandaLa baranda se descompone en 6 partes que semantienen unidas, a diferencia de los que sehará con la escalera, pues son del mismo ma-terial y no interfieren con otros elementos: a)la parte inferior del lado exterior, formada conuna extrusión simple, sobre el nivel 210, a 15;b) el resto del lado exterior, sobre el nivel 225,a 105; c) el lado interior, sobre el nivel 245, a85; d) dos mallas generadas como superficiesregladas apoyadas sobre los arcos interiores yexteriores para formar la parte horizontal dela baranda; e) sobre los vértices de esta mallase dibuja una polilínea externa que luego seextrusiona hacia abajo 105 unidades para for-mar la parte vertical de los elementos curvos;f) lo mismo por el lado interior, con unaextrusión de 85 unidades.

13. Tabiques nivel 245Los tabiques sobre el nivel 245 se modelancon una polílinea de 5 de ancho extrusionadashasta 210 en sentido positivo.

Page 231: [Architecture eBook] Aplicaciones as en Arquitectura

234 Aplicaciones informáticas en arquitectura

14. Escalera contrahuellaPara modelar el conjunto de la escalera se in-serta el bloque-plantilla girando previamenteel sistema de coordenadas locales de modo quecoincida con la sección diagonal. Lacontrahuella se obtiene redibujando la línea co-rrespondiente a la contrahuella yextrusionándola al ancho de la escalera. La carapoligonal resultante se copia a las posicionesdel resto de contrahuellas.

15. Escalera huellaUna polilínea que forma el contorno de la hue-lla, tal como se muestra en la figura, copiadatantas veces como huellas.

16. Escalera baranda izquierdaLa baranda izquierda de la escalera se obtienemediante una copia especular del conjuntoanterior, borrando la parte superior y modifi-cando la posición de los vértices de la últimacara poligonal (este puede hacerse, enAutoCad, con la rutina "chface.lsp") .

17. Escalera baranda derechaLas barandas de la escalera se descomponenen cuatro partes: a) el lado exterior se modelacon una malla poligonal con las caras dispues-tas del modo en que se muestra en la figura.Las partes rectangulares o triangulares de lamalla se definen insertando directamente losvértices. Las partes limitadas por arcos se de-finen, como en el caso anterior (elemento"pvm245"), como una superficie reglada conuna resolución de 16; b) el lado interior seobtiene a partir del anterior mediante una co-pia especular con el eje de simetría situado amedio camino entre las dos; c) el lado hori-zontal superior se obtiene redibujando la líneade contorno y extrusionándola a una distanciaigual al ancho interno de la escalera; d) el ladohorizontal inferior se obtiene redibujando lalínea de contorno y extrusionándola a una dis-tancia igual al ancho externo de la escalera.

18. Escalera pasamanosEl eje del tubo se obtiene directamente del blo-que-plantilla. Los tramos rectos se obtienensituando el sistema de coordenadas de modoque el eje z coincida con eje del tubo y el ori-gen con el inicio, dibujando un polígono de16 lados y extrusionándolo a la distancia deltramo. Para dibujar los tramos curvos se sitúael sistema de coordenadas local, de modo quecoincida con el plano vertical que contiene al

eje, y se genera una malla poligonal a partir deuna superficie de revolución que tenga el polí-gono como curva base y cubra el arco estima-do para estas partes. Este proceso se puedeautomatizar con una rutina que activeautomáticamente toda esta serie de órdenes apartir de una polilínea dada.

Page 232: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 235

19. Muro exterior anteriorComo los muros anteriores.

20. Muro interior anteriorÍdem.

21. Muro exterior derechoÍdem.

22. Muro interior derechoÍdem.

23. Ventanas anteriores 1Como las ventanas anteriores.

24. ColumnaSe modela con un polígono de 64 ladosextrusionado hasta la altura correspondiente.

25. ChimeneaComo la columna.

26. Cielo raso nivel 495El techo bajo cubierta requiere modelar pre-viamente el capitel con que culmina el pilar.Este capitel se modela por medio de dos cír-culos, uno del mismo diámetro de la columna,situado al final de ella, y otro de mayor diáme-tro situado en una cota superior, centrado so-bre el anterior. Apoyándose en estos dos cír-culos y con, por ejemplo, la orden rulesurf, semodela el capitel con 64 unidades de densi-dad de malla para que coincida con la resolu-ción de la columna.

27. CubiertaPara preparar los puntos de apoyo se copia elcontorno interior de los muros hasta el nivelsuperior de la cubierta. Sobre la parte de su-perficie del elemento anterior correspondien-te al círculo mayor se redibujan cuatropolilíneas con los vértices coincidentes con losde la malla anterior. Apoyándose en estas cua-tro polilíneas internas circulares y las cuatropolilíneas externas recta se generan cuatronuevas superficies regladas.

Figuras 22 a 28(en esta página y las tres anteriores)

Page 233: [Architecture eBook] Aplicaciones as en Arquitectura

236 Aplicaciones informáticas en arquitectura

5 Rendering

El modelo, así obtenido, se ha llevado a un progra-ma de rendering. Esto implica los siguientes pa-sos, ninguno de los cuales es estrictamente necesa-rio: a) copia del modelo 3D con otro nombre; b)revisión de los nombres de las capas paraadecuarlos a los materiales que se preve utilizar; c)si el modelo se va a exportar a otro programa, con-versión del archivo 3D en un archivo de formatoadecuado (por ejemplo .dxf o .3ds); d) desde elprograma escogido se convierte este archivo en unarchivo propio de este programa. Esto implicarágeneralmente que las capas se conviertan en obje-tos (la opción de conversión más corriente).

Más importante es comprobar que el modelo estápreparado adecuadamente para poder continuar tra-bajando con los criterio propios de esta nueva fase.

Preparación del modelo

La secuencia más corriente, en la primera sesiónde trabajo, sería: 1) cargar el fichero; 2) compro-bar la lista de objetos; 3) modificar alguno de losnombres; 4) separar o unir los objetos para rees-tructurar la escena. Estas dos últimas órdenes noson necesarias si se ha preparado adecuadamentela escena en AutoCad.

Al transferir un objeto a un programa derendering pueden aparecer algunos problemas ca-racterísticos. Uno de los más frecuentes es que,aparentemente, hayan desaparecido caras de algu-nos objetos. Esto puede ser debido a varias causas.Si el objeto se ha modelado "a mano" puede haber-se seguido un orden incorrecto en la asignación devértices, lo que hace que las normales apunten encondición inversa y el sistema interprete como ca-ras ocultas lo que son caras visibles. Pero esto pue-de ocurrir también cuando el objeto se ha genera-do por alguna rutina interna de cálculo de vértices.Durante la transferencia los vértices "se sueldan"(a no ser que se indique expresamente lo contrarioen las opciones de exportación); esto quiere decirque todos los vértices repetidos se convierten enuno solo, de modo que cada objeto tenga el menornúmero de vértices posible. Las consecuencias deesta operación pueden ser que se altere la direc-ción de las normales, de modo que aparezcan endirecciones alternadas en caras yuxtapuestas.

Para solucionar este problema técnico, bastantecorriente, hay tres soluciones: la primera es muy

cómoda pero tiene un coste apreciable en tiempode computación; la segunda es algo menos cómo-da pero tiene un coste mucho menor; la tercera esincómoda pero optimiza pero reduce al mínimo eltiempo de computación. Todas estas alternativasestán disponibles en la mayoría de los programascorrientes de rendering.

La primera solución es indicar al programa queno descarte caras o que "fuerce la representación a2 lados". Esto es muy sencillo y puede ser lo mejorsi se tiene prisa por comprobar resultados y la es-cena no es muy compleja, pero aumenta innecesa-riamente el cálculo. La segunda solución es asig-nar a los objetos con defectos un material tipo "2lados". Esto tiene el mismo efecto que la primerasolución pero sólo afecta a un objeto. Probable-mente es la mejor solución en la mayoría de loscasos.

La tercera solución que, en algún caso convieneprobar, consiste en modificar la orientación de lanormal en las caras afectadas. Esto puede hacersecon facilidad seleccionándolas una por una y acti-vando una orden por lo general disponible de "in-vertir normal". Previamente puede convenir utili-zar otra opción, también corriente: "unificar nor-males".

La preparación del modelo puede completarsepor pasos, pues es posible fusionar objetos de todotipo en una misma escena lo que proporciona ma-yor flexibilidad de organización. Puede crearse unacopia de una escena compleja, eliminar todos losdetalles accesorios y estudiar la iluminación y laposición de la cámara. Las cámaras y luces crea-das sobre esta base se pueden integrar posterior-mente a la escena original con la orden merge, quefusiona los dos archivos y permite incorporar lasnuevas luces y cámaras a la escena original.Similarmente, pueden introducirse nuevos objetosen la escena, lo que permite corregir el modeladoen función de los resultados.

Evidentemente, todo este proceso de transferen-cia y ajuste resulta innecesario si se trabaja con unprograma que permita incorporar recursos de si-mulación suficientemente potentes.

Puesta en escena de cámaras y luces

Al crear una cámara se pide en primer lugar suposición geométrica y la posición de su diana(target). A continuación aparece un cuadro de diá-logo que permite dar un nombre de la cámara y

Page 234: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 237

ajustar la amplitud del campo de visión (FOV, FieldOf View) sea en relación con distancias focales enmm, para quien busque una analogía con la foto-grafía, sea con ángulos del campo de visión medi-dos en grados en un rango que puede ir de 1º a180º.

El campo de visión puede también ajustarse enprofundidad de tal modo que se pierda visibilidada partir de una determinada distancia si se deseasimular efectos de atenuación en profundidad.

Una vez creada la cámara hay varias órdenesque permiten modificar todas sus propiedades: po-sición, orientación, nombre, campo de visión, ran-gos, etc. Lo habitual es disponer de varias cámarasque puedan activarse o desactivarse e ir ajustandoen función de las necesidades de la representación.

En el modelo que nos ocupa se ha dispuesto unacámara, a media altura, apuntando hacia el interiordesde el exterior, eliminando un muro, de modoque se obtenga una visión completa del interior. Lafigura 29 muestra la posición de esta cámara enrelación con el modelo.

Por lo que respecta a las luces, la primera cues-tión es decidir qué tipo de iluminación se quiererecrear. En el caso de un exterior la elección esrelativamente sencilla pues tan sólo hay una luzprincipal y todo se reduce a escoger el ángulo másadecuado para resaltar los volúmenes del modelo.En el caso de un interior la elección es considera-blemente más difícil pues como ya se ha dicho enel capítulo correspondiente, no hay recursos ade-

Figura 29 Cámaras

cuados en los programas corrientes para simularlos efectos de iluminación difusa a que dan lugarlas luces de gran superficie como las que se en-cuentran habitualmente en interiores.

Es necesario arreglárselas con dos o tres tiposde luces puntuales. Una recomendación general quepuede servir para bastantes casos particulares esdisponer luces y cámaras de tal modo que haya unaluz principal, una luz tipo foco, situada por detrásy a un lado de la cámara de tal modo que ilumine alobjeto por un lado, creando sombras sobre uno desus lados que ayuden a resaltar su volumen. Parasuavizar el contraste de esta disposición se puedesituar una luz omnidireccional suave del lado delas sombras, de tal modo que atenúe el contraste ysepare al objeto del fondo.

En el caso que nos ocupa se ha buscado una ilu-minación bastante simple, haciendo de la necesi-dad virtud y aprovechando las limitaciones de lossistemas de simulación local para buscar una re-presentación más bien abstracta que resalte las for-mas principales del modelo. El esquema de situa-ción de las luces se muestra en la figura 30. Haydos luces principales colocadas por detrás y a am-bos lados de la cámara. La primera, a la izquierdade la cámara, está dirigida hacia el triedro formadopor el muro derecho, el muro posterior y el suelo, yorientada de tal modo que se creen ligeras diferen-cias de tonalidad entre estos tres planos para facili-tar su lectura. La segunda, a la derecha de la cáma-ra, está dirigida frontalmente hacia la baranda dia-

Figura 30 Luces

Page 235: [Architecture eBook] Aplicaciones as en Arquitectura

238 Aplicaciones informáticas en arquitectura

gonal para resaltarla y crear un reflejo vertical enlos salientes curvos. Estas dos luces principales sehan complementado con una luz ambiental de va-lor más bien bajo (24/255) y con una luzomnidireccional dirigida exclusivamente hacia eltecho (excluyendo los otros elementos) para evitarque resulte excesivamente sombrío y resaltar lige-ramente el capitel que corona la columna central.

Asignación de materiales

Recordemos que el proceso consiste básicamenteen: a) escoger una colección de materiales (unabiblioteca de materiales); b) escoger un materialde esta colección; c) asociarlo a un objeto; d) ajus-tar sus parámetros de reflexividad, opacidad, tex-tura, etc. Si los atributos del material son simples(color local), la asignación es directa y aquí termi-na el proceso. Si no lo son, e incorpora patronesdeterminados, texturas, etc., es preciso, e) proyec-tar ("aplicar") el mapa de bits asociado sobre elobjeto.

En este caso se ha creado una biblioteca especí-fica relacionada con el archivo, con tantos mate-riales como elementos hay en la escena. La mayo-ría de éstos están definidos con parámetros bási-cos. Así, por ejemplo, el material "escalera-pasa-manos" está definido como un material con colorlocal RGB: 12, 24, 84 (sobre 100), reflectante enun 25%, en modo Phong . Es decir, se trata de unmaterial que simularía una pintura plástica de co-lor azul brillante.

Tan sólo se ha utilizado un mapa de bits parasimular la textura del pavimento. En este caso seha utilizado una textura generada ex profeso parasimular un pavimento de madera. La textura se hacreado en un programa de pintura digital a partirde un mapa de bits de una muestra de madera deroble. Esta muestra se ha copiado varias veces,modificando levemente su intensidad y su color.El tamaño del mapa original era de 2048 × 2048 a24 bpp. Este mapa, que se muestra en la figura 31,se ha reducido a 800 × 670 a 8 bpp (sólo grises)para este ejemplo, dadas las condiciones de salidaprevistas.

Dicho mapa se ha proyectado sobre el objeto"pavimento" por medio de una proyección planaajustada a los límites del objeto. Para resolver esteajuste se ha utilizado una herramienta especial queva incorporada en la mayoría de los programas derendering y que permite manipular un objeto vir- Figura 31 Mapa de bits del pavimento

tual que representa el mapa de bits como si fueraun componente más de la escena. La proporcióndel mapa no coincide exactamente con la del obje-to, por razones que no vienen al caso, pero la dife-rencia, que se traduciría en una diferencia de pro-porción de los elementos del pavimento, es inapre-ciable.

A este pavimento se le ha añadido un reflejo conun mapa de reflexión automático. Para esto se haseleccionado la cara superior y se le ha asignadoun tipo automático plano. Esto crea una vista de laescena desde el centro del pavimento que sereproyecta sobre el mismo como si fuera una tex-tura. Se ha escogido un porcentaje de fusión entrelos dos mapas de un 30%, de modo que predomineel pavimento de madera y el mapa especular semezcle ligeramente con este de modo que de laapariencia de un suelo no excesivamente brillante.En la figura se ha aumentado algo la proporción demezcla para que resulte más visible el recurso.

Representación provisional, ajustes yrepresentación final

Una vez asignados los materiales y ajustadas lasluces y las cámaras, el último paso es activar laorden que procesa el modelo para obtener una ima-gen de la escena. En este paso final se asignanparámetros que afectan a la calidad de la imagen,al tiempo de computación (a mayor calidad mayortiempo y viceversa) y a la salida de esta imagenque puede ser enviada a la pantalla o a un archivoexterno para su procesamiento posterior. Si se quie-

Page 236: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 7. Anteproyecto 239

re que a través de algunas de las ventanas se vea laimagen de un fondo determinado, un paisaje o unafotografía del lugar en que se va a construir el pro-yecto, es posible asignar otro mapa de bits al fon-do de modo que las partes vacías de la escena serellenen con este mapa de bits de fondo.

Por lo general es conveniente hacer varias prue-bas a baja resolución con todo tipo de filtros y re-cursos de mejora de la calidad desactivados paraacelerar el proceso. En la fase inicial del trabajotambién es recomendable hacer una representaciónobjeto por objeto, con todos los demás objetos ocul-tos, desde el punto de vista más adecuado paraobtener una imagen sin distorsiones (en planta parapavimentos, en alzado para muros, etc.) para com-probar que la asignación de materiales ha funcio-nado correctamente.

Una vez que los resultados son satisfactorios seactivan los diversos filtros de antialiasing, se au-menta la resolución y se envía la imagen a un fi-chero. La resolución dependerá del dispositivo fi-nal de salida. En este caso la resolución se ha esti-mado en 600 dpi para un tamaño de salida de 7 ×5,2 cm lo que supone 1650 pixels de ancho (2.75pulgadas × 600). Es decir, la imagen que apareceen la figura 32 proviene de un fichero, en formatotif, de 1652 × 1240 pixels y 8 bpp (monocromo).

6 Imágenes

La utilización de mapas de bits y de técnicas ade-cuadas para manipularlos se da en diversos mo-mentos a lo largo del proceso que hemos descrito.Resumiremos las aplicaciones principales para unmodelo sencillo que no difieren en lo fundamentalde las de un modelo mayor.

Texturas

Todos los programas de rendering permiten utili-zar una proyección que se repita a lo largo de unasuperficie. Esto resulta muy cómodo y da resulta-dos aceptables en el caso de texturas indefinidas.Pero, en el caso de texturas con patrones caracte-rísticos, como ocurre con maderas o mármoles, eluso de texturas múltiples debe, en general, ser evi-tado, porque el resultado es muy artificioso. Paraobtener resultados satisfactorios hay que recurrir obien a procedimientos de mezcla aleatoria, técni-camente complejos y de resultados discutibles o

bien a texturas de gran resolución que representenla totalidad del elemento.

En el modelo anterior se ha utilizado una textu-ra generada de este modo. Para generar una texturade estas características se debe comenzar por crearun mapa de bits cuyas dimensiones sean iguales omúltiplos, en pixels, de la dimensiones del elemen-tos. Otra posibilidad es grabar el contorno del ele-mento, desde una vista plana, como mapa de bits.La siguiente cosa que se necesita es otro mapa debits que presente una muestra del material que va-mos a representar, en una vista plana y con sufi-ciente calidad de imagen. Esto puede obtenerse apartir de una foto directa, de alguno de los muchosCDs con muestras de materiales que proporcionanlos propios programas, o bien de intercambios,compras, etc.

De este mapa se hace una copia y se ajusta eltamaño de tal modo que los detalles resulten deuna resolución adecuada para un sector similar delmapa que vamos a generar. A partir de aquí todo loque hay que hacer es ir copiando partes de este mapaoriginal, llevarlos al nuevo y modificar ligeramen-te el color y la intensidad de las partes copiadas. Elgrado de detalle dependerá del tipo de vista que sequiera obtener; cuanto más cercana mayor será laresolución requerida y viceversa.

Fondos

La utilización de fondos directos, esto es, de fon-dos que llenan toda la superficie de la pantalla so-bre la que no aparecen objetos y que, en principio,se muestra de color negro, es muy sencilla. Bastaactivar una orden que incorporan todos los progra-mas corrientes de rendering y que permite elegiruna imagen en mapa de bits, que puede estar situa-da en cualquier lugar del ordenador accesible parael programa.

Si la representación es interior y el fondo sóloaparece a través de ventanas, puertas, etc., esto pue-de ser suficiente para lograr una integración con-vincente del proyecto en el lugar en que está pre-vista su construcción.

Si la representación es exterior esto sólo servirápara casos especiales y será necesario entrar en unproceso más complejo de fusión de imágenes.

Page 237: [Architecture eBook] Aplicaciones as en Arquitectura

240 Aplicaciones informáticas en arquitectura

Fusión

Si se trata de la simulación de un exterior y se pre-tende situar el modelo en su lugar propio, en el so-lar en que se vaya a edificar, las cosas son algo máscomplicadas y no pueden tratarse aquí con sufi-ciente detalle. En general, habría que tomar variasfotografías del lugar, anotar la hora y el día si haysombras notables y situar algunos elementos dereferencia si no hay elementos geométricos en ellugar que sirvan de indicación para una restituciónque necesita apoyarse en, como mínimo, en dosplanos ortogonales y alguna referencia de escala.

A partir de estos datos es posible, tanto por mé-todos tradicionales como automatizados, elaborarun modelo geométrico y obtener una imagen de estemodelo que se corresponda exactamente con elpunto de vista de la fotografía y, por añadidura,iluminarlo con un luz direccional que tenga exac-

Figura 32 Imagen final

tamente la misma dirección que la del sol en lasfotografías de que se parte.

Se contará por consiguiente con dos imágenessimilares que es posible fundir. Para que la fusiónsea correcta, la resolución de ambas debe ser se-mejante y, a su vez, adecuada a la salida prevista(impresión con impresora de chorro de tinta, deláser o por sublimación, filmación, etc.). La ima-gen de una de ellas puede arrastrarse sobre la otraen modo semitransparente para poder ubicarla conprecisión. Todo lo que queda por hacer (que puedellevar menos de una hora o varias horas de trabajosegún los casos) es retocar la imagen resultante pormétodos que pueden calificarse propiamente de"artesanía electrónica" y que no difieren en lo esen-cia de los métodos de pintura tradicional hasta ob-tener un resultado final, una imagen convincente.

Page 238: [Architecture eBook] Aplicaciones as en Arquitectura

Segunda parte

Gestión del proyecto

Page 239: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 243

Capítulo 8 . Recursos básicos. Redes

En el segundo capítulo se ha proporcionado unadescripción general de los medios, principalmen-te físicos, con que se cuenta en un despacho dearquitectura para dar forma a un proyecto básico.Tal como se advertía al comienzo de dicho capítu-lo, se dejaba para otro lugar todo lo concernientea redes. Esta subdivisión resulta conveniente pordos razones. En primer lugar, para hacer másdigestible el compendio de los recursos disponi-bles que interesa conocer. Y, en segundo lugar,porque todo lo concerniente a redes abre una nue-va vía que no ha hecho sino comenzar y que con-viene abordar de modo independiente. La posibi-lidad de intercambiar resultados, de modo prácti-camente instantáneo, en primer lugar, a nivel lo-cal, con los miembros de un mismo equipo y, ensegundo lugar, a nivel mundial con cualquier indi-viduo o colectivo, conocido o desconocido, po-tenciará de un modo difícil de prever el modode trabajo de los arquitectos. Con esto nosadentramos en esta segunda parte cuyo tema prin-cipal es la gestión de la información. Al igual quese ha hecho en la primera parte comenzaremos porcuestiones generales antes de entrar en las propia-mente arquitectónicas.

1 Conceptos básicos de comunicaciónelectrónica

Entendemos por comunicación la transmisión deseñales portadoras de algún tipo de mensaje, en uncódigo compartido por emisor y receptor, a travésde un canal que preserve la integridad del mensaje.La figura 1 muestra esquemáticamente los agentesprincipales de este proceso general que ya hemosvisto en el capítulo 1 a propósito de la obra deClaude Shannon.

En esta definición aparecen algunos términosque convendrá precisar antes de seguir adelante.La transmisión consiste básicamente en la transfe-rencia de datos o información por medio de algúntipo de soporte físico y por medio de algún sistemalógico de codificación y control. El proceso detransmisión implica, de modo más directo que elconcepto de comunicación, un emisor, un sistemade codificación, un medio de transmisión, un siste-ma de decodificación y un receptor. Los emisoresy receptores son, en última instancia, seres huma-nos, pero desde el punto de vista de la organiza-ción de las comunicaciones son máquinas dirigi-das por seres humanos, con unas determinadas ca-

Orig

en

Des

tino

Emisor Codificación ReceptorDecodificaciónCanal

Figura 1 Esquema fundamental de un sistema de comunicaciones

Page 240: [Architecture eBook] Aplicaciones as en Arquitectura

244 Aplicaciones informáticas en arquitectura

racterísticas que les darán mayores o menores po-sibilidades.

La noción de codificación y decodificación seamplía, desde el punto de vista de las comunica-ciones, con el concepto de protocolo, que aparece-rá en varias ocasiones a lo largo de las explicacio-nes que siguen. Un protocolo puede entendersecomo un código que no afecta a lo sustancial delmensaje pero que lo obliga a adoptar determina-dos formalismos si quiere llegar a su destino. Lacreciente importancia de este concepto está direc-tamente relacionada con la creciente complejidadde los sistemas de comunicaciones.

En medio de estos extremos, emisores y recep-tores, codificadores y descodificadores, se sitúa elmedio de transmisión, el sustrato físico principalen que se apoyan estos extremos. También aquí cabehacer ciertas precisiones. Desde el punto de vistalógico el medio de transmisión es un canal, térmi-no que, en comunicaciones, designa cualquier víade conexión, entre los ordenadores o entre un ser-vidor y un terminal. Puede referirse tanto al sopor-te físico como a lo que circula sobre el soporte, talcomo una determinada frecuencia de transmisiónportadora de información específica. Desde el pun-to de vista estrictamente físico, el medio de trans-misión es algún tipo de medio que puede ser uncable de alguno de los cuatro tipos que tambiéndescribiremos en el apartado correspondiente o laspropias características de la atmósfera terrestre sise trata de una transmisión inalámbrica.

A veces se denomina telemática al conjunto deciencias que estudian la comunicación por mediode redes conectadas a dispositivos informáticos, untérmino que viene de la fusión de las palabras tele-comunicación e infor-mática.

Todos estos conceptos son la base a partir de la

cual se organiza algún tipo de red que también pode-mos definir así: un sistema de comunicaciones quepermite compartir recursos e información entre dife-rentes puestos de trabajo y dispositivos por medio deun conjunto de circuitos conectados entre sí porpuntos de conexión, denominados nodos. Desde elpunto de vista de su función general hay básicamen-te dos tipos de redes. Redes locales o LANs (siglasde Local Area Network, "red de área local") y redespúblicas WANs (siglas de Wide Area Network, "redde área extensa") o MANs (siglas de MetropolitanArea Network, "red de área metropolitana").

Las redes locales establecen la conexión entrediferentes tipos de dispositivos informáticos sinrecurrir a los enlaces telefónicos, o de otro tipo,de la red pública. Las redes públicas proporcio-nan la posibilidad de conectarse a grandes dis-tancias mediante sistemas de enlace que abar-can todo el territorio y a los que cualquier tipode organización o empresa privada puede co-nectarse. A estos tipos habría que añadir la Web,la red mundial que ha propiciado la apariciónde Internet y de la que hablaremos en las últi-mas secciones de este capítulo. A pesar de susgrandes diferencias todos estos sistemas, que seresumen apretadamente en la figura 2 tienen,como veremos, muchas cosas en común.

Señales. Frecuencias. Análisis de Fourier

Los mensajes que circulan por las redes, a travésde los diferentes canales que se configuran en elinterior de los diversos tipos de cables, se transmi-ten por medio de señales. Ya hemos visto, en elcapítulo correspondiente a imágenes, las caracte-rísticas básicas de una señal. Recordaremossumariamente estas características para ampliar

Ordenadorpersonal

Redlocal

Centralsectorial

Rednacional

Redinternacional

Figura 2 Tipos generales de redes

Page 241: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 245

alguna de estas ideas básicas sin las cuales difícil-mente se comprenderán los conceptos claves de lacomunicación por redes informáticas.

Una señal es una función asociada a un fenóme-no físico cuya variación determinada en un domi-nio dado puede asociarse a una información codi-ficada. Los medios utilizados en comunicación sonmedios vibratorios que transmiten impulsos de unadeterminada amplitud a lo largo de un canal. Lasfiguras 3 y 4 resumen las principales característi-cas de una señal entendida de este modo. Si supo-nemos una partícula vibrando en torno a un puntode reposo, tal como se muestra en la figura 3, sedenomina elongación (x) a la distancia recorridapor esta partícula en un instante dado y fase (j) a laposición que ocupa este elemento, en una secuen-cia temporal, en un instante dado. Estas dos varia-bles se relacionan directamente con las constantes,para una señal determinada, que se resumen en lafigura 4. Se denomina amplitud (A) a la elongaciónmáxima y periodo (T) al tiempo transcurrido entredos pasos consecutivos por el mismo punto. El pe-riodo depende de cada señal particular pero la in-versa del periodo, la frecuencia (f = 1/T) que pue-de definirse como el número de veces que un ele-mento pasa por la misma posición, en el mismosentido, en la unidad de tiempo, nos da una medidamás generalizable de la rapidez con que se mueveuna señal.

Todas las señales enviadas por canales de co-municación por medio de impulsos eléctricos va-rían periódicamente, lo que permite su representa-ción por diferentes ondas sinusoidales simples defrecuencia constante. Esta posibilidad, fundamen-

tal para el desarrollo de toda la teoría de señalesfue demostrada por el barón Jean Baptiste JosephFourier ante el rechazo y la incredulidad de algunode sus más prestigiosos contemporáneos (comoLagrange, Laplace, o Poisson). Pero, tal como sedemostró mediante diversos experimentos realiza-dos por el propio Fourier en relación con el análi-sis de la distribución del calor en un anillo de hie-rro y por otros investigadores que continuaron sustrabajos, esto no sólo es posible sino que propor-ciona la clave para la comprensión y para la inter-vención sobre una sorprendente variedad de fenó-menos.

Cualquier señal periódica irregular puede porconsiguiente, en conformidad con los principios es-tablecidos por Fourier, representarse por una sumade señales periódicas regulares. Esto permite sutratamiento matemático. La elongación y la fase,las dos variables fundamentales que caracterizanuna señal, se representan por un número complejo,lo que facilita su tratamiento unificado. El artificiomatemático con que se desarrolla toda la teoría deseñales, en el que no entraremos, no debe hacernosperder de vista, sin embargo, la íntima conexión deeste análisis con el propio funcionamiento de nues-tros sentidos; tanto el oído como la vista descom-ponen las señales por medio de "análisis" automá-ticos cuyos fundamentos pueden ponerse en estre-cha relación con el tipo de descomposición quemuestran las gráficas de la figura 5. La figura 9muestra otra forma de representación que resultamás reveladora de este punto de vista. Si en lugarde representar la señal referida a la amplitud y a laposición en un instante dado, lo que se denominael dominio espacial o dominio temporal de la se-ñal (según el tipo de aplicación que estemos consi-derando) la referimos a la amplitud y a la frecuen-cia, obtendremos lo que se denomina una repre-sentación en el dominio de frecuencias de la señal,

-A

T

A

Figura 4 Parámetros básicos de una señal

a

t

e ( )

e

Figura 3 Movimiento vibratorio y representacióngráfica de sus componentes

Page 242: [Architecture eBook] Aplicaciones as en Arquitectura

246 Aplicaciones informáticas en arquitectura

1+

2+

5+

4+

3+

7

8

9

10

+

+

+

6+

que nos proporciona una información directa so-bre lo que podríamos denominar su "estructura in-terna".

Para que resulten más comprensibles algunas delas cifras que daremos en lo que sigue convienerelacionarlas con cosas familiares. La figura 6muestra el rango de frecuencias propio de la vozhumana y de algunos instrumentos de música. Losvalores se dan redondeados; en la escala temperada(con la

4 afinada a 440 Hz) el do

0, el sonido más

bajo de un órgano, vale 16.35 Hz y el sol9, el soni-

do más grave del órgano, 12 543.85 Hz. La figura7 muestra el rango de frecuencias propio de losprincipales sistemas de comunicación: telefonía,radio TV y redes de alta velocidad.

Es posible encontrarse con algunas de las refe-rencias anteriores pero expresadas en términos delongitud de onda. La frecuencia se relaciona direc-tamente con la velocidad de la señal y con su lon-gitud de onda por la fórmula f = v/l. La velocidadde la señal es la velocidad de la onda electromag-nética de que depende que, en el espacio, es igual ala velocidad de la luz, 3×108 m/s. En el aire es

Figura 5 Descomposición de una señal en eldominio espacial (amplitudes versus tiempos)

como suma de ondas sinusoidales de fasesdesplazadas.

grave: agudo:

Órgano 16 12 544Piano 27 4 186Violín 196 2 093Flauta 262 2 093Guitarra 82 698

Bajo 82 294Barítono 110 392Tenor 131 440Contralto 196 698Soprano 262 1 046

Cinta magnética 30 12 000Disco analógico 30 10 000Disco digital 20 14 000Radio AM 40 8 000Radio FM 50 12 000

Oido humano 16 16 000

Figura 6 Rango de frecuencias (Herzios)de instrumentos musicales y dispositivos

de grabación

Page 243: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 247

2.99×108 m/s, en el agua 2.25×108 m/s y en los cris-tales en torno a los 2×108 m/s. Las longitudes deonda sobre las que viaja la señal varían según loscasos. Las señales de TV en VHF (very highfrequency) tienen longitudes de onda de unos 3 m.Las señales de TV en UHF (ultra high frequency)tienen longitudes de onda de unos 30 cm.

Ruido

Los cables están sujetos a perturbaciones conoci-das técnicamente como EMI, siglas de Electro-Mechanical Interference ("interferencia electrome-cánica"), interferencias de diferentes tipos creadasen un canal por diferentes agentes tales como cam-pos magnéticos debidos a causas eléctricas o me-cánicas. Estas interferencias se manifiestan comoruido, término genérico con que se designa a unaseñal extraña que perturba una transmisión eléctri-ca y que se manifiesta por la aparición de efectosindeseados en la recepción de los datos.

El ruido se mide en decibelios, unidad de medi-da de la relación de potencia entre dos señales,abreviada corrientemente como dB. El nombre de-riva de Alexander Graham Bell, inventor del telé-fono en 1876. La relación viene dada por 10 log

10(P

2/P

1). 1 dB corresponde aproximadamente a una

relación de potencias de 5/4; 3 dB a una relaciónde potencias de 2/1; 10 dB a una relación de poten-cias de 10/1; 40 dB a una relación de potencias de

10 000/1.Existen varias causas de la aparición de ruido

en las líneas de comunicación. Entre las principa-les hay que citar el ruido térmico o "ruido Johnson"(por su descubridor, en 1928, en los laboratoriosBell) que es el ruido producido por cualquier obje-to cuya temperatura esté por encima del cero abso-luto, o sea, por cualquier objeto. El ruido es pro-porcional al ancho de banda. El factor determinan-te es la relación entre la potencia de la señal y lapotencia total de ruido. Esto quiere decir que sideseamos mantener constante la relación señal-rui-do deberá existir una proporción constante entre lapotencia del emisor y el ancho de banda de la se-ñal. Según los diferentes tipos de comunicacionesson aceptables uno u otro tipo de relación. En sis-temas de audición corriente la relación es de unos40 dB, en sistemas de alta fidelidad 60 dB, en CDs90; para el oído humano la relación está en torno alos 120 dB. La figura 8 muestra cómo un factorconstante de ruido puede resultar más perturbadoren los extremos de una línea debido a su aumentorelativo por atenuación de la señal.

Amplitud de banda

Todo lo dicho se relaciona directamente con otranoción clave en teoría de la comunicación que esla de anchura o amplitud de banda. Se denominaasí la capacidad de transmisión de un canal en tér-minos del rango de frecuencias que admite y quees capaz de transmitir sin errores. Se expresa enciclos por segundo (Herzios) y, también, como elmáximo número de unidades de datos que puedenser transferidos por un canal en un segundo.

La amplitud de banda un canal de comunica-

Medio: Frecuencia en Hz: Orden:

Teléfono 300 Hz a 3 kHz 10 3

Radio, onda larga 100kHz a 300 kHz 10 5

Radio, onda media 300 kHz a 3 MHz 10 6

Radio, onda corta 3 a 30 MHz 10 7

TV 30 MHz a 300 MHz 10 9

Radiometría, radar 30 a 300 GHz 1011

Fibras ópticas 30 a 40 THz 1014

Espectro visible 400 a 750 THz 1015

(1 kHz = 103 Hz; 1 MHz = 106 Hz; 1 GHz = 109 Hz; 1 THz = 1012 Hz)

Figura 7 Rango de frecuencias en telefonía,radio, TV y otros medios

Señal original

Ruido de fondoSeñal alterada

Figura 8 Atenuación de una señal debido alruido presente en el canal de transmisión

Page 244: [Architecture eBook] Aplicaciones as en Arquitectura

248 Aplicaciones informáticas en arquitectura

ción se obtiene directamente por la fórmula B = f2– f1, donde f2 es la frecuencia máxima y f1 la mí-nima (ver figura 9). Cifras características que pue-den obtenerse directamente de la figura 6, son:

teléfono 4000 Hzalta fidelidad 16 000 Hztelevisión 4 000 000 Hz

La capacidad del canal, o máxima velocidad detransferencia que puede admitir, depende de dosvalores principales. En primer lugar, de la canti-dad de información que puede ser transmitida porunidad de tiempo. A esto se denomina la valenciade la señal. Si la señal circula por un canal que sóloadmite 0s y 1s este valor es 2. Si el canal admite 3señales simultáneas este valor es 8 y, en general,para n señales simultáneas habrá 2n valores posi-bles. En segundo lugar, de la amplitud de banda, B.

Conociendo estos dos valores hay una fórmulateórica para calcular el límite (límite de Nyquist)que la velocidad de señalización puede alcanzaren función de la valencia y de la amplitud de ban-da. Simplificando las alternativas podemos decirque en determinadas condiciones la capacidad delcanal C se obtiene por la siguiente relación: C =2B lg n baudios. Si n = 2 tenemos que lg2=1 y porconsiguiente C = 2B. Esto quiere decir que, porejemplo, un canal telefónico a 3100 Hz, que trans-mita una señal bivalente permitirá, en principio, unavelocidad máxima de 6200 baudios (3100 × 2). Launidad "baudio" es equivalente a bits por segundoen el caso de un canal bivalente. Más adelante vol-veremos sobre este término.

Esto significa que para aumentar la velocidadde transmisión sólo hay dos opciones básicas: sepuede aumentar o bien la valencia o bien la ampli-

tud de banda. Si el canal tiene un límite de bandadeterminado sólo puede aumentarse la valencia.Pero entonces la muestras tendrán que tomarse enun intervalo cada vez más pequeño y llegará unmomento en que eso quedará dificultado por el rui-do interno del canal. Éstas son las condiciones fun-damentales que afectan a la transmisión de infor-mación.

Otra consideración fundamental tiene que vercon el tipo de información que se quiera transmitir.Para transmitir la voz sin interrupciones se requie-ren 64 000 bps (bits por segundo). Pero si quere-mos transmitir música de alta fidelidad esta canti-dad pasa a ser veinte veces mayor, 1,2 mbps (mi-llones de bits por segundo). Y si lo que queremostransmitir es vídeo necesitaremos 45 mbps. Estascifras pueden reducirse sustancialmente gracias atécnicas de comprensión digital cada vez más refi-nadas. En el caso del vídeo pueden reducirse los45 mbps a 1,2 mbps utilizando formatos como elMPGE. También es preciso tener presente que,como veremos más adelante, los bits pueden mez-clarse de muy diversos modos, lo que aumenta lasposibilidades de enviar grandes cantidades de in-formación por un mismo canal además de abrirnuevas posibilidades de tratamiento de la informa-ción.

Por otro lado, los cables utilizados en redes pue-den transmitir de dos modos característicos: enbanda base y en banda ancha. Se denomina en ban-da base a la transmisión que aplica los pulsos detensión generados por el emisor, directamente almedio de transmisión, utilizando prácticamentetodo el espectro disponible. Se denomina en ban-da ancha a la transmisión que integra estas señalesbásicas, que son las que incorporan la informaciónque queremos transmitir, junto con otras señalessimilares, sobre una banda portadora (carrier) quese subdivide en múltiples canales mediante un pro-ceso de modulación y multiplexado. Con esto seaumentan las posibilidades de los recursos de trans-misión.

Modulación

La transmisión en banda base, es decir tomando laseñal tal cual es generada por el emisor, se utilizasobre todo en redes locales porque permite enviarla señal a alta velocidad y sin recurrir a módems.Pero no es adecuada para largas distancias ni para

Am

plitu

d

tiempo Am

plitu

d re

lativ

afrecuencia

f f10 1

Figura 9 Representación de la señal de la figura5 en el dominio de las frecuencias

Page 245: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 249

lugares con posibles interferencias por diversas ra-zones.

En primer lugar, sólo permite transmitir una se-ñal a la vez, lo que desaprovecha las capacidadesde unos medios que, con las técnicas demultiplexado que resumiremos en el siguiente apar-tado, pueden transmitir muchos canales simultánea-mente. En segundo lugar, si las longitudes de ondason largas, como ocurre con la radio, la transmi-sión es mucho más sensible al ruido y, por añadi-dura, necesita grandes antenas para captar la señal.En la región más alta de las ondas de radio, en tor-no a los 4 kHz, la longitud de onda sería l = c /f =3 × 108 m s / 4 × 103 s = 75 000 m. Las antenasrequieren en torno a 1/4 de la longitud de onda,con lo que se necesitarían más de 18 km para queuna antena así resultara efectiva, lo que es obvia-mente impracticable.

Sin embargo es posible aumentar extraordina-riamente el número de frecuencias que admite uncanal mediante un proceso de modulación del quehay diversas variantes. Básicamente consiste en lamezcla de una señal dada con una señal de frecuen-cia constante denominada carrier o portadora.

El proceso consiste básicamente en trasladar unaseñal desde su rango de frecuencias original, enbanda base, hasta un rango de frecuencias supe-rior, sin alterar su perfil característico. Por ejem-

plo, si se traslada una señal que va desde 0 a 4kHzal rango que comprende de 60 a 64 kHz la ampli-tud de banda será la misma, 4 kHz. Pero el nuevorango posibilita la utilización de técnicas de trans-misión que estaban fuera del alcance de la señaloriginal.

En principio, hay dos técnicas principales quese utilizan para convertir una señal analógica enotra señal analógica: AM (amplitude modulation)y FM (frequency modulation). En AM los máxi-mos varían con los de la señal original. El resto dela amplitud corresponde a la portadora. Se super-pone una tensión constante a la señal original y semultiplica, por medio de un oscilador, con una fun-ción sinusoidal. Después de la modulación el per-fil de los picos, de los máximos de la señal porta-dora o envolvente de la señal, reproduce exacta-mente la señal base.

La señal original se recupera mediante un pro-ceso de desmodulación. En el primer paso (rectifi-cación) sólo pasan los tramos positivos. En el se-gundo paso, un filtro de pasa-bajas elimina las com-ponentes situadas por encima de la banda base. EnFM se modula la frecuencia de la portadora ha-ciendo que siga la tensión variable de la banda base.La frecuencia aumenta con la amplitud de la señalde la banda base y disminuye con ésta.

Como también vimos en el capítulo correspon-diente a imágenes, las señales pueden ser analógicaso digitales. Las primeras toman valores continuosen un determinado rango. En un sistema de comu-nicaciones los datos se propagan por medio de se-ñales eléctricas. Una señal análoga se propaga pormedio de una onda electromagnética a través dealguno de los tipos de cables, pares trenzados,coaxiales o fibras ópticas, que veremos en la si-guiente sección y que constituyen el medio más co-rriente de transmisión. Una señal digital se propa-ga por medio de una secuencia de pulsos de voltajeque se transmiten sobre un medio alámbrico.

La principal ventaja de las señales digitales esque son más baratas que las análogas y están me-nos sujetas a interferencias que distorsionan la se-ñal. La principal desventaja es que su grado de ate-nuación es mayor que el de las señales analógicaslo que puede ocasionar la pérdida de información.Para prevenir esta pérdida es necesario utilizar re-petidores a distancias variables que dependen deltipo de medio de transmisión utilizado.

En cualquier caso esto requiere la conversiónde las señales analógicas en digitales y viceversa.

Señal original

Señal portadora

Modulación de frecuenciaModulación de amplitud

Figura 10 Modulación de amplitud (AM) y defrecuencia (FM) sobre una señal portadora

Page 246: [Architecture eBook] Aplicaciones as en Arquitectura

250 Aplicaciones informáticas en arquitectura

Hay dos grupos de técnicas fundamentales para lle-var a cabo esta conversión. Las organizaciones quetienden líneas digitales entre lugares remotos utili-zan una técnica denominada "modulación en códi-go de pulsos" o modulación PCM (Pulse CodeModulation). Esta conversión puede realizarse des-de el origen, si el usuario está conectado a un RDSI(Red Digital de Servicios Integrados) o ISDN(Integrated Service Digital Network) de la que vol-veremos a hablar en la sección dedicada a redesglobales o bien en una estación intermedia paratransmitirlos posteriormente sobre una línea de altavelocidad del tipo de las que mencionaremos en elsiguiente apartado. En segundo lugar, se puede uti-lizar un módem.

La modulación PCM se ha ido introduciendolentamente en el mundo de las telecomunicacionesa partir de un artículo pionero publicado porA.H.Reeves en 1930, y otros trabajos publicadosen la década de los 1940, entre ellos por Shannon yPierce, que advertían de las enormes ventajas quesupondría utilizar este modo de transmisión. Hastala década de los sesenta, sin embargo, no comen-zaron a implantarse sistemas que utilizaran este tipode técnicas (el primer diseño se completó en loslaboratorios Bell en 1962) y a finales de siglo suimplantación continúa con bastante más lentitud delo que se esperaba. Se basa en el teorema delmuestreo, que ya hemos mencionado, y que nosdice que basta con tomar un número determinadode muestras de una señal continua para asegurarque la información se reconstruirá integramente.Este número está relacionado directamente con la

amplitud de banda B; la señal podrá ser represen-tada con precisión por las cantidades asociadas a2B puntos por segundo.

La figura 11 muestra un ejemplo tomado de laobra de Pierce citada en la bibliografía. En el ejede coordenadas de la figura aparecen representa-das, por un lado, las amplitudes de la señal en vol-tios y, por otro lado, sus equivalentes en códigobinario que corresponden en ambos casos a los ins-tantes marcados sobre el eje de abscisas. En el casode, por ejemplo, una señal telefónica, con un an-cho de banda de 4.000 Hz, estos instantes corres-ponderían a 8.000 veces por segundo (2B, siendoB igual a 4.000). Estos códigos son transmitidoscomo pulsos todo o nada, tal como se muestra enla parte inferior de la figura. Así se digitalizan lasseñales analógicas.

La otra alternativa, de menor rendimiento peromucho más utilizada es un módem. Un módem,acrónimo de MOdulator-DEModulator("modulador-demodulador") es un dispositivo quelleva a cabo el tipo de conversiones requerido tan-to para recuperar la banda de frecuencias originalen el caso de redes de banda ancha, como para con-vertir las señales digitales en analógicas. Se usa co-

100 1 1 1 1 10 0 1 0 101

1 2 43 5

1 001

0102

4

3 011

100

110

101

111

6

5

7

0 000

Señal Descodificada

Señal Original

Figura 11 Modulación digital porcodificación de pulsos (PCM)

1 0 1 1 0 0 1 1 1

FSK

ASK

PSK

Figura 12 Sistemas de modulación digital-analógico utilizados por los modems

Page 247: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 251

rrientemente para adaptar un ordenador a una líneatelefónica. Convierte los pulsos digitales del orde-nador en frecuencias incluidas en la amplitud debanda de audio del teléfono y viceversa.

Se utilizan básicamente diferentes técnicas demodulación para transformar las señales digitalesen analógicas. En la figura 12 se ilustran las mássencillas. La forma más simple es la denominadapulsación todo o nada, OOK (on-off keying), queproviene de los primeros días de la telegrafía, cuan-do el operador conectaba y desconectaba una co-rriente eléctrica. Otra alternativa similar a ésta peromás efectiva es desplazar la amplitud en funcióndel valor digital; a esto se denomina pulsación pordesplazamiento de la amplitud o ASK (amplitudeshift keying). Una tercera técnica alternativa es des-plazar la frecuencia, denominada FSK (frequencyshift keying). Una cuarta posibilidad es desplazarla fase, PSK (phase shift keying). Y, como el valorabsoluto de la fase es difícil de determinar, se utili-za más bien una quinta técnica denominada DPSK(differential phase shift keying).

Los módems se distinguen, en general, por dosparámetros principales: su velocidad y las funcio-nes que puede llevar a cabo. Los primeros módemstransmitían a 300 o 600 bps. Para hacerse una ideade lo que significan estas cifras pensemos que unapágina de texto de unos 2.000 caracteres, que ocu-pa unas 2 kb o algo más de 16.000 bits, tardaría 1minuto en ser transmitida a 300 bps o 20 segundosa 1.200 bps. A mediados de los ochenta se comer-cializaron módems a 2.400 bps que supusieron unaprimera gran extensión del mercado. En 1987 secomenzaron a comercializar módems de 9.600 bpscon un coste, de menos de 1.000 dólares, muy in-ferior a los primeros. En 1991 aparecieron módemsa 14.400 bps que cumplían un nuevo estándar revi-sado (el V.32 bis). En 1994 la CCITT aprobó unnuevo estándar denominado V.34 que permitía ve-locidades de transmisión de 28.800 y hasta 33.600kbps. Estas cifras, sin embargo, se encontraban porencima del límite teórico que se deriva de las leyesde Shannon para las líneas telefónicas. Son veloci-dades que raramente se alcanzan de modo efectivoen la práctica por lo que se llegó a la conclusión deque se había tocado techo.

En 1997 aparecieron módems a 56.000 bps que"eluden" el límite de Shanonn a base de conectarel módem a una línea digital desde el conmutadorcentral de la compañía telefónica hasta el servidorde acceso a Internet con que se trabaje. Como esto

no siempre ocurre exactamente así es convenienteinformarse antes de adquirir un modelo 56 K quepuede proporcionar velocidades iguales a las deotro de calidad inferior.

Multiplexado

¿Cómo es posible que miles de llamadas telefóni-cas o de accesos a Internet puedan ir de Europa aEstados Unidos simultáneamente, cuando el núme-ro de cables tendidos entre los puntos de comuni-cación es, obviamente, muy inferior? La respuestaestá en el multiplexado. Cuando se establecieronlos primeros cables de comunicación telefónica, aprincipios de este siglo, cada llamada telefónica alarga distancia ocupaba un par de cables bastantemás gruesos que los actuales. A medida que se fueextendiendo la red telefónica se hizo más imperio-sa la necesidad de contar con sistemas más efica-ces de conmutación y de transmisión.

Se denomina multiplexado (multiplexing) al pro-ceso que permite entrelazar o transmitir simultá-neamente dos o más mensajes sobre un único ca-nal. Y también al proceso o equipamiento que per-mite combinar un número de canales individualesen un espectro común o en un flujo de bits comúnpara su transmisión. Hay dos tipos de técnicas prin-cipal de multiplexado, una de ellas, en declive,FDM (Frequency Division Multiplexing) por divi-sión de frecuencia, otra, predominante, TDM (TimeDivision Multiplexing) por división de tiempo. Labase del primer sistema es el desplazamiento o con-versión a diferentes bandas de frecuencia superiorque reproducen los perfiles diferenciales de las fre-cuencias originales pero permite que queden inte-gradas en una banda de superior capacidad.

El segundo tipo, el multiplexado por divisióntemporal, ha desplazado al anterior por ser máseconómico y más eficaz. La base de esta técnica esel envío por un mismo canal de señales correspon-dientes a diferentes mensajes en instantes diferen-tes intercalados entre sí. Una explicación algopormenorizada de como se lleva esto a cabo segúnlas recomendaciones de la CCITT paramultiplexado de señales PCM, que son las que sesiguen generalmente en Europa y Estados Unidos,permitirá entender algo mejor en qué consiste esteprocedimiento.

Supongamos que se trata de transmitir señalesvocales, como ocurre en telefonía, que requierenun ancho de banda de 8 kHz (por el principio de

Page 248: [Architecture eBook] Aplicaciones as en Arquitectura

252 Aplicaciones informáticas en arquitectura

Nyquist, el doble del ancho aceptado para que lasseñales sean claramente audibles, que es del ordende 4 kHz). Y que cada señal vocal puede codificar-se por 8 bits. Esto quiere decir que se requiere unavelocidad de transmisión de 64 kbps (8 kHz × 8bits). Si estamos tomando muestras a una frecuen-cia de 8 kHz esto equivale a tomar una muestracada 125 microsegundos (1/8.000 = 0,000125 seg).

Si queremos enviar 32 comunicaciones por elmismo circuito (una cifra convenida que propor-ciona 30 canales de comunicación directa más 2adicionales para códigos de sincronismo y señali-zación) habrá que tomar 32 intervalos de 3.9microsegundos (125 µs/ 32 = 3.90625 µs). Cadamuestra se representa por 8 bits. Por tanto se trans-miten 8.000 Hz/3.90625 µs = 2.048 kbps. O, loque es lo mismo, 32 canales a 64 kbps.

Estos son los valores correspondientes a los di-ferentes niveles normalizados por la CCITT. Elprimer nivel corresponde a una línea normalizadaen Europa denominada "E1". El equivalente aproxi-mado en USA es una línea "T1" que incorpora 24canales y transmite 1.544 kbps. Los siguientes ni-veles europeos son respectivamente:

- 1er nivel: 30 canales con velocidad saliente de2 mbps.

- 2º nivel: 120 canales con velocidad saliente de

8,25 mbps.- 3er nivel: 480 canales con velocidad saliente

de 33,5 mbps.- 4º nivel: 1920 canales con velocidad saliente

de 136 mbps.

Conmutación de circuitos y de paquetes

Como veremos en el siguiente apartado, un datofundamental para evaluar el rendimiento de una redes conocer su velocidad de transferencia. Pero espreciso comenzar por relativizar este dato que, endeterminadas circunstancias, puede ser irrelevan-te. Para comprender hasta qué punto esto es así bastacon tener en cuenta que hay transmisionessincronizadas y no sincronizadas y que hay dos di-ferentes tipos de tecnologías de transmisión, la con-mutación de circuitos y la conmutación de paque-tes.

En transmisiones sincronizadas las dos estacio-nes comienzan por enviar señales de sincronización,de tal modo que cada dato queda definido porquecae dentro de un intervalo de tiempo prefijado. Noes necesario enviar otra cosa que los habituales 8bits por carácter ya que quedan yuxtapuestos sinambigüedad. En transmisiones asíncronas unas se-ñales especiales marcan el principio y el final de

1 .... b a2 .... b a

3 .... b a

30 .... b a

A / DA / DA / D

A / D

TDM

1E

1a 2a 3a ... 30a 1b 2b 3b ... 30b 1c 2c

Figura 13 Multiplexado

1 2 43 5A

B

D

C

E

21 43

D B E C

Figura 14 Conmutación de circuitos

1 2 43 5A

B

DC

E

p n m

1 2 3 4 5 4

mnp

C

np

m

Figura 15 Conmutación de paquetes

Page 249: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 253

cada carácter. Esto tiene importantes ventajas peroen principio implica un inconveniente pues, en lu-gar de 8, se necesita un mínimo de 10 bits por ca-rácter (11 en velocidades muy bajas en los 1980)para marcar el principio y el final de cada uno.

La conmutación de circuitos, tal como ocurreen telefonía, permite mantener una conexión directapero a costa de tener que esperar a que se establez-ca la conexión. La conmutación de paquetes, porel contrario, tiene la desventaja de que la conexiónno es directa pero permite que el envío se ponga enmarcha sin necesidad de esperar confirmación. Elmensaje se subdivide en diferentes paquetes quepueden tomar diferentes rumbos en función de losaturadas que estén las líneas. Al llegar a su desti-no los protocolos normalizados en que se basa estaforma de conmutación se encargan de recomponerel mensaje original.

Las figuras 14 y 15 muestran dos ejemplosilustrativos de estas dos variantes a las que respon-den la mayoría de los sistemas actuales de inter-cambio de datos.

Velocidad de transferencia

En una red Ethernet típica, con cable coaxial, lasseñales eléctricas se propagan por el cable a la mi-tad de la velocidad de la luz, aproximadamente, esdecir a unos 150.000 km por segundo. Pero estonos dice muy poco, porque lo que realmente nosinteresa es la velocidad a la que se transmite, no 1bit, sino un conjunto significativo de bits. Es decir,lo que se conoce como velocidad de transferencia.

La velocidad de transferencia de la señal se mideen Kbps, siglas de Kilobits Per Second, y en Mbps,siglas de Megabits Per Second, que son las unida-des corrientes de medida de transferencia de datosen sistemas de comunicación. También puede en-contrarse la velocidad expresada en baudios. Unbaudio equivale, en transferencia de señalesdigitales y código binario, a 1 bit por segundo. Perosu definición general no coincide con este valor.Un baudio se define como la unidad de velocidadde señal tal que su valor sea igual al número deseñales discretas o sucesos significativos (transi-ciones de estado, cambios de voltaje o frecuencia)por segundo. En código Morse es "one-half dot"por segundo; en señales que puedan asumir 8 valo-res es "one-three bit" por segundo. El término vie-ne del ingeniero francés Emile Baudot quien desa-rrolló, a finales del siglo XIX, uno de los primeros

códigos utilizados en telegrafía internacional, elcódigo Baudot, que utilizaba 5 bits para registrarun carácter.

Para apreciar la repercusión de la velocidad detransferencia pongamos un ejemplo. Una páginade texto ocupa unos 2 kb, 10 páginas 20 kb. Si en-viamos un archivo de este tamaño por una red lo-cal que transmita a 10 mbps, la transmisión tardaráunas 2 centésimas de segundo en aparecer en otroordenador del mismo edificio, aproximadamenteel mismo tiempo que tarda en ser transferida desdenuestro disco duro. Si lo enviamos por un módemcorriente tardará alrededor de 10 segundos. Si con-tamos con una conexión ISDN (RDSI en español)con una conexión a 1,5 mbps, el envío tardará alre-dedor de 1,5 segundos.

Para enlazar con el capítulo correspondiente dela primera parte damos una relación de algunasvelocidades de transferencia características en unPC y en una red.

en un PC:disquete 0,07 mbpspuerto serie corriente 0,10 mbpsCDRom 1x 0,15 mbpsCDRom 16x 0,24 mbpsCDRom 32x (teórico) 0,48 mbpsDVD (baja) 0,10 mbpsDVD (alta) 0,25 mbpsUSB baja 1,5 mbpsiomega zip 1,4 mbpspuerto paralelo 2,5 mbpsdisco duro 10 mbpsdisco duro UDMA 33 mbpsdisco duro SCSI UDMA 66 mbpslocal bus PCI 132 mbps

en redes:telefonía 0,01 mbpsEthernet 1Base-5 1 mbpsEthernet10Base 10 mbpsEthernet 100Base-X 100 mbpsFDD (fibra óptica) 100 mbpspar trenzado nivel 5 155 mbpsT1 carrier (USA) 1,5 mbpsE1 carrier (Europa) 2 mbpsE2 carrier 8 mbpsE3 33 mbpsE4 136 mbps

Page 250: [Architecture eBook] Aplicaciones as en Arquitectura

254 Aplicaciones informáticas en arquitectura

rie, bien a través de un conector para cable de partrenzado, bien a través de un conector para cablecoaxial. En segundo lugar cambian, hasta ciertopunto, los formatos de los datos de tal manera quese adapten a este tipo de transmisión. Tambiénamplifican las señales en función de la distanciaque vaya a ser recorrida.

Por añadidura deben cumplir funciones de re-cepción o, más exactamente, funciones de controlde acceso al medio, algo que depende del tipo dered y que veremos con algo más de detalle en lasección 4 de este capítulo; si un ordenador conec-tado en red es capaz de enviar pero también de re-cibir mensajes y esto se lleva a cabo por un mismopunto, automáticamente, es fácil imaginar que de-berá existir alguna forma de controlar las colisio-nes que inevitablemente se van a producir.

La tarjeta se conecta al cable por un conectorque depende igualmente del tipo de red y del tipode cable utilizado. Los tipos de conectores más co-rrientes, que se muestran en las figuras 17, 18 y19, se corresponden con los diferentes tipos de ca-ble que veremos en la siguiente sección: losconectores de par trenzado no apantallado cuyo tipomás común es el RJ-45, el conector BNC, utiliza-do para cable coaxial delgado, como el que se uti-lizan en Ethernet, y los conectores utilizados concable de fibra óptica. Las redes Token-Ring de IBMutilizan un conector especial de par trenzadoapantallado.

Lo último que queda por hacer es instalar el soft-ware que acompaña a la tarjeta, una operación que,

2 Medios físicos de transmisión

Una red consta básicamente de ordenadores conec-tados entre sí por medio de cables. Dadas por co-nocidas las características principales de los orde-nadores, el soporte físico de una red son los emiso-res y receptores, los cables y los diversos dispositi-vos que complementan la red y sirven para efec-tuar diversos tipos de conexiones.

Los componentes más elementales de una redson los mismos que los de las primeras líneas tele-fónicas. El teléfono, inventado por A.G. Bell en1876, constaba básicamente de un par detransductores a cada extremo de la línea y de uncable que conectaba estos extremos. Un transductores un dispositivo que convierte una forma de ener-gía en otra. Ejemplos de transductores son los alta-voces y micrófonos, que convierten la presión enenergía eléctrica, al igual que ocurría con los pri-meros teléfonos o, más modernamente, aparatos queconvierten energía magnética en energía eléctrica,como los cabezales de los discos que se utilizan eninformática. Los principales componentes físicosde una red son semejantes. Se necesita, en primerlugar, un dispositivo que adapte la señal para sutransmisión y, en segundo lugar, un medio de trans-misión.

Tarjeta adaptadora

Los ordenadores que están situados al final de unared necesitan, en primer lugar, una NIC siglas deNetWork Interface Card ("tarjeta de interfaz dered") o un Network Adapter ("adaptador de red"),es decir, una tarjeta de circuito impreso que se co-necta a un ordenador o servidor y controla el inter-cambio de datos con la red. La tarjeta realiza lasoperaciones electrónicas en que se traduce el "mé-todo de acceso" o "protocolo de enlace de datos"propio de cada tipo de red. La compra de una tarje-ta es el primer paso que hay que dar para conectarel ordenador a una red suponiendo que ya exista elcableado. Las funciones principales que realiza unatarjeta corriente son las siguientes. En primer lugarconvierte el flujo de datos en paralelo que circulapor el ordenador en flujo de datos en serie de modoque puedan ser recibidos por los cables que sóloaceptan datos en serie. La figura 16 muestra unatarjeta adaptadora con, por un lado, la entrada dedatos en paralelo proveniente del PC a través delbus de expansión y, por otro lado, la salida en se-

Datos en Paralelo

Datos en Serie

Figura 16 Tarjeta adaptadora paraconexión en red

Page 251: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 255

afortunadamente, se realiza de modo automáticoen la mayoría de los sistemas operativos actuales,si bien puede ser necesaria algún ajuste adicionalde la instalación.

Medios de transmisión

Los impulsos generados por los terminales de lared se envían, en última instancia, a través de al-gún tipo de medio. En todos los casos la comuni-cación se transmite en forma de ondas electromag-néticas. En general, estos medios de transmisión se

pueden clasificar en dos grandes grupos: los quese basan en ondas guiadas sobre algún tipo de ca-ble y los que se basan en ondas no guiadas sobrealgún medio inalámbrico.

Los que corresponden al primer caso, los ca-bles, son el soporte físico principal de la comuni-cación por red. Consisten básicamente en un con-junto formado por un par de conductores que guíanlas ondas electromagnéticas en una determinadadirección. Las primeras transmisiones utilizaban uncable por señal. Cuando se telefoneó por primeravez de Chicago a Boston, en 1893, se utilizaron 2cables de cobre de 1/6" (unos 4 mm) que transmi-tían una única conversación. Posteriormente semultiplicó el rendimiento transmitiendo varias se-ñales simultáneamente por medio de una nueva téc-nica que pasó a llamarse multiplexado, a la que yanos hemos referido, y que permitió enviar decenasde señales simultáneas utilizando cables bifilares ymiles de señales utilizando cables coaxiales.

Las ondas electromagnéticas transmitidas porcable se denominan también ondas guiadas por-que se aprovecha la disposición por pares de con-ductores (bifilares o pares conductor central - con-ductor envolvente) para forzar la dirección de cir-culación de la onda. Si los materiales conductoresfueran perfectos no existirían pérdidas en esta con-ducción; se utiliza principalmente el cobre que,aunque es un buen conductor, ocasiona pérdidasen la transmisión que se traducen en un decreci-miento de la amplitud con la distancia. Cuantomayor sea la frecuencia mayores son las pérdidas.

Hay cuatro tipos principales de cables utiliza-dos en telecomunicaciones: par trenzado, cablecoaxial de banda base, cable coaxial de banda an-cha y fibra óptica, de los que se resumen a conti-nuación las principales características:

Par trenzado (twisted pair)

Es similar al cable que se utiliza en las instalacio-nes telefónicas corrientes. Está compuesto por doshilos entrelazados. El trenzado mantiene estableslas propiedades eléctricas, asegura una impedan-cia continua y minimiza las interferencias. Los con-ductores son de cobre y tienen un espesor que estácomprendido entre los 0,4 mm y 0,9 mm.

Hay dos tipos principales de este cable: el partrenzado sin blindar (UTP, unshielded twisted pair)y el par trenzado blindado (STP, shielded, twistedpair).

Figura 17 Conector RJ-45 para cablede par trenzado no apantallado

Figura 18 Conectores BNC paracable coaxial

Figura 19 Conector para cable defibra óptica

Page 252: [Architecture eBook] Aplicaciones as en Arquitectura

256 Aplicaciones informáticas en arquitectura

El par trenzado sin blindar, UTP, puede servirperfectamente para cualquier tipo de red. El tren-zado es de unas seis vueltas por pulgada lo queproporciona cierto efecto de blindaje. Es recomen-dable evitar las fuentes de ruido eléctrico y no so-brepasar los 100 m entre el ordenador y elconcentrador. Los conectores más utilizados sonel 10BaseT y el RJ-45.

El par trenzado blindado, STP, llamado también"cable tipo 2", tiene hilos de mayor grosor forra-dos con una hoja metálica muy fina, de aluminio ocobre, cuya función es reducir la absorción de rui-dos eléctricos. Suele incorporar dos pares blinda-dos y cuatro sin blindar para aumentar el númerode canales disponibles. Cada cable contiene un cier-to número de pares, que pueden llegar hasta 4.800.La distancia de uso suele estar limitada a 2.400 m.Su principal inconveniente con respecto al ante-rior es el mayor coste y la mayor dificultad de ins-talación. Se utilizan principalmente en las redesToken-Ring de IBM o en casos en que se requierauna protección o una seguridad especiales.

En general, la principal ventaja del par trenzadocon respecto a los otros medios es el coste, juntocon una buena fiabilidad y facilidad de instalación.Sus mayores inconvenientes son la fragilidad y lasusceptibilidad a interferencias, menor en el casodel par apantallado (que también es más caro). Lasvelocidades de transmisión son variables y puedenir de los 10 kbps hasta los 16 mbps aunque puedenalcanzarse velocidades mayores. El ancho de ban-da suele estar situado entre los 250 KHz y los 100MHz y pude llegar a los 300 MHz en los blindadoso apantallados. Sirve tanto para señales analógicas

como digitales.

Cables coaxiales

Se utilizan dos tipos principales de cables coaxialescon múltiples variantes de cada tipo.

a) Coaxial de banda baseEstá constituido, como el anterior, por dos conduc-tores de cobre pero dispuestos de modo diferentepara aumentar el rango de frecuencias posible; seutiliza un conductor cilíndrico hueco exterior quealberga en su interior otro conductor sólido. El ca-ble se construye con cuatro capas básicas: el hiloconductor interior, de cobre, a continuación un re-cubrimiento de un material aislante, sobre éste unamalla protectora de cobre o aluminio que actúacomo par o segundo conductor de las ondas elec-tromagnéticas y, finalmente, una última envolturaque actúa como protección exterior y reduce lasemisiones eléctricas. Se presenta en varios diáme-tros, de 10 mm a 25 mm. El cable coaxial de bandabase transporta una única señal, sin modular, y auna velocidad alta, entre 10 y 70 mbps. Lo másfrecuente es 10 mbps pero puede llegar a ser muysuperior en determinados tipos.

b) Coaxial de banda anchaLa constitución del cable coaxial de banda anchaes similar al anterior. La variedad de diámetros esmayor y el conductor central suele ser más grueso.La capa de protección exterior también varía con-siderablemente en grosor según el tipo de aplica-ción. La principal diferencia con el anterior es lavelocidad y el número de canales que puede llevar.La velocidad es baja, con un rango del orden delos 9,2 a 50 kbps, aunque puede aumentarse nota-blemente con recursos especiales. El número de

Conductor de Cobre

Aislante

Cubierta Exterior

Metal Trenzado

Figura 20 Cable de par trenzado

Metal trenzado

Cubierta Exterior

Aislante dieléctrico

Conductor de cobre

Figura 21 Cable coaxial

Page 253: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 257

canales que puede integrar es muy grande; un ca-ble coaxial de banda ancha puede transportar mi-les de canales de datos y audio y entre 50 y 100canales TV de 6 MHz para una línea de 300-400MHz. Requieren un módem para recuperar la se-ñal original. La distancia está limitada a unos po-cos kilómetros, menor cuanto mayor sea la veloci-dad de transmisión. Con frecuencias de 0,06 a 4MHz se pueden llevar 960 canales con repetidoresa 4 kms; con frecuencias de 40 - 60 MHz se pue-den llevar 10.800 canales a 2 kms.

La mayor ventaja del cable coaxial, para redeslocales, es que constituye una protección muy se-gura contra interferencias y que es muy sólido. Suprincipal inconveniente es que es más caro y re-quiere más espacio y es, por consiguiente, más di-fícil de colocar. A pesar de ser el cable propio deEthernet desde sus inicios, estos inconvenientes sehan revelado progresivamente como determinan-tes y está siendo sustituido por par trenzado noapantallado en despachos y oficinas y por fibraóptica en redes que cubren grandes distancias.

Fibra óptica

El cable de fibra óptica está formado por tres ca-pas principales: un núcleo constituido por un fila-mento de vidrio muy delgado, formado por fibrasde unos 0,1 mm de diámetro, que permite la trans-misión de la luz a grandes distancias, un revesti-miento y una capa de protección. El conjunto for-ma unos conductores muy estrechos, con diáme-tros comprendidos entre los 10 y los 25 mm. Elcristal del núcleo y del revestimiento está dopadocon materiales especiales que modifican el índicede refracción de tal modo que se asegure que el delnúcleo sea mayor que el del revestimiento para quela fibra pueda guiar la luz. Las fibras actuales tie-nen atenuaciones muy bajas, del orden de los 0,8 ylos 3,0 dB/Km, lo que permite alcanzar grandesdistancias, muy superiores a los de los anteriorestipos de cables, sin necesidad de repetidores; uncableado de fibra óptica para redes locales puedealcanzar los 4.000 m frente a los 1.500 máximosde un cable coaxial. La velocidad varía entre los12.5 y los 100 mbps y ha alcanzado los 2gbps encondiciones experimentales. El ancho de bandapuede estar entre los 200 y los 600 MHz.

Las capacidades de transmisión de la fibra ópti-ca son de miles de millones de bits por segundo lo

que ha revolucionado la tecnología de las comuni-caciones. La idea original se remonta a finales delsiglo pasado aunque los primeros pasos se dieronen 1955 cuando el científico indio Narinder S.Kapany descubrió el modo de conducir la luz agrandes distancias a través de un cristal rodeadode un revestimiento especial y en 1966, cuando Ch.Kuen Kao y G.A.Hockman, dos investigadores deStandard Telephone Ltd analizaron la pérdida deenergía de la luz al ser transmitida por cristales decuarzo de alta pureza y consiguieron atenuacionesmucho menores de lo que hasta entonces se habíapensado posible y que llegarían a ser del orden delos 20 dB/km en 1970. En ese mismo año, I.Hayashiy otros investigadores de los laboratorios Bell lo-graron crear un láser semiconductor que producíaluz a baja tensión, de un modo particularmente efi-caz para ser transmitida a través de cristales. El

FibraRevestimientosFunda

Figura 22 Cable de fibra óptica

125 62.5

62.5125

125 10

Diámetros en nm

Indice de refracción

Figura 23 Tipos de cable de fibra óptica

Page 254: [Architecture eBook] Aplicaciones as en Arquitectura

258 Aplicaciones informáticas en arquitectura

primer tendido se hizo en 1977, por AT&T, bajolas calles de Chicago. Las fibras actuales tienenatenuaciones extraordinariamente bajas, que pue-den llegar a los 0,16 dB/Km. El núcleo y el reves-timiento son de cristal de silicio muy puro, dopadocon materiales especiales para ajustar su índice derefracción. Están protegidos por una cubierta ex-terna de plástico.

La tecnología de las fibras ópticas ha evolucio-nado considerablemente en los últimos años y pue-den citarse hasta cinco generaciones de tipos defibra diferente. La figura 23 ilustra los tres prime-ros tipos. El superior, correspondiente a lo que sedenomina multimodo de índice escalonado mues-tra los inconvenientes que se han intentado evitarcon subsecuentes tipos. Si el núcleo es muy anchola reflexión del rayo de luz se desvía ligeramente,lo que se traduce en ligeros desvíos de recepciónde la señal. El intermedio, correspondiente a lo quese denomina multimodo con índice graduado, so-luciona en parte este efecto mediante una varia-ción gradual del índice de refracción. El tipo infe-rior, denominado monomodo, utiliza un núcleo muyreducido, rodeado de un revestimiento que contri-buye a minimizar la dispersión de las reflexionesinternas.

Los últimos sistemas utilizan un nuevo tipo deamplificador óptico basado en una fibra dopada conebrio (un metal de número atómico 68, que se en-cuentra en algunos minerales de Suecia) y que sepotencia con un diodo de láser. Las cifras de trans-misión logradas con estos sistemas son del ordende varios cientos de miles de millones de bits porsegundo, lo que permite predecir que, en un futurocercano, las limitaciones actuales del ancho de ban-da desaparecerán y, en principio, podrá enviarseprácticamente cualquier cantidad de informaciónpor cable.

Debe tenerse también en cuenta que los datosque hemos dado hasta aquí sobre tipos de cablesson meramente orientativos y deben tomarse conreserva pues dependen de múltiples factores, prin-cipalmente del tipo de red utilizado, cuyas varian-tes describiremos más adelante.

Medios inalámbricos

Las redes pueden organizarse también mediantesistemas inalámbricos en casos en que el tendidode cables sea muy difícil o los cambios de lugar seproduzcan con gran frecuencia. Las estaciones de

trabajo de una red inalámbrica disponen de tarje-tas especiales para transmisión y recepción. Haybásicamente cuatro tipos de sistemas inalámbricospara redes locales: a) por rayos infrarrojos; b) porradio de espectro expandido; c) por microondas;d) por láser.

Las redes de infrarrojos utilizan fuentes de luzde rayos infrarrojos para comunicar los nodos dela redes. Su principal inconveniente, en general, esque no pueden atravesar elementos opacos talescomo muros. Las velocidades corrientes son delorden de los 1 a 3 mbps. Las redes de radio utilizanfrecuencias de radio en una banda muy estrecha,por lo general de 900 a 928 MHz, similar a la delos teléfonos inalámbricos y otros dispositivos máso menos domésticos. Su principal problema es queestán expuestas a muy diversos tipos deinterferencias. La velocidad es similar al anterior,1 a 3 mbps. Las redes locales de microondas trans-miten en un amplio ancho de banda, en la regiónde los 10 a 19 GHz, bastante superior a la bandautilizada en comunicaciones globales y que vere-mos en el apartado correspondiente, con un alcan-ce máximo de 300 m y una velocidad máxima deunos 7 mbps y sin interferencias. Su principal in-conveniente es la dificultad de instalación. Las re-des de láser permiten enlaces a una velocidad quepuede llegar a los 16 mbps. Sus principales incon-venientes son el coste, la necesidad de contar convisión directa entre los puntos y la sensibilidad alas condiciones meteorológicas.

En la sección correspondiente a redes globalesampliaremos estos datos por lo que hace a la trans-misión por medios inalámbricos y microondas.

Otros dispositivos de enlace y distribución

Además de los cables, la transmisión física requie-re ciertos componentes adicionales. Estos compo-nentes varían según el tipo de cable y el tipo dered. No detallaremos qué tipos de componentes sonmás adecuados según el tipo de red para no com-plicar la exposición, limitándonos a mencionar losprincipales.

En redes locales de topología bus/tree y bandabase se utiliza un transceptor (transceiver) paratransmitir señales de la estación al cable y vicever-sa. Un transceptor es básicamente un emisor/ re-ceptor y también contiene los dispositivos electró-nicos necesarias para reconocer la presencia deseñales en el cable y para detectar colisiones. En

Page 255: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 259

este mismo tipo de redes se utilizan terminadores(terminators) para cerrar la red en los puntos ter-minales. Un terminador absorbe señales y previe-ne reflexiones al final del bus.

Para prevenir la atenuación de la señal con ladistancia se utilizan repetidores, principalmente conredes de banda base y señales digitales, que cum-plen una misión similar a los amplificadores en elcaso de señales analógicas. Su misión es reforzar oreconstruir la señal a medida que esta viaja por uncable evitando que se atenúe. La distancia a quepuede viajar una señal es limitada y depende devarios factores: el tipo de cable, la velocidad y laamplitud de banda. El uso de estos dispositivospermite aumentar esta distancia límite. Aunque nopueden darse datos muy concretos pueden tomarsecomo extremos característicos el que un cable depar trenzado puede estar limitado a los 100 m sinatenuación apreciable en condiciones relativamentecorrientes, mientras que un cable de fibra ópticaalcanzaría los 3,5 km.

La mayoría de las instalaciones recientes de LANde cierta envergadura, utilizan un dispositivo de-nominado hub que se traduce corrientemente comoconcentrador. En su forma más simple, se trata deun dispositivo que se utiliza para centralizar elcableado de una red, conectando varias estacionesa un mismo nodo. El concentrador aísla los enla-ces que funcionan mal evitando que un fallo en unode ellos afecte a los demás. Es un dispositivo inhe-rente a la topología en estrella. El primer tipo dered que ofreció este método de conexión fue TokenRing. Posteriormente fue adoptado por Ethernet.Puede diferenciarse entre concentradores pasivosy activos. Los primeros no son otra cosa que unacaja que funciona como un panel de distribución yno requiere conexión eléctrica. Los segundos sonmayores, cuentan por lo general con más puertos

de entrada y actúan como repetidores, es decir, nosólo redistribuyen la red sino que regeneran la se-ñal, aumentando la distancia de conexión entre es-taciones. La figura 25 muestra un concentrador de24 entradas tal como el que se encuentra en edifi-cios que agrupan a varios departamentos.

En una red de mayor complejidad, losconcentradores pueden conectarse entre sí forman-do una jerarquía ordenada que se corresponde conuna topología básica en estrella que asegura que laruptura en una conexión no afecta a sus vecinas, loque sí ocurre con la topología en bus y supone unode sus principales inconvenientes. Esto se corres-ponde con lo que se denomina un sistema decableado estructurado y que está recogido, en Es-tados Unidos, en la normativa 586 EIA (ElectronicIndustries Association) / TIA (TelecommunicationsIndustries Association). Otra de las importantesventajas de este tipo de configuraciones es que fa-

Rep

AmpAmp

Rep

Figura 24 Amplificadores y repetidores

Figura 25 Concentrador (hub)

H3 3H

3H H3 H3

1H

H2

H2

Servidor principal

Figura 26 Hubs jerarquizados

Page 256: [Architecture eBook] Aplicaciones as en Arquitectura

260 Aplicaciones informáticas en arquitectura

cilita el cambio de usuarios; si una estación cam-bia de lugar basta conectar el hub a un nuevo puntode la red sin necesidad de rehacer todas las conexio-nes. La figura 26 muestra un ejemplo de este tipode organización.

Los concentradores han evolucionado conside-rablemente en los últimos años. Los primeros eran,como ya hemos dicho, poco más que simples pa-neles de distribución. Después actuaron ademáscomo repetidores. Más adelante aparecieron nue-vos modelos que incorporaban además utilidadesde gestión, es decir, permitían hacer estadísticas osupervisar el estado de la red en todo momento.Posteriormente se incorporaron funciones másavanzadas de gestión así como sistemas que ase-guraban una mayor fiabilidad y protección contrafallos. En la actualidad constituye uno de los dis-positivos que evoluciona con mayor rapidez y conuna complejidad de componentes internos que re-basa los límites de este capítulo.

Las redes pueden subdividirse en subredes se-mejantes o conectarse a otras redes semejantes yaexistentes por medio de un bridge, o "puente". Sedenomina así a una conexión especial que permitepasar de una red a otra que funcione con protoco-los similares. Los puentes se utilizan por varias ra-zones, las principales de las cuales son las siguien-tes. En primer lugar, puede ser necesario ampliar

Red A

1

Red B

Bridge

Router Router

RouterRouter

2

OrdenadorPrincipal

Figura 27 Estructuras de interconexión de redeslocales con bridges y routers

la red o ampliar el número de redes que la inte-gran; esto puede llevarse a cabo, sin alterar el restode la red, por medio de un puente. En segundo lu-gar, puede ser necesario aligerar el tráfico en unazona de la red muy concurrida; el puente puedeentonces actuar como un filtro, enviando los men-sajes tan sólo a aquellos nodos a los que van desti-nados y desviando los restantes. Las operacionesque realiza un puentes van asociadas a los proto-colos propios del nivel 2 de la normativa OSI, elcorrespondiente al enlace de datos. A veces se cla-sifican en locales y remotos. Un puente local enla-za nodos de red local en un mismo edificio o enuna misma área. Un puente remoto enlaza nodosde una red local con nodos situados a gran distan-cia y pueden integrar módems para conversiónanalógico-digital si el tipo de enlace lo requiere.

Cuando las redes son de diferente tipo, lo que seutiliza es un gateway, que puede traducirse como"pasarela", "compuerta" o "puerta de acceso". Sedenomina así a una conexión especial que permitepasar de un tipo de red a otra que funcione condiferentes protocolos. Consiste básicamente en unsistema que traduce el protocolo o la serie de pro-tocolos propios de un sistema a los de otro. Unapasarela no se limita a transferir información comoes el caso de un puente sino que necesita modificartodo el sistema de empaquetado de los datos paraadecuarlo al sistema de destino. Las operacionesque realiza una pasarela van asociadas a los proto-colos propios del nivel 7 de la normativa OSI, elnivel más alto, correspondiente a la aplicación.Todas las redes locales conectadas a Internet lohacen a través de un gateway.

Un router o "encaminador" es un dispositivo decomunicación que selecciona un recorrido adecua-do para un mensaje y lo encamina por este recorri-do. Se utiliza en redes grandes y complejas en lasque un mensaje puede llegar a su destino por múl-tiples vías y es necesario seleccionar la más efecti-va. Son fundamentales en conexiones de redes lo-cales a Internet, en Intranets y en cualquier conexióncon redes externas a la local. Los routers leen ladirección de destino en los paquetes de informa-ción que reciben y les añaden información adicio-nal para facilitar que lleguen con rapidez a esta di-rección. Mantienen tablas de los encaminadoresmás próximos y de las redes locales a los que estánconectados. Cuando un router recibe un paqueteconsulta estas tablas y decide el camino más ade-cuado para cada caso o busca el encaminador más

Page 257: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 261

cercano para reenviar el paquete. Las operacionesque realiza un encaminador van asociadas a losprotocolos del nivel 3 de la normativa OSI, el co-rrespondiente a los propios de red.

Aunque son capaces de llevar a cabo decisiones"inteligentes", sobre el mejor camino a seguir endiferentes circunstancias, cuentan con escasa ca-pacidad de control sobre lo que les llegue. Losencaminadores recientes suelen venir equipadoscon unos dispositivos denominados "cortafuegos"que permiten bloquear la entrada a los usuariosindeseados. Los cortafuegos también puedenadquirirse por separado. Su función consiste bási-camente en examinar todos los datos que entran ysalen de la red y comparar su perfil con un perfil deseguridad establecido previamente. Se utilizan tansólo en redes en las que la seguridad es crítica por-que son productos caros y requieren amplios cono-cimientos para su configuración adecuada.

3 Redes locales.

Una LAN, siglas de Local Area Network, ("red deárea local") es un sistema de comunicación que po-sibilita que un grupo de dispositivos independien-tes se comuniquen entre sí para compartir recursose información. El término "local" se utiliza funda-mentalmente para distinguirla de una red pública,tal como la red telefónica, que se extiende por todoel territorio de un país, si bien puede referirse tantoa unos pocos metros como a unos pocos kilóme-tros. Pueden distinguirse al menos cuatro tipos ca-racterísticos de LAN: un pequeño grupo de trabajoque necesita trabajar de modo coordinado paracompartir recursos básicos, como la impresora o elplotter, sin entrar en toda la complejidad que im-plica una organización efectiva de la red; un equi-po unas 20 o 40 personas que quieren crear unapequeña red para aumentar su rendimiento pero queno pretenden extraer de esta todo su potencial; unaempresa de tamaño medio, de hasta 200 o 400 per-sonas, que necesita una red bien organizada parapoder funcionar con eficacia, lo que implica una ovarias personas dedicadas exclusivamente a su ad-ministración y, por último, grandes empresas demiles de empleados con redes locales e intranetscorporativas que, por lo general, cuentan con va-rias personas dedicadas al mantenimiento de la redy, por añadidura, alquilan los servicios de empre-sas especializadas en proporcionar lasinfraestructuras que se requieren en estos casos.

Características básicas

Una LAN se compone corrientemente de un servi-dor, una serie de ordenadores o terminales conec-tados al servidor, un sistema de cableado que losconecta, una serie de protocolos de utilización delcanal común y un sistema operativo específico quecontrola la comunicación entre los diferentes pun-tos del sistema. El esquema básico de una red sepuede describir como una serie de nodos conecta-dos por líneas de comunicación o arcos. Se deno-mina nodo, en comunicaciones, a un punto lógicode empalme o conexión con la red. No correspon-de necesariamente a un dispositivo físico aunqueen la práctica se refiere a un terminal del servidor oa un ordenador conectado a la red u otro tipo dedispositivo con cometidos específicos. Los nodospueden coincidir con terminales (ordenadores) ocon enlaces multipunto que permiten la conexiónde varios ordenadores a un mismo nodo. Estos en-laces se consiguen por medio de multiplexores enmodo síncrono o asíncrono. Para que la circula-ción sea posible, una red debe constar de dispositi-vos que cumplan las funciones de conmutación,transmisión, gestión y supervisión.Las LANs se organizan con tres o cuatro configu-raciones o topologías básicas que pueden combi-narse entre sí:

a) En estrella (star), en donde el equipamiento estáconectado a un núcleo central en el que se sitúanormalmente el sistema de control de la red. Lasdiversas estaciones se comunican entre sí a tra-vés de este nodo central. Es una topología utili-zada principalmente en telecomunicaciones; tie-ne la ventaja de que puede utilizar cable telefó-nico preexistente.

b) En bus o vía común, en donde no hay controlcentral y tanto el control como la conmutaciónse llevan a cabo en los nodos y los terminales;

c) En anillo (ring) en donde tampoco hay controlcentral y la conmutación se lleva a cabo en losnodos y los terminales. Los diferentes equiposse conectan formando un anillo y la informa-ción circula por todas las estaciones hasta llegara su destino.

Las topologías en bus pueden convertirse en uncuarto tipo denominado árbol (tree) por ramifica-ción de las conexiones principales al bus. La figu-ra 28 muestra un esquema de estos cuatro tipos

Page 258: [Architecture eBook] Aplicaciones as en Arquitectura

262 Aplicaciones informáticas en arquitectura

Estrella

Anillo

Bus

Árbol

básicos.En el caso de redes globales la topología es muy

compleja pero puede asimilarse a una retícula omalla descentralizada con múltiples conexionesposibles entre los nodos.

Las principales características generales de unaLAN son las siguientes:

- El usuario es una organización autónoma, decarácter privado o público.

- La superficie física sobre la que se extiende laLAN está confinada a un área limitada que pue-de extenderse desde unos cientos de metros aalgunos kilómetros pero que está corrientemen-te incluida dentro de la propiedad de la organi-zación propietaria de la LAN y raramente supe-ra los 2 o 3 km.

- La transmisión se da a alta velocidad en un ran-go, bastante variable, que puede estar compren-dido entre los 20 kbps a los 400 mbps, aunqueson más corrientes los rangos comprendidosentre 0.1 y 100 mbps y más aún los comprendi-dos entre 1 mbps y 20 mbps, a través de cablesen pares trenzados, coaxiales o fibra óptica.

- El número de estaciones o dispositivos conecta-dos no tiene límite pues puede extenderse conla ayuda de repetidores. Todos los dispositivosdeben poder conectarse entre sí y el sistema debeser fiable, esto es, debe contar con mecanismosde detección y corrección de errores. La pro-porción de errores en una LAN es muy baja, delorden de los 10-8 a 10-11.

Servidores y clientes

Pueden distinguirse, sobre todo desde el punto devista de un despacho de arquitectura, dos tipos bá-sicos de organización: master-slave y peer-to-peer.El primero cuenta con un servidor o slave y que esun dispositivo controlado por otro, tal como unaterminal o un periférico, y que sólo recibe ordenes,es decir, no hace otra cosa que servir a los diferen-tes terminales. Es más eficaz pero más caro puesdebe sacrificar un puesto de trabajo, lo que tieneescasa importancia en redes amplias pero puedetenerla en pequeñas. El segundo sistema se deno-mina así, par-a-par, porque cualquier extremo tie-ne la misma responsabilidad por lo que respecta alinicio y cierre del intercambio de los datos. Es unsistema que puede resultar adecuado para redes pe-queñas y es también bastante más sencillo de insta-lar y controlar aunque las ventajas se acaban aquí,

Figura 28 Topologías de redes locales

Page 259: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 263

pues la gestión es más lenta y pueden producirseinterferencias entre usuarios. En redes con un granvolumen de transacciones, por el contrario, pue-den utilizarse no uno sino varios servidores.

Los servidores son máquinas potentes, con dis-cos duros de gran capacidad que guardan los pro-gramas y los datos a los que acceden los diferentesordenadores. Éstos pueden ser autónomos o total-mente dependientes de la red. Los periféricos, ta-les como impresoras, escáners, etc., pueden conec-tarse a los servidores y ser accesibles directamentepor todos los terminales o pueden conectarse a undeterminado terminal y ser accesibles de modo dis-crecional.

Las redes pueden convertirse en subredes o co-nectarse a otras redes por medio de bridges cuan-do son del mismo tipo o bien por medio de gatewayscuando son de distinto tipo, dos tipos de dispositi-vos de enlace que ya hemos indicado en la secciónanterior, así como el hecho de que las redes localescuentan corrientemente con un gateway para co-nectarse a Internet. Se denomina red abierta a unared que acepta terminales heterogéneos y que tieneprevistas las subsecuentes adaptaciones de forma-to, código, protocolos, etc. Se denomina red ce-rrada a una red que no acepta terminalesheterogéneos y que no tiene previstas estas adapta-ciones.

La transferencia física de los datos se controlapor el método de acceso propio del tipo de red es-cogido. El método de acceso se implementa por

medio de la placa adaptadora de red y es una desus características propias. La tarjeta realiza lasoperaciones electrónicas en que se traduce el mé-todo de acceso o protocolo de enlace de datos. Haydiversos tipos de red, las principales son probable-mente Ethernet y Token Ring, que comentaremosmás adelante.

Un elemento fundamental de una red es el ser-vidor. Hay varios tipos de servidores. Los princi-pales, que coinciden aproximadamente con los dela figura 29, son los siguientes:

a) Un servidor de disco (disk server) permite com-partir zonas de disco de tal modo que una termi-nal remota pueda acceder a estas zonas como sifuera un disco duro propio. Estos servidorespueden ser dedicados o no dedicados. Los ser-vidores dedicados no necesitan monitor ni te-clado pues su única función es dar servicio a susterminales. Los no dedicados funcionan comoun ordenador normal que además permite el ac-ceso a su disco por otros terminales.

b) Un servidor de ficheros (file server) es más efi-ciente y refinado que un servidor de disco puesincorpora programas especiales que procesandirectamente las peticiones de las estaciones detrabajo sin pasar por el sistema operativo. Tam-bién controla que sólo haya un usuario utilizan-do un fichero en un momento dado. Pueden serde varios tipos: centralizados (único en la red),distribuidos (varios, especializados en distintastareas), dedicados (no hacen otra función), nodedicados (pueden funcionar como una estaciónmás).

c) Un servidor de impresión funciona como un ser-vidor de disco duro por lo que respecta a la im-presión. Se utiliza generalmente para gestionarimpresoras de mayor calidad y de uso más es-porádico o para gestionar plotters. Cuentan porlo general con un spooler, un buffer de memoriatemporal donde hacen cola los ficheros pendien-tes de imprimir.

d) Un servidor de comunicaciones se utiliza paraliberar a la red de tareas tales como buscar de-terminada información, grabarla, enviarla a sudestino, recibir mensajes, etc.

Protocolos

La palabra "protocolo" viene del griegoπροτοκολλον, de προτοσ (primero) y κολλον(cola, goma) que puede traducirse literalmente

Servidor de archivosServidor de plotter

Servidor de impresión

Módem

Figura 29 Tipos de servidores de una red local

Page 260: [Architecture eBook] Aplicaciones as en Arquitectura

264 Aplicaciones informáticas en arquitectura

como "lo que se engancha en primer lugar". Se alu-día con este término a una hoja que se pegaba a undocumento para darle autenticidad. Con posterio-ridad, en latín, protocollum pasó a significar una"larga serie de documentos" que un escribano con-servaba "adheridos entre ellos" y cuyo sentido secompletaba por esta adhesión. Así es, más o menoscomo el diccionario de la RAC define "protocolo"en su primera acepción de la que han derivado lassiguientes: "ordenada serie de escrituras matricesy otros documentos que un notario o escribano au-toriza y custodia con ciertas formalidades. 2) Actao cuaderno de actas relativas a un acuerdo confe-rencia o congreso diplomático. 3) Por extensión,regla ceremonial diplomática o palatina estableci-da por decreto o por costumbre". Ésta es su acep-ción más corriente y, por extensión, a su vez, deesta última acepción, un protocolo es un conjuntode reglas o pasos previos que hay que dar en deter-minadas ceremonias u ocasiones especiales, lo quetambién se extiende a las personas encargadas decuidar de que se cumplan: un "jefe de protocolo"es alguien con la experiencia suficiente como paraobservar que se sigan ciertas pautas de conducta ycomo para saber qué hacer, en caso de colisión deuna situación inesperada con el comportamientoprevisto.

En la actividad científica el término también seutiliza para describir la serie de informes que reco-gen la sucesión de un experimento de tal modo quesus circunstancias queden fijadas con la mayorobjetividad posible dejando el mínimo hueco a lainterpretación. En medicina, el término se utilizaespecialmente para aquellos actos que por su espe-cial naturaleza podrían dar pie a reclamaciones le-gales, tales como una intervención quirúrgica o unaautopsia.

En fin, en la vida cotidiana, hay muchos proto-colos que no reciben esta denominación, asociadapor lo general a actos formales, pero que no porello dejan de ser tales. Por ejemplo, cuando nosllaman por teléfono comenzamos por decir una fra-se corta como "si..." o "diga..." para confirmar quese recibe la comunicación y, a lo largo de la mis-ma, la vamos pautando con frases cortas, cuandoes el otro el que habla, tales como "ya", "mmm","sí, claro", etc., para que el que habla compruebeque se mantiene la comunicación; cuando nos des-pedimos no lo hacemos de golpe sino con brevesanuncios (frases más cortas o frases como "bue-no...") hasta que concluimos con una frase de des-

pedida.Esta idea de protocolo coincide en lo esencial

con la idea que preside los protocolos de comuni-cación en red y que son bastante más complicadospero no muy diferentes, en el fondo, de esta ideaprimitiva. Para entender mejor lo que sigue pon-dremos un ejemplo de protocolo más elaborado quese adecúe de modo más directo a los que veremosen la siguiente sección.

Supongamos que dos personas situadas en lu-gares distantes desean intercambiarse mensajes.Para ello deberán, entre otras cosas, comprobar losiguiente.

En primer lugar, deberán comprobar que exis-ten uno o varios caminos posibles para que estemensaje llegue a su destino, es decir, si existen ca-rreteras, caminos o ríos o por donde los mensajespuedan circular. Una vez comprobado que existen,deberán anotar sus características, si están mejor opero asfaltados, si son más o menos empinados, sison estrechos o anchos y, en el caso de ríos, si sonde fuertes o suaves corrientes, pues todo esto in-fluirá en el modo en que circularán sus mensajes.

En segundo lugar, deberán comprobar, en rela-ción con lo anterior, y si pretenden que el inter-cambio se realice de un modo regular, cómo llega-rán estos datos, a qué hora o día aproximadamen-te, con qué intermitencia, en qué estado, es decir,hasta qué nivel de deterioro se puede consideraradmisible sin necesidad de pedir que se repita elmensaje.

En tercer lugar, si tienen varias alternativas, porejemplo varias carreteras, deberán decidir, en cadaocasión, cuál es la más adecuada; si hay una quetiene menos tráfico porque es jueves y ese día lagente se queda en casa viendo un partido o porquees viernes y ese día hay mercado o bien porque leha llegado el aviso de que una vía determinada estácolapsada por un accidente. Puede ocurrir tambiénque, en determinados casos, deba subdividir elmensaje en diferentes paquetes y que cada uno seenvíe por una ruta diferente, asegurándose enton-ces, por medio de indicaciones integradas en elpropio paquete, que la unidad quede restablecidaen su destino.

En cuarto lugar, se preocupará de arreglar y or-denar los diferentes paquetes que componen elmensaje, ensamblándolos o desensamblándolos,para seguir con este caso especial, de manera quesu orden y su arreglo resulten claramentecomprensibles para quien los reciba. Esto es parti-

Page 261: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 265

cularmente importante cuando el destinatario per-tenece a un mundo con usos y costumbres distintasdel emisario.

Llegados aquí, podemos dejar de pensar en ac-tividades puramente físicas y comenzar a pensaren el sentido de lo que se está haciendo. La finali-dad sigue siendo mantener una comunicación conarreglo a algún objetivo compartido. Así, en quin-to lugar, superados estos pasos previos, se iniciaráun diálogo que, en si mismo deberá seguir ciertasconvenciones. Habrá que comenzar por identificar-se, cederse alternativamente el turno de palabra,etc.

En sexto lugar, se presentará, por fin, el mensa-je o el conjunto de mensajes, la información quequeremos transmitir, en un formato adecuado, le-gible, apropiado a las circunstancias.

Y, en séptimo lugar, que, en otro orden de co-sas, sería el primero, podremos leer el contenidodel mensaje, suponiendo que estamos utilizando unlenguaje común.

Los siete niveles de protocolos normalizados

La organización y el control del tráfico de datos deuna red es de una complejidad sin precedentes y,como en tantos otros aspectos relacionados con ladifusión de la informática, se ha buscado y se siguebuscando cierto grado de normalización compati-ble con la competencia comercial. En 1978, la ISO(International Standards Organization) propuso unmodelo para comunicación en redes locales deno-minado OSI, siglas de Open SystemsInterconnection ("interconexión de sistemas abier-tos"). El modelo define una base común para co-ordinar el desarrollo de sistemas de redes locales apartir de 7 niveles o "capas". La figura 30 presentauna esquema de estos 7 niveles junto con la refe-rencia a algunos protocolos concretos de uso máso menos corriente.

Todas las redes locales estructuran sus protoco-los generales en función (más o menos) de estosniveles que son los siguientes:

1) Nivel físico (physical layer). Se encarga dela transmisión de bits sobre un soporte físico. In-corpora la definición de las características eléctri-cas y mecánicas requeridas para el acceso a todoslos dispositivos físicos, cables, conectores, orde-nadores, etc. El tipo de cable utilizado, par trenza-do, coaxial o fibra óptica, se especifica en este ni-vel. Las características de estos medios deben que-

dar integradas en el protocolo propio del nivel físi-co de modo que se ajuste la información transmiti-da a sus características. Es la condición más ele-mental, sin la que no existiría sustrato material parala comunicación. Ciertos tipos de conexión que lle-van operativos desde hace muchos años y que pro-porcionarían formas elementales de enlace en red,como la especificación R-232 propia de los cablesserie más comunes, entrarían también en este pro-tocolo. Podemos imaginar unas cuantas docenas desiglas similares que resumirían las característicasde otros tantos tipos de cables y conectores.

2) Nivel de enlace datos (data link layer). Seocupa del control de salida y recepción de los blo-ques de datos, de los códigos de dirección, de ladetección y corrección de errores, del control delflujo y del tipo de secuencia que recoge los gruposde datos, incluida la delimitación y lasincronización. Los protocolos más utilizados a estenivel son HDLC (High-level Data Link Control) yel ADCCP (Advanced Data Communications Con-trol Procedures) pero basta con saber que existen.Las tarjetas adaptadoras más modernas llevan in-corporados en un chip los códigos necesarios paraasegurar que se cumplan estas especificaciones enfunción del tipo de sistema que estemos utilizan-do.

3) Nivel de red (network layer). Asegura la in-dependencia de las capas superiores con respectoa las inferiores. Convierte los datos en paquetesnormalizados y mantiene la conexión virtual entresistemas, la emisión de mensajes de estado, la re-gulación del tráfico en la red. Elige el recorridofísico que seguirán los datos de acuerdo con la in-formación sobre el estado de la red, prioridad deservicios y otros factores. En redes locales este ni-vel se completa automáticamente en la mayoría delos casos. Por lo que respecta a redes globales oredes locales de gran extensión, el protocolo másutilizado en la actualidad es IP (Internet Protocol)que está integrado en el siguiente nivel junto con elprotocolo TCP. Este nivel se encarga también degestionar y controlar los paquetes en que quedansubdivididos los mensajes en comunicaciónasíncrona. Estos paquetes son de diferentes tipos.Los principales son los paquetes de establecimien-to de un circuito virtual; los paquetes de respuestaa una petición de llamada y los paquetes de datos ysupervisión.

4) Nivel de transporte (transport layer). Losprotocolos del nivel de transporte actúan a local-

Page 262: [Architecture eBook] Aplicaciones as en Arquitectura

266 Aplicaciones informáticas en arquitectura

mente, es decir, la estación de transporte situadaen un ordenador terminal o nodo de acceso se en-carga de este protocolo a través del control de suspuertas de acceso. Recogen los datos del nivel desesión (nivel 5), los estructuran en mensajes y lospasan al nivel de red manteniendo una transferen-cia transparente de datos entre puntos terminales ycomprobando los errores que puedan producirseentre estos puntos. Si la red se bloquea puede ac-tuar desde esta posición buscando caminos alter-nativos o guardando los datos hasta que la red que-de liberada. Controla el formato y la organizaciónde los datos recibidos enviando mensajes de erroren caso contrario. Esto último es particularmenterelevante en el caso de conexión entre máquinasque trabajan en entornos operativos diferentes.

Hay varios protocolos que actúan en este nivel.El principal de ellos, sobre todo en los últimos años,desde la gran difusión de Internet, es TCP(Transmission Control Protocol) que se utiliza con-juntamente con el protocolo IP (Internet Protocol).En segundo lugar de importancia estaría el SPX/IPX (Sequenced Packet Exchange/ Internet Packet

Exchange) de Netware (Novell). También se hautilizado extensamente y se sigue utilizando el pro-tocolo NetBIOS (Net Basic Input Output System)desarrollado inicialmente por IBM y Sytek que aúnse utiliza en algunos sistemas aunque su uso de-crece progresivamente, y del que hay una versiónextendida, la NetBEUI (NetBIOS extended UserInterface). Hasta finales de 1994, los productos deMicrosoft utilizaban NetBIOS pero a partir deWindows 95 y las últimas versiones de WindowsNT se utiliza preferentemente el IPX de Novellpara redes locales, con preferencia a TCP/IP (quees, pese a todo, el protocolo básico de WindowsNT).

Estos protocolos abarcan no sólo el nivel detransporte sino sus niveles adyacentes, el 3 y el 5,por lo que la delimitación y resumen de las funcio-nes que llevan a cabo es difícil de resumir. La elec-ción del protocolo correcto es importante sobretodo si se quiere tener acceso a sistemas distintosdel nuestro. Esta es precisamente la gran fuerzadel TCP/IP que fue concebido desde sus inicios,por el Ministerio de Defensa de Estados Unidos,

7 Aplicación

6 Presentación

5 Sesión

4 Transporte

3 Red

2 Enlace

1 Físico

IP (Internet Protocol), IPX (Internet Packet Exchange),

TCP (Transmission Control Protocol), SPX (Sequenced Packet Exchange)

Programas de la aplicación, Redireccionadores, Aplicaciones TCP

SMB (Server Message Block), NFSP (Network File Server Protocol)

NetBIOS, SMTP, FTP, Telnet

Control de paquetes, Normas IEEE 802.7, Protocolo HDLC

Ethernet IEEE 802.3, Token Ring IEEE 803.5, RS-232, V.35

Protocolos CCITT X.25, X.32 para conmutación de paquetes

1 Físico

2 Enlace

3 Red

4 Transporte

5 Sesión

7 Aplicación

6 Presentación

Fig 30 Torre OSI (Open Systems Interconnection). Los 7 niveles normalizados deprotocolos para la comunicación por red entre diferentes sistemas

Page 263: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 267

para enlazar miles de sistemas diferentes en unared heterogénea global.

5) Nivel de sesión (session layer). En este nivelse comienza a entrar en lo que es propiamente elintercambio de información. Los protocolos pro-pios de este nivel se encargan de sincronizar y or-ganizar el intercambio entre usuarios conectandoentre sí las diferentes estaciones, verificando cla-ves de acceso, y, en general, proporcionando unaestructura de control regulada para la comunica-ción entre usuarios y, si ha lugar, entre aplicacio-nes. En este caso es también difícil identificar elprograma más utilizado pues los mencionados enel nivel anterior se ocupan con frecuencia de losprotocolos de este nivel.

6) Nivel de presentación (presentation layer).Todo lo que se ha mencionado hasta aquí no esvisible por el usuario. Si pretende conectarse a otramáquina a través de la red oirá unos ruidos, y com-probará que el funcionamiento de su máquina seha vuelto algo más lento y, en el mejor de los ca-sos, verá algunos mensajes que le informarán de loque está ocurriendo, pero eso será todo. En cuantoaparezca algún tipo de información en pantalla, quetenga que ver con la conexión solicitada, es quenos encontramos en el nivel de presentación. Losprotocolos propios de este nivel presentan los da-tos propios del nivel más elevado, el nivel de laaplicación, con independencia de los procesos pro-pios de ésta. Se ocupan fundamentalmente de lasfunciones de seguridad, transferencia de ficheros yformato de los datos, incluyendo la traducción aotros códigos. El ejemplo mejor y más conocidoes el protocolo HTTP (Hypertext Transfer Protocol)utilizado para confeccionar las páginas Web deInternet sobre el que volveremos más adelante.

7) Nivel de aplicación (application layer). Eneste nivel, el más cercano al usuario, y el único queéste controla directamente, están los programas queéste utiliza, comenzando por el propio sistema ope-rativo. Proporciona acceso a los niveles inferioresincorporando los protocolos de intercambio entreel usuario y los programas de aplicación que esteutilice y el sistema de la red.

Estos niveles o capas sirven como referenciageneral que es seguida de un modo más o menosdirecto por los diferentes sistemas. En la práctica,determinados tipos de red requieren subniveles enlos que se establecen protocolos más específicos.

Control de acceso

Concretamente, en el nivel 2, correspondiente aldata link o enlace de datos, se incorporan algunosde los protocolos más característicos de una red yque tienen que ver con el modo de acceso a la pro-pia red por las estaciones, lo que se denomina MAC(Medium Access Control). Tres modos principalesde resolver los problemas implicados por el acce-so de datos a la red son los denominados protoco-los de contención, los de llamada selectiva o pollingy los de paso de testigo o token passing.

Se denomina contención a la situación que seda cuando varios dispositivos intentan utilizar almismo tiempo un canal. Un protocolo de conten-ción, tal como los que utilizan Ethernet o AppleTalk, es un método de acceso que da prioridad alprimero que llegue a la línea. En un método de es-tas características se pueden producir colisiones.Una colisión es la situación o estado que se produ-ce cuando dos paquetes de información intentanutilizar simultáneamente un mismo canal o cuandodos o más estaciones de una red intentan transmitiral mismo tiempo. Los protocolos de red incorpo-ran mecanismos específicos para detectar y preve-nir colisiones.

El CSMA es un protocolo que acepta que se pro-duzcan colisiones y que utiliza diversos métodospara evitar que estas colisiones resulten en pérdidade datos. CSMA son las siglas de Carrier SenseMultiple Access ("sensor de portadora de accesosmúltiples") y es un protocolo de acceso utilizadocorrientemente en redes que comparten un mismocanal y que garantiza que todas las estaciones pue-den acceder por igual a la red. Antes de enviar in-formación cada estación comprueba si la línea estálibre. Esto ocasiona conflictos cuando varias esta-ciones transmiten al mismo tiempo lo que requiereun método de detección y control que asegure quelos datos se transmiten en un determinado ordenpor las diferentes máquinas involucradas. El pro-tocolo CSMA/CD, siglas de Carrier Sense MultipleAccess with Collision Detection ("sensor de porta-dora de accesos múltiples con detección de coli-siones") establece normas adicionales que previe-nen que se produzcan colisiones y que se tenga quevolver a enviar la información como ocurre en sis-temas que no utilizan este protocolo.

El polling es un protocolo que sigue todas laspeticiones de entrada en red de las estaciones pormedio de un dispositivo central. Este método re-

Page 264: [Architecture eBook] Aplicaciones as en Arquitectura

268 Aplicaciones informáticas en arquitectura

quiere un control centralizado de todos los nodos.La estación centralizadora comprueba si hay algúnmensaje que se quiera transmitir por parte de unaestación periférica; en caso afirmativo da priori-dad o asigna una posición en lista de espera a estaestación.

El token passing o "paso de testigo" hace cir-cular un grupo de bits que indican si el testigo estálibre u ocupado, es decir si la vía esta libre o nopara enviar mensaje. Se denomina token ("ficha","testigo") a un bloque de control que se pasa deuna estación a otra y que sirve para saber cuál deellas tiene el control de la red.

Tipos de implantaciones de red

Las redes se pueden diseñar de muy diversos mo-dos, combinando de diferentes maneras lossubsistemas que hemos descrito en los apartadosanteriores. Se conoce por "arquitectura" de una redo "tipo" de red, una particular combinación de to-pología, canales, protocolos, etc., que se traducenen un sistema que puede ser comercializado o tra-ducido de algún modo en una instalación concreta.Los que siguen son algunos de los tipos principa-les que se han utilizado corrientemente desde haceunos 10 o 15 años. La evolución de estos tipos estáligada directamente a la evolución de una serie deestándares, normas o especificaciones que han idoevolucionando a su vez desde principios de los se-tenta aproximadamente. Los principales son losemitidos por organizaciones como el IEEE(Institute of Electrical and Electronic Engineers),ANSI (American National Standards Institute), EIA(Electronics Industries Association), CCITT(Consultative Committee for InternationalTelegraph and Telephone).

El IEEE ("i e cubo" como se le denomina popu-larmente) es una sociedad con base en EstadosUnidos que ha desarrollado normas para una grandiversidad de sectores, entre ellos el que nos ocu-pa. Las normas y recomendaciones sobre redes lo-cales son desarrolladas por los comités 802, por loque todas las normativas se denominan con núme-ros que comienzan con estos dígitos, como las es-pecificaciones 802.3 para Ethernet, o las 802.5 paraToken Ring. Estas especificaciones son pasadas alANSI para su aprobación y normalización en Esta-dos Unidos y, por extensión, a muchos otros paí-ses. El EIA es una asociación fundada en 1924 porfabricantes de productos electrónicos y que ha ela-

borado diversas normas en colaboración con lasotras asociaciones mencionadas. Una de las másconocidas es la R-232 para conexiones en serie. ElCCITT es un comité dependiente de la ITU(International Telecommunications Union), unaorganización del tratado de las Naciones Unidadascreada para regularizar los diversos sistemas mun-diales de comunicación.

En los siguientes párrafos describiremos sucin-tamente las características principales de los trestipos de red más utilizados.

Ethernet es un tipo de red local desarrollado ori-ginalmente por Rank Xerox para conectar los or-denadores de su empresa y posteriormente desa-rrollado por Xerox, Intel y Digital con una especi-ficación elaborada conjuntamente, en 1980. Tantodesde el punto de vista histórico como comerciales el primer tipo de implantación del que hay quehablar. De un modo muy genérico, con considera-bles variaciones según los casos, puede describir-se Ethernet como una red abierta, con topología enbus, con velocidad corriente de 10 mbps, que des-ciende hasta 1 mbps en el tipo 1Base-5 y aumentahasta 100 mbps en los tipos 100Base-X y100BaseVG. Como puede verse, la propia especi-ficación del tipo indica la velocidad. Utiliza co-rrientemente cable coaxial de banda base pero tam-bién puede utilizar par trenzado y fibra óptica conel protocolo de control de acceso CSMA/CD. Laseparación máxima entre estaciones es otra carac-terística importante y que varía según los tipos. Losprincipales son los siguientes:

El 10Base-5 o Ethernet "grueso", el primero quese utilizó, sigue siendo considerado por muchoscomo "el estándar de Ethernet" y utiliza cablecoaxial con una longitud máxima de 500 m. El10Base-2 o Ethernet "delgado" utiliza cable coaxialcon una longitud máxima de 185 m. El 10Base-Tutiliza cable de par trenzado con una longitud máxi-ma de 100 m. El 1Base-5 utiliza cable de par tren-zado con una longitud máxima de 500 m. El10Broad-36 utiliza cable coaxial con una longitudmáxima de 3.600 m y transmisión en banda ancha,a diferencia de los anteriores que, como lo indicasu nombre, transmiten en banda base, es decir sinintegrar varios canales en el mismo cable medianteprocedimientos de modulación sobre portadoracomo los que hemos descrito en la primera secciónde este capítulo. El 10Base-F utiliza cable de fibraóptica a 10 mbps con una longitud de hasta 4.000m. El 100Base-X y el 100VG-AnyLAN son nuevas

Page 265: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 269

normas Ethernet que proporcionan un rendimientonominal de 100 mbps sobre configuracionesjeraquizadas con par trenzado y que difieren fun-damentalmente en el protocolo de control de acce-so utilizado.

Durante muchos años Ethernet ha sido el siste-ma de red que ha crecido con un ritmo más soste-nido y que se ha escogido como primera alternati-va por un mayor número de empresas. Sigue sien-do el tipo de red más utilizado en la actualidad conuna estimación de más del 60% del total del par-que de redes instaladas.

Token Ring es un tipo de red desarrollada porIBM y que se introdujo en el mercado en 1985. Laprimera red comercializada por IBM contaba onuna velocidad de 4 mbps que aumentó a 16 mbpscon la versión que sacaron en 1989, una velocidadmuy alta para una red local en aquellas fechas. Laidea fundamental provenía de una compañía ho-landesa a la que IBM compró la patente. La espe-cificación está recogida en la norma 802.5 delIEEE. Es un tipo red más cara de instalar que suscompetidoras pero proporciona un rendimientomuy sólido y es la más utilizada después deEthernet. Debe tenerse en cuenta que las velocida-

des que aquí se mencionan son nominales y unared Token Ring a 4 mbps podría tener un rendi-miento superior a una Ethernet a 10 mbps dado queson muchos los factores en juego.

La topología externa es en estrella pero la orga-nización lógica es en anillo. El protocolo básico esel paso de testigo o token passing. El token es unbloque de control que se pasa de una estación aotra y que sirve para saber cuál de ellas tiene elcontrol de la red. Si una estación quiere transmitirdatos, en un sistema que utilice este protocolo, tie-ne que "adquirir el token". Una vez que lo ha ad-quirido, añade los datos al token y los transmiteconjuntamente de estación en estación hasta quelos datos llegan a su destino y el token queda libe-rado. Las estaciones de trabajo se conectan a losconcentradores centrales que se denominan MAU(Multistation Acces Unit) que pueden a su vez co-nectarse entre sí para formar grandes redes. LosMAUs más corrientes disponen de 16 puertos deconexión unidos entre sí con cables de par trenza-do apantallado.

Puede utilizar como soporte físico cable en partrenzado blindado, coaxial de banda base o fibraóptica. Hay dos versiones principales, que ya he-mos mencionado: la que funciona con velocidadesde 4 mbps y la de 16 mbps. Con par trenzado pue-den conectarse hasta 72 estaciones sobre una dis-tancia máxima de 100 m. Con cable coaxial de ban-da base pueden conectarse hasta 260 sobre unos300 m de distancia máxima. Diferentes anillos pue-den conectarse entre sí, con lo que la red puedeextenderse sin límite.

ArcNet es un tipo de red desarrollado porDatapoint hacia 1977. Está basada en la utilizaciónde RIMs (siglas de Resource Interface Module),un dispositivo que controla el funcionamiento dela red por lo que respecta principalmente a la trans-misión de datos y detección de errores. Su topolo-gía externa es en estrella aunque internamente fun-ciona como una token ring, con paso de testigo. Lavelocidad del tipo original es más bien lenta, de2,5 mbps, aunque existe una versión mejorada,ArcNet Plus, que funciona a 20 mbps. La máximadistancia que puede alcanzar sin repetidor es delorden de los 600 m. Utiliza cable normalizadocoaxial RG-62 A/U de 93 ohmnios y conectoresBCN, aunque puede instalarse también con par tren-zado y fibra óptica.

Otro tipo de red popular hace algunos años eraApple Talk, un tipo de red desarrollado por Apple

Cable Coaxial - máx. 500 m.

máx. 50 m

R

Enlace

RR

1

3

2

Enlace

Figura 31 Ethernet básico y extendido

Page 266: [Architecture eBook] Aplicaciones as en Arquitectura

270 Aplicaciones informáticas en arquitectura

Computers para conectar ordenadores AppleMacintosh, por lo general en pequeños grupos. Uti-lizaba un método de acceso denominado Local Talk.La conexión se realiza por pares para conectar hasta32 dispositivos en un área de 300 m. La velocidades lenta, del orden de los 0,24 mbps. El coste esmuy bajo en comparación con los otros tipos.

Sistemas operativos de red

Los tipos de red que hemos visto en la sección an-terior son completamente independientes del siste-ma operativo. Pero para trabajar en red, al igualque para trabajar con un PC, se necesita un sistemaoperativo. El trabajo en red no significa cambiarde sistema operativo pero es preciso, al menos, unaextensión de las funciones del sistema operativocorriente en un PC que permita acceder a otros or-denadores. Entre los sistemas operativos para re-des pueden mencionarse Windows 95 o 98, AppleShare, para sistemas sencillos par-a-par, y Novell,Windows NT o IBM LAB Server para sistemas máscomplejos. Sólo nos referiremos a tres de ellos,por ser los de mayor implantación y los que conmayor probabilidad puede utilizar un arquitecto ensu despacho.

La figura 32 muestra la evolución de los princi-pales sistemas operativos para red en los últimos 5años. Es de destacar la sorprendente ascensión deLinux, un sistema operativo para red creado origi-nalmente por Linus Torvalds, en 1991, cuando eraun estudiante en la universidad de Helsinki, comouna variante de Unix, y que ha pasado de contarcon 10 usuarios, en aquella fecha, a unos 10 millo-nes en la actualidad. Tiene una particularidad quees su mayor virtud aunque puede también conver-tirse en su mayor desventaja: no pertenece a nadie,ha sido desarrollado a partir de la labor conjuntade programadores de varios puntos del planeta. Lossistemas operativos de red caen en un sector muyactivo en el que es posible que se produzcan gran-des cambios en pocos años.Hay una serie de cuestiones básicas que deben detenerse presente antes de adquirir un sistema ope-rativo determinado. Las principales son las siguien-tes:

a) Sistema par-a-par o basado en servidores. Laprimera pregunta que debe intentar responder quienquiera instalar una red es si, dadas las característi-cas del despacho, es preferible adoptar un sistemapar-a-par, con todas sus ventajas, como el menor

coste, la mayor facilidad de instalación y de man-tenimiento, y todos sus inconvenientes, el retardoen el trabajo cuando dos ordenadores están com-partiendo un mismo dispositivo, el mayor riesgode errores y en general, todos los inconvenientesque conlleva una dependencia mutua. La alternati-va es organizar un auténtico sistema de red con almenos un ordenador dedicado a la función exclu-siva de servidor del resto de los ordenadores, loque supone un mayor coste inicial y, probablemen-te, un mayor coste de personal, pero garantiza unmayor rendimiento en el trabajo.

b) Control de la red. Si se opta por la opción deun servidor dedicado es preciso aceptar con clari-dad lo que ello supone. Debe haber al menos unapersona que asuma el control del servidor y, conello, el control del funcionamiento informático ge-neral del despacho; que sea la responsable del man-tenimiento de las máquinas, de los programas y,quizás, en cierta medida, del modo en que se traba-ja.

c) Funciones del servidor. Las funciones carac-terísticas de un servidor son las que ya hemos men-cionado más arriba: como servidor de disco (diskserver) dando acceso a archivos o zonas de discodesde otros terminales; como servidor de ficheros(file server) con opciones especiales que procesendirectamente las peticiones y controlen que sólohaya un usuario utilizando un fichero en un mo-mento dado; como servidor de impresión; comoservidor de comunicaciones. A estas funciones ca-racterísticas se pueden agregar otras que incluyenpequeñas aplicaciones que pueden aumentar el ren-dimiento de la red y descargar a las estaciones detrabajo de tareas más rutinarias.

d) Capacidad del servidor. En función de todolo anterior se debe hacer una cuidadosa estimación

40%

30%

10%

20%

1994

Cuota de Mercado

1995 1996 1997 1998

Novell Netware

Varios Unix

Windows NT Server Linux

Figura 32 Evolución en ventas de los sistemasoperativos para red

Page 267: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 271

de la capacidad del servidor por lo que hace a lamemoria del disco duro, la memoria RAM y la ve-locidad de proceso. Un servidor de archivos puederequerir un gran disco duro y poco más, contandocon la velocidad y memoria suficiente par garanti-zar un acceso rápido desde los terminales. Un ser-vidor implicado en tareas más complejas puederequerir una importante cantidad de memoria adi-cional y velocidad de procesamiento para podersimultanear diversas tareas sin que esto repercutaen el acceso.

e) Fiabilidad, seguridad, utilidades de diagnós-tico. El sistema operativo debe contar con siste-mas que garanticen de diversos modos que no seproduzca un colapso de la red y que, si se produce,tenga la menor repercusión posible. Muchos siste-mas operativos incluyen sistemas que duplicanautomáticamente (en el argot se dice que crean in-formación "especular" o información "mirror") todala información de una unidad de disco, de tal modoque si esta falla se pueda recurrir en cualquier ins-tante a la copia de seguridad. Tanto Windows NTcomo Novell cuentan con esta opción. Tampocoestá de más comprobar las herramientas adiciona-les que incorpora para supervisar en todo momen-to el funcionamiento de la red y prevenirdisfunciones.

Windows grupo de trabajo

El entorno windows para trabajo en grupo, cuyaversión más reciente es Windows 98, pero está dis-ponible desde Windows 3.11, es el sistema mássencillo de instalar y utilizar y puede suponer unaalternativa interesante para despachos pequeños queprefieren comenzar poco a poco e irse familiari-zando con los problemas propios del trabajo en red.Es un sistema par-a-par que puede funcionar per-fectamente con ordenadores de gama media; la con-figuración mínima requerida sería un PC tipo i486,es decir, un tipo de ordenador que, en 1998 ya seha convertido en una reliquia. La instalación es tanelemental como la del propio entorno windows; tansólo requiere activar las opciones específicas parared, equipar a cada ordenador con una tarjeta quedeberá ser propiamente configurada y conectar to-dos los ordenadores entre sí por un cableado ade-cuado. Para conectar los ordenadores entre sí unavez completada la instalación basta con activar laopción "conectar unidad de red" que presenta unaventana con una lista de los ordenadores y siste-

mas compartidos; al seleccionar una opción el sis-tema le asigna una letra de unidad disponible.

Es posible compartir directorios, ficheros yperiféricos. Para compartir ficheros se activa unaopción específica de "compartir" que activa uncuadro de diálogo que permite activar diferentesalternativas de acceso. Una opción importante ofre-cida por el sistema es la dada por lo que se deno-mina DDE (siglas de Dynamic Data Exchange, "in-tercambio dinámico de datos"); esta opción permi-te copiar partes de un fichero de otro ordenador detal modo que los cambios posteriores que se llevena cabo en el fichero original se vayan actualizandoautomáticamente en el fichero copiado.

El sistema de seguridad es bastante más elemen-tal que el de Novell y otros sistemas operativos dered más profesionales pero esto es una desventajapoco importante si se utiliza en un despacho pe-queño. Se proporciona una protección de accesomediante un password y listas de control con acce-sos restringidos. Cada usuario cuenta por añadidu-ra con la posibilidad de asignar de modo discre-cional permisos de lectura a los ficheros de su or-denador.

También integra varias funciones de comunica-ción tales como reuniones en tiempo real y correoelectrónico. La opción "conversar" permite dividirla pantalla en hasta ocho partes, de tal modo quecada una de ellas muestre el contenido de una co-municación enviada por un participante en la re-unión. Las opciones de correo electrónico tambiénfacilitan la gestión del correo de un modo más efec-tivo que el de otros sistemas.

Novell

Novell nacio en 1982 como una pequeña compa-ñía que en poco tiempo puso en circulación el pri-mer sistema operativo para redes que permitía com-partir dispositivos de un modo eficaz. La compa-ñía creció hasta crear una serie de productos quese conocen actualmente como la "familia Netware".El sistema operativo Novell Netware es el más uti-lizado en redes locales de empresas grandes debi-do, entre otras razones, a que permite diseñar yadaptar el sistema de trabajo y las característica dela gestión a las necesidades de la empresa. Puedendiseñarse sistemas relativamente simples en dondelos servicios fundamentales sean el acceso a fiche-ros y periféricos y pueden también diseñarse siste-mas que enlacen cientos de ordenadores para dife-

Page 268: [Architecture eBook] Aplicaciones as en Arquitectura

272 Aplicaciones informáticas en arquitectura

rentes tareas y con modos de acceso adaptados alos diferentes usuarios y funciones. Admite todaslas topologías de red. Por lo general funciona conun servidor central que, corrientemente, es un or-denador con una gran cantidad de memoria ram yuna gran capacidad de almacenamiento. Puede serun mini o un micro de gama alta. El servidor actúade enlace entre todas las estaciones que deben ac-ceder obligatoriamente a él para cualquier transac-ción. Las estaciones cuentan con un sistema opera-tivo propio y cuentan con un programa especial paraconectarse a la red. Se presupone la existencia deuna conexión física, a través de una tarjeta de red yun cable que llega hasta este servidor. Este progra-ma de conexión permitirá a cada estación accedera los programas y ficheros del servidor y, a travésde él, a cualquiera otra estación de trabajo. Los pro-gramas o ficheros transferidos se cargan en la me-moria ram de la estación.

Todos los sistemas de red cuentan con un siste-ma de bloqueo, una técnica utilizada en redes loca-les para controlar el acceso a ficheros. Hay dos téc-nicas básicas: el bloqueo de ficheros (file locking)y el bloqueo de registros (record locking). El pri-mero es una técnica de software que evita la actua-lización de un fichero por más de un usuario; cuan-do un usuario accede a un fichero, el sistema acti-va un indicador (flag). Si el indicador indica "blo-queo" ningún otro usuario podrá acceder al ficherohasta que el indicador se desactive. El segundo esun método de protección que evita el acceso si-multáneo al registro de un fichero por más de unusuario. Diferentes usuarios pueden escribir en unmismo fichero pero ciertas zonas quedan protegi-das contra el acceso simultáneo.

En Novell, el administrador de un sistema tienevarias opciones de gestión de ficheros. Puede defi-nir un fichero o un programa como compartido ocomo no compartido. En el primer caso varios usua-rios pueden acceder simultáneamente al mismo, enel segundo caso el acceso es único y el segundodeberá esperar a que quede libre.

El sistema de seguridad de Novell es potente yofrece diversas alternativas. Se puede acceder a fi-cheros y programas por el procedimiento de login:el usuario debe introducir el nombre del servidor,un nombre de usuario y un password. Si alguno deestos datos es equivocado se rechaza el acceso. Unasegunda posibilidad es restringir el acceso pormedio de permisos específicos de acceso a fiche-ros y directorios. El usuario podrá realizar ciertas

operaciones tales como leer ficheros, pero no po-drá realizar otras tales como escribir sobre fiche-ros o borrarlos, o crear nuevos ficheros osubdirectorios. También es posible que el usuarioespecifique niveles de acceso para ficheros propios.Hay cuatro combinaciones de atributos que un usua-rio puede asignar a un fichero o un grupo de fiche-ros: compartido y sólo lectura, compartido y lectu-ra/escritura, no compartido y sólo lectura, no com-partido y lectura/escritura.

La gestión de impresión se lleva a cabo pormedio de módulos específicos tales como printdef,que permite definir los diferentes tipos de disposi-tivos, los diferentes modos de impresión y otrasalternativas, o como capture, que permiteredireccionar los puertos de impresión. La comu-nicación con otros sistemas se lleva a cabo pormedio de routers, bridges y gateways, cuya ges-tión está integrada directamente en el sistema.

Windows NT

El sistema operativo de red Windows NT (WindowsNew Technology) apareció en el mercado en 1994y ha ido adquiriendo una lenta pero progresivaimplantación en sistemas de redes locales de tama-ño medio, con considerables posibilidades deconvertirse en uno de los principales sistemas degestión de redes en cierto tipo de despachos entrelos que cabe incluir claramente los de arquitectura.A diferencia de Windows 3.11 y Windows 95 es unsistema operativo plenamente autónomo. Es un sis-tema operativo de 32 bits con una gestión de me-moria ("plana" en lugar de "paginada") mucho máseficaz, algo que afecta de un modo directo a losprogramas gráficos. Incluye funciones multitareay multiproceso y es compatible con un considera-ble número de sistemas.

Utiliza un sistema de gestión de ficheros propiodenominado NTFS (NT File System) que, entreotras cosas, permite asignar hasta 256 caracteres acada fichero. Cuenta con un sistema de control queasegura que si el sistema falla al reinicializarlo,todos los datos se encuentren en su posición origi-nal.

El control de los diferentes dispositivos y co-nexiones de diverso tipo por parte del administra-dor del sistema se lleva a cabo por un sistema deventanas interactivas que facilitan el control deltrabajo, la asignación de grupos de usuarios o lautilización de periféricos para tareas de impresión.

Page 269: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 273

El sistema de seguridad es considerablementeestricto, cumple la normativa americana (nivel deseguridad C-2) para entornos con elevados requi-sitos de control de acceso y se distribuye en variosniveles. La principal ventaja es la facilidad y lacapacidad para diseñar el sistema asignando dife-rentes niveles de acceso a diferentes grupos de usua-rios. También dispone de un módulo de control deaccesos denominado Event Viewer ("visualizadorde eventos") que permite al administrador del sis-tema seguir la pista de todos los intentos fallidosde acceso junto con la fecha, hora y lugar en que sehan producido.

4 Redes globales

Los sistemas descritos hasta aquí están basadosfundamentalmente en dos tipos de cables, par tren-zado y coaxial, que son los mismos que se utilizanen telefonía desde hace más de 100 años. Pero cuan-do alguien envía datos a lugares distantes, por me-dios informáticos, está utilizando o puede utilizarotros medios de transmisión y otros protocolos deconexión, tal como los satélites de comunicación,los teléfonos celulares o las redes metropolitanasde gran velocidad que funcionan con protocolosespecíficos de intercambio.

Es dudoso que haya otro sector industrial queimplique mayores inversiones y mayores esfuerzosde investigación que el de las telecomunicaciones.Por esta razón resulta considerablemente difícilresumir, en breve espacio, los aspectos principalesde un conjunto de tecnologías complejas que estáncambiando con rapidez. Por otro lado, no puedeesquivarse dada la indudable importancia del tema.Lo que sigue es un apretado resumen en el que sehan destacado los datos más relevantes en la situa-ción actual que pueden modificarse considerable-mente en los próximos cinco años.

Evolución histórica y alternativas actuales

La primera red global de comunicaciones con quecontamos es, aunque a veces se pierda de vista oparezca una obviedad, la red telefónica. La red te-lefónica se ha extendido a todos los lugares del glo-bo desde que, en 1878, a los dos años de que A.G.Bell construyera el primer teléfono, se establecierala primera comunicación urbana en New Haven,Connecticut. La extensión fulgurante del teléfonoa las principales ciudades de Estados Unidos y

Europa no tiene mucho que envidiar, en términosrelativos, a la extensión de Internet. Los comenta-rios sobre "una nueva época", una "revolucióntranscendental", etc., que se encuentran en los pe-riódicos y revistas de hace exactamente 100 añosnos pueden resultar sorprendentemente familiares.

En 1878 se inauguraba la primera central tele-fónica del mundo con 21 abonados. Y, en 1910, lamayor central de la época con 60.000, que funcio-naba por medios manuales. En 1930 se llevaron acabo los primeros ensayos de multiplexado en fre-cuencia y en 1940 los primeros ensayos demultiplexado en tiempo. En 1928 H. Nyquist pu-blicó un artículo ("Certain Topics in TelegraphTransmission Theory", en Transactions of the AIEE47: 617-44) que sentó las bases de un teorema fun-damental en teoría de comunicaciones al que yanos hemos referido; este teorema estipula que lafrecuencia de muestreo debe duplicar la frecuen-cia de la señal para asegurar que no se produzcanpérdidas de información significativas. En 1930A.H. Reeves consigue aplicar a la transmisión te-lefónica (analógica, basada en la traducción de pre-siones a señales eléctricas proporcionales a las va-riaciones de presión) los principios de la transmi-sión telegráfica (secuencias temporales de impul-sos) y sienta las bases de la "modulación por im-pulsos codificados" (PCM, Pulse Code Modulator)que se desarrollaría industrialmente en EstadosUnidos en 1962 y en Francia en 1966. A partir detodo esto, la confluencia entre sistemas de comu-nicación analógicos y codificaciones digitales que-daría abierta.

El soporte físico de las redes actuales es, porotro lado, similar y, en muchos casos, casi idénticoal de la red telefónica. El primer cable coaxial setendió entre Nueva York y Filadelfia en 1936; in-corporaba algunas decenas de canales. En 1940 sehabían alcanzado los 1.800 canales. Poco años des-pués se tenderían los primeros cables de fibra ópti-ca, un descubrimiento que se remonta, también,aunque pueda resultar sorprendente, al siglo XIX,con ideas avanzadas por el propio Bell que, des-pués de inventar el teléfono, cuatro años más tar-de, inventó el "fotófono", un aparato que recogíalas ondas de una superficie reflectante iluminadapor el sol; ideas que también habían sido puestasen práctica por un inglés, Tyndall, que en 1870consigue transmitir luz de un modo relativamentecontrolado a lo largo de un chorro de agua. La pri-mera fibra óptica se fabrica en Inglaterra en 1959

Page 270: [Architecture eBook] Aplicaciones as en Arquitectura

274 Aplicaciones informáticas en arquitectura

con pérdidas del 99% en 20 m. En 1970, tras lostrabajos en 1966 de Ch. Kuen Kao y G.A. Hockman,dos investigadores de Standard Telephone Ltd aquienes ya hemos mencionado, se da un enormeavance utilizando arseniuro de galio para emitir luzinfrarroja, sílice para transportarla y sicilio paradetectarla. En 1972 aparecen en Estados Unidosfibras hechas con sílice (vidrio) que conservan el40% de la energía en 1 km con tan sólo 4 dB deatenuación. El primer tendido se hizo en 1977, enChicago, por la AT&T.

Con la excepción de la fibra óptica, los conduc-tores siguen siendo básicamente de cobre, igual quehace cien años, un buen conductor de la electrici-dad. Y el fenómeno físico, la conducción guiadade ondas electromagnéticas, es el mismo. La prin-cipal diferencia y el gran salto adelante, se dio conlas técnicas de multiplexado y la utilización de ca-bles de banda ancha capaces de incorporar múlti-ples canales. Algo que se ha disparado hacia ade-lante con la fibra óptica que permite multiplicarpor millones esta capacidad de integración de ca-nales sobre un mismo soporte de reducidas dimen-siones.

Pero los medios alámbrico no son la única for-ma de comunicación. Desde que en 1895 Marconiinventara la telegrafía sin hilos, la radio y, poste-riormente la televisión, son alternativas bien fami-liares para el envío de información a distancia.

Y, a partir de 1957, en que se puso en órbita el

primer satélite, el Sputnik, las posibilidades de uti-lizar el aire como soporte físico de transmisión tam-bién se han incrementado espectacularmente. Du-rante la década de los sesenta se pusieron en órbitadiversos tipos de satélites, utilizados para la obser-vación astronómica, para la toma de datosgeodésicos, para la toma de datos meterológicos,para usos militares y, en fin, para la telecomunica-ción. En la siguiente sección resumiremos algunade las características principales de los sistemas detelecomunicación basados en satélites.

La aparición de los teléfonos celulares,inalámbricos, que pueden utilizarse también parala transmisión de datos informáticos, completa elconjunto de alternativas principales con que secuenta a final de siglo. Todos estos sistemas convi-ven en la actualidad y es previsible que sigan con-viviendo en los próximos años, aunque no es me-nos previsible que algunos de ellos desaparecerány que otros métodos que aún no conocemos tomensu lugar.

Pese a todo, la transmisión por aire tiene unaslimitaciones que pueden llegar a colmarse.Negroponte argumenta que esto llevará a invertirla evolución histórica de tal modo que, en breveplazo, toda la televisión será por cable mientras quelas comunicaciones personales pasarán a sermayoritariamente inalámbricas. Esta predicción,que un senador americano bautizó como el"Negroponte Flip", denominación que el propio

3000 Ghz

300 Ghz

30 Ghz

3 Ghz

300 Mhz

30 Mhz

3 Mhz

10 m

100 m

1 m

10 cm

0'1 mm

1 cm

1 mm

1940 1950 1960 1970 1980 1990 2000

Radio deonda corta

TV blancoy negro

Satélites experimentales

Radio FM

TV color

Satélites militares

Teléfono celular

Satélites de banda ancha

Satélites geoestacionarios

Satélites de órbita baja

Redes locales inalámbricas

Radios especiales de onda corta

Figura 33 Rangos de frecuencias característicos de diferentes sistemas de telecomunicación

Page 271: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 275

Negroponte recoge con regocijo en varias publica-ciones, incluido su éxito de ventas Being digital,ha sido discutida entre otros, por Joseph N. Pelton(ver: "Telecommunications for the 21st Century",Scientific American, april 1998, p. 68-73) quien ar-gumenta que iremos a un sistema mixto en breveplazo en el que no habrá una técnica predominan-te. La figura 33 muestra un resumen de los princi-pales sistemas de telecomunicación disponibles afinales del siglo, con sus frecuencias característi-cas.

Satélites y otros medios globales inalámbricos

El primer satélite de uso comercial para telecomu-nicaciones, el Telstar, se puso en órbita en 1962,cinco años después del lanzamiento del Sputnik.En 1964 se creó Intelsat (InternationalCommunication Satelite Organization) que al añosiguiente lanzó el Intelstat 1 bautizado como EarlyBrid, el primer satélite geoestacionario, de 0,9 mde diámetro y 77 kg de peso. En 1998 había 220satélites comerciales en órbita y los expertos con-sideran que esta cifra puede crecer hasta 1.000 du-rante la primera década de siglo que viene. Mu-chos de estos satélites son bastante más volumino-sos que sus predecesores. El Intelstat VI, lanzado aprincipios de los noventa tenía 20 m de altura, 4 mde diámetro y pesaba 2 toneladas. Daba soporte aun máximo de 110.000 canales telefónicos.

Para hacerse cargo de la situación hay que su-brayar el hecho de que la mayoría de los países nocuentan con tendidos de fibra óptica ni con nadaque se le parezca y de que su conexión a Internet selleva a cabo a través de satélites, principalmentede Intelsat.

Las órbitas que describen los satélites puedenser heliosincrónicas o geosincrónicas. Los prime-ros giran con el sol y pasan a una determinada horapor un mismo sitio. Por lo general describen órbi-tas circulares, casi polares. Los segundos descri-ben órbitas circulares de 24 horas, en el plano ecua-torial, desplazándose a una velocidad de 3.075metros por segundo, con lo que mantienen una po-sición aproximadamente fija sobre una determina-da zona de la tierra. Este es el tipo que se utiliza encomunicaciones y que se denomina"geoestacionario".

El principal problema que se debe afrontar alponer en órbita un satélite geoestacionario es el en-contrar un equilibrio adecuado entre requisitos in-

compatibles. Cuanto más alto esté situado el saté-lite mayor porción de la tierra "verá", por lo que senecesitará un número menor para cubrir toda susuperficie. Pero cuanto más alto esté situado, ma-yor será la atenuación de la señal que reciba y ma-yor será el tiempo que tardará en recibirla. Estosignifica que necesitará antenas muy grandes paracaptar la señal y, además, que el retardo de recep-ción puede resultar incompatible con determina-das aplicaciones.

En la literatura anglosajona se denomina a lostres tipos principales de satélites geoestacionarioscon que se cuenta en la actualidad en el sector detelecomunicaciones GEOs, MEOs y LEOs. UnGEO (Geosynchronous Earth Orbit) está situadoa 36.000 km sobre la superficie de la tierra. A estadistancia, basta con 4 o 5 satélites para cubrir todasu superficie. Por contra, requiere antenas de 2 o 3m de amplitud y tarda 1/4 de segundo en recibiruna señal, lo que supone un retardo importante parauna conversación telefónica. Un MEO (MediumEarth Orbit) está situado a menos de 10.000 kmsde altitud. A esta distancia se necesitarían más de12 satélites para cubrir toda la superficie de la Tie-rra. Por otro lado, la señal le llega en centésimasde segundo, lo que permite que sea utilizado paracomunicaciones telefónicas con antenas de dimen-siones similares al anterior. Un LEO (Low EarthOrbit) está situado a menos de 2.000 kms. A estadistancia se necesitarían cerca de 100 satélites paracubrir toda la superficie terrestre aunque los incon-venientes relacionados con la atenuación práctica-mente desaparecen. La franja comprendida entrelos 1.500 y los 10.000 kms de altitud, denominada"cinturón de Van Allen", no puede utilizarse debi-do a la radiación lo que limita aún más las alterna-tivas. Los tres tipos, con sus coberturas caracterís-ticas, se representan en la figura 34.

Todos estos inconvenientes se ven compensa-dos por importantes ventajas. La principal es quela inversión, para el usuario, es mínima. No se ne-cesitan instalaciones complicadas ni tendidos decables a través de edificios y el coste de enviar unaseñal por el satélite es el mismo para uno que paravarios millones de receptores. Para una compañíaque deba comunicarse con frecuencia a distanciassuperiores a los 800 km de distancia pueden resul-tar más baratos que la utilización de una red porcable. El utillaje requerido es muy fácil de instalar:basta con poco más que una antena de 1,2 a 2,8 men determinados casos. Por otro lado, las velocida-

Page 272: [Architecture eBook] Aplicaciones as en Arquitectura

276 Aplicaciones informáticas en arquitectura

des son del orden de los 19,2 kbps en sistemas debajo coste, excesivamente lentas para muchas apli-caciones.

Todo esto está estrechamente relacionado conla difusión de los teléfonos celulares. Los teléfo-nos celulares funcionan en una banda de 800 a 900MHz. Se introdujeron en Estados Unidos a princi-pios de los ochenta. El nombre viene de que el áreaservida se divide en "células" cada una con unaestación y una torre de radio. Los teléfonos trans-miten a la estación en una frecuencia y reciben enotra. En la base se convierten en microondas amayor frecuencia y de ahí pasan a un conmutadortelefónico donde se reconvierten de nuevo. Sumayor limitación es que la frecuencia con que cuen-tan no les permite transmitir a más de 100 kbps.

A partir de 1996 han aparecido en Europa y enEstados Unidos (1998) aparatos de menos de me-dio kg de peso con funciones de teléfono celular,fax y ordenador personal con conexión a Internet ycorreo electrónico. La compañía Motorola ha pues-to en funcionamiento un sistema, el Iridium, de te-lefonía móvil con 66 pequeños satélites (11 porórbita en 6 órbitas) de 1 × 2 m y 315 kilos de peso,con áreas de cobertura de 650 kms de diámetro.

En fin, hay varias razones que juegan a favor dela difusión de los métodos inalámbricos. En pri-mer lugar, la movilidad y la creciente utilizaciónde ordenadores portátiles. Las ventajas de podertrabajar desde cualquier lugar, manteniendo el ac-ceso a información relevante, personal o comparti-da es lo suficientemente clara como para quehuelguen argumentos. A esto hay que sumar la ten-dencia a compartir información de un modo cada

vez más universal con conexiones entre empresaso equipos situados en difererentes partes del glo-bo.

Redes digitales integradas

El módem es un dispositivo arcaico cuya existen-cia se justifica por la gran dificultad de desmanterlarun sistema tan complejo como el de la red telefóni-ca, que cuenta con cien años de antigüedad y cien-tos de miles de kilómetros de cables tendidos portodos los lugares del globo. Pero la necesidad depreservar esta estructura obliga a hacer algo tanabsurdo como gastar tiempo y dinero en adquirirun aparato para convertir las señales digitales delordenador en señales analógicas, para enviarlas ala central telefónica en donde volverán a ser con-vertidas en señales digitales que puedan transmitirsede modo rápido y eficaz hasta su destino. ¿No se-ría posible ahorrarse estos pasos y enviar directa-mente señales digitales?

Esto es, no sólo posible, sino conveniente y eslo que ha llevado a las compañías de comunica-ción a adoptar una norma internacional para exten-der las capacidades de las líneas digitales de talmodo que puedan llegar a todas las casas y lugaresde trabajo del mundo sin necesidad de pasar poresta serie de conversiones y reconversiones inúti-les. El ISDN, siglas de Integrated Services DigitalNetwork, o RDSI, ("red digital de servicios inte-grados") es un estándar internacional de comuni-caciones, propuesto a partir de 1984 por la CCITTtras varios años de estudio, para transmisión deaudio, vídeo y datos entre terminales digitales. Eltérmino apareció en 1971 y las primeras recomen-daciones de normalización de dieron en 1984 porla CCITT. El primer servicio se proporcionó en1985 por parte de la British Telecom, en Londres.En 1988 estaba disponible en 60 ciudades de In-glaterra y comenzaba a utilizarse en Francia y enEstados Unidos. En España ha comenzado a im-plantarse desde mediados de los noventa.

El RDSI se presenta inicialmente como una evo-lución de la red telefónica, pero su finalidad vamás allá y está concebido para transmitir todo tipode datos. Utiliza TDM como técnica demultiplexado y se presenta en dos formas: BRI(Basic Rate Interface, "interfaz de régimen bási-co") y PRI (Primary Rate Interface, "interfaz derégimen primario"). En el sistema europeo seuitiliza la estructura básica que ya hemos descrito

GEO30 000 km

MEO10 000 km

LEO1 000 km

Figura 34 Cobertura de los tres tipos principalesde satélites de telecomunicación

Page 273: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 277

en la primera sección, en el apartado"multiplexado", con un canal B (de basic) a 64kbps, para la transmisión de información, y un ca-nal D (de digital) a 16 kbps. La estructura de latrama en el sistema primario es de 2.048 kbps loque permite incorporar un total de 32 canales.

A finales de los ochenta apareció la segunda ge-neración de RDSI, de banda ancha, a veces deno-minado BA/ RDSI. La reunión de Seúl de 1988 dela CCITT propuso el sistema de conmutación depaquetes de ATM como sistema recomendado paraesta versión ampliada, de modo que se garantizasela transmisión adecuada de vídeo e informaciónmultimedia en general. Más adelante volveremosbrevemente sobre las características de ATM.

Sin embargo, y a pesar el tiempo transcurridodesde que comenzó a funcionar y de las considera-bles diferencias de velocidad, son muy pocos losusuarios que han escogido este medio de transmi-sión. A la hora de poner en la balanza, por un lado,una velocidad efectiva de 64 kbps frente a veloci-dades efectivas no superiores a los 30 kbps y, porotro, un mayor coste de instalación debido a losrequisitos de equipamiento especial, la mayoría delos usuarios han optado por el módem, barato yfácil de instalar.

La sustitución se ha llevado a cabo con mayorrapidez en las empresas. Por otro lado, muchasempresas privadas, sobre todo en Estados Unidos,disponen de centralitas de conmutación privadas,denominadas PBX (Private Branch Exchange) que,además de proporcionar diversos servicios inter-nos convierten directamente las señales analógicasen digitales.

El RDSI funciona en la actualidad, por consi-guiente, como un sistema que garantiza la veloci-dad y la fiabilidad durante la fase intermedia de latransmisión entre terminales o redes locales más omenos remotas. La mayoría de los usuarios, sinembargo, siguen atrapados en el cuello de botellade los módems. En unos casos por ignorancia de laexistencia de sistemas alternativos que pueden pro-porcionar velocidades de transmisión superiores y,en otros casos, la mayoría, debido a los elevadoscostes que supone la instalación de un equipamientomás adecuado.

Redes metropolitanas

Hay tres alternativas principales para intercambiardatos entre redes locales distantes: comunicación

inalámbrica, líneas telefónicas alquiladas y RDSI.Pero en el caso de las regiones metropolitanas es-tas posibilidades se amplían. En las secciones an-teriores hemos visto las características principalesde las redes locales. Como ocurre con este tipo dedivisiones los límites se difuminan. Una LAN quese extienda a varios kms de distancia, utilizandoun anillo central de fibra óptica con velocidadesde transferencia de 100 mbps, se diferencia pocode una MAN o una WAN.

Pero, convencionalmente se denomina MAN(Metropolitan Area Network) a un tipo de red quese distingue de una gran LAN, como la que puedeencontrarse en un gran campus universitario o unagran empresa, por las siguientes características.

- La extensión espacial está asociada claramen-te a un determinado territorio urbano.

- La conexión se asemeja más a la de un sistemade conmutación público que permita conexionespunto a punto que garanticen la confidencialidad yque incorporen protocolos que permitan la conexióna través de un único punto principal, de diversosequipos.

- El núcleo central de la red ofrece altas veloci-dades de transferencia por medio de soportes talescomo la fibra óptica, dispositivos intermedios ade-cuados y protocolos normalizadosinternacionalmente.

Para que todo esto se haga realidad es precisocontar, al igual que ocurría con las redes locales,con algún tipo de red, es decir, una topología, uncableado, un modo de conexión específico y conun conjunto de protocolos adecuados para dichotipo.

Los principales sistemas propuestos hasta la fe-cha para Redes Metropolitanas son FDDI (fiber

Figura 35 RDSI frente a módem

Page 274: [Architecture eBook] Aplicaciones as en Arquitectura

278 Aplicaciones informáticas en arquitectura

distributed data interface) y DQDB (DistributedQueue Dual Bus).

FDDI opera a 80-100 mbps y usa un sistema depaso de testigo que permite alcanzar distancias ma-yores que otros sistemas a expensas de algo mástiempo del necesario para acceder al anillo. Paraevitar el problema de la dependencia de unos nodoscon respecto a otros, característico de este tipo deprotocolos, el sistema se organiza como un dobleanillo, de tal modo que, como se muestra en la fi-gura 36, se pueda recuperar todo el servicio sifalla una sección. El FDDI se ha utilizado sobretodo en campus universitarios y grandes compa-ñías comerciales. Está limitado a 100 kms de cablepor cada anillo y la distancia entre nodos no puedesuperar los 2,5 kms.

DQDB es un protocolo que se desarrolló en laUniversidad de Australia Occidental durante la se-gunda mitad de los ochenta, definido en el comitéIEEE 802.6 para la construcción de redes metro-politanas. Alcanza decenas de kilómetros. Losnodos se conectan a dos fibras diferentes, una paracada dirección de transmisión. En el origen hay unnodo que despacha paquetes vacíos; cuando éstosllegan a un nodo con datos, se rellena el paquete yse encamina hacia su destino. Los nodos que tie-nen paquetes pendientes colocan un indicador depetición en los paquetes que circulan por las fibras.De este modo los nodos adyacentes saben que hayuno que quiere transmitir y cede el paso de los pa-quetes vacíos. Las velocidades son del orden delos 100 mbps, aunque hace relativamente poco queha comenzado a ser implantado y se espera quealcance velocidades de 600 mbps.

ATM

Aunque es un tema abierto a discusión, y hay ex-pertos que se declaran escépticos al respecto, laopinión general parece ser que ATM (AsynchronousTransfer Mode), un sistema de conmutación depaquetes que apareció a mediados 1980, se tratade la innovación más importante desde la apari-ción de la fibra óptica. Para entender el sentido deesta innovación es preciso entender cuál es el pro-blema que se busca solucionar.

Como ya hemos visto, la interconexión de redeslocales a gran distancia se lleva a cabo de dos mo-dos principales. En modo síncrono, por conmuta-ción de circuitos, de modo similar a como nos co-nectamos por teléfono, y en modo asíncrono, porconmutación de paquetes. A estos dos métodospodría añadirse un tercero: la conmutación por al-macenamiento y reenvío, en donde un mensaje com-pleto es enviado de computador a computador hastaque alcanza su destino. La mayoría de los sistemasde intercambio informático utilizan sin embargo laconmutación de paquetes.

Este sistema es prioritario porque ofrece venta-jas indudables, sobre todo para la transmisión dedatos. No es necesario estar a expensas de que seproduzca o no una conexión. El envío se hace en elmomento en que interesa hacerlo y se cuenta conla seguridad de que, más pronto o más tarde, llega-rá a su destino. Cualquiera que haya utilizado elcorreo electrónico puede entender las inmensasventajas que esto reporta para el intercambio deinformación.

Sin embargo, como ocurre con todo sistema quese impone, una vez que se ha aceptado su posiciónprincipal comienza a sentirse la necesidad de me-jorarlo. El principal inconveniente de la conmuta-ción de paquetes es que los datos se sobrecargancon información accesoria para poder dirigirlos através de la red. El mensaje se subdivide en dife-rentes paquetes, más o menos grandes según el pro-tocolo utilizado y las condiciones del envío, y cadapaquete incluye una cabecera con información so-bre su contenido, su remitente y su destino, entreotros datos complementarios. Cada vez que uno deestos paquetes llega a un router esta informacióntiene que ser descifrada y el router tiene que deci-dir cuál es la ruta adecuada e incorporar esta infor-mación en el grupo de datos complementarios.

Para circular por redes abiertas, internaciona-les, se necesita algún tipo de protocolo compartido

Figura 36 Estructura en doble anillode un sistema FDDI

Page 275: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 279

que asegure que el formato y la codificación de lospaquetes serán comprendidos. El protocolo másextendido para la conmutación de paquetes era,hasta hace poco, el X.25, un protocolo que nacióen Estados Unidos para intercambiar datos entreredes locales distantes a través de líneas telefóni-cas digitales. Hay muchas operaciones, como elpago con tarjetas de crédito, que estánautomatizadas según este protocolo.

El X.25 ha sido substituido, en los últimos años,en Estados Unidos principalmente, por otro proto-colo que ofrecía mayor velocidad a menor coste:el Frame Relay (que en algún caso se ha traducidonada menos que como "interconexión por trans-bordo predeterminado"). El Frame Relay funcionacon multiplexado estadístico y puede operar entre64 kbps y 45 mbps. Su mayor efectividad se debe aque aligera sus envíos relegando en parte el con-trol de errores a los ordenadores locales, sacandopartido del aumento en seguridad y fiabilidad delos nuevos sistemas operativos. Si ocurre algúnproblema, se anula la transmisión y se avisa a losterminales de que tomen medidas para corregirlos.Como esto ocurre pocas veces, el sistema resultasuficientemente fiable.

Pero tanto porque esta tecnología contribuye aaumentar el tráfico al tener que reenviar mensajesen un porcentaje pequeño pero no despreciable,como, sobre todo, porque el tráfico crece por sísolo a medida que aumenta el uso de las redes, labúsqueda de un sistema que mejore la situación seha convertido en una necesidad que se ha dispara-do con el aumento del intercambio de vídeo e imá-genes.

La mejor respuesta a este problema es, en laactualidad, ATM. Las características de este proto-colo son las siguientes.

ATM se basa en una trama o formato de paque-te de células pequeñas, de tamaño fijo. Las célulastienen un total de 53 bytes distribuidos en una ca-becera de 5 bytes y un grupo de datos de 48 bytes.Estas células se intercalan en diferentes flujos loque permite una asignación flexible del ancho debanda. Es decir, se utiliza un sistema demultiplexado que permite enviar grandes cantida-des de información a muy altas velocidades.

Además de esto utiliza un tipo especial de con-mutador. Los conmutadores ATM son dispositivosmultipuerto especiales que permiten diferentes ve-locidades de enlace sobre la misma red. Esto libe-ra al sistema de tener que trabajar a una misma ve-

locidad. Un sistema ATM puede trabajar a 25-51mbps sobre par trenzado, a 3,1 mbps sobre fibrasópticas multimodo, a 155 mbps sobre fibras ópti-cas monomodo y par trenzado blindado, y a 622mbps sobre fibras ópticas monomodo.

Las direcciones de terminales se aligeran. Noutiliza enlaces de datos largos concatenados sinoque utiliza un mecanismo de direccionamiento conconstrucciones jerárquicas. Se basa en enlaces pun-to a punto entre terminales sin apoyarse en un me-dio de transmisión de acceso compartido. Median-te un sistema especial, permite independizar lasconstrucciones lógicas de las físicas, posibilitandola creación de redes locales virtuales sobre una to-pología arbitraria de malla que representa la redglobal.

Todas estas innovaciones, de las que aquí sólose pretende dar una idea general, configuran un sis-tema que, a finales del siglo, se presenta como lasolución inmediata para poder superar la barreraimpuesta por las redes actuales al envío de datosde gran volumen a velocidades razonables. Inicial-mente ATM nació para ser usada en RDSI de Ban-da ancha cuando los niveles de tráfico hicieron pre-ver que ya estaba madura una nueva generación detecnología para WANs. Sin embargo su uso se hacomenzado a implantar en universidades y empre-sas privadas que requieren grandes anchos de ban-da que rebasan las capacidades de redes localescomo Ethernet. Su éxito hace pensar que es proba-ble que se extienda a todo tipo de redes a medidaque aumente el intercambio de formatos multimediay crezcan las necesidades de ancho de banda. Hayque recalcar que si la organización sólo va a inter-cambiar datos, ATM es un lujo innecesario. Pero sise va a intercambiar audio, vídeo o imágenes pue-de convertirse en una necesidad ineludible.

Red Local

Red Local

Centro de Servicios

FO / ATMFO / ATM

FO / ATM

FO / ATM

RDSI de Banda Ancha

FO / ATM: Fibra Óptica y Células ATMa 155 ó 622 mbps

- TV- Teléfono- Video- PC

Figura 37 Organización de una WAN con ATM

Page 276: [Architecture eBook] Aplicaciones as en Arquitectura

280 Aplicaciones informáticas en arquitectura

5 Internet

Internet nació, en la década de los sesenta, en ple-na guerra fría, como un proyecto del ejercito deEstados Unidos para preservar el contacto entrecentros de defensa en el caso de un ataque de laUnión Soviética. La idea original, que constituyela esencia de la red actual, era crear una red sin uncentro definido, de tal modo que fuera imposiblesu destrucción total a partir de la destrucción de sucentro neurálgico. Otra de las finalidades era faci-litar la creación de nuevos nodos para que no fueranecesario reestructurar toda la red sino que, por elcontrario, ésta pudiera extenderse sin límites.

Originalmente se denominó ARPAnet (Red dela Advanced Research Project Agency). Otro de loselementos clave de ARPAnet que ha pervivido enla actual Internet fue el desarrollo del protocoloTCP/IP que veremos en seguida y que permitía quetodos los ordenadores conectados a la red habla-sen un mismo lenguaje. Durante la década de losochenta diversas instituciones se fueron conectan-do a esta red adoptando este protocolo y puededatarse en 1983 el nacimiento de Internet. Por es-tas fechas había poco más de 200 hosts conecta-dos. A comienzos de 1986 la cifra era de algo másde 2.000. En 1998 el número de usuarios en todoel mundo estaba en torno a los 50 millones. La ci-fra prevista para el año 2000 es de 150 millones.

Las actividades comerciales estaban prohibidasen la red original mientras que han ido adquiriendouna importancia creciente en la red actual. Internetno tiene un propietario definido. Su base principales la NSF (National Science Fundation) en Esta-dos Unidos y, desde el punto de vista técnico, laIETF (Internet Engineering Task Force) que agru-pa a científicos y técnicos de diversas especialida-des. Las decisiones y normativas se impulsan des-de la IAB (Internet Architecture Board). Otra insti-tución importante es la NIC o InterNIC (InternetNetwork Information Center). Pero, en general, lafuerza principal de Internet la constituye la aporta-ción espontánea de miles de individuos y gruposen todo el mundo.

Internet está directamente relacionada con la redtelefónica. Lo que se denomina, en Internet,backbone, "espina dorsal", es la línea principal dealta velocidad de Internet que consiste en una seriede líneas de teléfono exclusivas de alta velocidad.Esto es, sin embargo, un escaso consuelo si se uti-

liza un módem que tiene una velocidad de salidalimitada, en el mejor de los casos, a 56 kbps.

La noción de protocolo que ya ha aparecido envarias ocasiones en los apartados anteriores, es, enel caso de Internet, debido a la complejidad de lared y al diverso número de funciones que soporta,de principal importancia y hay un buen número deprotocolos que es preciso conocer. El principal deellos es el TCP/IP. Todos los servicios principales,que también resumiremos más adelante, puedenigualmente considerarse como familias de proto-colos. La ISO (International StandardsOrganization) ha definido 7 niveles de protocolosque deben cumplir todas las redes que ya hemosdescrito anteriormente, y que también se aplican aInernet: 1) physical (especifica las característicasmateriales de la red); 2) data link (controla funda-mentalmente los errores de transmisión); 3) network(se encarga principalmente de dividir los datos enpaquetes de tamaño adecuado); 4) transport (nivelintermedio utilizado por los niveles superiores paracomunicarse con la red); 5) session (mantiene lacomunicación activa entre dos ordenadores remo-tos); 6) presentation (lleva a cabo las conversionesde código necesarias para que el lenguaje sea co-mún); 7) application (nivel superior al que accedeel programa de usuario que se esté utilizando).

Conexión a Internet

El primer paso para utilizar Internet es estableceruna conexión. Para hacer esto se requiere contarcon una cuenta abierta. Dado que en la inmensamayoría de los casos esto se lleva a cabo de modoindirecto, puede decirse que este requisito previolleva a tres, o cuatro si incluimos el futuro cercano,opciones principales. Estas son las siguientes: a)acceso a través de una red local, propia de una or-ganización que está concectada a Internet a travésde su servidor principal, sea de modo directo poruna línea de alta velocidad sea a través de un pro-veedor comercial; b) acceso a nivel individual através de un teléfono y un módem conectado alservidor de un proveedor comercial; c) acceso através de un servicio en línea (on line service); d)por lo que respecta al futuro cercano, una cuartaalternativa será conectarse a Internet a través deuna televisión por cable. Una de las formas de co-nectarse a Internet, en España, es a través de Infovía,red de Telefónica.

En cualquiera de estos casos, la conexión real,

Page 277: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 281

la conexión directa se efectúa o bien a través unagateway, o puerta de acceso de una red a otra, undispositivo que ya hemos visto en los apartadosanteriores, a propósito de redes locales, o bien através de una IP router, o a través de una dedicatedconnection, una conexión dedicada. Cualquiera deestos términos hace referencia a una máquina es-pecializada, conectada a través de una línea telefó-nica igualmente especializada, capaz de transferen-cias de, como mínimo, 9.600 baudios pero que pue-den alcanzar los 45 Mbps a través de fibras ópti-cas. El acceso directo implica una petición alInternet NIC y un coste importante en términos deinstalación de maquinaria, programas y manteni-miento.

Una vez que se cuente con una conexión, espreciso configurar el ordenador para que puedautilizar la red. Esto implica, en primer lugar, unaserie de requisitos físicos, que no comentaremosporque son equivalentes a los necesarios para unared local o ya vienen dados porque la conexión seefectúa a través de una red local, y que consistenbásicamente en la incorporación al ordenador deuna tarjeta de red y una conexión con un cable. Apartir de aquí, será preciso conocer los códigos deuna serie de nodos intermedios

En primer lugar será necesario conocer el códi-go IP, siglas de Internet Protocol, de la máquinaque vamos a utilizar. La conexión a Internet a tra-vés de un servidor requiere una configuración pre-via en la que figura la información sobre la direc-ción IP del ordenador con el que estemos trabajan-do. Un código IP tiene un formato único divididoen 4 partes, cuatro números separados por un pun-to. Por ejemplo, el código IP de un ordenador de laETS de Arquitectura de Barcelona puede tener esteaspecto: 147.83.62.171. El primer número identi-fica la región geográfica. El segundo, la organiza-ción (en este caso la UPC, Universitat Politècnicade Catalunya) o el proveedor en el caso de unaconexión privada. El tercero, un grupo de ordena-dores dentro de esta organización. El cuarto, la má-quina concreta, el ordenador desde el que se traba-ja. Una vez configurada la máquina, para estable-cer la conexión, los usuarios no introducen estosnúmeros, largos y difíciles de recordar, sino un nom-bre corriente, más descriptivo, y que se traduce alcódigo IP por obra y gracia del DNS que describi-remos más adelante.

El código IP, que implica un protocolo específi-co, se incorpora al TCP, siglas de Transmission

Control Protocol ("protocolo de control de trans-misión"). Los TCP/IP constituyen una familia deprotocolos utilizada por Internet para mantener lacompatibilidad de comunicación entre diferentestipos de computadoras. Pueden considerarse comoel punto de partida para el funcionamiento deInternet.

Estos protocolos permiten que máquinas total-mente distintas puedan relacionarse entre sí con in-dependencia de sus configuraciones específicas yde la incompatibilidad habitual entre los ficherosque generan. El protocolo TCP/IP es público ypuede ser utilizado por cualquier entidad. De he-cho no es un protocolo específico de Internet sinoque ha sido utilizado en muy diferentes contextosy tipos de redes. Las familias principales de proto-colos son, entre otros: transport, routing, networkaddresses, user services, gateway. Los protocolosTCP/IP se propusieron por primera vez en 1973,dos años después de la puesta en funcionamientode ARPANET, la predecesora de Internet. La pri-mera versión plenamente normalizada apareció en1982. Al año siguiente la universidad de Californiaen Berkeley sacó una versión de UNIX que incor-poraba estos protocolos y que contribuyó a su ex-pansión.

Los códigos dados por el IP son números y, comoya hemos subrayado, para la mayoría de los usua-rios es más fácil recordar nombres que númerospor lo que, en la práctica, no se utiliza la direcciónde un ordenador dada por su código IP sino la dadapor un nombre. Esta conversión viene facilitada porel DNS, siglas de Domain Name Server, ("servidorde nombre del dominio"). Estos nombres deben sertraducidos a códigos digitales para que la red pue-da gestionarlos. La tarea de traducir estos códigosla lleva a cabo el DNS, un servidor o un grupo deservidores que mantienen una lista de códigos ynombres equivalentes de todas las máquinas delmundo conectadas a Internet. La lista de nombresy códigos asociados se conserva en una tabla de-nominada host table que se almacena en un direc-torio denominado /etc/host en el servidor Unix dela organización a que pertenece el ordenador quese esté utilizando.

La lista principal, de alrededor de medio megaa mediados de 1996, se actualiza aproximadamen-te cada hora en el NIC (Network InformationCenter). El NIC es también quien se encarga deotorgar nuevos nombres, previa consulta a su basede datos, para asegurar que no se produzcan repe-

Page 278: [Architecture eBook] Aplicaciones as en Arquitectura

282 Aplicaciones informáticas en arquitectura

Dominio-Nivel superior

Dominio-2º Nivel

Mail Box

abcdef...

Mai

l abcdef...

[email protected]

NM1

NM2

NM

NM1: name server del nivel superior -> dirección IP de NM2

NM2: name server del segundo nivel -> dirección IP de NM

NM: name server de la dirección completa -> dirección IP de destino que se adjunta a cada paquete retransmitido por los routers (R)

RR

R RR

RR

R

Ser

ver

Mai

lS

erve

r

ticiones. Los DNS locales no mantienen esta listasino la lista de las direcciones más utilizadas. Cuan-do un nombre solicitado no está en la lista, el DNSse dirige a un servidor de nivel superior y si tam-poco está ahí, a otro de nivel superior hasta encon-trar el código solicitado. De este modo los DNSconfiguran una cadena compleja; en el nivel supe-rior están los top-level domains, por debajo lossecond-level domains, después los third-leveldomains, etc. Una vez que se cuenta con un nom-bre registrado se pueden generar subnombres sinnecesidad de un nuevo registro en el NIC.

Los DNS siguen ciertas convenciones que esconveniente conocer pues facilitan su uso y evitancometer errores. Estas convenciones constituyen loque se denomina el Domain Name System, ("siste-ma de nombres del dominio"). Los nombres se se-paran por puntos ".", por barras inclinadas "/" ypor arrobas "@". Leyendo en sentido inverso, elúltimo término indica el dominio y va separado porun punto de los anteriores que son subdominios.Un DNS tal como xxx.columbia.edu indica que eldominio es una institución educativa y elsubdominio una universidad conocida. Algunos delos tipos más corrientes de dominios son .com (co-mercial), .edu (educacional), .gov (gubernamental),.mil (militar), .org (organización no gubernamen-tal ni educativa ni militar). Pueden indicar paisestal como .au (Australia), .ca (Canadá), .cn (Chi-na), .fr (Francia), .de (Alemania), .it (Italia), .jp (Ja-

pón), .su (Unión Soviética), .es (España), .us (Es-tados Unidos).

Otro protocolo muy utilizado en conexiones enserie es el SLIP/PPP (Serial Line Internet Protocol/Point to Point Protocol). Aunque el mejor modode conectarse a Internet es por medio de una co-nexión directa a la red, esto no es siempre posibley la mejor y más utilizada alternativa es a través dela línea telefónica por medio de un módem lo queimplica una línea en serie. Sin embargo SLIP no esun protocolo de Internet y es necesario complemen-tarlo con otro, tal como el PPP (Point to PointProtocol) que asegure la transmisión correcta delos mensajes a través de la conexión y la correc-ción de errores. Este protocolo conjunto requiereciertos requisitos mínimos del ordenador y delmódem. Hay diversos programas comerciales de-sarrollados a partir de esta base.

Servicios de Internet

Hay varios términos clave que están asociados aInternet desde sus comienzos. Entre estos figuranFTP, Telnet, Email, Gopher, Archie o WAIS. To-dos estos nombres designan los Internet Services,varios servicios que están integrados en la red des-de sus comienzos y que cuentan con otros protoco-los específicos. Cualquier sistema conectado aInternet puede acceder directamente a estos servi-cios: a) Telnet permite conectarse a un terminal re-

Figura 38 Esquema de funcionamiento del correo electrónico a través de Internet

Page 279: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 283

moto y ejecutar determinados comandos sobre esteterminal; b) FTP permite transferir ficheros de unordenador a otro; c) un Electronic-mail permite en-viar y recibir mensajes entre usuarios de Internet;d) Gopher permite conocer el contenido de direc-torios de centros determinados y obtener copias di-rectas de algunos de los archivos que figuran enellos (o hay que volver al ftp); e) Archie es un mé-todo de encontrar archivos; e) UseNet news groupspermite participar en foros de discusión sobre te-mas diversos; f) WWW permite acceder ahipermedia con información textual y gráfica so-bre todo tipo de temas. Resumiremos las funcionesbásicas de cada uno de ellos en lo que sigue.

Telnet es un programa que incorpora un proto-colo básico que permite enviar ordenes desde unordenador a otro. El ordenador desde el que seemiten las ordenes es generalmente un ordenadorpersonal, un client, y el remoto un servidor conacceso a programas a los cuales el client tiene libreacceso. Un uso corriente de telnet es para gestio-nar archivos propios situados en el servidor o paraacceder a diversas utilidades del servidor. Para uti-lizar telnet es imprescindible conocer la direccióndel servidor con el que se quiere conectar y contarcon un nombre de usuario y un password registra-dos.

FTP son las siglas de File Transfer Protocol("protocolo de transferencia de ficheros"), un pro-tocolo y programa que asegura que los ficheros quese transportan por una red comparten un mismoestándar. Se utilizó, por el sistema operativo Unix,desde que los primeros grupos de trabajo en rednecesitaron compartir archivos generados por di-ferentes programas. La finalidad de un ftp es trans-portar ficheros a través de una red. También es po-sible enviar ficheros por otros medios, por ejem-plo el correo electrónico, si el tamaño no es exce-sivo, pero éste sigue siendo el medio más idóneopara archivos de cierto volumen. Un ftp incluye unaserie de rutinas automáticas que permiten crear,copiar, borrar y renombrar subdirectorios y fiche-ros. Dada la potencia de este sistema, el acceso aficheros está en general restringido a usuarios quecuentan con un password. En Internet, el accesocorriente para usuarios que deseen entrar en sitiospúblicos que no requieren un password determina-do se denomina anonymous. Los ftp ofrecen listasde archivos sin información acerca de su conteni-do por lo que es preciso saber con seguridad quées lo que se va a transferir antes de poner en mar-

cha un proceso que por lo general consume tiempoy no siempre termina bien.

Email, E-Mail, Electronic Mail o Correo elec-trónico es un servicio de red que permite enviarmensajes con rapidez de un ordenador a otro. Haydiferentes protocolos de correo electrónico, desa-rrollados para diferentes tipos de redes, pero el máscomún es el utilizado por Internet. Los mensajesse codifican automáticamente, en código ASCII,que es el único formato admitido por el correo elec-trónico de Internet. Este modo de comunicación esuna alternativa cada vez más utilizada por las in-mensas ventajas que ofrece en términos de veloci-dad y coste. La principal desventaja es la relativa ala privacidad. Los mensajes enviados por correoelectrónico pueden, con relativa facilidad, ser leí-dos por terceros, comenzando por la organizaciónen la que esté integrado el usuario. El correo elec-trónico que se utiliza en Internet funciona gracias aun protocolo específico, integrado en el protocologeneral TCP/IP, denominado SMTP (Simple MailTransfer Protocol). La utilización del correo elec-trónico requiere que se conozca la dirección elec-trónica de destino, lo que no siempre es el caso.Hay programas y servicios, como Finger, Whois,Netfind o Knowbo Information Service, que posi-bilitan hasta cierto punto encontrar la direcciónemail de alguien de quien se conocen otros datos através de Internet. También hay programas, comoEudora, Pegasus, o NetManage, que facilitan lagestión del correo electrónico.

El correo electrónico utiliza dos protocolos prin-cipales, el SMTP (Simple Mail Transfer Protocol),ya mencionado, y el POP (Post Office Protocol)para transferencias entre un ordenador local y suservidor. El primer programa que permitía enviarmensajes entre diferentes ordenadores, por mediode una serie de convenciones de las que el uso dela @ ("arroba") es el más notorio, fue desarrolladopor Ray Tomlinson, un informático que trabajabaen una empresa de Cambridge, Massachusetts, en1971. El signo @ se utilizó para separar direccio-nes porque en inglés se lee "at", preposición queindica una ubicación indeterminada. En España yAmerica latina se utilizaba como abreviatura de launidad de peso "arroba" y esta es la razón por laque ha pasado a formar parte de su vocabularioinformático. En 1995 las transmisiones por correoelectrónico, en USA, superaron por primera vez enla historia el volumen equivalente del correo nor-mal. A finales de 1996 se estimaba que cada día

Page 280: [Architecture eBook] Aplicaciones as en Arquitectura

284 Aplicaciones informáticas en arquitectura

circulaban por la red unos 50.000 Gb de datos, equi-valentes a unos 80.000 CDRoms. En 1997 se cal-culaba que había unos 71 millones de usuarios decorreo electrónico en todo el mundo, cifra que seprevé que llegue a los 800 millones en el año 2.000.

Gopher es un servicio incorporado a Internetdesde sus comienzos y ahora cada vez menos utili-zado a medida que van surgiendo páginas Web quehacen un servicio similar de un modo más sencillo.Es un programa desarrollado por la Universidadde Minesota. El término viene de la mascota deesta universidad y de una frase coloquial más bienintraducible: “I’m a Gofer, Y go fer this, Y go ferthat...”. La información se presenta por medio delistas numeradas con indicadores del tipo de fiche-ro y el tamaño; no es hipertexto. Otra diferenciaimportante es que el acceso se realiza a partir delugares, no a partir de términos o direcciones indi-viduales.

Archie es un servicio de Internet que nació parafacilitar la búsqueda de archivos cuando se utiliza-ba un ftp. Permite mantener una lista indexada dearchivos disponibles en ftp sites anónimos. La basede datos de Archie, en 1995, incorporaba más de1.000 servidores con más de 2,4 millones de archi-vos asociados. Esta base se duplica en varios pun-tos del mundo para reducir los tiempos de accesoque, en estas fechas, era del orden de las 50.000consultas diarias a la base. Se utiliza para buscarficheros por medio de un nombre completo o par-cial. Todos los centros localizados en las bases dedatos de Archie permiten acceso a sus ficheros através de un FTP en modo anonymous. Puede uti-lizarse de modo directo, con programas específi-cos, por medio de Telnet o por medio de Netscapetecleando http://pubweb.nexor.co.uk/archie.html.

Internet también permite acceder a Newsgroups,grupos o foros de discusión por medio de UseNet,contracción de User’s Network. Las network newso netnews permiten poner en circulación mensajespersonales, articles, que son recibidos por todoslos ordenadores que participan de la red y que cons-tituyen la UseNet. Algunas UseNet pueden contarcon algunos miles de grupos de discusión. A fina-les de 1996 se estimaba en más de 13.000 el núme-ro de grupos activos en UseNet. El mecanismo defuncionamiento de estos grupos es similar al delcorreo electrónico, con la diferencia de que la di-rección de envío es múltiple y se activa de modoautomático. Quienes deseen participar en estos gru-pos pueden presentarse como un avatar. En Internet,

se denomina así al personaje virtual con que se iden-tifica un usuario para participar en grupos de dis-cusión sin tener que identificarse con su nombrereal.

El uso de estos medios requiere cierto grado deiniciación. Además de los protocolos en el sentidotécnico que hemos ido viendo hasta ahora, se re-quiere cierto conocimiento de otros protocolos que,como ocurre con el sentido tradicional de esta pa-labra, no se codifican con facilidad y requieren cier-ta experiencia. Se denomina, en el argot de Internet,netiquette (contracción de Net y-Etiquette) a la "eti-queta de uso de la red", una serie de reglas no es-critas tales como "no sobrecargar la línea con men-sajes estúpidos o demasiado largos", "leer las FAQ(siglas de frequently asked questions) antes de ha-cer preguntas", "tratar con educación a los usua-rios desconocidos", etc. Puede encontrarse una guíaintroductoria adecuada sobre esto en el newsgroup:news.announce.newusers.

Las posibilidades de Internet puedenincrementarse notablemente, previo pago, a travésde un On Line Service, un servicio comercial deconexión a través de Internet que ofrece informa-ción seleccionada de acceso mas rápido previo pagode una cuota. Algunos de los servicios on line prin-cipales en 1996 son CompuServe (el primero y másconocido aunque se mueve con lentitud haciaInternet), America Online (la más extendida, con 5millones de usuarios en 1995), Microsoft Network,Prodigy.

6 La WEB

La WWW, siglas de World Wide Web, "telaraña deextensión mundial", nació en marzo de 1989, enGinebra, cuando Tim Berners-Lee, del CERN, hizocircular una propuesta para desarrollar un sistemade hipertexto que permitiera a diferentes equiposde investigadores en física de partículas compartirsus experimentos con rapidez y eficacia.

A finales de 1990 se puso en marcha un proyec-to que contemplaba las principales característicascon que debía de contar semejante sistema y entrelas que cabe citar como principal la compatibili-dad de formatos y protocolos de acceso, de tal modoque cualquier usuario, en cualquier parte del mun-do pudiera comunicarse con facilidad sin verseimpedido por obstáculos tecnológicos. A finales de1991 comenzó a funcionar la primera red que in-corporaba exploradores (browsers) y sistemas de

Page 281: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 285

búsqueda por WAIS (Wide Area InformationServers). En 1992 se incorporaron a la red los FTP.En enero de 1993 había 50 servidores Web funcio-nando. En octubre 500. A finales de 1996, 400.000.

En 1994 el CERN se unió al MIT para llevaradelante un proyecto que crecía más allá de todaslas expectativas; a finales de este mismo año estaunión se amplió hasta formar un conjunto deoganizaciones que pasaron a denominarse TheWorld Wide Web Consortium bajo la dirección deTim Berners-Lee, el fundador de la Web. Puedeencontrarse información adicional en la direccióndel consorcio: http://www.w3.org. La propuestaoriginal de Tim Berners-Lee puede también encon-trarse en http://info.cern.ch/hypertext/WWW/TheProject.html. A finales de 1996 se calculaba quehabía unos 55 millones de páginas web de infor-mación de todo tipo y unos 100.000 mensajes pú-blicos diarios.

La WWW es más un concepto que una técnicaespecífica. Implica a una serie de técnicas pero noes ninguna de ellas. Más bien podría decirse, en1998, que está a la espera de una técnica definiti-va, lo que en el argot se denomina una killer app,una "aplicación asesina" que vuelva obsoletos losdiferentes módulos que permiten por el momentouna gestión integrada de la red.

Las principales técnicas que permiten en la ac-tualidad el funcionamiento de la Web, algunas delas cuales ya se han descrito y otras se describen enlo que sigue son: a) la existencia de Internet comomedio pionero que aglutinó en su momento los tresconceptos que siguen; b) la existencia de una seriede protocolos que permiten la compatibilidad dediferentes archivos; c) la noción de hipertexto comoconexión múltiple entre páginas diversas; d) la no-ción de multimedia como integración de modosdiferentes de comunicación en una misma página.

Hipertextos

El concepto de hipertexto fue introducido por TedNelson a finales de los setenta, en el libro ComputerDreams. Puede encontrarse un precedente en unartículo de 1945 escrito por Vannevar Brush en elque comparaba los computadores con el cerebrohumano y especulaba de un modo interesante so-bre la noción de información diseminada. En reali-dad la noción está ligada a la propia evolución dela imprenta; un libro repleto de notas que remiten aotros libros no es sino una forma rudimentaria de

hipertexto, sobre todo si tenemos la suerte de leer-lo en una biblioteca bien provista, en la que loslibros citados estén en una estantería, al alcance denuestra mano.

La idea de Nelson era conectar toda la informa-ción mundial en un sistema de hipertexto monu-mental, una serie de documentos en la que cadauno de ellos exhibiera hiperenlaces que conduje-ran a otros hiperenlaces en una secuencia inacaba-ble. La noción de hiperenlace, junto con todo loque implica, es clave para el concepto de hipertexto.

En un hipertexto se denomina hiperenlace(hyperlink) a un parte del texto que aparece resal-tada (por ejemplo en color azul) y que modifica laapariencia del cursor cuando éste se sitúa sobre ella(por ejemplo, cambiando a una mano con el dedoíndice extendido). Al presionar sobre este puntoaparece una nueva página con el contenido relati-vo al texto resaltado. Así, las partes de texto resal-tadas, al ser activadas, conducen a otro documentode la serie que a su vez pueden conducir a otros.Los diferentes puntos de enlace se denominannodos y el proceso de recorrer los diferentes nodosen un orden libre se denomina navegación. El usua-rio navega a través del hipertexto seleccionandoenlaces hasta un punto en que puede encontrarseperdido en el hiperespacio. Por lo general (pero nosiempre) el hipertexto ofrece vías para encontrar elcamino de vuelta al punto de partida original.

Para crear un hipertexto se necesita contar conun programa especial que permita generarhiperenlaces y que permita, por añadidura, dar for-mato al texto por medio de una codificación co-mún a todos los usuarios de la red. Un ejemplo pio-nero de esto fue HyperCard, un programa introdu-cido por los Apple Macintosh, que facilitaba la ge-neración de hipertextos y que introdujo la nociónde hipermedia, extendiendo los hipertextos hastaacoger sistemas multimedia.

El primer sistema que proporcionó una basecomún para esto fue el SGML, siglas de StandardGeneral Markup Language ("lenguaje de etique-tado general normalizado"), un sistema normaliza-do de intercambio de archivos de texto en el que sebasó el HTML. Los dos sistemas convergieron enel HTML 2.0. El SGML permitía generar reglaspropias; en este sentido está en la base del HTMLque sería una aplicación de aquél.

El HTML, siglas de Hyper Text MarkupLanguage ("lenguaje de etiquetado parahipertexto") es el lenguaje que se utiliza para crear

Page 282: [Architecture eBook] Aplicaciones as en Arquitectura

286 Aplicaciones informáticas en arquitectura

las páginas de la WWW. Consiste en una serie decódigos que se insertan en un archivo ASCII. Estoscódigos se traducen por un WWW client, esto es unprograma de gestión de la red, en formatos quepueden aparecer en el monitor con una calidad quese acerca hasta cierto punto a la de un programa deedición.

En cualquier caso, el HTML permite mostrar yactivar hiperenlaces, listas, títulos y subtítulos, imá-genes, formularios y mapas. Lo principal es la in-corporación de hiperlenlaces lo que permite nave-gar por la red a través de diversos documentos yconstituye la propiedad esencial de la WWW.

Para que un hipertexto generado de este modosea accesible por cualquier ordenador conectado aInternet se necesita un protocolo específico. Estafunción la realiza el HTTP, siglas de Hyper TextTransfer Protocol ("protocolo de transferencia dehipertexto") que es el principal protocolo de co-municación utilizado en la WWW.

El protocolo HTTP consta de 4 fases: a)Connection. Durante esta fase el cliente (el pro-grama que gestiona la red) intenta conectar con elservidor y aparece el mensaje "connecting to httpserver"; b) Request. Si se establece la conexión elcliente envía una solicitud al servidor especifican-do el protocolo de envío, el protocolo de respuestaesperado y el método que es básicamente el tipo deorden, tal como, por ejemplo, “get”, obtener un ob-jeto determinado; c) Response. El servidor envíala respuesta y aparece el mensaje “readingresponse” seguido de “transferring”; d) Close. Conesto termina la transacción. En este punto el pro-grama muestra el resultado de la transacción quecorrientemente es un documento en formatoHTML, si bien también puede ser un documentono hipertexto tal como un archivo en formato ASCIIo una imagen en un formato aceptado por el pro-grama.

El resultado es, en general, lo que se denominauna página, un término que, en Internet, designa auna unidad de contenido, con independencia de loque contenga que puede ser texto, hipertexto, imá-genes o enlaces diversos con otras páginas. Cadapágina cuenta con una dirección específica. Aun-que es posible encontrar lo que se busca por mediode alguno de los programas esepecializados enmantener actualizadas gigantescas bases de datos,con las direcciones de páginas de todo tipo de em-presas, organizaciones o individuos, es más efecti-vo teclear la dirección exacta.

Esta dirección viene dada por el URL, siglas deUniform Resource Locator. ("recurso uniforme delocalización") que contiene las especificaciones es-pecíficas para que el explorador de la red, el WebBrowser, encuentre el fichero que se busca. Enmuchos exploradores el URL aparece en la partebaja de la pantalla cuando se coloca el cursor so-bre un hiperenlace. La sintaxis de los URL es lapropia del sistema operativo Unix por lo que losusuarios de MS-Dos deben tener en cuenta al me-nos las siguientes diferencias: a) los nombres defichero no están limitados en longitud a 8+3 (nom-bre + extensión); b) las mayúsculas o minúsculasno tienen el mismo significado; c) la separaciónentre directorios, subdirectorios y archivos no esmediante una barra invertida (“\”) sino medianteuna barra normal (“/”). Están diferencias se mani-fiestan principalmente si se quiere introducir unadirección completa a mano, en lugar de buscar unhiperenlace. La referencia URL puede ser absolutao relativa. Una referencia absoluta contiene la di-rección completa del documento de referencia, in-cluyendo el host name, itinerario de directorios ynombre del fichero. Una referencia relativa asumeque el host name y subdirectorios son los utiliza-dos previamente y sólo requiere el nuevosubdirectorio, si es que lo hay, y el nombre del fi-chero. Una URL completa tiene este aspecto: http://www.xxx.com.

Todos los web browsers cuentan con utilidadesque facilitan la introducción de direcciones: es po-sible, por ejemplo, una vez que una dirección de-terminada aparece en pantalla, en la casilla corres-pondiente, sea porque ha sido introducida a mano,sea porque se ha encontrado con un buscador de lared, grabarla creando lo que se denomina una book-mark, un registro automático de una dirección URLen Internet. Hay también recursos adicionales para,una vez grabadas estas direcciones archivarlas yordenarla de diversos modos. Cuando se quierevolver a utilizar la dirección basta con hacer cliccon el ratón sobre la dirección sin tener que volvera escribirla.

El término to browse significa literalmente"echar un vistazo", "hojear" y por extensión "ex-plorar", "buscar", etc. Un browser es una rutina oun programa que permite remedar la operacióncorriente de hojear un libro buscando algo concre-to o inconcreto. Un web browser es, literalmente,un "hojeador de la red". En Internet, el concepto esfundamental pues se requieren programas que per-

Page 283: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 8. Recursos básicos. Redes 287

mitan una exploración aleatoria extremadamentepotente a distintos niveles. El desarrollo de laWWW está ligado a la aparición de programascomo Mosaic o Netscape capaces de proporcionarlas herramientas adecuadas para explorar la red deun modo eficaz. Incluyen típicamente herramien-tas tales como anotadores de direcciones, marcas,recorridos inversos, etc. Estos programas se deno-minan genéricamente web browsers o web clientssi bien incluyen otras utilidades además de las men-cionadas. Corren sobre un ordenador personal ypermiten el acceso a la información contenida enservidores más o menos remotos.

La gestión de la red y la propia existencia de laWWW está facilitada por este tipo de programasque denominaremos genéricamente web browserso navegadores. Son, como ya hemos dicho, pro-gramas que proporcionan diversas utilidades quefacilitan la búsqueda de direcciones o datos de di-verso tipo o que permite desplazarse por páginasmultimedia, a través de textos, gráficos, imágenesy enlaces de hipertexto y que también ofrecen ruti-nas que permiten guardar automáticamente direc-ciones de interés y ordenarlas de diversos modos.Los web browser más recientes integran ademásrutinas para acceder directamente al correo elec-trónicos y a otros servicios de Internet. Hay diver-sos programas comerciales que se han convertidoen favoritos de todo tipo de usuario. El primero deellos fue Mosaic, desarrollado en el CERN (Labo-ratorio europeo de física de partículas, en Suiza)de modo prácticamente simultáneo a la evoluciónde la propia web. Se distribuyó de forma gratuita yse extendió como la pólvora en menos de un año.Su principal creador Marc Andreeseem, dejó sutrabajo en el CERN para desarrollar el navegadormás utilizado hasta la fecha: Netscape (y, de paso,convertirse en millonario). Al principio tambiénera gratuito y luego pasó a distribuirse a un preciorelativamente bajo manteniendo su gratuidad paraestudiantes y usos no comerciales. Microsoft lan-zó posteriormente, junto con Windows 95, elExplorer. La dura competencia entre estos dos pro-gramas es bien conocida porque ha sido objeto deportadas en los periódicos a partir de la acusaciónde monopolio lanzada contra Windows por lo quese considera un intento de imponer su navegador.

Estos programas incorporan una serie de módu-los que integran los principales servicios de Internet,algo que a veces se conoce como una Internet Suitey que facilitan la utilización de Internet para dife-

rentes funciones. Los principales módulos de unconjunto de estas características son: a) un WWWBrowser para explorar la red; b) un programa e-mail para enviar y recibir correo electrónico; c) unUseNet News Reader para navegar a través de gru-pos; d) un ftp client para asistir en la copia y envíode archivos. Hay dos tipos principales de suite: lasintegradas y las modulares. Las primeras ofrecentodos los servicios en un mismo programa con di-ferentes menús y ordenes. Las segundas integrandiversos programas en un gestor común.

También se facilita la utilización de buscadores.Se denominan así, en Inernet, a programas espe-cializados en mantener gigantescas bases de datoscon índices actualizados de direcciones de interésclasificadas de diversos modos, por categorías opor contenidos. Uno de los más generales y utili-zados, en 1999, es Yahoo! (http://www.yahoo.com).En España los principales son Ole! (http://www.ole.es), Navegador Intercom (http://www.intercom.es/navegador) o El Indice (http://www.globalcomo.es/indice). Otros buscadores másespecializados como Altavista (http://www.altavista.com) permiten concentrar la búsque-da por contenidos por medio de palabras clave. Lamayoría son gratuitos y obtienen sus beneficios deempresas anunciantes. Un search site es una pági-na de la Web que contienen un simple formulariopara iniciar una búsqueda, introduciendo una o va-rias palabras separadas por términos booleanos(and, or, not), con alternativas jerarquizadas. Tam-bién puede encontrarse la denominación WAIS, si-glas de Wide Area Information Servers ("servido-res de información de área amplia").

En vías de desarrollo hay otro tipo debuscadores, agentes inteligentes o buscadores in-teligentes, denominados knowbots, por analogía conrobot, que pueden circular por el ciberespacio bus-cando constantemente las últimas novedades so-bre una serie de temas especificados por el usuarioy emitir informes periódicos sobre los resultadosde esta búsqueda clasificados por orden de priori-dad. Algunos de estos programas son Newstracker,Julia, Phileas Phog o Leticia.

Hipermedia

El concepto de hipermedia es una extensión delconcepto de hipertexto en donde los nodos, lospuntos de enlace entre diferentes documentos noson necesariamente textos sino que pueden ser cual-

Page 284: [Architecture eBook] Aplicaciones as en Arquitectura

288 Aplicaciones informáticas en arquitectura

quier otro tipo de entidad: imágenes, animaciones,sonidos. En los últimos años han surgido diversosprogramas denominados applets que funcionan através de Internet y que han contribuido a hacer dela noción de ciberespacio, el espacio virtual com-partido por usuarios de una red global algo másque un término de ciencia ficción. Este espacio,compartido por cibernautas o internauta se fundaen desarrollos recientes tales como java o vrml.

Java es un lenguaje de programación, desarro-llado por Sun Microsystems, que permite desarro-llar pequeños programas (applets) que funcionancon plena independencia de la plataforma, esto es,con plena independencia de la máquina y el siste-ma operativo que se esté utilizando, lo que los haceparticularmente aptos para ser utilizados a travésde Internet. Java es un lenguaje semicompilado, nocrea un fichero ejecutable sino un fichero que con-tiene bytecodes que son interpretados por un pro-grama residente. Esto significa que el ordenadorcon el que se trabaje debe contar al menos con unintérprete de estas características, tal como es elcaso con los principales web browsers, comoNetscape o Explorer. La principal razón de la cre-ciente popularidad de Java es que, al ser indepen-diente de la plataforma y no tener acceso directo ala memoria del ordenador del usuario impide quese propaguen virus o que se manipule de modo nodeseado el ordenador. Java es un programa orien-tado a objetos, de sintaxis y estructura muy similaral C++ lo que constituye otro de sus alicientes prin-cipales.

VRML, siglas de Virtual Reality ModelingLanguage, "lenguaje de modelado de realidad vir-tual" es un producto derivado de un sistema demodelado desarrollado por Silicon Graphics al quese ha incorporado protocolos adecuados para serutilizado en Internet. La idea es completar las limi-taciones del HTML ampliando las posibilidades dela red para poder incluir modelos de 3D. El VRMLsería el estándar que jugaría un papel similar alHTML y permitiría contar con los parámetros ade-cuados para definir modelos, denominados worlds,y enlazarlos entre sí por medio de la Web. La pri-mera versión, el VRML 1.0 fue escrita por GavinBell de Silicon Graphics, Anthony Parisi deIntervista Software y Mark Pesce. Este primer pro-totipo se basó en tres criterios básicos: indepen-dencia de la plataforma, extensibilidad y capaci-dad para trabajar con anchos de banda bajos.

Page 285: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 289

Capítulo 9. Organización del despacho profesional

La informatización ha modificado el aspecto de losdespachos profesionales. La apariencia de un des-pacho de arquitectura de finales de siglo tiene pocoque ver con el de uno de mediados de siglo. Pero lasustitución de reglas y cartabones por monitores ycajas con cables no es sino el aspecto más superfi-cial de un cambio más profundo: la sustitución deun sistema de organización flexible y escasamentenormalizado por otro en el que es inevitable siste-matizar y ordenar un gran número de tareas queantes se llevaban a cabo de muy diversos modos oni tan siquiera se llegaban a realizar. Esto obliga aldiseño de una estructura organizativa en la que tantolas pequeñas como las grandes decisiones encuen-tren el lugar y el momento en que deben llevarse acabo. En la esta capítulo se resumen los criteriosgenerales y algunas de las peculiaridades técnicasen que se basan los despachos informatizados ac-tuales.

1 Aspectos generales

Existen escasas referencias que den pautas o ejem-plos sobre cómo debe organizarse un despacho pro-fesional. Esto justifica una introducción general enque se resuman o, cuando menos se mencionen,algunos principios generales de organización queson independientes de los medios utilizados parallevarlos a cabo.

Por lo general, los arquitectos tienden a ignorar,sea porque lo subvaloran o porque lo sobrevalo-ran, todos lo relativo a técnicas de gestión, pese ala cantidad de estudios que se han realizado al res-pecto durante este siglo. Esto queda en parte justi-ficado por el hecho de que estos estudios van diri-gidos, en general, al funcionamiento de grandesdespachos o corporaciones. Pero, en mayor o me-nor medida, muchos de los problemas y los princi-pios organizativos que de ellos se derivan, cam-

biando la escala, son equivalentes. El que un des-pacho moderno incorpore a su equipo humano al-guien con un buen conocimiento de este tipo detécnicas es, seguramente, una de las claves de suéxito.

Numerosos ejemplos de despachos conocidos yde otros menos conocidos, pero no menos eficacesen términos de volumen de obra anual, podrían daruna idea más contundente de hasta qué punto estoes cierto. Pero, aunque un despacho con recursoslimitados no pueda permitirse contratar a un espe-cialista para tratar de estos temas, debería reservarcuando menos un espacio mental y un espacio físi-co para poder abordar la planificación adecuadade las diversas actividades que tendrán lugar en él.Algunas de las principales se resumen en lo quesigue.

Un despacho de arquitectura está inmerso en unaestructura legal compleja. Esto es así tanto por loque hace a las relaciones externas, con propieta-rios, constructores, contratistas, subcontratistas,colaboradores técnicos, ayuntamientos y otras ins-tituciones públicas, como por lo que hace a las re-laciones internas. Y esto obliga a que toda transac-ción importante quede reflejada en documentoscuya existencia servirá para prevenir conflictos enel futuro. Un porcentaje bastante difícil de cuanti-ficar, pero probablemente superior al 10%, sobretodo en cierto tipo de obras, acaba con alguna for-ma de pleito. Pleitos entre constructores y propie-tarios pero también, en casos menos frecuentes perosuficientemente significativos, entre colaboradoresen la confección del proyecto. En muchos casoslos conflictos se complican debido a la falta dedocumentos que precisen el contenido de acuerdosque sólo se tomaron de palabra. Es esto algo cuyaimportancia es de temer que aumente durante elproceso de integración definitiva en la ComunidadEuropea. Uno de los aspectos que deberá cobrar

Page 286: [Architecture eBook] Aplicaciones as en Arquitectura

290 Aplicaciones informáticas en arquitectura

una importancia mayor que la que tiene en la ac-tualidad es la regulación de las relaciones internasdentro de un despacho.

Todo esto se cuantifica de diversos modos yqueda, en general, orientado por la finalidad prin-cipal o la especialidad del despacho en cuestión;lo que implica que deberá existir, en primer lugar,como primer paso efectivo para su constitución,algún mecanismo de gestión financiera del mis-mo. De nuevo, esto implica la existencia de un ex-perto capaz de llevar al día todo lo relativo a lacontabilidad, al coste de los préstamos o inversio-nes previas a partir de las que se ha constituido, ala evaluación y control de las inversiones, al con-trol de los gastos, a la reinversión de beneficios, alpago de las nóminas.

Además de esto, y para utilizar una terminolo-gía más cercana al tema que estamos tratando, undespacho puede y debe ser concebido como un lu-gar por el que fluye información. Esto implica quedebe existir alguien que canalice esta informacióny que la distribuya. Esta información se da en muydiversos modos y formatos: cartas, llamadas tele-fónicas, faxes, mensajes electrónicos, visitas per-sonales, paquetes de diversos tamaños y tipos, re-uniones de todo tipo. Alguien deberá hacerse car-go de la gestión de la comunicación si se quieremantener adecuadamente la concentración en lo quees la actividad propia del despacho.

Todas las actividades que hemos mencionadohasta aquí son, en cierto sentido, ajenas a la activi-dad propia de los arquitectos. Pero sería un error,como tan a menudo se hace, tomar esta afirmacióndemasiado al pie de la letra. Pues muchos despa-chos han tenido que disolverse precisamente pormenospreciar o no saber atender adecuadamente aestos aspectos sobre los que se sustenta su activi-dad.

Sobre todo esto, en todo caso, se sustenta unconjunto de actividades que podemos calificarcomo propias de la producción de un despacho. Elaspecto principal de su organización tratará delmodo adecuado de proporcionar espacio paradiseñadores, dibujantes maquetistas, para reunio-nes de trabajo, para almacenar documentación quepuede necesitarse en un momento determinado.Abordaremos con más detalle estas tareas a lo lar-go de este capítulo.

Pero tampoco debe olvidarse que la organiza-ción de un despacho no está completa si no se pro-porciona una vía de salida adecuada a los residuos

de la producción, tanto en el sentido físico, literal,como en el organizativo. Esto quiere decir que hayque proporcionar espacio para servicios, para quequienes trabajan en un despacho puedan atender asus necesidades físicas y, también, para almacena-miento, para que toda la información adicional quegenera un proyecto y que no puede utilizarse di-rectamente pero tampoco conviene destruir, puedaser conservada adecuadamente.

Administración, producción, servicios y alma-cenamiento son los principales paquetes que ire-mos detallando en lo que sigue, principalmente enla sección 4 de este capítulo. La figura 3, más ade-lante, presenta un esquema general de esta divi-sión.

Pero antes de concluir esta introducción hay queañadir que no debe perderse de vista que toda es-tructura de organización, por muy bien estudiadaque esté, sirve de poco si no se tienen en cuentafactores estrictamente cualitativos. Un despacho dearquitectura, como cualquier otro despacho, decualquier otro tipo de actividad, depende de laspersonas que trabajen en él y de las relaciones quese vayan creando entre estas personas. Es tanto omás importante la capacidad de crear un clima ade-cuado, de fundar el trabajo en la motivación y elinterés real por lo que se está haciendo que la ca-pacidad de diseñar un organigrama perfecto. Tam-bién puede citarse algún ejemplo notable de des-pacho con una estructura organizativa más biencaótica pero que mantiene un nivel de producciónnotable gracias a este factor imponderable.

Todo lo relativo al modo de funcionamiento in-terno de un despacho debería quedar reflejado enun libro de estilo o memorándum que recogiera to-dos los aspectos de funcionamiento, desde proto-colos de comportamiento humano, acceso al des-pacho, horas de salida, permisos, dietas para via-jes y gastos extra, uso de los equipos para finesajenos al despacho, etc., hasta protocolosinformáticos, sistemas generales de organizaciónde archivos, nomenclatura de capas, plantillas paraformularios, cartas, fax, facturas, memorias, etc. Nodedicar a esto el tiempo necesario sólo servirá paraque, a largo plazo, aumente el tiempo real que sehabrá dedicado a este tipo de tareas rutinarias peroineludibles.

Page 287: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 291

2 Consecuencias de la utilización de lainformática en la gestión de los proyectos

La irrupción de la informática en los despachos dearquitectura ha modificado de un modo importan-te los métodos utilizados para concebir, analizar ycomunicar formas arquitectónicas, es decir, comoya hemos visto en la primera parte, para elaborarun anteproyecto que puede considerarse como elpunto de partida del proyecto básico y del proyec-to de ejecución.

Pero también ha modificado, de un modo másgeneral, más semejante a lo que ha ocurrido en otrotipo de trabajos profesionales, el modo en que sedesarrollan y se gestionan los proyectos de ejecu-ción y la propia organización general del despachoarquitectónico. En este nuevo sentido puede decir-se que una de las consecuencias de la aparición dela informática ha sido la mayor profesionalizaciónde los despachos profesionales. Un despacho dearquitectura informatizado es un despacho que tien-de a adoptar, de grado o por fuerza, para bien ypara mal, los métodos de organización de la pro-ducción que se utilizan en otro tipo de empresas.

Esto obliga a un análisis más detallado del tipode tareas implicadas en el desarrollo de un proyec-to y de las herramientas más adecuadas para estastareas. A lo largo de este capítulo presentaremoslas principales, para concluir con un resumen detodas ellas y de los programas informáticos másadecuados (en 1998) para llevarlas a cabo.

Pueden entenderse mejor las características dela situación actual si se comparan con la de hacealgunos años o si se compara, en general, el fun-cionamiento de un despacho no informatizado conel de un despacho informatizado. Las principalesconsecuencias, desde este punto de vista, ligado ala aparición del ordenador, son las siguientes:

a) Mayor productividad potencial, con un me-nor costeLos despachos actuales que ha alcanzado un ade-cuado nivel de informatización pueden producirproyectos complejos con un número de personasdos o tres veces inferior al de un despacho noinformatizado: 5 puestos de trabajo informatizadopueden producir el trabajo equivalente al de 15puestos de trabajo de un despacho tradicional. Aun-que deben tomarse estas referencias con cautelapues la situación general es difícilmente compara-ble debido a que, paralelamente, se ha incrementadola exigencia de elaboración de los proyectos.

b) Redistribución y disminución general deltiempo empleado en cierto tipo de tareas rutinariasCierto tipo de tareas mecánicas, características delos despachos tradicionales, han desaparecido o sehan minimizado. Ya no se rascan los vegetales conhojas de afeitar para borrar líneas ni hay delineantesque pasen horas haciendo cuidadosos rayados. Tam-poco es necesario dibujar sanitarios con la ayudade plantillas o volver a copiar ciertas partes de lasmemorias de proyecto. Pero esto no quiere decirque hayan desaparecido los trabajos mecánicos yrepetitivos pues han surgido otras nuevas tareastales como instalar y reinstalar programas, llevarla gestión de largas líneas de códigos de archivos onombres de capas o hacer copias de seguridad. Engeneral, sin embargo, puede decirse, aunque seaun tema abierto a una discusión o análisis más ela-borados, que el monto global de tareas mecánicasy pesadas se ha reducido, además de redistribuirsede modo novedoso.

c) Aumento de la información disponible paracada proyectoUno de los cambios principales está en la propianaturaleza del nuevo medio y resultará más noto-rio en los próximos años, a medida que aumente laposibilidad de acceder a grandes bases de datosexternas. La informática ha aumentado de modoespectacular la posibilidad de construir un proyec-to componiendo diversos tipos de información quepueden integrarse de modo directo o indirecto enel proyecto. Esto vale tanto para la informacióndisponible externamente como para la informacióngenerada internamente. Uno de los aspectos queha potenciado la informática es el de la reutilizaciónde los documentos de proyecto. Siempre se ha dadocierto dinamismo interno entre los documentosgenerados en un mismo despacho; determinadaspartes de las memorias se copiaban integramentede uno a otro proyecto pues se referían a aspectoso condiciones de ejecución prácticamente idénti-cas que no era preciso modificar; otras se copiabanparcialmente adaptando ciertas variantes al nuevocaso. Lo mismo ocurría con los dibujos, principal-mente de detalles constructivos. Todos los despa-chos contaban con soluciones favoritas para casoscorrientes, carpinterías, escaleras, remates de cu-biertas, que se repetían de uno a otro encargo convariaciones más o menos importantes. Este dina-mismo interno se ha potenciado de modo especta-cular con la informática; lo que antes podía llevarvarios días de trabajo puede hacerse en pocas ho-

Page 288: [Architecture eBook] Aplicaciones as en Arquitectura

292 Aplicaciones informáticas en arquitectura

ras gracias a las facilidades para copiar y recom-poner tanto textos como gráficos. Esto favorecetambién la organización de una gran cantidad dematerial que puede conservarse para posibles usosfuturos.

d) Necesidad de estructurar las diversas tareasde un modo sistemáticoUn ordenador es un dispositivo que ordena más delo que parece. No sólo ordena los diversos archi-vos y subdirectorios, siguiendo las instruccionesde quien lo acciona sino que obliga a este mismooperario a ser ordenado. A medida que aumenta laintegración informática este efecto de rebote seextiende hasta todo tipo de tareas y hasta nivelesque no habían sido previstos. Los proyectos de eje-cución realizados con un ordenador implican, tar-de o temprano, la existencia de protocolos internosdel despacho que especifiquen el modo exacto enque deben llevarse a cabo toda una serie de opera-ciones que antes se llevaban a cabo de un modomás o menos espontáneo.

e) Tendencia a la integración horizontalA grandes rasgos puede decirse que hay dos mo-dos diferentes de organizar el trabajo en un despa-cho. En una organización vertical las grandes deci-siones se toman desde arriba y se desarrollan conmayor detalle a diferentes niveles hasta ser con-cretadas en planos que retornan al nivel superior.Allí se corrigen y vuelven a descender los sucesi-vos escalones hasta volver a concretarse en unanueva variante; es un sistema característico de losdespachos tradicionales. Pero también de grandesdespachos modernos que basan su trabajo en laformación de equipos de proyectos controlados porun arquitecto jefe de proyecto. El equipo se encar-ga de todas las fases del proyecto: ajuste del pro-grama, diseño, estructura, instalaciones, detallesconstructivos, especificaciones, contratos finales,etc.

En una organización horizontal diferentes aspec-

tos de un mismo proyecto son desarrollados pordiferentes especialistas o equipos especializadosque deben mantener una coordinación dinámica en-tre sí. Un diseñador puede encargarse del antepro-yecto; esta idea se pasa a un dibujante, un ilustra-dor o un maquetista que proporciona una represen-tación más o menos detallada según la fase en quese encuentre el diseño; otro arquitecto puede en-cargarse de analizar aspectos constructivos o es-tructurales implicados en esta idea inicial; esto pue-de complementarse con la colaboración de un in-geniero que lleve a cabo los cálculos pertinentes ycon la colaboración de otro encargado de compro-bar el presupuesto, etc. En un esquema de estascaracterísticas carece de sentido, por ejemplo, "pa-sar un plano al delineante para que lo corrija", comose hacía en los despachos antiguos, cuando losmedios informáticos permiten efectuar cierto tipode correcciones en un instante. Por contra, es pre-ciso tomar decisiones coordinadas sobre los ele-mentos utilizados y las nuevas relaciones que seestablecen entre ellos.

La figura 1 y la figura 2 sintetizan estos modosde organización que tampoco deben tomarse al piede la letra. Lo más corriente es que se cuente conuna estructura mixta que combine procedimientoscaracterísticos de ambos esquemas.

f) Tendencia a basar el desarrollo del proyectoen la composición de elementos dadosLa posibilidad, abierta por la informática, de ges-tionar con facilidad y rapidez elementos construc-tivos prefabricados, a medida que se extiende lafamiliaridad y la disponibilidad de bases de datos,favorece su utilización y su incorporación directaal proyecto. Una tendencia que viene impulsadanaturalmente desde determinados sectores indus-triales. Esta tendencia puede llevar a ciertos des-pachos a contar con auténticos "proyectos prefa-bricados" que tan sólo requieren ciertos ajustes para

Ideainicial

Esquemas iniciales

Análisis constructivo

Análisis estructural

Análisis instalaciones, otros...

Presupuestoinicial

Esquemageneral

Sector A Sector B Sector C Otros sectores... Esquema revisado

Figura 1 Flujos característicos deuna organización horizontal

Page 289: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 293

Planteamiento inicial

Jefe Proyecto 1

Desarrollo por equipo 1

Desarrollo por colaboradores

Jefe Proyecto 2

adaptarse a un nuevo encargo. Esto es, como esfácil de adivinar, una herramienta de doble filo quetanto puede contribuir a liberar al despacho de tra-bajos innecesarios como provocar una temiblebanalización de los resultados arquitectónicos.

g) Potenciación de nuevas aplicacionesUna consecuencia más positiva de lo mismo es laaparición de nuevas aplicaciones que vienen favo-recidas por la aparición de nuevos métodos de tra-bajo. Un ejemplo particularmente interesante es loque en inglés se denomina facilites management yque podemos traducir por "gestión deequipamientos" a condición de entender el térmi-no "equipamiento" en un sentido muy amplio queincluiría tanto muebles, como inmuebles, como per-sonas que trabajan en un edificio determinado.Como veremos más adelante, en el capítulo 11, lasbases de datos relacionales han abierto la posibili-dad de llevar el control y reordenar de muy diver-sos modos el equipamiento propio de edificios ogrupos de edificios. Es posible, por ejemplo, gene-rar bases en las que se asignen claves de acceso acada estancia y a cada elemento relacionado con laestancia, tanto físicamente, como puede ser el casode mesas, sillas, ordenadores, enchufes, acabados,revestimientos, lámparas, etc., comogeométricamente, por medio de tablas que agru-pen superficies, volúmenes y otros datos, como ló-gicamente, por medio de tablas que especifiquenfunciones, relaciones de trabajo con otras estan-cias, etc. Esto permite desarrollar dos tipos de apli-caciones de primera importancia para el caso degrandes organizaciones: en primer lugar, el controlde las actividades actuales de un edificioinstitucional o de grandes dimensiones, de un modo

riguroso que minimice las disfunciones y los erro-res de organización tan corrientes en edificios com-plejos y, en segundo lugar, la planificación másadecuada de actividades futuras.

3 El Despacho de arquitecturainformatizado

La primera cuestión que se debe precisar es que seentiende bajo el concepto de "despacho de arqui-tectura informatizado". Y la primera dificultad conque nos topamos no es técnica sino que provienede la gran variedad de despachos de arquitecturaque existen y han existido, informatizados o sininformatizar. Intentaremos esquivar esta dificultadhaciendo una revisión muy sumaria de los diferen-tes tipos de despachos, en función de su tamaño,sin tomar en consideración los diferentes tipos deproyectos que pueden abordar y que es otro de losfactores que inciden en su modo de organización,y concentrándonos en un único tipo, de tamañomedio, procurando no perder de vista alguna delas características de los grandes despachos. Lamayoría de los sistemas de organización son, afor-tunadamente, comunes y la principal diferencia es-triba muchas veces en que los grandes despachosllevan a cabo, de modo más sistemático y más arti-culado, las mismas acciones que los despachos máspequeños.

Por informatización de un despacho de arqui-tectura se alude a un modo de organización, físicay lógica, diferente de la de los despachos tradicio-nales. Esto implica, en primer lugar, un entorno detrabajo en el que se cuenta con un equipamientofísico notablemente sofisticado (ordenadores,periféricos, conexiones) y un equipamiento lógicoaltamente especializado (programas comerciales,programas propios o configuraciones y rutinaspersonalizadas). Y con una organización tal quepermite que diferentes miembros de un mismo equi-po puedan compartir de un modo eficaz todos es-tos recursos para crear un proyecto de arquitectu-ra.

Esto implica, asimismo, tanto la capacidad dedesarrollar el proyecto a lo largo de todas sus fa-ses, por medios informáticos, como la capacidadde generar automáticamente los documentos fina-les en los que el proyecto se traduce físicamente.Implica también la capacidad para desarrollar deun modo eficaz, no sólo un proyecto, sino el con-junto de proyectos que se lleven a cabo con mayor

Figura 2 Flujos característicos deuna organización vertical

Page 290: [Architecture eBook] Aplicaciones as en Arquitectura

294 Aplicaciones informáticas en arquitectura

o menor regularidad. Puesto que, aunque un pro-yecto sea algo singular, único, muchas de las ta-reas que se llevan a cabo en cada uno de ellos soncomunes. De hecho, determinados elementos o es-pecificaciones pueden ser intercambiados. Otrotanto cabe decir de una serie de rutinas de trabajoque se repiten de un modo idéntico y que, por estarazón, son susceptibles de ser automatizadas.

Desde el punto de vista físico, un despachoinformatizado presenta un aspecto bastante dife-rente al de un despacho tradicional. Hay más infor-mación acumulada pero está más escondida; no hay(por lo general) rollos de planos sobresaliendo delos estantes ni cartabones, paralex o reglas "t"; tam-poco abundan los compases o los instrumentos dedelineación con tinta china; no se trabaja con laespalda encorvada sino con la espalda recta y lazona media del espacio, que en el despacho tradi-cional era diáfana, está ocupada por monitores delos que sobresalen cables que quedan más o menosrecogidos debajo de las mesas.

Desde el punto de vista lógico, un despachoinformatizado implica una estructura de organiza-ción mucho más férrea que la del despacho tradi-cional. Todo debe estar etiquetado y cada objeto,archivo, configuración o dato, debe figurar en al-guna lista que posibilite su gestión y su puesta enrelación automática con otros objetos, archivos,configuraciones o datos, contenidos en otras listassimilares. Los códigos proliferan y la noción de"protocolo" es ubicua aunque se desconozca el tér-mino y su sentido técnico; un gran número de ac-ciones que antes se realizaban de modo más o me-nos inconsciente deben realizarse ahora según se-cuencias estrictamente pautadas.

Todo esto no quiere decir que sobre esta estruc-tura tan férrea no se pueda edificar un intercambiovivo de ideas; esto ocurre tanto o más que con lossistemas tradicionales. Pero es un hecho que tal es-tructura, que se asimila de un modo natural porquien se haya acostumbrado a ella, resulta un obs-táculo que debe ser vencido para quien está acos-tumbrado a otro tipo de hábitos.

Diferentes grados de informatización

El grado de informatización de un despacho de-penderá, en primer lugar, del número de equiposinformáticos de que disponga, lo que nos lleva denuevo a la distinción entre despachos pequeños ygrandes. Si suponemos condiciones similares de

tamaño, es decir de número de ordenadores yperiféricos, el grado de informatización de un des-pacho de arquitectura se mide principalmente porel grado de integración del equipamiento físico; sibien no es posible aislar estos conceptos pues cuan-to mayor sea el tamaño del despacho mayor seráprobablemente el grado de integración. En cual-quier caso, desde este punto de vista podemos dis-tinguir tres niveles elementales de integración.

El nivel más bajo de integración se da cuandolos ordenadores trabajan de modo independientecon arreglo a una estricta división de tareas. Es, oera, relativamente corriente, sobre todo en peque-ños despachos, que un ordenador se dedicara ex-clusivamente a tareas administrativas, uno o variosordenadores de mediana potencia a la delineaciónde proyectos y, ocasionalmente, un ordenador demayor potencia a la confección de modelos, gene-ración de imágenes, etc. Los periféricos se com-parten por medio de conexiones provistas de con-mutadores o por métodos más primarios, llevandodisquetes o discos magnetoópticos de uno a otrolado o enchufando y desenchufando la impresora auno u otro ordenador según las necesidades delmomento.

En un nivel intermedio de integración los orde-nadores están conectados a una red local por me-dio de algún sistema simple, tal como Windows3.11, Windows 95 o 98, que permite compartir fi-cheros y periféricos sin tener que trasladar disqueteso activar conmutadores o sin tener que ocupar unpuerto paralelo por una conexión en serie. Dadoque alguno, o más de uno, de estos ordenadoresdeberá actuar simultáneamente como depósito dearchivos y como puesto de trabajo, es fácil que seproduzcan interferencias y la utilización sufra re-tardos o quede más expuesta a accidentes.

El nivel más adecuado de integración para undespacho de arquitectura, como para muchos otrostipos de despachos, se da a partir de la instalaciónde una red local con un ordenador servidor que seencargue exclusivamente de actuar de enlace entrelos diferentes puestos de trabajo y de almacenarlos programas y documentos principales. Ya se hanindicado en el capítulo anterior las principales al-ternativas. Una plataforma cada vez más extendi-da en este tipo de organización es Windows NTque proporciona todas las capacidad de una red conla ventaja de trabajar sobre un entorno familiar.

Se requiere, sin embargo, una persona con unbuen conocimiento del sistema, capaz de organi-

Page 291: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 295

zar adecuadamente el ordenador/servidor y, a tra-vés suyo, los protocolos generales de funcionamien-to del resto de las máquinas. Este ordenador/servi-dor irá provisto de una conexión externa a Internet,vía módem, y de un sistema de grabación automá-tica por cintas magnéticas que se active por lasnoches con una periodicidad que dependerá del tra-bajo en curso, pero que será como mínimo sema-nal y, en la mayoría de los casos, diaria.

Hay varias alternativas de organización por loque respecta a las redes que ya se han examinadoen el capítulo anterior. Baste por ahora con subra-yar que una atención adecuada a todo lo relativo ala organización de la red permitirá un rendimientomáximo ya que todos los archivos y periféricos re-sultan accesibles desde los diferentes ordenadoresy es posible compartir información entre los pues-tos de trabajo de un modo directo. También au-menta la exigencia de rigor en la organización pues-to que debe establecerse un sistema estricto de prio-ridades para evitar que el trabajo de uno sea des-truido inadvertidamente por otro. Y también im-plica una inversión de medios y de personal dedi-cado al mantenimiento adecuado del sistema quesólo se justifica a partir de un cierto nivel profesio-nal o de un interés especial por sacar el máximopartido de las posibilidades de la informática.

Despachos pequeños y despachos grandes.Características generales

Las estadísticas con que se cuenta sobre la prácticaprofesional en Cataluña, en España, en el resto deEuropa y en Estados Unidos, permiten afirmar que,hasta fechas muy recientes, la práctica profesionalse desarrollaba mayoritariamente en despachos quedenominaremos "pequeños", comprendiendo bajoesta denominación despachos con no más de 6 per-sonas, por termino medio y que trabajan en un lo-cal alquilado de poco más de 60 o 70 m2 de super-ficie. En el otro extremo hay una minoría de des-pachos que denominaremos "grandes", compren-diendo bajo esta denominación despachos de másde 20 o 25 personas, que trabajan en locales degrandes dimensiones, con frecuencia dos o tres pi-sos, con más de 400 m2 de superficie total, o loca-les especiales diseñados o readaptados a medidade las necesidades de la firma. Aunque el númerode las firmas de este tipo es pequeño su porcentajede participación en la cifra total de encargos es muyalto.

Habría también un número importante de des-pachos que podemos denominar de tamaño "me-dio" con características propias que permitirían unatipificación común. Pero precisamente porque ladiversidad de encargos es mayor (a menudo estosdespachos se dedican a actividades que poco tie-nen que ver con la arquitectura por la necesidad demantener una estructura crítica que requiere unaentrada periódica de encargos para sostener el des-pacho) nos referiremos sobre todo al primer extre-mo de los dos mencionados suponiendo, como yahemos avanzado al comienzo, que las descripcio-nes, referidas al despacho/tipo más corriente en Bar-celona, Europa y Estados Unidos, serán en ciertamedida extrapolables a despachos de dimensionessuperiores, en la medida en que éstos se articulanpor lo general en equipos de trabajo de dimensio-nes similares a las de los despachos pequeños y aque utilizan sistemas de trabajo similares aunquemás articulados. La principal diferencia es que losrecursos compartidos son superiores y que la espe-cialización es mayor. Más adelante se precisaránalgunas de las principales variantes.

Podemos mencionar algunos esquemas caracte-rísticos. Un ejemplo corriente puede ser el de undespacho compuesto por un arquitecto, un apare-jador, un administrativo y dos colaboradores quepueden ser estudiantes de cursos superiores o ar-quitectos recién titulados. En este caso el arquitec-to asume el papel de coordinador principal y tieneescaso contacto con técnicas o procedimientos es-pecíficos de desarrollo o gestión.

Otro variante que también se da con frecuenciaes la de un despacho compuesto por 3 arquitectos,un aparejador o un colaborador, que puede ser unestudiante, y un administrativo. En este caso es fre-cuente que haya 2 o 3 socios arquitectos que tien-den, de una manera explícita o implícita, a espe-cializarse en distintas tareas y que sólo cuentan concolaboradores esporádicos en la medida en que lorequiera el trabajo.

En despachos mayores puede haber una mayorespecialización que permita especificar las tareasen que se diversifican los componentes de despa-chos más pequeños. Así es posible encontrar deno-minaciones como "jefe de proyecto", "delineante","documentalista", "informático", "mecanógrafa","telefonista", "maquetista", etc. Es relativamentecorriente que este tipo de despachos se organice en2 o 3 pisos con una estructura tal como la siguien-te: 1er piso: administración, arquitectos jefes, salas

Page 292: [Architecture eBook] Aplicaciones as en Arquitectura

296 Aplicaciones informáticas en arquitectura

reuniones; 2º piso: 4 o 5 equipos de trabajo en re-cintos de unos 20 o 30 m2. 3er piso: almacén, orde-nador/servidor, sistemas de almacenamiento y ges-tión de archivos, personal informático, etc.

En Estados Unidos e Inglaterra, han surgido nue-vas figuras profesionales que trabajan en despa-chos de grandes dimensiones. Estas figuras, que endespachos más pequeños pueden estar integradasen una misma persona son, principalmente las si-guientes:

a) Director de servicios informáticos (systemdirector). Es el encargado de la planificación ge-neral del funcionamiento del despacho desde elpunto de vista informático, así como de su revisiónperiódica.

b) Gestor del sistema (system manager). Es elencargado del día a día, del control, asistencia téc-nica y formación del personal en aspectos básicosrelacionados principalmente con el uso del siste-ma operativo, así como del mantenimiento regularde las copias de seguridad. Lleva también el con-trol administrativo de un modo bastante directo,asistiendo al personal administrativo en tareas degestión de las bases de datos.

c) Especialista en programas (softwarespecialist). Es el responsable técnico de los pro-gramas, el responsable de la formación y de la so-lución de problemas específicos de los programasde CAD así como de la actualización de estos pro-gramas y del contacto con empresas proveedorasde programas.

Equipamiento

La primera observación que se debe hacer en esteapartado es que la infraestructura informática afectaal número y tipo de componentes de la infraestruc-tura tradicional. Es evidente que en un despachomuy informatizado se seguirán necesitando mesas,sillas y armarios. Pero el número, el tipo y el modode distribución de estos elementos tradicionales severá afectado por la infraestructura informática.Habrá mesas para escribir, mesas para dibujar, ar-marios, archivadores de carpetas, archivadores deplanos, fotocopiadora, fax, etc. Pero muchas me-sas estarán ocupadas con monitores y será precisoestudiar con cierta atención el recorrido de los ca-bles y el acceso a los mismos y, sobre todo, el ac-ceso a las conexiones de los diferentes ordenado-res y periféricos que deberá ser lo más directa po-sible.

Por lo que respecta al equipamiento informáticocon que se cuenta podemos volver a hacer una des-cripción sumaria siguiendo la clasificación corrienteentre hardware y software. No debe perderse devista, sin embargo, la relación que existe entre es-tos dos conceptos. En los últimos años se está pro-duciendo una modificación constante de los hábi-tos de trabajo como consecuencia de una acelera-da renovación tecnológica en la que el ritmo vienedado principalmente por la renovación en elequipamiento físico o hardware. El software intentaseguir este ritmo mediante nuevos programas queaprovechen las mayores prestaciones o mediantela adaptación de programas concebidos para má-quinas más potentes.

El equipamiento básico por lo que respecta alas máquinas estaría constituido por lo siguiente:

a) Ordenador/servidor con monitor en color debajo coste (14") y disco duro de gran capaci-dad , CDRom, con dispositivos de grabaciónautomatizada por cintas magnéticas, sistema decableado y conexiones en red local para esta-ciones de trabajo y periféricos. Conexión aInternet vía módem.

b) Estaciones de trabajo en CAD con monitoresde 17" como mínimo (mejor 19") y placa gráfi-ca de altas prestaciones (color real, chips deprocesamiento autónomo de rutinas corrientesen gráficos, vídeo ram adecuada para estoschips), alta velocidad del procesador principal(la velocidad normal se dobla cada 18 mesesaproximadamente), suficiente memoria prin-cipal para el programa de Cad utilizado.

c) Estaciones de trabajo para gestión conmonitores de 15 " o 17", velocidad media (unabuena opción es reciclar los procesadores delas estaciones de trabajo), suficiente memoriapara los programas utilizados (que será proba-blemente del orden de la mitad o menos que lasde los programas de Cad).

d) Impresora láser Din A4.e) Plotter electrostático Din A0 con una resolu-

ción mínima de 600 dpi.

Equipamiento complementario. Será más rentableutilizar un servicio externo si no se utiliza con fre-cuencia:

f) Escáner Din A4 para digitalizar imágenes y tex-to.

g) Impresora a color de chorro de tinta, Din A4

Page 293: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 297

g) Tableta digitalizadora para digitalizar planos noinformatizados.

También es conveniente, sobre todo en determina-das zonas urbanas, contar con un SAI (sistema dealimentación ininterrumpida).

Por lo que respecta al software supondremos quese cuenta con lo siguiente:

a) CAD2DLas opciones corrientes, en 1998, por lo querespecta al número de despachos que los utili-zan, son, en primer lugar AutoCad y, en segun-do lugar, Microstation. Otros programas con unacifra considerable de implantación sonArchiCad, Allplan o Arris. Si se utiliza cual-quier otro programa es conveniente asegurarsede que los archivos sean compatibles con elprimero vía dxf.

b) CAD3DTodos los programas mencionados en el párra-fo anterior permiten trabajar en 3D. Hay otrasopciones más ágiles, como 3DStudioMax oFormZ pero, como antes, debe asegurarse lacompatibilidad que no siempre es total.Microstation tiene herramientas de modeladoen 3D que pueden considerarse superiores a lasde AutoCad si bien la situación cambia si secuenta con módulos complementarios deAutoCad tal como el Mechanical Desktop queincluye modelado de superficies y modeladoparamétrico.

c) GestiónUna opción corriente y eficaz es el MicrosoftOffice que incluye los programas Word (trata-miento de textos), Excel (hoja de cálculo) yAccess (bases de datos). Cualquier colecciónde programas similares es aceptable siempreque se tenga cierta garantía sobre la compatibi-lidad. Las hojas de cálculo son también unaherramienta de apoyo directo al proyecto puespermiten realizar cálculos, realizar diagramas,gestionar listas de arhivos, etc.

Esto puede complementarse con lo siguiente, se-gún los intereses del despacho:

h) Programas de rendering.i) Programas de tratamiento de imágenes.j) Programas complementarios de gestión de blo-

ques, etc., con AutoCad.h) Bases de datos con partidas de obras tal como

las proporcionadas por el ITEC u otros orga-nismos.

i) Programas para el cálculo de estructuras.

Al final del capítulo se da una tabla con las princi-pales alternativas.

4 Análisis de tareas

Como ya hemos dicho, la principal dificultad alhablar de un despacho de arquitectura es la grandiversidad de referentes a que se apunta. Esto re-sulta aún más complicado por la propia idiosincra-sia del trabajo de los arquitectos que parece mani-festar cierto rechazo espontáneo hacia modos dehacer, más propios de los ingenieros, en los que semanifiestan una preocupación, a veces quizá exce-siva, por subdividir y compartimentar todo tipo detareas hasta acomodarlas a diagramas de flujo, or-ganigramas o estadísticas de producción.

Sin embargo, si se quiere dotar a la frase "orga-nización del despacho arquitectónico" de algúncontenido, no queda otro remedio que tomar enconsideración algunos principios básicos, comen-zando por el propio concepto de organización.

Tareas propias de la organización general

Entendemos por "organización" la serie de accio-nes dirigidas a dotar a una empresa, pequeña o gran-de, de los elementos necesarios para su funciona-miento, entre los que se incluyen fundamentalmentelos materiales, las herramientas, los medios econó-micos y las personas.

Implícita en el concepto de organización (queno debe perderse de vista que deriva de "órgano")está la idea de funcionamiento regulado, coherentey dirigido a un fin, así como la idea de "conjuntode partes íntimamente ligadas entre sí". Como cual-quiera que haya trabajado en un despacho real sabebien, este referente natural también sirve para des-cribir las diversas patologías que aquejan a este tipoparticular de órganos que estamos analizando.Disfunciones, crecimientos descompensados, pa-rálisis y movimientos espasmódicos, son algunosde los síntomas que aquejan a los despachos dearquitectura y que tienen, entre otras, aquellas cau-sas que aquí podemos abordar y que pueden mani-festarse a partir de un análisis del tipo de tareasque se llevan a cabo en un despacho.

Desde un punto de vista informático también

Page 294: [Architecture eBook] Aplicaciones as en Arquitectura

298 Aplicaciones informáticas en arquitectura

podemos describir un despacho de arquitecturacomo algo que, en un periodo determinado, recibeinformación por un extremo y la emite por otro. Lainformación básica que recibe es un encargo quedescribe un solar y un programa. La informaciónque emite es un conjunto de documentos que espe-cifican un conjunto de formas y materiales comorespuesta al encargo.

Entre ambos extremos hay una serie de tareasque podemos clasificar de muy diversos modos.La AIA (American Institute of Architecture) daba,en un documento de carácter general publicado porprimera vez hace unos 20 años, The Architect'sHandbook of Professional Practice, una serie derecomendaciones que, con algunas modificaciones,podemos considerar como una orientación adecua-da a falta de estudios más elaborados en nuestroámbito de trabajo.

Aunque la mayoría de los despachos de arqui-tectura se articulan de un modo muy libre, a lo lar-go del tiempo y de un modo más o menos progra-mado tienden a estructurarse en torno a cuatro áreasfuncionales diferenciadas. Estas son:

Administración

Este área general cubriría lo siguiente:- Recepción, con espacio para vitrinas exponien-

do trabajo, asientos y mesas para visitas queesperan ser recibidas.

- Despachos de reunión para los socios principa-les, clientes y contratistas.

- Personal administrativo, gestor del despacho,secretarias, archivos, almacenamiento local dediversos tipos.

Producción

Este área cubriría los siguientes espacios:- Área general de trabajo para arquitectos,

diseñadores, aparejadores, ingenieros,maquetistas y otros profesionales que puedancolaborar en la creación de un proyecto. Estopuede incluir un área diferenciada paradibujantes como ocurría en los despachos tra-dicionales aunque el uso de la informática tien-de a diluir esta diferenciación.

- Área diferenciada para la creación de maque-tas o modelos ilustrativos del proyecto.

- Despacho o área diferenciada para que los con-tratistas puedan revisar o anotar los proyectos.

- Exhibición de muestras de materiales, fotogra-fías o maquetas de proyectos realizados por el

despacho.- Biblioteca.

Almacenamiento

- Espacio para guardar material no activo talcomo carpetas de proyectos ya concluidos o do-cumentación de referencia escasamente utiliza-da.

Servicio

- Café, bebidas.- Lavabos.- Conserje.

La superficie general del despacho se estima quedebería asignar de 10 a 15 m2 por persona distri-buidos del siguiente modo:

Administración 45% 4.5 6.7Producción 35% 3.5 5.3Almacenamiento 14% 1.4 2.1Servicios 6% 0.6 0.9

Total 100% 10 15

Evidentemente, estas cifras no dan sino orientacio-nes generales que variarán considerablemente se-gún las circunstancias.

En la figura 3 se resume este esquema general yen las figuras 4, 5 y 6 se muestran tres ejemplos decómo podría organizarse un despacho de 6, 12 y24 personas.

Por lo que respecta a la distribución del tiempoy de las tareas específicas que hay que realizar enun despacho, desconocemos estudios referidos a

Producción Administración

Almacén Servicios

35% 45%

15% 5%

Figura 3 Esquema general de distribución de lastareas de un despacho

Page 295: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 299

Figura 4 Ejemplo de distribución para un despacho de arquitectura de 6 personas

Page 296: [Architecture eBook] Aplicaciones as en Arquitectura

300 Aplicaciones informáticas en arquitectura

Figura 5 Ejemplo de distribución para un despacho de arquitectura de 12 personas

Page 297: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 301

Figura 6 Ejemplo de distribución para un despacho de arquitectura de 24 personas

Page 298: [Architecture eBook] Aplicaciones as en Arquitectura

302 Aplicaciones informáticas en arquitectura

despachos de arquitectos. Probablemente es unatarea inabordable. Sin embargo puede no estar demás dar alguna referencia más general. En un estu-dio realizado en Estados Unidos hace unos veinteaños, cuando se comenzaban a substituir las má-quinas de escribir por ordenadores, se llegó a laconclusión de que los trabajos realizados en unaempresa media se subdividían en cuatro categoríasprincipales con los siguientes porcentajes:

- directivos 26%- profesionales 40%- trabajadores 28%- secretarias 6 %

Cada una de estas partes era estudiada más aten-tamente y se detallaban con mayor precisión lastareas propias de cada una de ellas. Las tareas me-jor estudiadas, y las que permitían sacar conclu-siones más definidas eran, en primer lugar, las pro-pias de las secretarias y, en segundo lugar, las delos directivos. El tipo de tareas propias de profe-sionales y trabajadores se prestaba menos a sergeneralizado pues dependía de modo más directode un tipo particular de trabajo.

Las tareas de secretaría se subdividían del si-guiente modo:

- recepción, clasificación y gestiónde correspondencia yotros documentos 21%

- mecanografiado de textos 20%- reproducción y difusión de

documentos 20%- espera de trabajo 18%- teléfono y comunicación directa

(atención a visitantes, etc.) 14%

Las tareas directivas se subdividían de modos másdifíciles de resumir pero en los que, claramente, elmayor porcentaje era ocupado por "reuniones pro-gramadas" (más del 50% del tiempo total) y "re-uniones no programadas". Desde el punto de vistaque aquí nos ocupa tiene mayor interés la subdivi-sión de tareas de dirección en: dirección, coordi-nación, planificación, gestión y comunicación.Debe considerarse que en un despacho de arqui-tectura muchas de estas tareas se acumulan en unamisma persona pero, a efectos de organización deltrabajo, deben considerarse como tareas diferen-ciadas.

Aunque estos porcentajes no son directamenterelevantes para el caso de la arquitectura nos pro-

porcionan, en ausencia de despachos similares, unareferencia que no es de despreciar y que, por aña-didura, puede prevenir del error de asignar a secto-res con tareas bien diferenciadas y fáciles de anali-zar, una incidencia mayor de la que realmente tie-nen en el proceso de proyecto.

La organización de un despacho de arquitecturapuede subdividirse, de acuerdo con las anterioresreferencias y con análisis específicos del modo detrabajo en diversos despachos de Barcelona, en lassiguientes tareas:

1. Tareas de dirección

- organización general del despacho- planificación de los proyectos en curso- asignación de tareas a personas- asignación de recursos a tareas

2. Tareas profesionales

- desarrollo de los proyectos- preparación del material común a diversos

proyectos- preparación de criterios de ordenación y

supervisión de información general relacio-nada con proyectos

- supervisión de la gestión informática

3. Tareas de ayudantes

- delineación- desarrollo de detalles o sectores de proyecto- gestión informática rutinaria (copia de

archivos, etc.)

4. Tareas de secretaría

- comunicación ordinaria con el exterior:teléfono, fax, correo electrónico

- mantenimiento de una base de datos dedirecciones: clientes, organizaciones, indus-triales y colegas profesionales.

- Procesamiento de textos corrientes: memo-rias, informes, correspondencia ordinaria

- procesamiento de textos especializados:formularios, diagramas, listados, composi-ción de textos

- copia y difusión de documentos de pequeñoformato

- clasificación y gestión de documentos depequeño formato.

- contabilidad interna- asistencia en la elaboración de mediciones y

presupuestos

Page 299: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 303

Tareas específicas de la organizacióninformática

Desde el punto de vista de la gestión informática,los principales puntos que se deben desarrollar se-rían los siguientes:

- instalación y mantenimiento de los progra-mas

- propuesta de planificación de las compras dehardware y software

- contacto con los distribuidores para averías omantenimiento regular

- elaboración y mantenimiento de rutinas depersonalización y protocolos internos

- mantenimiento de un memorándum deconfiguraciones, programas instalados yrutinas propias

- gestión de copias de seguridad de trabajos encursos y copias periódicas de otro tipo deficheros

- propuesta de criterios de organización ycodificación y de ubicación de informacióninterna y externa

El último punto se desarrollara en detalle en el si-guiente capítulo. Por lo que respecta al manteni-miento de los archivos, una tarea que implica a to-dos los que trabajan en un despacho debe tenerseen cuenta que, en general, todos los archivosinformáticos de un despacho pueden dividirse en 3categorías:

a) archivos y subdirectorios que no se modifican,tal como ocurre con los archivos de programas;

b) archivos o subdirectorios que se modificanesporádicamente, tal como ocurre con las configu-raciones personalizadas o con la propia organiza-ción de subdirectorios;

c) archivos que se modifican periódicamente, talcomo ocurre con los archivos de un trabajo deter-minado. Tanto por razones de mantenimiento comopor razones de control del contenido de los orde-nadores, es conveniente agrupar estos tres tipos dearchivos en grupos claramente diferenciados.

El responsable de la organización informáticaes, en general, el único que debe ocuparse de losdos primeros grupos. Por lo que respecta al terce-ro, es también el encargado de proporcionar crite-rios generales de ordenación. Tal como veremosen el siguiente capítulo, al margen de los progra-mas, la organización de los archivos requerirá con-

tar con criterios de ubicación y nomenclatura paralos subdirectorios, archivos y capas en donde seirán insertando todos los elementos de un nuevoproyecto. Será también necesario contar con ubi-caciones específicas para toda una serie de elemen-tos, símbolos, prototipos, carátulas, imágenes, fon-dos, texturas, etc., organizados en bibliotecas digi-tales internas que contienen información genéricade diversos tipos. Esta información se complemen-tará, sea mediante copia de archivos, sea medianteacceso directo durante el curso de un proyecto, seade ambos modos, con bibliotecas digitales exter-nas, en forma de disquetes, discos magnetoópticos,CDRoms, conexión a Internet o servicios on-line ocon intercambio con otros despachos.

La utilización de los programas requiere tam-bién el análisis de una serie de procedimientos quedeben ser de algún modo organizados y planifica-dos. Entre éstos figuran: a) el acceso a programaspor métodos avanzados que incluyen lapersonalización por medio de macros, menús, ruti-nas o subprogramas propios; b) la preparación oprevisión de tutoriales para iniciar con rapidez anuevos colaboradores en el manejo de los progra-mas según los usos del despacho; c) la definiciónpor escrito de procedimientos de vinculación dearchivos por medio de protocolos y prioridades queprevengan la destrucción accidental por grabaciónindebida de un archivos sobre otro; d) la impresiónde planos; e) el inicio de proyectos (plantillas, pro-tocolos, criterios generales); f) el cierre de proyec-tos (resúmenes, almacenamiento, claves de accesoposterior).

Debe tenerse en cuenta, por último, que el orde-nador tiene una considerable incidencia en el desa-rrollo del proyecto de diversos modos, algunos queresultan evidentes y otros que no lo resultan tanto:1) La incidencia es clara por lo que respecta a la

automatización de procesos inequívocamenterutinarios. Ejemplos característicos son la co-pia automática de partes ya dibujadas, la utili-zación de plantillas para marcos y carátulas, lautilización de símbolos diversos almacenadosen bibliotecas gráficas que pueden ser inserta-dos innumerables veces, etc.

2) La incidencia es menos clara cuando se trata dela automatización de procesos implícitamenterutinarios. Ejemplos de esto son: la creación dearchivos prototipo que reúnan una serie de ca-racterísticas que pueden ser unificadas, la crea-ción de macros, órdenes personalizadas para

Page 300: [Architecture eBook] Aplicaciones as en Arquitectura

304 Aplicaciones informáticas en arquitectura

aquellas rutinas que se repiten con mayor fre-cuencia, la organización de bases de datos parala información que se prevé utilizar con mayorfrecuencia, etc.

3) Automatización de procesos complejos. Esto lle-va a la utilización de sistemas expertos, a laorganización de procesos interactivos y, en ge-neral, a métodos que derivan de sistemas desa-rrollados en programas de inteligencia artificialy que resumiremos brevemente en el capítulocorrespondiente a "soluciones constructivas".

4) Por último, la conexión con industria se mani-fiesta en una presión normalizadora que tam-bién está afectando y afectará más en el futuroa los métodos de trabajo en los despachos.

5 Herramientas de gestión

El funcionamiento de un despacho de arquitecturaimplica una extensión de las técnicas que se hanvisto en la primera parte, tanto por lo que hace re-ferencia al proyecto en sí mismo como por lo quehace al proyecto en tanto que planificación de acti-vidades diversas que implican una organizaciónsimilar a la de cualquier empresa que involucra adiferentes personas y recursos. La consecuencia deesto es que se requiere un conocimiento mínimode las técnicas informáticas que han revoluciona-do la administración y la gestión de recursos y quetienen una incidencia directa en la organización delproyecto arquitectónico.Se requiere también manejar diferentes tipos dedatos: textos, tablas y programas de cálculo quevienen a sumarse a los datos gráficos con que sedescribe un proyecto. La manipulación de estosdiferentes tipos de datos, que de un modo u otrointervienen en el desarrollo de un proyecto de eje-cución, en arquitectura, de un modo muy similar acomo lo hacen en el desarrollo de otro tipo de pro-yectos, propios de otros tipos de sectores profesio-nales, se ve facilitada por la aparición de una seriede programas específicos.

Programas de gestión

Podemos agrupar estos programas, que colaborande distintos modos en la gestión de un proyectoejecutivo, en cuatro grupos principales:procesadores de textos, hojas de cálculo, bases dedatos y gestores de comunicación electrónica (prin-cipalmente correo electrónico y transferencia elec-

trónica de ficheros).Estos cuatro grupos de programas han sido ob-

jeto de un intenso desarrollo en los últimos años yde una serie de análisis y estudios diversos que seagrupan en torno al papel de la tecnología de lainformación en la reestructuración y desarrollo deltrabajo administrativo de todo tipo. Lo que se de-nomina a veces OA (Office Automation) o bien"ofimática" es un conjunto de aplicaciones querecojen diversos estudios y desarrollos en este cam-po. El espectacular éxito de un paquete de progra-mas como el Microsoft Office que incluye unprocesador de textos (Word), una hoja de cálculo(Excel) y una base de datos (Access) es una pruebade la gran demanda que existe en este terreno.

Una razón de este éxito es, por otro lado, el enor-me aumento que se ha producido, sobre todo enlos países desarrollados, del número de trabajado-res en este sector. En Estados Unidos, el númerode trabajadores relacionados con la gestión de lainformación ha pasado, en 100 años, del 5% (1880)al 48 % (1980) según datos recogidos por Radford& Stevens (1987).

Pero, por otro lado, la productividad en este sec-tor ha crecido mucho menos que el de otros secto-res que se han ido despoblando paralelamente,como es el caso de la agricultura. El interés poraumentar el rendimiento administrativo es un fac-tor que también ha pesado en el impulso que se hadado a este tipo de programas que, sin duda, per-miten concentrar actividades, eliminar tareas ma-nuales rutinarias y permiten generar documentosadministrativos con mayor rapidez y mayor efica-cia.

En lo que sigue mencionaremos algunas de lascaracterísticas del primero de los programas men-cionados. El cuarto, la comunicación electrónica,ya se ha tratado en el capítulo dedicado a redes; losotros dos, se tratarán en los capítulos 11 y 12 res-pectivamente.

Procesadores de textos

Aunque los procesadores de textos son de uso co-mún y damos por supuesto que se conoce su fun-cionamiento, hay algunas observaciones que pue-den ser de utilidad. No debe perderse de vista quela información de un proyecto no se reduce a dibu-jos y que el modo en que se organice y presentenlas memorias, especificaciones y todo tipo de in-formación no gráfica tiene una importancia nota-

Page 301: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 305

ble.Un texto puede introducirse en un ordenador de

muy diversos modos. El modo más sencillo es uti-lizar un editor ASCII; el método más sofisticado esutilizar un programa de autoedición. Entre estosdos extremos se sitúan los programas denomina-dos genéricamente "de procesamiento de textos"si bien hay hacer notar que las capacidades de es-tos programas se acercan cada vez más a las de losprogramas de autoedición.

Los editores ASCII son pequeños programas,incorporados a cualquier sistema operativo quepermiten introducir texto en un formato universal,compatible con cualquier programa informático.Cuentan también, en mayor o menor grado, conórdenes que permiten seleccionar, copiar, cortar,pegar, etc., partes del texto ya escrito. No cuentancon herramientas que permitan especificar el usode fuentes, el estilo de texto o la organización de lapágina con cierto detalle. Son, con todo, una herra-mienta imprescindible en todo ordenador. TantoMSDOS como Windows (el "bloc de notas" oNotepad) incorporan editores ASCII y ANSI aun-que muchos usuarios prefieren utilizar editores pro-pios, de los que hay una gran variedad en el merca-do, con muy bajo coste, y que incorporan mayorescapacidades de edición de texto, intercambio conotros archivos, etc.

Cuando se utilice un editor ASCII (AmericanStandard Code for Information Interchange) encombinación con un programa que funcione enWindows, deben tenerse en cuenta las característi-cas de estos códigos. El código ASCII utiliza 7 bits,que proporcionan 128 combinaciones. Los 32 pri-meros códigos se utilizan para control de transmi-sión e impresión. Los 96 restantes se utilizan paracodificar caracteres especiales, 10 números (delascii 48 al 57) las 26 letras mayúsculas (del 65 al90) y minúsculas (del 97 al 122) . El código ASCIIextendido utiliza 8 bits que proporcionan 256 com-binaciones; hay, por consiguiente, 128 posibilida-des más que se utilizan para representar caracteresespeciales adicionales, mayúsculas y minúsculasacentuadas y caracteres utilizados en otras lenguasdistintas del inglés tales como la "ç" (ascii 128 y133) o la "ñ" (ascii 164 y 165), etc. Pero la utiliza-ción de estos caracteres depende de las tablas decódigos dependientes del país que se estén utili-zando con el sistema operativo o con el entornooperativo lo que puede ocasionar errores al pasarde uno a otro programa.

El entorno MSWindows utiliza una codificaciónANSI (American National Standards Institute).Debe tenerse esto en cuenta a la hora de exportar eimportar textos entre editores ASCII y programasbajo Windows; si no se escoje la opción correctauno puede encontrarse con que todos las letras acen-tuadas, las "ç", las "ñ", etc., han quedado transfor-madas en símbolos extraños. Para evitarlo hay queescoger la opción "texto en MSDOS". Los carac-teres complementarios son accesibles directamen-te utilizando la combinación de teclas Alt + el nú-mero asci correspondiente o Alt + 0 + el númeroansi correspondiente. En el capítulo 2 se muestranalgunos ejemplos de símbolos que puedenobtenerse de este modo. Si se desea utilizar confrecuencia un carácter que no aparece en el tecladocomo alguno de los siguientes: £ § © ± µ ¶ × Ø ß esfácil programar una macro en un procesador de tex-tos para obtenerlo mediante una combinación mássencilla, por ejemplo utilizando la combinación Alt+ una letra cualquiera. Los programas de ayuda delos procesadores de texto explican paso a pasocómo grabar una macro.

Un procesador de textos es un programa quepermite introducir texto y editarlo de diversos mo-dos mediante una variedad de órdenes que permi-ten seleccionar, copiar, cortar, pegar partes ya es-critas y presentar lo escrito en diferentes formatosy con diferentes tipos de letras. Los dos programascomerciales más extendidos de procesamiento detextos desde hace años (hasta 1999) son WordPerfect y Microsoft Word. La primera versión deWord Perfect se presentó en 1980 cuando otro pro-grama, actualmente en declive, Word Star, llevabados años en el mercado. La mayoría de los progra-mas de edición actuales permiten grabar lo escritoen formato RTF (siglas de Rich Text Format). Esteformato es un formato ANSI extendido que permi-te incorporar fuentes tipográficas, estilos tales comonegrita, cursiva, etc., y, en general, la mayoría delas características de un texto enriquecido tal comose encuentra en una publicación corriente. Si el textoque se va a producir no contiene características muysofisticadas grabarlo en formato rtf es una garantíade que podrá ser llevado a cualquier programa detratamiento de textos.

Los actuales programas de procesamiento detexto incluyen una gran variedad de funciones quelos acerca a las capacidades de los programas deautoedición (desktop publishing). Permiten ajus-tar la composición de la página, trabajar con varias

Page 302: [Architecture eBook] Aplicaciones as en Arquitectura

306 Aplicaciones informáticas en arquitectura

columnas, incorporar encabezados y pies de pági-na con numeración automática, combinar diversostipos de fuentes tipográficas, etc. Las órdenes ha-bituales de copiar, borrar o mover amplios bloquesde textos seleccionado se complementan con órde-nes que permiten buscar y reemplazar texto, concorrectores ortográficos automatizados y con índi-ces que se actualizan automáticamente.

Aunque aún no sea una práctica corriente entrequienes utilizan estos programas, conviene habi-tuarse a trabajar con estilos y con plantillas y conestilos prediseñados. Un estilo es una especifica-ción compleja que recoge varias especificacionessimples. Este texto incorpora, entre otros los si-guientes estilos que se toman de un documento dereferencia primario. Cualquier cambio debe subor-dinarse a esta ubicación primaria. Por ejemplo, losprincipales estilos que aparecen en estas páginasson los siguientes:

Encabezado: Margen sup: 20 mm. Filete inferior.Distancia de parte superior de encabezado a partesuperior caja de texto: 17 mm.Encabezado impar: Alineación izq.: título capítu-lo (sin punto final). Times, 8 pt. Cursiva.Alineación der.: número página. Times, 9 pt. Ne-grita. .Encabezado par: Alineación izq.: número página.Times, 9 pt. Negrita. Alineación der.: título libro(sin punto final). Times, 8 pt. Cursiva.Normal_Ini: Times , 10 pt, Justificada, Espacioposterior: 8pt, Tabulaciones: cada 10 mm; Separa-ción: Manual y diccionario. Viudas/Huérfanas: 2/2. Interlineado: 1,1: altura línea: 3.88 mm. Líneaspor página: 51.Normal: Normal_Ini + Sangría inicial a 4 mm.

Si se desea cambiar el tipo del encabezado, porejemplo, basta con ir a la definición del estilo ysustituir, pongamos que el tipo de fuente Times, 8puntos por Arial, 9 puntos. Todas las páginas que-dan modificadas automáticamente con el nuevoestilo. Esto tiene dos ventajas importantes. En pri-mer lugar, como es obvio, que resulta mucho másrápido. Pero, en segundo lugar, y no menos impor-tante, que así se asegura la coherencia de todo eldocumento, no hay que preocuparse porque algu-na página haya quedado con otro estilo cuya dife-rencia quizás no se apreciaría a simple vista en unarevisión rápida.

Las unidades se dan en mm, en puntos tipográ-

ficos (por ejemplo "11 pt") y en picas (por ejemplo"0p8"). Un punto tipográfico anglosajón equivalea 0,351 mm y una pica tiene 12 puntos. Las cifrasadecuadas acaban por resultar familiares con unmínimo de práctica. Por ejemplo, la gran mayoríade los libros utilizan tamaños de texto de 10, 11 o12 puntos para los párrafos normales y cifras ente-ras mayores para los títulos. Por lo que respecta alas picas, un modo sencillo de utilizarlas es especi-ficar un tamaño en milímetros, que es una medidamás familiar, pedir al programa que realice una con-versión automática (todos incorporan alguna ordenque permite hacer esto) y, a continuación, redon-dear el valor obtenido lo que, sin entrar en proce-dimientos más sofisticados, contribuirá probable-mente a que las alineaciones queden mejor ajusta-das.Hay otros estilos según los tipos de archivos. Elprimer capítulo de este libro, por ejemplo, en don-de aparece el título general y los índices generales,cuenta con una serie de estilos específicos para es-tos tipos.

Todos los documentos largos deberían ser con-feccionados con estilos que permitan el ajuste au-tomático. Además de esto es conveniente contarcon plantillas para cada tipo de documento que seelabore con regularidad. Una plantilla es un archi-vo que recoge las características principales de untipo de documento. Conviene contar con una plan-tilla para los documentos más corrientes; cartas,fax, memorándums, etc., y para documentos talescomo memorias de un proyecto ejecutivo. Las plan-tillas incorporan las especificaciones generales depágina y los estilos propios del tipo de documentode que se trate. Por ejemplo, la especificación depágina de este documento es:Página: A4, Vertical, Páginas opuestas, Margen

sup/inf: 37/ 62 mm, Margen int/ ext: 32/ 32 mm.Caja general 146 × 215 mm. Dos columnas.Separación entre columnas 6 mm.

El trabajo con plantillas y con estilos agiliza el tra-bajo y permite mantener la homogeneidad de to-dos los documentos que se produzcan en el despa-cho. Si se necesita cambiar el tipo de letra, por ejem-plo, sea por razones estéticas sea por razones prác-ticas, para reducir el volumen impreso, basta concambiar el tipo especificado en el estilo correspon-diente a los párrafos normales para queautomáticamente se actualice todo el documento,aunque tenga cientos de páginas. Esto ahorra untiempo considerable, previene errores y minimiza

Page 303: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 9. Organización del despacho 307

el trabajo de revisión del documento (que es reco-mendable hacer a pesar de todo).

La revisión ortográfica puede realizarseautomáticamente por estos programas que detec-tan tanto errores ortográficos como errores tipo-gráficos, palabras juntas o repetidas, etc. Esto es,obviamente, una ventaja importante que tambiéncontribuye a ahorrar descargar al personal admi-nistrativo de un despacho de tareas rutinarias. Debetenerse en cuenta, sin embargo que, aunque ayude,esto no sustituye a una revisión del texto; muchoserrores no se detectan porque la palabra erróneapuede ser igual que otra que el programa tiene re-gistrada como correcta.

Desde el punto de vista de la gestión de un des-pacho las aplicaciones principales se basan, ade-más de la introducción y corrección de textos, enla utilización de plantillas para cartas de diversostipos, formularios, cabeceras de fax y cierto tipode facturas. También es posible crear plantillas queincorporen estilos más variados para la confecciónde memorias de proyecto. Y, por último, permitenintegrar, si resulta más conveniente, listas y tablasconfeccionadas con hojas de cálculo y bases dedatos.

6 Resumen de equipamiento

En el próxima capítulo analizaremos con mayor de-talle el tipo de tareas que implica el desarrollo deun proyecto de ejecución y el modo en que estastareas específicas, dirigidas a un proyecto determi-nado se relacionan con otras tareas más generales.

Para que se comprenda mejor la inserción deltipo de programas que acabamos de presentar en ladinámica general del proyecto de ejecución, juntocon los ya presentados en la Primera parte de estelibro, damos en la figura 7 una relación de las prin-cipales tareas implicadas en el desarrollo de unproyecto, junto con una especificación del tipo ge-nérico de programa que cabría utilizar y algún ejem-plo de estos.

No hay que perder de vista que en la lista ante-rior se dan ejemplos y que no se trata de cubrir unainformación que varía con rapidez sino de dar in-dicaciones.

Todos estos programas requieren diferente tipode equipamiento físico (hardware). Al final de lasección 3 de este capítulos ya se han dado las indi-caciones correspondientes.

Page 304: [Architecture eBook] Aplicaciones as en Arquitectura

308 Aplicaciones informáticas en arquitectura

Tareas Tipo de Programa Ejemplos (1999)

Bocetos 2D CAD2D AutoCad, Microstation, ArchiCad, Allplan

Imagen Photoshop, Photostyler, Picture Publisher, CorelPhotoPaint

Bocetos 3D CAD3D AutoCad, Microstation, ArchiCad, Allplan,3DStudio, FormZ

Dibujo de planos CAD2D AutoCad, Microstation, Allplan, ArchiCad

Modelos 3D CAD3D AutoCad, Microstation, ArchiCad, Allplan,3DStudio, FormZ

Presentación Rendering 3DStudio, AcuRender, FormZ, Lightscape

Animación 3DStudio

Multimedia MacroMediaOrganización Sistemas operativos Windows 95/98, Windows NT

Redes locales Novel, Windows NT

Comunicación Servicios on-line CompuserveE-mail, fax Netscape, Explorer

Internet Netscape, Explorer

Gestión proyecto Hojas de cálculo ExcelAdministración Proc. textos Word, Word Perfect

Hojas de cálculo Excel

Memorias Proc. textos Word, Word PerfectEspecificaciones Proc. textos Word, Word Perfect

Mediciones y presupuestos Hojas de cálculo ExcelBases de datos Access, Oracle

Programas específicos Presto, Memphis

Composición AutoEdición Page Maker, QuarkExpressDigitalización textos OCR Programas propios del dispositivo

Digitalización imágenes Escáner Programas propios del dispositivo

Digitalización dibujos Vectorización Adobe StreamLine, Corel TraceCálculo estructuras Hojas de cálculo Excel

Programas especializados ...

Cálculo instalaciones Hojas de cálculo ExcelProgramas específicos ...

Figura 7 Relación de tareas, tipos de programas informáticas adecuadospara llevarlas a cabo y algunos ejemplos comerciales

Page 305: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 309

Capítulo 10. Organización del proyecto

tiempos de ejecución de tareas y la descomposi-ción de éstas en unidades simples que podían seranalizadas y cuantificadas. Gantt se especializó enmétodos de dirección de empresas y durante el pe-riodo anterior a la Iª guerra mundial ideó un siste-ma de planificación y control de la producción pormedio de gráficos que tuvo un éxito notable y fueadoptado, y sigue siendo utilizado, por todo tipode empresas tanto en Estados Unidos como en Eu-ropa.

A finales de los cincuenta aparecieron métodosmás eficaces de gestión. Los dos principales, quese desarrollaron en paralelo para luego fundirse ensistemas mixtos fueron PERT y CMP. El métodoPERT (Project Evaluation and Review Technique)tiene su origen en los programas militares desarro-llados por la fuerzas aeronavales de Estados Uni-dos, hacia 1958, en relación con el proyecto Polaris,un programa desarrollado para dotar de misilesbalísticos a los submarinos nucleares. En este pro-yecto, elaborado conjuntamente con la LockheedAircraft Corporation, diversos consultores priva-dos y cientos de subcontratistas, se alcanzó unareducción del 30% de los tiempos previstos paracompletar el proyecto. El éxito del sistema hizoque se extendiera a multitud de sectores industria-les entre ellos al de la construcción.

El método PERT es adecuado para cualquierproyecto en el que se conjuguen múltiples opera-ciones que exijan una planificación de tareas y tiem-pos. Se basa en la especificación de una red de even-tos o acciones relacionadas entre sí junto con unanálisis de los tiempos mínimo, máximo y normalrequeridos para cada tarea. En su forma más sim-plificada, de la que se da un ejemplo elemental enla figura 2, se puede reducir al diseño de una red

Una buena organización de los documentos de unproyecto arquitectónico es el requisito necesario,no suficiente, para conseguir una gestión eficaz delmismo. Las técnicas de gestión de proyectos que-dan fuera de los contenidos de este libro. En pri-mer lugar por razones de espacio. Y, en segundolugar, porque, pese a la reciente popularidad de loque en los países anglosajones se denomina projectmanagement, no está clara la relación que hay quemantener entre las técnicas y nuevos perfiles pro-fesionales que se engloban bajo esta denominacióny la propia actividad de los arquitectos. Para situareste tema, comentaremos brevemente alguno de susimplicaciones antes de entrar en el contenido pro-pio de este capítulo.

Como es frecuente en el mundo de la arquitec-tura, las técnicas de gestión de proyectos provie-nen de otras áreas, en donde han alcanzado un no-table desarrollo que resulta desmesurado y, a me-nudo, inadecuado, cuando se lo intenta adaptar li-teralmente al mundo de los arquitectos. Pese a todoes conveniente conocer lo esencial de estas técni-cas y saber en qué ocasiones puede ser convenien-te adentrarse en los análisis minuciosos que impli-can.

En la planificación de obras y también en la pla-nificación de proyectos de cierto grado de comple-jidad se utilizan con relativa frecuencia losdiagramas de Gantt de los que se da un ejemploabstracto en la figura 1. Este tipo de diagramas sedeben a Henry Lurence Gantt (1861-1919) un in-geniero norteamericano, continuador de la obra deTaylor quien, como es bien sabido, a finales delsiglo pasado, consiguió mejorar espectacularmentelos rendimiento de trabajo en las fábricasestadounideneses, mediante las mediciones de los

Page 306: [Architecture eBook] Aplicaciones as en Arquitectura

310 Aplicaciones informáticas en arquitectura

de eventos que se producen en serie o en paralelohasta converger en la finalidad última. En su formamás elaborada se basa en un análisis minucioso delas estimaciones de tiempo adecuadas para cadatarea, lo que incluye análisis probabilísticos de lasestimaciones de tiempo medio por métodos queadecuados para la planificación de obras de granenvergadura pero que carecen de sentido en la ma-yoría de los proyectos que realiza un despacho dearquitectura.

También por estas fechas, hacia 1957, el con-sorcio E. J. du Pont de Nemours hizo uso de losprimeros computadores comerciales para analizarlas actividades de su compañía de un modo quepermitiera aumentar el rendimiento. El método sedenominó CMP (Critical Path Method) y, como elPERT, se basaba en el diseño de una red que repre-sentaba las diferentes tareas que tenían lugar a lolargo del desarrollo de un determinado proyecto.La principal diferencia entre ambos es que el CMPestá orientado a actividades. Éstas se representanpor una flecha, con un inicio y un final, y dos eti-quetas, una en la parte superior que describe la ac-tividad y otra en la parte inferior que indica su du-ración. En la actualidad se utiliza una combinaciónde ambos métodos con la denominación CMP/PERT. En construcción se considera más adecua-do el PERT aunque raramente se utiliza ningunode los dos con todo el aparato científico de análisisque se describe en la, por otra parte, escasa litera-tura disponible.

1 Documentos de proyecto

De un modo similar a como un proyecto arquitec-tónico se plasma, en definitiva, en una obra real,que se puede tocar y visitar, así, en su fase interme-dia, un proyecto se plasma en una serie de docu-mentos con unas características bien estipuladas.El primer paso para precisar el modo en que la in-formática incide en el desarrollo de un proyectoserá, por consiguiente, precisar el tipo de documen-tos de que consta un proyecto arquitectónico.

Estudios previos. Anteproyecto. Proyectobásico

En la elaboración de un proyecto se pasa por dife-rentes fases. En cada una de ellas se generan unaserie de documentos característicos que iremos sin-tetizando como paso previo para establecer una

Mes 1Mov. TierrasCimentación

SoleraSaneamiento

CubiertaEnlucido

TabiqueríaMuros/Pilares

Inst. EléctricaPintura

Inst. AguasCarpintería

2 3 4 5 6 7 8 9 10

Figura 1 Ejemplo simplificado dediagrama de Gantt

61 61

21 22 2423 26

25

28

33

31

32

70 70 74 74

75 75

80 80 84 84

82 104

90 11082 104Jácenas Armaduras Forjado

bases columnas

relleno cimentaciones

Paredes Vidrio

Inst. Gas agua elec.

Vigas Guias

Figura 2 Ejemplo simplificado departe de un diagrama PERT

12 24 4836 60Semanas

Inicio Obra

0

Nivel 1 Sur1 2

Nivel1 Norte

Final Obra

6

Nivel 2 Sur

4

Nivel2 Norte

5

3

Nivel1 Habit.

32-40-58

18-20-20

20-24-26

12-16-282-3-4

2-3-4

8-12-16

Figura 3 Ejemplo simplificado dediagrama CPM

Page 307: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 311

relación entre estos documentos y la mediosinformáticos adecuados para gestionarlos. Estasfases se pueden dividir en 3 o 6 apartados, segúnlas características del encargo y las costumbres onormativas de los diferentes países. Las tres fasesprincipales son: proyecto básico, proyecto de eje-cución y planos de obra. En una subdivisión másfina el proyecto básico se subdivide en: estudiosprevios, anteproyecto y proyecto básico propiamen-te dicho. Los planos de obra pueden transformarsea lo largo de la ejecución por lo que en algunoscasos la propiedad exige del arquitecto o del con-tratista una nueva serie de planos que representencon precisión la ejecución final.

Aunque es imposible generalizar debido a la granvariedad de proyectos que realiza un arquitecto, engeneral, el comienzo de un proyecto comienza porun análisis del programa propuesto por el cliente ypor un análisis del lugar en que este programa seva a materializar. Esto se materializa en una seriede estudios previos que implican la generación deuna colección de documentos de muy diverso tipoy que incluirán: a) memorias del programa solici-tado, así como de las variaciones que sufrirá el pro-grama inicial a medida que se profundice en losdiferentes aspectos implicados, diagramas con in-clusión de pequeños cálculos de dimensiones, pre-supuestos orientativos, listas de equipamiento o per-sonas afectadas por el programa; b) planos y foto-grafías del solar, que pueden incluir, en esta o enuna fase posterior, estudios geotécnicos, levanta-mientos topográficos, etc.; c) análisis de loscondicionantes normativos y de otros factores le-gales que pueden incidir en el proyecto; d) a todoesto hay que añadir las hojas de encargo, contratoso facturas que se deriven de esta primera fase y lascorrespondientes memorias o memorándums.

El siguiente paso es la elaboración de un ante-proyecto. Se entra así en una fase de trabajo en laque se producen numerosos croquis tanto a manocomo por ordenador, siguiendo un proceso libre,sin orden claro. Lo más frecuente es que se pasepor una secuencia del tipo: a) serie de croquis es-quemáticos que dan lugar a: b) croquis con medi-das que permitan desarrollar comprobaciones yajustes más precisos, lo que da lugar a: c) nuevoscroquis esquemáticos, que dan lugar a nuevos cro-quis más elaborados, etc. En este proceso puedenaparecer estudios de volumen a color, indicandomateriales, analizando la relación con el entorno,etc. El proceso se reinicializa una y otra vez antes

de concretarse en un proyecto básico que puede, asu vez, ser objeto de una nueva reelaboración yvolver a la fase de anteproyecto en nuevos ciclos.

En general, durante este proceso se utilizaránlas herramientas ya descritas en la primera parte deeste libro por lo que no insistiremos en el tema. Encualquier caso, al margen de las diferentes imáge-nes y modelos que se puedan generar y que varíanconsiderablemente según el tipo de despacho ar-quitectónico y según el tipo de proyecto, debe lle-garse a la elaboración de un proyecto básico quedeberá constar de todos los planos necesarios paraque la obra proyectada quede descrita de un modocompleto y sin ambigüedad, a un nivel suficientepara contar con la aprobación del cliente, el visadodel Colegio de Arquitectos y la licencia de obraque otorgan las instituciones afectadas y para, así,poder entrar en la fase del proyecto de ejecución.

El proyecto básico, en donde se concretan losresultados de esta primera fase, contendrá, comomínimo, lo siguiente, que se detallará en el aparta-do correspondiente a la enumeración de los docu-mentos que debe contener el proyecto ejecutivo:

1. memoria descriptiva del proyecto2. planos3. presupuesto.

Proyecto de ejecución

El proyecto de ejecución debe contener todos losdocumentos necesarios para poder ejecutar la obra.Estos documentos pueden agruparse en 5 aparta-dos que suponen un desarrollo y una especifica-ción más detallada de los documentos propios delproyecto básico: 1) memoria descriptiva del pro-yecto; 2) memoria técnica del proyecto; 3) planos;4) mediciones y presupuesto; 5) pliego de condi-ciones generales y particulares. Se detallan algo másestos apartados en lo que sigue. Puede encontrarseun desarrollo más elaborado en la separata editadapor el COAC (Col.legi Oficial d' Arquitectes deCatalunya): "Documentació per al visat deprojectes".

Hay que subrayar el hecho de que estos aparta-dos se desarrollan de muy distinto modo si el clientees un particular o si el cliente es la administraciónpública. En el primer caso el proyecto de ejecu-ción puede comprender, en determinados casos,poco más que una memoria, los planos y el presu-puesto. En el segundo caso, todos los apartadosdeben desarrollarse escrupulosamente. La tenden-

Page 308: [Architecture eBook] Aplicaciones as en Arquitectura

312 Aplicaciones informáticas en arquitectura

cia general, en la actualidad, lleva también a estesegundo caso cuando se trata de clientes particula-res de cierta entidad.

1 Memoria descriptiva del proyecto

1.1 Generalidades (objeto del proyecto, emplaza-miento, promotor, otros aspectos)

1.2 Descripción del proyecto (condicionantes ge-nerales, justificación de la solución adoptada,cuadro general de superficies construidas y úti-les)

1.3 Resumen del presupuesto

2 Memoria técnica del proyecto

2.1 Descripción pormenorizada de los sistemasconstructivos: movimiento de tierras, cimenta-ciones, estructura, cerramientos, particionesinteriores, revestimientos. Resumen de los cál-culos de estructura y otros cálculos propiosimplicados en la planificación de la construc-ción

2.2 Descripción general de las instalaciones: sanea-miento, electricidad, fontanería, protección con-tra incendios, climatización, ventilación, comu-nicaciones, otros sistemas. Resumen de los cál-culos de las diversas instalaciones

2.3 Normativa afectada y justificación de su cum-plimiento

3 Planos

3.1 Situación (localización general de la parcela)3.2 Emplazamiento (dimensiones generales del

solar y otras cotas relevantes, distancia a lími-tes, profundidad edificable)

3.3 Ordenación general del solar (adaptacióntopográfica, tratamiento del espacio libre)

3.4 Plantas de distribución (mobiliario, sanitarios,chimeneas, aparatos elevadores)

3.5 Planta de cubierta (cajas de escaleras y ascen-

sores, claraboyas, chimeneas, antenas, pendien-tes, juntas)

3.6 Secciones generales y fachadas a patios (concotas y desarrollos de muros si se requieren)

3.7 Fachadas (indicando orientación, cotas de re-ferencia y materiales)

Todos estos planos deben desarrollarse a escala1:50 o 1:100 excepto los de ordenación del solar(hasta 1:200), emplazamiento (hasta 1:500) y losde situación (hasta 1:5 000)

4 Mediciones y presupuesto

4.1 Mediciones y presupuesto del sistema construc-tivo

4.2 Mediciones y presupuesto de las instalaciones4.3 Presupuesto de ejecución material

5 Pliego de condiciones

5.1 Condiciones administrativas (objeto del con-trato, dirección de la obra, derechos y obliga-ciones del contratista, regulación general delcurso de la obra)

5.2 Condiciones económicas (plazos de la obra yrecargos, interrupciones, liquidaciones, recep-ción provisional de la obra, recepción definiti-va)

5.3 Condiciones técnicas (características de los ma-teriales y condiciones de aceptación o rechazode los mismos)

5.4 Condiciones de ejecución (condiciones de eje-cución de cada uno de los apartados detalladosen la memoria técnica)

Según los casos y los despachos hay quien prefiereestructurar este apartado del siguiente modo:

a) Pliego de condiciones generales (agrupan to-dos los puntos de la subdivisión anterior queno cambian de uno a otro proyecto);

b) Pliego de condiciones particulares (especificatodas las variaciones o detalles de relevanciapara el proyecto en curso);

c) Condiciones de aceptación y rechazo de mate-riales (dada la importancia de este apartado, enmuchos casos se prefiere que sea objeto de uncapítulo estrictamente detallado).

Además de esto, y por lo que hace a la gestión in-terna del despacho, es necesario contar con un do-cumento de planificación del tiempo previsto para

Estudios previosAnteproyectoProyecto básico

Proyecto de ejecución

Planos de obra (arquitecto)Planos de obra (industriales)Planos de final de obra

Propuesta

Formalización

Construcción

Figura 4 Fases de desarrollo de un proyecto

Page 309: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 313

la ejecución del proyecto. Este documento debeincluir una descomposición de las diferentes tareasque van a realizarse, quién las va a realizar, en quétiempo van a realizarse y cuál es el presupuestoasignado a cada una de estas tareas.

En despachos pequeños todo esto puedesolventarse con un cierto grado de improvisación,tanto más efectivo cuanto mayor sea la experienciay el grado de compenetración de los componentesdel despacho. En despachos con más de 5 o 6 cola-boradores se necesita algún grado de planificacióny la elección entre alguno de los diversos sistemasde trabajo que afectarán de modo muy directo a laintervención de la informática en el proceso.

Algunos esquemas de trabajo característicos,ampliando lo avanzado en el capítulo anterior, sonlos que podríamos denominar organización "por cé-lulas", organización "en árbol" y organización "enretícula". En el primer caso, los diferentes proyec-tos de un despacho se reparten entre diferentes equi-pos que funcionan con cierto grado de autonomía;el arquitecto principal puede actuar como supervi-sor de los diferentes equipos o puede estar integra-do de modo más o menos directo en alguno de ellos.En el segundo caso hay un equipo principal quedesarrolla las líneas maestras de un proyecto hastacierto grado de elaboración a partir del cual lo pasaa otro nivel para que se desarrollen con mayor de-talle determinados aspectos, sea por ser aspectosrutinarios que no precisan de mayor estudio sea porser aspectos difíciles de los que se deben analizardiferentes variantes.

En el tercer caso, característico de proyectosrelativamente grandes es corriente que, a partir delanteproyecto, se subdivida el edificio en sectoresen función de criterios funcionales y geométricos,y que se encargue a diferentes equipos el desarro-llo de cada uno de estos sectores.

Otro aspecto fundamental que se debe tener encuenta por lo que respecta a la organización delproyecto ejecutivo es que esta división de trabajopuede salir en algún momento del propio despachopara volver a él. Así ocurre corrientemente en elcaso de estructuras e instalaciones más o menoscomplejas. A partir de cierto estadio del proyectose requiere contar con cálculos precisos antes deconcretar la distribución, el número de componen-tes y las dimensiones de los elementos que inter-vienen en determinado sector.

Esto implica, por un lado, una planificación bas-tante estricta del momento en que se produce esta

colaboración externa. Y, por otro lado, un controlexacto del formato informático y de la relación deinserción que se va a establecer entre los planosque se envían y vuelven del consultor externo y losplanos del proyecto en curso. En general, los ar-chivos del ejecutivo para instalaciones, estructura,etc., deben ser independientes puesto que incluyendetalles diversos en capas autónomas; si se acumu-laran en un mismo archivo resultaría de difícil ges-tión.

Proyecto de obra. Proyecto final de obra

El número de planos que se han generado al finalde una obra real es, en general, muy superior al delos planos del proyecto ejecutivo. En obras de granenvergadura este número puede ser de unos cuan-tos miles de planos. En esta cifra deben incluirselos diversos planos generados por las ingenieríasque colaboran en el proyecto. Sólo los planos deestructura pueden multiplicar notoriamente el nú-mero de planos del proyecto original. Otro tantoocurre con los planos aportados por los diversosindustriales que colaboran en la obra. El análisisdetallado del modo en que esto afecta al seguimien-to de la obra por parte del arquitecto y al modo enque los medios informáticos pueden colaborar enel control de este proceso no puede hacerse aquípues no hay espacio para ello. A grandes rasgospuede bastar con decir que se requiere un juegoespecífico de normas y convenciones internas conlas que seguir de modo independiente las variacio-nes que experimenta el proyecto original y que debedarse cabida a esto en la organización general dearchivos del proyecto que veremos a continuación.

Otro tanto cabe decir del proyecto final de obra.Cada vez es más frecuente que, como ya hemosdicho, al final de la obra, se requiera una docu-mentación explícita del estado final que incorporecon claridad todas las variantes que se han produ-cido con el fin, entre cosas de asegurar, un mante-nimiento correcto del edificio. Aunque no sea aúnuna práctica habitual, también puede recogerse eneste esquema de organización general.

2 Organización de archivos

Más importante que seguir una pauta determinada,como la que se indicará en los siguientes apartadospor dar ejemplos concretos, es tener criterios cla-ros que orienten la ordenación. Damos a continua-

Page 310: [Architecture eBook] Aplicaciones as en Arquitectura

314 Aplicaciones informáticas en arquitectura

C:\

/ Programa principal (sistema operativo, entornos operativos, programas complementa-rios, subdirectorios temporales)

/ Programas (procesadores de textos, bases de datos, hojas de cálculo,CAD, rendering, tratamiento de imágenes, otros)

/ Documentos propios

/ Personalización (configuraciones y utilidades especiales)

/ Utilidades varias (configuración de programas, rutinas propias)

/ Bases y repertorios (bibliotecas 2D y 3D, mapas de bits, plantillas de documentos,bases de datos diversas)

/ Símbolos / Simbolos gráficos/ Marcos y carátulas

/ Elementos 2D / Mobiliario/ Puertas y ventanas/ Instalaciones de electricidad, fontanería, otras/ Detalles constructivos/ Detalles estructurales

/ Elementos 3D / Mobiliario 3D/Puertas y ventanas/Elementos varios

/ Mapas (mapas de bits de texturas e imágenes)/ Plantillas (plantillas de texto para memorias, cartas, etc.)/ Bases (agenda de direcciones, partidas presupuestarias, bibliografía,

otros datos)/ Otros

/ Proyectos

/ Proyecto 1/ Proyecto 2.........

/ Proyecto n

Figura 5 Organización general de subdirectorios y archivos

Page 311: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 315

ción alguno de estos criterios, sin pretender cubrirexhaustivamente el tema.

Un primer criterio es la necesidad de mantenercopias de seguridad de un modo sencillo y regular.En el disco duro de un ordenador hay fundamen-talmente tres tipos de archivos: los que práctica-mente no sufren modificaciones, los que sufrenmodificaciones con una frecuencia muy baja y lossufren modificaciones con una frecuencia muy altaen determinados periodos de tiempo. Los prime-ros son, en general, los archivos propios de un pro-grama de aplicación que no cambian después dehaberse instalado, los segundos son archivos rela-cionados con la configuración personalizada de losprogramas y los terceros los archivos de trabajodel propio usuario.

No tiene sentido hacer copias periódicas de losprimeros. La copia de seguridad la proporcionanlos propios discos de instalación del programa quedeben mantenerse a resguardo en un lugar adecua-do. Tanto por esta razón como por poder revisar lalista de archivos propios sin tener que navegar pormuy diversos subdirectorios, es conveniente man-tener todos los archivos de usuario en un mismotronco común que se vaya ramificando según losdiferentes usos.

La excepción a esta regla la constituyen algu-nos archivos que deben estar situados en directo-rios específicos dentro de un programa determina-do porque el programa no da opción a situarlos ensubdirectorios propios, si bien esto es poco frecuen-te, o porque resulta incómodo cambiar las rutas deacceso. Un ejemplo de esto último son los mensa-jes del correo electrónico o la lista de direcciones"favoritas" (bookmarks) de Internet. En estos ca-sos puede resultar más cómodo anotar la direccióncompleta de las carpetas o subdirectorios en dondeestán situados estos archivos e incluirlos en las ru-tinas de copias de seguridad como una opción es-pecial.

Organización general de subdirectorios

Damos por conocida la convención de directoriosy subdirectorios o carpetas y subcarpetas con laque se organiza la información en todos los orde-nadores. También damos por supuesta la forma másgeneral de organización que consiste en situar enprimera línea, como directorios principales, losprogramas que se utilicen corrientemente.

Por lo que respecta a los archivos de usuario no

es conveniente contar con varias entradas en pri-mera línea. Es preferible, por las razones que he-mos dado, agruparlos todos en una misma ramaprincipal con un nombre propio que puede ser eldel propio usuario principal o el del despacho o unalias convenido. A partir de aquí hay diversas va-riantes que dependen de los gustos personales. Laque se presenta en la figura 5 puede no ser la ópti-ma pero permite presentar de un modo más orde-nado la lógica de la organización.

En el directorio principal de usuario se situarán,por un lado, los diferentes proyectos en curso y,por otro lado, los archivos generales compartidospor los diferentes proyectos. Aunque insistimos enque el detalle de la organización variará considera-blemente según las preferencias la que sigue es unaalternativa razonable. Damos nombres completospara mayor claridad de la exposición. En generales preferible utilizar nombres abreviados. Aunquelas últimas versiones de Windows no restringen,aparentemente, el número de caracteres a 8, comoocurría con MSDOS hay un límite interno de 256caracteres a partir del cual los nombres se truncany se sustituyen por un número. El abuso en la lon-gitud de los nombres puede llevar a agotar este lí-mite. Por otro lado es más práctico utilizar nom-bres abreviados si resultan suficientemente claros.

Organización de los archivos de proyecto.Archivos de modelos y archivos de planos

En este subdirectorio se sitúan todos lossubdirectorios correspondientes a proyectos encurso y, dentro de cada uno de ellos, los archivosde un proyecto determinado. Aquí aparecen de nue-vo diferencias que dependen de los gustos de losdiferentes usuarios. Hay estudios que mantienentodos los archivos en un único subdirectorio y otrosque prefieren generar diferentes subdirectorios paraun mismo proyecto. La agrupación puede hacersea su vez según diferentes criterios. El criterio pue-de ser, por ejemplo, diferenciar entre proyecto bá-sico, proyecto de ejecución y proyecto de obra. Otraopción es utilizar tan sólo dos subdirectorios, unopara los archivos que contengan los modelos y pla-nos y otro para los que contengan otro tipo de da-tos.

Otros despachos prefieren diferenciar los archi-vos en relación directa con la salida física, es de-cir, crear tantos archivos como planos de un for-mato determinado vaya a tener el proyecto finali-

Page 312: [Architecture eBook] Aplicaciones as en Arquitectura

316 Aplicaciones informáticas en arquitectura

zado. Esto puede dar una idea muy clara del volu-men final del trabajo a costa de multiplicar la in-formación si no se cuenta con un sistema adecuadode vinculación de archivos, como el que mencio-naremos más abajo, lo que no siempre suele ser elcaso.

Otros despachos prefieren, por el contrario, agru-par toda la información en pocos archivos conmúltiples capas correspondientes a los diferentesplanos de salida que se vayan a generar. Los incon-venientes y las ventajas de esta opción son los con-trarios a los del párrafo anterior: la información secondensa de un modo eficaz a costa de generar unaestructura en la que resulta fácil perderse y queobliga a llevar un memorándum que nos recuerdeque, por ejemplo, los planos de instalaciones se en-cuentran en la capa abcdefg del archivo xyz, etc.

La organización de archivos debería estar ba-sada en lo que se ha convertido en los últimos añosen el procedimiento de trabajo más común debidoa que presenta indudables ventajas de organizacióny de economía de espacio. Los archivos de un pro-yecto se dividen en dos categorías: archivos demodelos y archivos de planos.

Los primeros, los archivos de modelo, contie-nen un representación del edificio a escala real. Estemodelo puede ser bidimensional o tridimensional.En cualquier caso incluirá una descripción de lageometría de todos y cada uno de los elementosdel edificio utilizando unidades que se correspon-dan exactamente con las dimensiones reales quetendrá el elemento en cuestión.

Los segundos, los archivos de plano, contienenuna o varias vistas, escaladas, del modelo anterior,compuestas en el interior de un marco que incor-pora la carátula y la descripción por escrito delcontenido del plano de que se trate. Cada uno deestos archivos representa un plano y se envían aimprimir a escala 1:1, con el origen (en la esquinainferior izquierda) y el final de la ventana de selec-ción adecuadamente escogidos para que la opera-ción de imprimir se reduzca a apretar un par debotones.

Los archivos de modelos se insertan en los ar-chivos de planos por medio de referencias exter-nas, un procedimiento que ya se ha explicado en elcapítulo 3 (CAD2D). Cada modelo lleva consigosus capas que se sumarán a las de los archivos deplanos. Cada archivo de plano debe estar por con-siguiente preparado de tal modo que las capas queinteresen estén activadas y las que no desactivadas.

Este modo de organización evita duplicacionesinnecesarias de información e independiza las ope-raciones de salida de planos de las operaciones dediseño. Los arquitectos que estén trabajando en unproyecto pueden despreocuparse de todas las ope-raciones de impresión pues siempre existirá una"ventana" externa, sobre las partes relevantes desu proyecto que necesiten ser impresas que no in-terferirá con el proceso de diseño.

Los textos (cotas, etiquetas, anotaciones diver-sas) pueden situarse tanto en los modelos como enlos planos. Es recomendable situar en los modeloslos textos que tengan relación directa con el pro-yecto (cotas, anotaciones técnicas relacionadas di-rectamente con la representación) y en los planostextos relativos a la presentación o de carácter ge-neral (títulos de los planos, anotaciones generales)además, obviamente, del marco y la o las carátu-las.

Éste es, con todo, un sistema de trabajo que daóptimos resultados para proyectos de cierto gradode complejidad y para despachos con una adecua-da subdivisión de tareas; es recomendable que hayauna persona que se preocupe exclusivamente depreparar y mantener los archivos de planos. Si noes así, en despachos más pequeños o para proyec-tos más sencillos, puede ser preferible integrar ar-chivos de modelos y archivos de planos en un úni-co archivo. Volveremos sobre este tema, con algu-nos ejemplos, en la sección 4 de este capítulo.

El modo de agrupar y de nombrar los archivoses algo que depende de las preferencias de cadadespacho. Con todo, hay algunas recomendacio-nes que servirán para todos los casos y es reco-mendable tener en cuenta.

1) En primer lugar, es conveniente agrupar to-dos los archivos correspondientes a un mismo pro-yecto en un mismo subdirectorio. Si los archivosse nombran de un modo lógico, con alguna de lasrecomendaciones que se dan en el siguiente apar-tado, aunque la lista sea muy larga los archivos seordenaran automáticamente de modo que no habrádificultad en encontrar en cada caso el archivo quese necesite.

2) Si se desea, puede subdividirse estesubdirectorio en otros subdirectorio, por ejemplo,en cuatro subdirectorios denominados "Ante" (an-teproyecto), "Base" (básico), "Ejec" (ejecución),"Obra". Otra opción, que puede entenderse tam-bién como una extensión de la anterior, es crearsubdivisiones para documentos gráficos y no grá-

Page 313: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 317

ficos aunque los propios programas se encargan defiltrar la información y mostrar sólo los archivoscorrespondientes a la aplicación. Sin embargo pa-rece una opción más recomendable mantener siem-pre activo un único subdirectorio y almacenar apartelos archivos correspondientes a fases del proyectoya superadas.

3) Es preferible, sobre todo si se va trabajar conreferencias externas, que el nombre del proyectofigure tan sólo en el subdirectorio y que los nom-bres de los archivos sean genéricos. Debe tenerseen cuenta que el nombre "real" de un archivo in-cluye el del subdirectorio bajo el que está situadopor lo que no tiene que haber peligro de borradoaccidental si no se cambian archivos de sitio.

Criterios y convenciones sobre nombres dearchivos

Por lo que respecta a los nombres de lossubdirectorios de proyecto, el código utilizado paradenominar el proyecto pueden ser tres letras quecorrespondan a las iniciales del cliente (por ejem-plo "ABC": "Alberto Bergamín Coll"). Otros pre-fieren tres números o tres letras que indiquen elnúmero de proyecto ("123" que permite nombrarhasta 999 proyectos "AAA" o "ZZZ" que permitenombrar hasta 17.576 o alguna fórmula interme-dia). Otros prefieren reservar dos números para elproyecto y una letra para el tipo de proyecto ("R07":proyecto de reforma número 7; "U12": proyectode urbanización número 12). Otros prefieren utili-zar números más largos indicando el año y el nú-mero del proyecto, por ejemplo: "9512" indicaríael proyecto número 12 iniciado el año 1995;"99123" indicaría el proyecto número 123 inicia-do el año 1999.

En la fase de anteproyecto estas denominacio-nes, al igual que las que sugeriremos a continua-ción para los archivos, pueden "enriquecerse" conletras añadidas para indicar diversas variantes enestudios. El análisis de los diversos modos en queesto puede lo dejamos al arbitrio de cada cual. Laúnica recomendación es que merece la pensa sen-tarse y buscar una alternativa lógica de nomencla-tura que permita seguir la pista de las variantes;media hora dedicada a este menester puede aho-rrar muchas horas futuras dedicadas a buscar ar-chivos en lugares insospechados.

En cualquier caso es imprescindible manteneruna lista de los archivos de proyecto. Se puede te-

ner la seguridad de que el tiempo empleado en con-feccionar esta lista y mantenerla actualizada se verácompensada con creces pues, en caso contrario, mástarde o más temprano, habrá que emplear un tiem-po precioso en intentar descubrir dónde estaba"aquel archivo" que sólo se reconocerá una vezabierto. Como a pesar de todos los cuidados, estoocurre en algún momento de la vida del despacho,es conveniente contar, entre los programas de utili-dades, con un buen visor de archivos que nos evitetener que activar un programa e ir abriendo archi-vos uno por uno.

Por lo que respecta a los nombres de los archi-vos, si se sigue la recomendación dada más arribasobre archivos de modelos y archivos de planos,habría dos tipos de denominación, una descriptivadel contenido, para los primeros, y otra indicativade la secuencia de planos, para los segundos.

La denominación correspondiente al contenidono debería contener otra cosa que una letra indica-tiva del tipo de contenido y de la zona modeladaque puede subdividirse en vertical o en horizontal.En el caso de un proyecto de reducidas dimensio-nes y realizado por una sola persona bastaría conun único modelo. La subdivisión en partes depen-de tanto del tamaño del modelo como del númerode personas implicadas en su desarrollo.

La denominación correspondiente a la secuen-cia no necesita incluir otra cosa que la numeracióncorrespondiente. Ésta puede desarrollarse de modoque se facilite la inserción de planos, no comen-zando por el 1 hasta llegar al 99 sino por grupossuficientemente amplios. Por ejemplo, la AIA dalas siguientes recomendaciones que son bastanterazonables:

0 General1 Plantas2 Alzados3 Secciones4 Gran escala5 Detalles6 Cuadros y diagramas7 Libre8 Libre9 3D

El siguiente ejemplo resume todo lo anterior

C:\...\99123\

Page 314: [Architecture eBook] Aplicaciones as en Arquitectura

318 Aplicaciones informáticas en arquitectura

ALZ.dwg (modelo alzados)EMP.dwg (emplazamiento)PL1.dwg (modelo planta 1)PL2.dwgPL3.dwgSEC.dwg (secciones)001.dwg (datos generales)101.dwg (plantas)102.dwg103.dwg201.dwg (alzados)501.dwg (detalles)901.dwg (perspectivas)

Si se tratará de un edifició muy extenso, las de-nominaciones podrían ser:

C:\...\99123\

...PL1E.dwgPL1O.dwgPL2E.dwgPL2O.dwg

...

Si se trabajará en colaboración con otros profe-sionales, convendría diferenciar todos los archivos,al igual que veremos que es necesario hacer conlas capas, incluyendo un código relativo a la disci-plina. Por ejemplo:

C:\...\99123\

...A-PL1.dwgA-PL2.dwgA-PL3.dwg...E-PL1.dwgE-PL2.dwgE-PL3.dwg...S-PL1.dwgS-PL2.dwgS-PL3.dwg

en donde la A indica "arquitectura", la E "electrici-dad", la S "estructura", etc.

3 Capas

Un aspecto fundamental de la organización de unarchivo de proyecto lo constituye la distribuciónde los diferentes componentes por capas. La utili-zación de “capas” o “niveles” (layers en AutoCad,levels en Microstation) es una de las aportacionesdel CAD que se ha incorporado de modo natural alproceso de trabajo de los arquitectos. Es una metá-fora electrónica que se corresponde de modo di-recto con una práctica tradicional, como es la utili-zación de papel transparente para seguir los trazosprincipales de un dibujo, modificando o añadien-do otros nuevos, pero que incorpora aspectos radi-calmente nuevos. El principal de ellos es sin dudala necesidad de estructurar temáticamente el pro-yecto desde sus inicios.

Esta forma nueva de entender un dibujo se com-prende aún de modo insuficiente pero, en cualquiercaso, requiere desde el comienzo una metodologíaestricta, tanto para su uso interno como para la comu-nicación externa. Hay, en este sentido, dos observa-ciones que deben ser subrayadas desde el comienzo.

En primer lugar, en las circunstancias actuales,no es conveniente aceptar, las proponga quien lasproponga, normas rígidas para la gestión de capas.Esto es así por dos razones. Por un lado, debido ala gran variedad de proyectos y fases del proyecto,cuya relación con los diversos modos de nombrary utilizar las capas no se han analizado suficiente-mente, suponiendo que este análisis pueda ser lle-vado a cabo de un modo exhaustivo, lo que es, enprincipio, discutible. Por otro lado, porque la si-tuación, incluso en aquellos sectores que admiti-rían cierto grado de normalización, no está aún,como veremos, suficientemente madura.

Sin embargo, en segundo lugar, ningún despachoque utilice el ordenador puede prescindir de elabo-rar algún tipo de protocolo interno que asegure unagestión regular y consistente de los diferenteselementos que consituyen un archivo de proyecto.

Nos encontramos por consiguiente ante dos ten-dencias contradictorias. Por un lado la situaciónno está madura para una normalización problemá-tica. Por otro lado, el contar con algún tipo de nor-malización es imprescindible y constituye un as-pecto básico para la organización de un despachode arquitectura.

Abordaremos el problema resumiendo, en pri-mer lugar, cuáles son las razones por las que espreciso utilizar capas y cuáles son los requisitos

Page 315: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 319

que éstas deben cumplir. Daremos, en segundo lu-gar, alguna referencia sobre el modo en que se haabordado esta cuestión en algunos casos de parti-cular interés. Y, en tercer lugar, una serie de crite-rios generales sobre el modo en que se debería abor-dar esta cuestión en nuestro entorno y en las cir-cunstancias actuales.

Razón de ser de las capas y requisitos quedeben cumplir

Las capas se utilizan por las siguientes razones prin-cipales:

1. Por razones de visualización. Esto es esen-cial en arquitectura, en donde hay diversos elemen-tos en un mismo espacio que interfieren entre sí.Se necesitan capas para ocultar elementos que nointeresan en un estadio determinado de trabajo.

2. Por razones de organización y filtrado de lainformación. El agrupar una serie de elementos enuna sola capa permite, entre otras cosas, podermanipularlos conjuntamente. También, cuando seutilizan archivos compartidos, por medio de vín-culos (Microstation) o XRfes (AutoCad), las dis-tintas referencias de nombres de capas permitensaber a qué archivo pertenece uno u otro elemento.

3. Por razones de intercambio de información.Esta es la razón principal que ha impulsado el inte-rés por llegar a convenios compartidos entre dife-rentes sectores industriales y profesionales. La uti-lización de capas normalizadas puede convertirseen una necesidad imperiosa a medida que aumenteel intercambio de archivos informáticos entre in-dustriales y profesionales de los diversos sectoresde la construcción que intervienen en la realiza-ción de un proyecto.

4. Por razones de metodología de trabajo. Lautilización de criterios comunes se convertirá enuna necesidad creciente a medida que resulte máshabitual utilizar capas para organizar un trabajo ylos arquitectos deban compartir o cambiar su pues-to de trabajo. Resulta una pérdida de tiempo, en undespacho, tener que dedicar unas cuantas horas odías a explicar a un joven arquitecto que se incor-pora al equipo cuál es su modo particular de utili-zar el CAD. El contar con criterios comunes facili-tará de un modo notable el trabajo compartido.

5. Por razones generales de organización. Esimportante que exista una estructura de referenciacomún que facilite la toma de decisiones. Muchosdespachos han dedicado grandes esfuerzos a ela-

borar métodos y nomenclaturas propias, que de-ben reelaborar periódicamente con grandes dudasno resueltas por falta de referencias adecuadas.Una nomenclatura adecuada de capas debe cum-plir los siguientes requisitos:

a) Debe contemplar los diferentes tipos de com-ponentes que integran un modelo y asegurar quetodos puedan quedar diferenciados y puedanser separados de los demás en algún estadiodel trabajo. Más adelante daremos una lista delos componentes principales que deben tomar-se en consideración.

b) Debe contar, en general, con una estructura es-table, con campos en posiciones fijas, que po-sibilite la gestión automatizada de las capas.

c) Debe ser lo más corta y descriptiva posible.d) Debe ser flexible.

Por ejemplo, las denominaciones ""F-SPRN", "P-SANR" o "S-COLS" de la norma americana, co-rresponden respectivamente a "fire-sprinklers","plumbing-sanitary drainage" y "structure-columns" por medio de 6 campos fijos: un campogenérico, un separador y un descriptor. Las deno-minaciones "A200 7X $14", "Q200AX$14", "S2002X $1" de la norma inglesa corresponden, en elprimer caso a: "arquitecto (A) - elemento primariode estructura (200) - tipo de línea (7) - tipo de lími-te (X) - nivel 14 ($14) y, en el segundo y tercercasos, a especificaciones similares para el quantitysurveyor (Q) o el ingeniero de estructuras (S). Ve-mos que estos dos ejemplos cumplen algunos delos requisitos indicados pero no todos. Por ejem-plo, no puede decirse que la norma inglesa sea muydescriptiva; en este sentido es bastante más prácti-ca la americana que permite reconocer con facili-dad el elemento de que se trata.

Los elementos que deben poder diferenciarse enuna capa son, al menos, los siguientes:

- elementos constructivos y de mobiliario- niveles (horizontales y verticales)- estado (elemento existente, elemento

nuevo)- fases del trabajo- símbolos gráficos de diversos tipos- tramas- textos- dimensiones (cotas y textos de cotas)- escalas- tipos de línea

Page 316: [Architecture eBook] Aplicaciones as en Arquitectura

320 Aplicaciones informáticas en arquitectura

Convenciones sobre nombres de capas

Desde las aparición de los programas de CAD, ydebido principalmente a la necesidad de contar conun referente común, tanto para que los profesiona-les de la construcción de diferentes sectores comolos diversos despachos de arquitectura pudierancomunicarse entre sí con facilidad, se ha plantea-do, desde diferentes posiciones y puntos de vista,la necesidad de contar con un código común con elque nombrar las capas.

A pesar de diferentes intentos en este sentido,no se ha llegado, en España, a una normativa gene-ral. Tanto la falta de regulación general del sectorde la construcción como la diversidad de referen-cias normativas, a nivel municipal, autonómico,estatal, son obstáculos que dificultan algo con laque ya se cuenta en muchos países.

Sin embargo, de uno u otro modo, como ya seha dicho, todo despacho necesita contar con algúntipo de normativa interna y, lógicamente, intentaráque los criterios con que especifique su norma pro-pia no sean demasiado diferentes de los utilizadospor sistemas con pretensiones de mayor generali-dad.

Para no complicar y alargar la exposición nosceñiremos a tres referencias de primera importan-cia: la normativa inglesa, propuesta en 1989, laamericana, de 1990 y revisada en 1997 y la norma-tiva, de carácter general, promulgada en 1997 porla ISO (International Standards Organization). Enuna monografía pendiente de publicación damosotras referencias que incluyen a Francia y Alema-nia y ampliamos la discusión sobre este tema.

La normativa inglesa (BSI)

El primero de los códigos normativos que se pue-den mencionar, son las especificaciones propues-tas por AutoDesk, empresa productora de AutoCad,en relación con las recomendaciones inglesas so-bre la utilización de capas en la industria de la cons-trucción.

Estas especificaciones se remontan a 1989, añoen que el BSI (British Standards Institute) publicael BS1192 Part 5 "CAD Layering in theConstruction Industry". Con posterioridad a estapublicación, AutoDesk estableció un comité paradesarrollar las ideas de esta publicación en un

estándar que pudiera relacionarse directamente conAutoCad y ser utilizado con facilidad por los ar-quitectos ingleses.

Un primer prototipo salió en 1991 que se publi-có posteriormente con el nombre "Layer Namingconvention for CAD in the Construction Industry.Based upon the guidelines laid down in BS 1192Part 5".

Esta convención se basa en 8 campos de dife-rente extensión.

El campo 1 es disciplina, 1 carácter. Especificael tipo de profesional autor del plano por medio deuna letra, de la A a la Z. Las principales categoríasson A, architect, C, civil engineer, E, electricalengineer, F, facilites manager, G, geographicinformation system engineer and land surveyor, H,heating and ventilation engineer, I, interiordesigner, K, client, L, landscape architect, M,mechanical engineer, Q, quantity surveyor, S,structural engineer, T, town and country planner,W, contractor, X, subcontractor.

El campo 2 es categoria, 3 números. Especificael tipo de elemento constructivo, la principal infor-mación que aportan las capas. Las categorías sonlas especificadas en el código CI/SfB, común a laindustria de la construcción británica. Este códigoclasifica todos los elementos en 9 grandes gruposque son los siguientes: 100 terreno y subestructurageneral, 200 estructura y elementos primarios (210paredes exteriores, 220 paredes interiores, 230 pi-sos, 240 escaleras, 270 cubiertas, 280 marcos es-tructurales), 300 elementos secundarios, 400 aca-bados y revestimientos, 500 servicios generales,600 servicios electrificados, 700 mobiliario y ac-cesorios, 900 obras exteriores.

Todos estos grupos se subdividen internamente.Por ejemplo 241 es "rampas", un subgrupo de "ele-mentos primarios/escaleras"; 314 es "ventana ex-terior", un subgrupo de "elementos secundarios/muros externos"; 531 es "suministro de agua fría",un subgrupo de "servicios generales/ suministrode agua y líquidos"; 615 es "distribución eléctricade bajo voltaje", un subgrupo de "servicios electri-ficados/ suministro eléctrico"; 671 es "alarma con-tra fuego", un subgrupo de "servicios electrifica-dos/ sistema de protección contra el fuego"; 957 es"pavimento exterior", un subgrupo de "obras exte-riores/ carreteras, pavimentos y aparcamientos", etc.

El campo 3 es gráficos, 1 carácter, opcional.Especifica información asociada con la categoría,el plano o la localización. Utiliza las siguientes cla-

Page 317: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 321

ves: A atributos, C construcción (ejes), D dimen-siones, G gráficos 2D, H hatching (tramas), T tex-to, Z gráficos 3D.

El campo 4 es grado, 1 número, opcional. Es-pecifica el espesor de línea recomendado, de 1 a 9.Se utiliza para poder especificar diferentes grue-sos de líneas con un mismo elemento que quedaasignado a dos capas.

El campo 5 es nivel, 2 caracteres o 2 números,opcional. Se utiliza para agrupar plantas, seccio-nes o alzados situados en diferentes cotas. No haynormativa específica sobre la denominación de es-tos niveles aunque se recomienda la siguiente: nú-meros para las plantas, por ejemplo 1 para primerpiso nivel o 22 para veinticuatroavo piso, SA-SZpara secciones A-A, Z-Z, EA-EZ para alzados A-Z.

El campo 6 es estado, 1 carácter, opcional. Es-pecifica el estado de la obra: N nueva, X existente,R a eliminar (to be removed).

El campo 7 es escala, 1 carácter, opcional. Es-pecifica el grado de detalle de la información quese incluye en el caso en que interese trabajar condiferentes resoluciones, típicamente de 1:10 a 1:10000.

El campo 8 es tiempo, 1 carácter, opcional. Es-pecifica la fase del proyecto en el caso en que sedesee incluir diferentes fases. Se recomiendan losnúmeros 1 a 9 y letras A-A para alternativas adi-cionales.

Aunque este precedente es uno de los más ela-borados que existen y debe tenerse en cuenta, espreciso hacer algunas puntualizaciones que no sehan considerado en cuenta en alguna adaptaciónalgo presurosa e insuficientemente explicada. Enprimer lugar, que está dirigido a un mundo, el bri-tánico, con una larga tradición de normativas es-crupulosas, muy bien organizadas, periódicamenterevisadas y seguidas por todos los sectores de laindustria. Un mundo que tiene muy poco en comúncon el de nuestro entorno. En segundo lugar, queun sistema tan rígido y abstracto sólo es de utilidadcuando es adoptado universalmente; si este no esel caso resulta incómodo de utilizar y fácil de olvi-dar, lo que es tanto como decir que resulta inútil.

La normativa americana (AIA)

El segundo código normativo que resumiremos esla normativa americana. La normativa americanadata de 1990 con la publicación de CAD Layer

Guidelines a partir del trabajo conjunto de cuatroasociaciones profesionales y tres agencias federa-les.

Una nueva versión, con algunas revisiones me-nores, se publicó en 1997: CAD Layer Guidelines.Computer-Aided Design Management Techniquesfor Architecture, Engineering and FacilityManagement. Las principales revisiones incluíanla extensión de algunos de los códigos de discipli-na, la extensión de algunos códigos para abarcarobras de remodelación, la unificación del formatogeneral para los nombres (la versión anterior dabados formatos, uno "corto" y otro "largo") y la in-clusión de recomendaciones generales sobre el usode referencias que relacionaran archivos de mode-los (model files) y archivos de planos (sheet files).Al mismo tiempo se incrementó el esfuerzo paracoordinar estas normativas con las de otros secto-res industriales y con la normativa ISO. Otra nove-dad interesante es que se incluyeron códigos pararecoger la inserción de información sobre produc-tos proporcionada directamente por los industria-les.

Los criterios básicos son los siguientes. Se utili-zan 6 caracteres. El primero corresponde al códigode la disciplina, por ejemplo A, para "arquitecture".El segundo es un separador que puede utilizarseopcionalmente para detallar el tipo de disciplina,por ejemplo si Q representa "eQuipement", QKpuede representar "equipmente-kitchen"(equipamiento de cocinas) y QV "equipment-audiovisual" (equipamiento audiovisual). Los cua-tro siguientes identifican el tipo de elemento cons-tructivo.

Para el formato intermedio se utilizan 11 carac-teres, los 6 primeros corresponden al caso anterior,es decir, al código de la disciplina y al grupo ma-yor. Los 5 últimos, opcionales, corresponden a 1separador y a 4 caracteres adicionales que sirvenpara diferenciar el grupo anterior. En el ejemplo,pueden representarse sólo las paredes que lleganhasta el techo, lo que servirá para los planos decielo raso o todas las paredes. Esto quiere decirque puede ser conveniente contar con dos capas,una denominada "..WALL-FULL" (muros comple-tos) y otra denominada "..WALL-PRHT" (murosde altura parcial).

Para el formato completo se utilizan 16 caracte-res, los 11 primeros corresponden a los dos casosanteriores. Los 5 últimos, opcionales, correspon-den a 1 separador y a 4 caracteres adicionales que

Page 318: [Architecture eBook] Aplicaciones as en Arquitectura

322 Aplicaciones informáticas en arquitectura

sirven para diferenciar fases de la construcción. Estoes particularmente relevante en obras deremodelación en donde interesa diferenciar las par-tes de la construcción que permanecen, las que de-ben ser demolidas y las nuevas.

Todos estos campos están codificados en la nor-mativa citada. Dado que estos códigos correspon-de a una terminología que no es lo nuestra daremoslas referencias mínimas para que resulte compren-sible la norma. La figura 6 muestra los tres tiposbásicos con un ejemplo adaptado directamente dela normativa de 1998.

El código de la disciplina o del agente de la edi-ficación indica el tipo de obra o profesional impli-cados. Los principales serían: A arquitectura, C obracivil, E electricidad, F protección contra el fuego,L paisajismo (landscape), M maquinaria(machines, instalaciones), P tuberías (plumbing),S estructuras (structures).

Los códigos de los elementos (grupo mayor) seenumeran en una lista maestra que puede cargarseautomáticamente en cada nuevo dibujo. El progra-ma Microstation, por ejemplo, lleva incorporadala normativa AIA por lo que quien use este progra-ma puede contar con una descripción completa deesta lista maestra. Algunos ejemplos serían:

A-DOOR, A-GLAZ, A-FLOR, A-EQPM, A-FURN, A-CLNG, A-ROOF, A-ELEV, A-SECT, A-DETL para (arquitectura) puertas, ventanas, pisos,equipamiento, muebles, cielosrasos, techos, alza-dos, secciones, detalles.

C-PROP, C-TOPO, C-PKGN, C-ROAD, C-COMM, C-FIRE, C-NGAS para (obra civil) lími-tes de propiedad, topografía, parkings, calles, co-municaciones (postes telefónicos, cajas), líneassubterráneas de protección contra el fuego, gasnatural.

E-LITE, E-POWR, E-CTRL, E-GRND, E-COMM, E-TVAN, E-SERT, E-ALRM para (elec-

tricidad) iluminación, sumistro, control puesta atierra, comunicaciones, antenas tv, seguridad, alar-mas.

F-CO2S, F-IGAS, F-SPRN, F-PROT para (fue-gos) sistema de Co

2, gas inerte, rocíadores

(sprinkles), protección.L-PLNT, L-IRRG, L-WALK, L-SITE para

(paisajismo) plantaciones diversas, sistema de irri-gación, senderos, mejoras del solar.

M-CHIM, M-DUST, M-ENER, M-RCOV, M-FUEL, M-HOTW, M-NGAS, M-REFG para (sis-temas mecánicos) chimeneas prefabricadas, extrac-ción de polvo y humos, control energético, recupe-ración energética, tuberías de combustible, aguacaliente, gas natural, sistemas de refrigeración.

P-DOMW, P-SANR, P-STRM, P-EQPM, P-FIXT para (plumbing, cañerías) agua fría y calien-te de uso doméstico, conducciones sanitarias,pluviales, equipamiento diverso, piezas diversas.

S-GRID, S-FNDN, S-SLAB, S-COLS, S-WALL, S-METL S-BEAMS para (estructura)retículas, cimentaciones, losas, columnas, murosportantes, elementos metálicos, vigas.

La normativa genérica propuesta por la ISO

En 1997 la ISO (International StandardsOrganization) estableció una normativa internacio-nal para nombres de capas utilizados en CAD pormedio de un documento dividido en tres partes (ISO13567 Technical Product Documentation,"Organization and Naming of Layers for CAD").A diferencia de los que hemos descrito en los apar-tados anteriores, este documento tan sólo proponeespecificaciones generales sobre el formato juntocon recomendaciones generales. La propuesta deuna terminología específica se deja al arbitrio decada país por razones obvias. El formato propues-to consta de 10 caracteres organizados en 3 cam-pos. Se definen campos adicionales optativos paraindicar el estado, el sector, la fase, el tipo de pro-yección y la escala. El significado de estos camposes el que hemos encontrado en las normativas in-glesa y americana. Nos limitaremos a comentar loscampos fijos.

El primer campo, de 2 caracteres, debe especi-ficar quién es el agente de la edificación autor delos planos. Es equivalente a las normativas que yahemos visto. La noción de "agente" puede ser en-tendida de forma genérica como aludiendo a unacategoría general que puede estar diferenciada

A - W A L L

LA - AW L F- U L L

LA - AW L F- U L L - D E M O

Disciplina Grupo Mayor Grupo Menor Estatus

Figura 6 Formato de capas de la AIA

Page 319: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 323

netamente y aludir a diferentes profesionales, ar-quitectos, paisajistas, interioristas, ingenieros de di-versos tipos, etc., o integradas en un mismo profe-sional. Aquí late, como es fácil intuir, un ciertoconflicto de competencias que no está, ni proba-blemente pueda estar nunca, clarificado y no afec-ta a ningún país en exclusiva.

El segundo campo, de 6 caracteres, debe espe-cificar el tipo de elemento constructivo. Salvandola diferencia de longitud que permite una conside-rable flexibilidad en la especificación, también esequivalente a los anteriores. La norma inglesa de-bería alargarse y la americana contraerse para adap-tarse a este formato pero substancialmente la no-ción es la misma.

El tercer y último campo, de 2 caracteres, debeespecificar el tipo de presentación. La diferencia ala que se alude es la misma que hemos encontradopor lo que respecta a archivos de modelos y archi-vos de planos. Una forma característica de rellenareste campo sería con una M, para indicar "mode-lo" o con una P para indicar "papel", una termino-logía similar a la utilizada en AutoCad para dife-renciar entre "espacio modelo (Model Space)" y"espacio papel (Paper Space)".

Criterios generales

En ausencia de una normativa general, que puedetardar en llegar y que nunca cubrirá por completolas numerosas variantes que quedan abiertas a laspreferencias de cada arquitecto, damos una seriede criterios generales sobre cómo nombrar y orga-nizar las capas.

1. En primer lugar, puesto que existe y está plan-teado de un modo razonable, adoptar el formatogeneral propuesto por ISO: los 2 primeros caracte-res para identificar al tipo de profesional autor del

proyecto o tipo de intervención; los 6 siguientespara identificar el tipo de elemento y los 2 siguien-tes para identificar el tipo de presentación.

2. Utilizar nombres con una longitud fija. Cua-tro caracteres para describir un elemento, comohace la normativa americana, es una buena medidapues resulta suficientemente descriptiva y, si se-guimos la norma ISO, deja dos caracteres adicio-nales para completar la especificación si resulta ne-cesario. Utilizar nombres de longitud fija permitesustituir automáticamente el contenido de unoscampos sin modificar el resto.

3. Utilizar nombres sencillos, con un mismo nú-mero de caracteres, si es posible, y fáciles de re-cordar. Resulta incómodo ver algo así como "z3x/dfc" como nombre de capa y resulta cómodo veralgo así como VENT o MURO si lo que se quiereindicar en ambos casos es "ventanas" o "muros".El primero puede ser el resultado de una clasifica-ción lógica exquisita pero es dificilmente compren-sible por alguien que tenga que compartir el traba-jo y es difícil de recordar. Sólo se justificaría situviera que durar muchos años cosa que es impro-bable que ocurra a no ser que se alcance un conve-nio nacional o internacional.

4. Mantener el sistema de capas flexible. Es bue-no que haya un criterio general de nomenclaturade capas. Es malo que sea rígido. Los proyectosarquitectónicos son de muchos tipos y el sistemadebe adaptarse al proyecto, no a la inversa.

5. Mantenerse al corriente de la evolución delas normativas y de los usos. A no ser que se tengauna especial afición a investigar métodossofisticados de clasificación es más cómodo y másseguro, en este tipo de cosas, seguir las tendenciasgenerales.

4 Relación entre modelos, archivos, capasy planos. Ejemplos

Los modelos no tienen escala. No tienen marco nicarátula. Sirven para generar el proyecto. Debenincluir recursos de visualización tales como vistasgrabadas y capas que permitan ocultar y desocultarelementos. Pueden ser 2D, 3D o 4D (animaciones).

Los planos tienen escala. Tienen un marco queindica su tamaño exacto. Tienen una carátula queincluye un texto genérico y un texto específico porplano. Sirven para comunicar el proyecto. Sólo tie-nen un recurso de visualización (desplegarlo) y todoestá en una misma "capa".

4A - 21 3 -- M N

Elemento

Presentación

Agente responsable(2 caracteres)

(6 caracteres)

(2 caracteres)

Figura 7 Formato básico de capas propuesto por la ISO

Page 320: [Architecture eBook] Aplicaciones as en Arquitectura

324 Aplicaciones informáticas en arquitectura

Los archivos pueden contener varios tipos demodelos. Concretamente, pueden contener un mo-delo del edificio y un modelo del plano del edificio(que también es algo físico, como el edificio). Es-tos diferentes modelos estarán situados en diferen-tes capas y, en algunos programas, como es el casode AutoCad, en diferentes "espacios" tales comoel espacio modelo (model space) y el espacio pa-pel (paper space). Estos dos espacios sirven paracomponer vistas de cara a la impresión y obten-ción de planos.

¿Cómo deben relacionarse entre sí estas cosastan similares y tan distintas al mismo tiempo? Nohay una sola respuesta sino varias alternativas quese resumen a continuación en tres casos principa-les y que variarán según la complejidad del pro-yecto. Hay casos intermedios en que, por diversasrazones, se utiliza una combinación de estas alter-nativas pero que no será necesario detallar. a) Archivos que integran planos y modelos

Es el modo de trabajo más corriente cuando secomienza a utilizar un programa de CAD y un modorelativamente aceptable para despachos pequeñosy proyectos sencillos. En este caso el archivo in-cluye el modelo, junto con diferentes marcos y ca-rátulas correspondientes a diferentes planos, situa-dos en diferentes capas y a diferentes escalas. Elmarco y la carátula deberán aumentar de tamañoen función de la escala de salida. Por ejemplo, si seva a imprimir a escala 1:50 habrá que insertar losbloques correspondientes a los marcos y carátulasmultiplicando sus dimensiones por 50. A la horade imprimir, si las especificaciones del plotter vie-nen dadas en mm, como es corriente, se especificala salida "1=50" si las unidades de trabajo son mi-límetros, "10=50" si se trabaja en centímetros o"1000=50" si se trabaja en metros. Cada vez quese quiera imprimir un plano determinado habrá queactivar y desactivar las capas correspondientes. Otraposibilidad mejor es componer las vistas corres-pondientes en espacio papel, grabando con un scriptsi es necesario la configuración de capas requeridapara cada plano. Los inconvenientes principales deeste modo de trabajo son la duplicidad innecesariade información y la necesidad de mantener un con-trol de las capas y vistas que deben activarse ydesactivarse en cada caso.b) Archivos separados para planos y modelos

Hay quien prefiere generar un archivo por cadaplano y mantener aparte los archivos del modelo.Esto tiene la ventaja de que permite pleno control

sobre el dibujo de salida sin tener que pasar portodo el proceso de vinculación de archivos quepuede ser engorroso si no se conoce bien el proce-so. Pero hay desventajas importantes. La principales que esto sólo puede hacerse al final del procesopara no tener que duplicar los cambios. Y que, porañadidura, se duplica la información. Aunque seincluye aquí porque es muy sencilla y porque haytodavía bastantes despachos que utilizan este sis-tema, no es una alternativa recomendable.c) Archivos que relacionan planos y modelos pormedio de referencias externas

Este es el mejor sistema en el caso de proyectoscomplejos y, en general, el más recomendable. Seutilizan básicamente dos tipos de archivos, uno quecontiene el modelo del proyecto y otro que contie-ne el modelo del plano, es decir, el marco y la cará-tula, en espacio papel, con una selección prepara-da para salida a escala única 1=1. Sobre éste seinsertan, como referencias externas, las vistas ade-cuadas del modelo que contiene la información delproyecto. Por ejemplo, supongamos que dispone-mos, por un lado, de dos archivos, PB-E.dwg y PB-O.dwg que contienen los sectores este y oeste de laplanta baja de un proyecto determinado y que dis-ponemos, por otro lado, de un archivo B05.dwgcorrespondiente al plano nº 5 del grupo B de pla-nos (el grupo A puede ser emplazamiento, planosde situación, etc., el grupo B plantas generales y elgrupo C alzados y secciones). Este archivo contie-ne un marco en tamaño Din A1, con una carátulaque contiene texto editable que se ajusta para in-cluir la información propia del plano de que se tra-te. El espacio papel contendrá exclusivamente estainformación, el marco y la carátula preparados paraimprimir a 1:1. El espacio modelo contendrá refe-rencias externas a los PB-E.dwg y PB-O.dwg queaparecerán en espacio papel a la escala requerida yen la posición que convenga y que, lógicamente,en este caso, será tal que asegure la corresponden-cia entre el sector este y el oeste de la misma plan-ta. La gran ventaja de utilizar este método es queno se requiere duplicar la información ni las modi-ficaciones. Cualquier cambio en el modelo se re-flejará en el archivo de referencia que es como unaventana abierta sobre el modelo. La figura 8 mues-tra un esquema ilustrativo de este tipo de organiza-ción.

Es conveniente, en todos los casos, y en este muyespecialmente, mantener una lista que relacioneentre sí al menos estos dos tipos de archivos con

Page 321: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 325

A-101.dwg

A-Planta1.dwg

A-Ejes.dwg

los planos correpondientes tal como la que se daen los ejemplos de las figuras 9 y 10.

Vinculación, prioridades, consistencia

Los proyectos arquitectónicos se caracterizan porpasar por innumerables cambios antes de llegar alresultado final. Detrás del proyecto entregado fi-nalmente al cliente o llevado a visar al Colegio deArquitectos, hay innumerables variantes que, enmuchos casos, se conservan en los archivos inter-nos del despacho porque incorporan ideas que nohan podido ser llevadas a la práctica pero que qui-zás tengan la posibilidad de seguir siendo desarro-lladas en otros proyectos.

El ordenador multiplica estas posibilidades enla medida en que favorece de modo espectacular lageneración de variantes, al igual que favorece lasubdivisión de un proyecto en diferentes partes quepueden ser estudiadas por separado y, posterior-mente, ser integradas en el proyecto final. Esto plan-tea un problema previo de nomenclatura, ya discu-tido, que posibilite el seguimiento de las diferentes

variantes y, además, un problema de control. El con-trol se logra por el establecimiento de protocolosde vinculación de archivos y establecimiento deprioridades de acceso.

En el caso de un despacho pequeño esto es algoque puede ser solventado, hasta cierto punto, pormedio de una metodología de trabajo que puedeirse ajustando sobre la marcha por medio de unintercambio verbal. En el caso de un estudio detamaño medio o grande, esto no es posible. Se re-quiere un protocolo formalizado por escrito, quedebe ser revisado periódicamente y observado es-crupulosamente por todos los componentes delequipo de trabajo.

Para asegurar la coherencia y evitar errores, unapráctica habitual y recomendable es contar con unarchivo principal de referencia tal como una plantabase en la que queden claramente indicados los ejesprincipales y a la que se subordinen los diferentessectores. Como ya hemos visto, la organizacióninformática tiende a favorecer la integración hori-zontal, es decir, la subdivisión del trabajo no por

Figura 8 Archivos de planos con referencias a capas específicas de archivos de modelos

Page 322: [Architecture eBook] Aplicaciones as en Arquitectura

326 Aplicaciones informáticas en arquitectura

tipos de tareas más o menos especializadas sinopor tareas similares que ataquen diversas zonas oaspectos de un mismo proyecto. El principal pro-blema que plantea este modo de trabajo es que cual-quier cambio en la estructura general de partidaobliga a modificar el planteamiento de todos lossectores. Esto puede solucionarse por medio de unareferencia general común y una clara delimitaciónde prioridades acerca de quién puede modificar estaestructura general y cómo debe comunicarse estamodificación a todos los implicados.

Otro aspecto similar es el relativo a la consis-tencia. Un argumento a favor de la utilización desistemas 3D es que minimizan la posibilidad deerrores por falta de correspondencia entre proyec-ciones, alzado, plantas, secciones, de un mismoedificio; si las proyecciones se han obtenido a par-tir de un modelo único este tipo de error no es po-sible. Sin embargo ya hemos visto que pocos des-pachos trabajan directamente en 3D y que este pa-radigma, propugnado en los inicios del CAD, se haabandonado temporal o permanentemente. Sin em-bargo, una alternativa importante y recomendablees trabajar por capas situando cada planta en sunivel real. Esto permite la comprobación dealineaciones exactas, tanto horizontal como verti-calmente y puede facilitar considerablemente lageneración de un modelo 3D a posteriori si estointeresa.

Otra recomendación importante es basar todaespecificación dimensional en cálculos realizadospor el ordenador a partir de elementos definidos enel modelo. Los ordenadores, a diferencia de loshumanos, no se equivocan en operaciones mate-máticas. También es conveniente utilizar el míni-mo de especificaciones dimensionales para mini-mizar la posibilidad de incorporar informacionescontradictorias.

Ejemplos

La figura 9 muestra un cuadro general de un pro-yecto desarrollado en colaboración con consulto-res externos, que relaciona planos, archivos de pla-nos y archivos de modelos. Tan sólo se muestranalgunos planos suficientemente representativos.

Tal como puede comprobarse en este cuadro, larelación de los archivos de planos con los modelospuede ser muy variada. En algunos casos, la com-posición, el archivo preparado para ser impreso, seconstruye mediante referencias a más de un archi-

vo. Esta relación puede ser bastante complejo ypuede ser necesario vincular varios archivos aun-que en este caso no se muestren más de dos o tres.

En otros casos el archivo de planos esautosuficiente y no es necesario establecer ningu-na referencia con modelos. Tal ocurre por ejemploen el caso de planos de detalle. Es posible que eldetalle se construya por modificación de otros de-talles anteriores, por reelaboración de planos su-ministrados por fabricantes o que se trate de undetalle nuevo. En cualquiera de estos casos, la re-lación con el modelo principal no va más allá queel ajuste de algunas dimensiones que, por otro lado,tampoco necesitan cuadrar con ningún otro plano.De ahí que el detalle se construya de forma autó-noma y pueda quedar embebido en el propio archi-vo de salida.

Otro tanto cabe decir, en general, de alzados ysecciones, que necesitan basarse en las plantas paraser construidos pero que no incorporan estas pro-yecciones en su representación final por lo que notiene sentido que mantengan la vinculación.

La figura 10 muestra un detalle de este cuadrogeneral, para el caso de los planos de instalacioneseléctricas, en donde se muestran las capas que de-berían activarse en cada modelo de referencia paraobtener la representación final preparada para serimpresa. La relación que se da no es sino una mues-tra más o menos parcial del conjunto de compo-nentes que habría que manejar en un caso así. Laterminología tampoco obedece a ninguna normati-va existente por lo que se acompaña de una des-cripción más detallada.

5 Almacenamiento e intercambio dedocumentos

Como ya hemos dicho al comienzo, debe tenerseen cuenta que un despacho de arquitectura profe-sional hace proyectos, en plural. Y, aunque cadaproyecto sea único, todos tienen cosas en común.Un proyecto no se acaba cuando se entrega al clienteo cuando se completa la obra. Es necesario conser-var toda la documentación implicada, tanto por loque respecta al propio proyecto que puede ser ne-cesario revisar o completar o puede ser sujeto dereformas posteriores, como por la experiencia pre-ciosa que supone y que puede ser utilizada en pro-yectos posteriores. Esto implica toda una serie detareas adicionales que resumiremos a continuación.

Page 323: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 327

Nº plano Título Archivos plano Archivos modelo

1 Cuadros generales G-601.dwgObra civil:

2 Situación C-101.dwg C-SIT.dwg, A-SIT.dwg3 Emplazamiento C-102.dwg C-SIT.dwg, A-SIT.dwg4 Ajardinamiento C-103.dwg C-SIT.dwg , A-SIT.dwg5 Red general de saneamiento C-104.dwg C-SIT.dwg, A-SIT.dwg6 Detalles externos C-105.dwg7 Aparcamiento C-106.dwg C-SIT.dwg, A-SIT.dwg

Arquitectura:10 Ejes y retícula general A-PL.dwg11 Planta baja. Distribución A-101.dwg A-PL0.dwg, PL.dwg12 Ídem. Dimensiones A-102.dwg A-PL0.dwg, PL.dwg13 Ídem. Acabados A-103.dwg A-PL0.dwg, PL.dwg14 Ídem. Alzados y secciones int. A-104.dwg A-PL0.dwg, PL.dwg15 Ídem. Detalles A-105.dwg A-PL0.dwg, PL.dwg16 Primer piso. Distribución A-106.dwg A-PL1.dwg, PL.dwg

...31 Cubierta A-121.dwg A-PL5.dwg, PL.dwg32 Alzados generales A-122.dwg33 Secciones generales A-123.dwg

Estructura:41 Cuadros generales S-601.dwg42 Cimentación S-101.dwg S-CM.dwg, A-PL.dwg43 Secciones y detalles cim. S-102.dwg47 Estructura planta baja S-106.dwg S-PL0.dwg, A-PL.dwg, A-PL1.dwg48 Detalles planta baja S-107.dwg49 Estructura primer piso S-108.dwg S-PL1.dwg, A-PL1.dwg

...Instalaciones:

61 Cuadros generales IE-601.dwg62 Iluminación planta baja IE-101.dwg IE-PL0.dwg, A-PL0.dwg63 Mecanismos planta baja IE-102.dwg IE-PL0.dwg, A-PL0.dwg64 Iluminación primer piso IE-103.dwg IE-PL1.dwg, A-PL0.dwg

...71 Fontanería planta baja IF-101.dwg IF-PL0.dwg, A-PL0.dwg, A-SIT.dwg72 Detalles fontanería p. baja IF-102.dwg73 Fontanería primer piso IF-103.dwg IF-PL1.dwg, A-PL1.dwg

...81 Maquinaria aire acond. IC-101.dwg IC-PL0.dwg, A-PL0.dwg82 Aire acondicionado p. baja IC-102.dwg IC-PL0.dwg, A-PL0.dwg83 Detalles aire acond. p. baja IC-103.dwg

...Presentación:

101 Perspectivas exteriores A-901.dwg 3D.dwg102 Perspectivas int. p. baja A-902.dwg 3D.dwg103 Perspectivas int. primer piso A-903.dwg 3D.dwg

...

Figura 9 Cuadro general de planos y archivos relacionados

Page 324: [Architecture eBook] Aplicaciones as en Arquitectura

328 Aplicaciones informáticas en arquitectura

Nº Título Archivo Capas Descripción

62 Iluminación p.baja IE-101.dwg A-MARC-CART Marco y carátula

IE-PL0.dwg IE Instalaciones de electricidadIE-ALARM Sistemas de alarmaIE-AUXL Sistemas auxiliaresIE-COMN Sistemas de comunicaciónIE-CTRL Sistemas de controlIE-ENER-EQPM Equipamiento energéticoIE-ENER-CIRC CircuitosIE-ENER-MURO Mecanismos sobre murosIE-ENER-PANL PanelesIE-ENER-TEXT Sistema energético. TextosIE-FUEG Alarmas, extintoresIE-LUMI-EMER Luces de emergenciaIE-LUMI-ESPE Luces especialesIE-LUMI-EXIT Luces de señalización salidaIE-LUMI-MURS Luminarias sobre murosIE-LUMI-TECH Luminarias en techosIE-LUMI-TEXT Luces. TextosIE-PTIE Sistema de puesta a tierraIE-TVAN Antenas

A-PL0.dwg A-AREA Líneas de delimitación de áreasA-AREA-TEXT Etiquetas, superficiesA-COLS ColumnasA-MUEB MobiliarioA-MURO-EXTR Muros exterioresA-MURO-INTR Muros y particiones interioresA-PISO PisosA-PISO-BARA BarandasA-PISO-ESCA EscalerasA-PISO-RAMP Rampas y cambios de nivelA-PISO-TEXT Textos asociados a pisosA-PISO-VARI VariosA-PRTA PuertasA-PRTA-TEXT Textos asociados a puertasA-TECH TechosA-TECH-TEXT Textos asociados a techosA-VENT VentanasA-VENT-TEXT Textos asociados a ventanas

A-PL.dwg A-EJES Ejes principales de ordenaciónA-RETI Retículas

Figura 10 Detalle de cuadro general de planos, archivos relacionados y capas

Page 325: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 329

Estrategias de clasificación. El uso de lamemoria

El esfuerzo por mantener ordenada una base dedatos puede ser mayor, en determinadas ocasiones,que las ventajas que se obtienen de tenerla ordena-da. En la mayoría de los casos es preferible utilizarun sistema mixto: ciertas cosas pueden quedar or-denadas espacialmente del modo más sencillo po-sible (alfabético o alfabético/ temático con pocas yclaras divisiones temáticas) y ciertas cosas puedenquedar ordenadas temporalmente (aquel plano queutilicé en aquel proyecto y que no está archivadoen la sección de "elementos genéricos" sino en lasección de "proyectos"). La mayoría de los arqui-tectos tienen una notable memoria espacial y seorientan mejor por referencia a proyectos concre-tos que despiertan impresiones vividas que por re-ferencia a sistemas de clasificación abstractos.

La frecuencia de uso es otro criterio que puedeservir para decidir qué archivos (tradicionales) vana la parte más alta de la estantería (esa para la quetenemos que ir a buscar una escalera o una silla).El equivalente informático para esto es la informa-ción almacenada en dispositivos externos (disqueteso cintas que deben ser insertados en una unidadexterna, tal como una disquetera, un zip, un CD,etc.). El criterio para almacenar un archivo en unsoporte anticuado que sólo puede ser leído por unsoporte anticuado que necesita ser conectado exprofeso es similar al de la estantería situada a des-mano.

La diferencia, sin embargo, es que cabe la posi-bilidad de reciclar y reordenar toda esta informa-ción y hacerla más accesible. Aquí, sin embargo,como antes, lo mejor es enemigo de lo bueno. Pue-de ocurrir perfectamente que se hayan dedicado 2,3 días a reorganizar una información y que, al cabode 5 años, el uso que se haya hecho de ella hayasido prácticamente nulo, lo que equivale a admitirque esta dedicación fue inútil. Mientras la infor-mación se mantenga en buen estado y sea accesi-ble, resulta que, en muchos casos, es preferible nohacer nada.

En cualquier caso se requiere elegir algún siste-ma y, en general, lo mejor será elegir diversos sis-temas según los casos. Algunos de los sistemas másfrecuentes que pueden combinarse entre sí, son lossiguientes:

a) por categoría

b) por tiempoc) por ubicaciónd) alfabéticoe) por tamaño o importancia

También debe procurarse concentrar la informa-ción a efectos de mantener con facilidad copias deseguridad y prioridades de uso.

Otra clasificación, relacionada de modo más in-mediato con el trabajo diario, podría ser:

- proyectos- notas varias (bocetos, estudios, fragmentos)- bibliotecas de dibujos e imágenes (externas einternas)

Protocolos internos

Debe contarse con un memorándum interno deldespacho o un "libro de estilo" propio donde serecojan todos los protocolos utilizados a la hora deorganizar el proyecto, las configuracionespersonalizadas de los programas, las reglas de no-menclatura de archivos y capas, tal como se ha in-dicado en los apartados anteriores y cualquier otrotipo de indicación sobre los pasos que se dan, demodo consciente o inconsciente, a la hora de reali-zar cierto tipo de tareas susceptibles de serautomatizadas.

Otro aspecto que puede relacionarse con estomismo es el mantenimiento del equipo por lo querespecta tan sólo a las configuraciones de progra-mas utilizados. Aparte de contar o bien con un es-pecialista interno o bien con una empresa externaque realice revisiones periódicas y se encargue delmantenimiento, es fundamental mantener un infor-me de estado del equipo en el que se incluyan:

a) Los datos sobre los dispositivos ligados alordenador (tipo de procesador y características, tipode configuraciones internas, tales como tipo de dis-co duro e información requerida por el sistemaoperativo, tipo de placa gráfica, etc.).

b) Los códigos de acceso a los programas (mu-chos programas requieren passwords o códigosespeciales que a menudo se dejan olvidados en lascajas o en folletos archivados en rincones remo-tos).

c) El contenido de los subdirectorios del discoduro. No cuesta demasiado mantener una lista delos subdirectorios que vamos creando en el discoduro con un par de palabras clave que indiquen lo

Page 326: [Architecture eBook] Aplicaciones as en Arquitectura

330 Aplicaciones informáticas en arquitectura

que hay dentro. Así se evita mantener durante añosun subdirectorio que no sabemos lo que contienepero que no nos atrevemos a borrar por si fueraparte de otro programa; muchos programas tienenla mala costumbre de, al instalarse, crear varios di-rectorios asociados en la raíz principal.

También puede ser conveniente, en algún caso,copiar los programas de instalación en discos degran capacidad, por ejemplo, un zip de 100 Mb.Esto ya constituye una copia de seguridad y facili-ta la instalación si es necesario repetirla por cual-quier causa. Puede incluirse también un readmepropio en el que se recojan personalizaciones dearranque, macros, etc., aunque muchos preferiránincluir todas estas personalizaciones en las copiasde seguridad periódicas.

Por lo que respecta a los proyectos, el archivofinal de un proyecto debería incluir una breve des-cripción del mismo y una lista de los archivos quelo constituyen. Esto sí es, muy probablemente, unapequeña molestia que ahorrará grandes molestiasen el futuro.

Seguridad

La información digital es más frágil que la infor-mación tradicional aunque tiene, como es notorio,ventajas importantes. No se rompe, no amarillea,puede reproducirse con facilidad, etc. Pero, por otrolado, puede perderse en un instante, por diferentescausas que es preciso tener presentes. Algunas deestas causas son las siguientes.

a) Error del usuario. El ejemplo más característi-co es el borrado por sobreescritura.

b) Error del programa. Es inusual pero ocurre conalguna frecuencia y no debe subestimarse.

c) Error del soporte físico. También puede ocu-rrir con la suficiente frecuencia como para to-mar precauciones. No es del todo infrecuenteque se produzca un fallo en el disco duro. Ocu-rre aún más en el caso de disquetes.

d) Virus.e) Desastres naturales incluidos robos. Sin comen-

tarios, puesto que el factor informático no in-terviene.

Para prevenir esto es fundamental contar con un

sistema de almacenamiento regular. La primerapregunta es: ¿con qué frecuencia deben hacersecopias de seguridad? La respuesta es variable. Al-gunas organizaciones o despachos profesionalesllevan a cabo sus copias de seguridad diariamente,otras semanalmente, otras una vez al mes. Por ejem-plo, la Generalitat tiene un servicio automatizadopor cintas magnéticas que se activa todas las no-ches.

Un despacho de arquitectura no suele tener unritmo de trabajo tan regular como otro tipo de em-presas lo que, unido a la gran variedad de tamañosy organizaciones, hace imposible comentar usos"corrientes". Con un ritmo de trabajo intenso sedeberían de realizar copias de seguridad semanal-mente o incluso diariamente. Estas copias puedenser provisionales y correr a cargo de cada miem-bro del equipo. Si se ha estado trabajando todo eldía en un modelo importante es recomendable rea-lizar, como mínimo, una copia provisional en undisquete al acabar la jornada. Además, al acabar lasemana o, como mínimo, al acabar el mes, deberíarealizarse una copia regular de todos los archivosde trabajo, con unas normas bien especificadas ysobre un soporte regular que se guarde en un sitioprotegido.

El protocolo para realizar estas copias puede sermanual o automático, completo o incremental.Muchos prefieren hacerlo de modo manual debidoa que con frecuencia los arhivos cambian de nom-bre o de ubicación, lo que invalida las opcionesautomáticas. Si se realizan copias automáticas estopuede a su vez hacerse de modo completo oincremental. Una copia automática completa (co-pia todo lo que hay en el disco duro) es, por logeneral, desaconsejable si no se cuenta con unmétodo automático de almacenamiento masivo quese pueda dejar toda la noche trabajando sin necesi-dad de comprobar nada, pues lleva mucho tiempoy es preferible mantener aparte los programas, queson los que ocupan más espacio en disco sobre so-portes independientes y preparados para una insta-lación rápida, tal como se decía más arriba. Unacopia automática incremental comprueba la fechay la hora del archivo y sólo copia aquellos archi-vos que han sido modificados desde la última gra-bación.

En general es recomendable mantener cuatro ti-pos diferentes de copias:

a) Programas. En CDRoms o discos magnéticos

Page 327: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 10. Organización del proyecto 331

de gran capacidad (100 Mb) preparados parasu instalación directa. Grabación única.

b) Bibliotecas de imágenes y elementos de usogeneral. Grabación periódica a largo plazo, enfunción de lo que aparezca.

c) Configuraciones activas y proyectos en curso.Grabación periódica de corto plazo, según elritmo de trabajo.

d) Proyectos acabados. Grabación única enCDRoms, cintas o discos magnéticos de grancapacidad.

A la hora de escoger un soporte adecuado debentenerse en cuenta tres factores: velocidad, capaci-dad y vida media. Estos son temas que ya se hancomentado en los primeros capítulos, por lo quenos remitimos a ellos.

Page 328: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 333

BaseArchivo 1

Archivo 2

Archivo 3

Archivo 4

Archivo 1234

Gestión de datos con

programas ad hoc

Salida de formatos de intercambio

Integración de datos

Archivo de salida

Impresión y compaginación

Capítulo 11 . Bases de datos y sistemas de información

1 Tipos de datos

En los capítulos anteriores hemos visto cómo unproyecto complejo necesita ser organizado de unmodo riguroso, por medio de un sistema de archi-vos primarios y secundarios, con una terminologíaestricta que facilite la ordenación lógica de los di-ferentes tipos de contenidos. Esta ordenación sepuede llevar a cabo por medio del sistema operati-vo, que facilita los cambios de nombres y de ubi-cación, sin necesidad de volver a arrancar los pro-gramas con los que se han creado los diferentestipos de archivos. En este sentido, el sistema ope-rativo actúa como un gestor de datos, a un nivelmuy elemental pero que conviene no perder de vistapara asimilar con prontitud los conceptos que sedesarrollarán en este capítulo y remitirlos a un tipode operación que debería ser familiar para quienhaya utilizado, aunque tan sólo sea algunas horas,un ordenador.

Sin embargo, a medida que la utilización de losmedios informáticos permite crear estructuras máscomplejas, con archivos que contienen datos demuy diferentes tipos, creados con aplicaciones muydiferentes y poco compatibles, la gestión de la in-formación comienza a hacerse más pesada y secomienza a comprender mejor la necesidad de con-tar con algún sistema de gestión de datos que faci-lite la interrelación de éstos. La figura 1 muestrauna descripción esquematizada de lo que ocurre alimprimir un proyecto: diferentes tipos de datos, ela-borados por diferentes tipos de aplicaciones, vie-nen a converger en un documento, complejo, queincluye texto, números, tablas, dibujos e imágenes.

Como veremos más adelante, este esquema seasemeja bastante al de un gestor de bases de datos.En una situación ideal, el rectángulo ideal de "apli-caciones" podría ocuparse de trabajar con cualquiertipo de archivos sin que el usuario tuviese que pre-

ocuparse de pensar en otra cosa que en los datosque le interesan.

En la situación actual, que se caracteriza por unapenetración bastante lenta de los recursosinformáticos en los despachos de arquitectura, nosolamente esto no ocurre así sino que esta necesi-dad no se percibe aún con claridad debido a quelos medios que permitirían una gestión integral dedatos gráficos de diversas características y datosnuméricos o de texto, están aún en fase de investi-gación o de incorporación al mercado. Muy posi-blemente, el desarrollo de los programas de basesde datos orientadas a objetos, a los que nos referi-

Figura 1 Compaginación de diferentes tipos dedatos para hacer un proyecto

Page 329: [Architecture eBook] Aplicaciones as en Arquitectura

334 Aplicaciones informáticas en arquitectura

Tipo Repr. Externa

Representación Interna

carácter

entero

cadena

real

- 83

A

83.0

ABC 83

01000001

01000111 0000000010100110

001000000100001000000110 01000001 00111000 00110011

11111111 1010110111111111 11111111

00000000 00000000 00000000 00000000 00000000

01000011

nº car.

"A" "B" "C" "3""8"espacio

entero 83 00000000 00000000 00000000 01010011

signo mantisaexponente poderado

remos más adelante, posibilitará un avance nota-ble en este campo en los próximos años.

Mientras tanto, quien quiera avanzar en esta di-rección y asimilar mejor los nuevos cambios quese avecinan, hará bien en adentrarse en un mundopoblado por nociones que parecen en principio aje-nas a las que manejan los arquitectos pero que,como se verá, están estrechamente relacionadas conlos sistemas de producción actual, principalmentelos propios de la industria de la construcción. Lagestión de un despacho de arquitectura (bien)informatizado deberá incluir necesariamente algu-no de los sistemas que veremos a continuación. Unacomprensión de los principios subyacentes y de suevolución histórica, que no es meramente técnica,sino que implica una lógica universal, facilitará sinduda esta tarea.

Tipos de datos básicos

Los lenguajes de programación cuentan con unaserie de datos básicos que están directamente liga-dos a unas determinadas condiciones de almace-namiento físico. Cada variable y cada constante quese utilicen en el programa deben ser previamentedeclaradas, lo que significa que el sistema le asig-nará un determinado espacio de almacenamientoen la memoria del ordenador. De este modo se con-siguen optimizar los recursos y garantizar la inte-gridad de los datos. Los tipos más corrrientes, losque se encuentran en todos los lenguajes de pro-gramación, son tipos tales como entero, real, ca-rácter o cadena de caracteres. Hay variantes deestos tipos; así, un entero puede ser con signo (int)o sin signo (unsigned int), lo que permite aumentarel rango de valores disponibles, o bien un real pue-de ser de precisión simple, etiquetado corriente-mente como float (en "coma flotante"), o de preci-sión doble, etiquetado corrientemente como double.

La figura 2 muestra cómo sería la representa-ción externa de estos datos, una representación quecualquier usuario puede comprender, y cómo seríala representación interna, algo menos familiar, deestos cuatro tipos básicos que acabamos de men-cionar. El número de bits asignado a cada tipo de-pende de la plataforma que utilicemos o, como sedice técnicamente, de la "implementación" que ha-yamos escogido para nuestro programa. En el ejem-plo de la figura se supone que el sistema asigna 1byte a una variable de tipo carácter, 4 bytes a unade tipo entero y 8 bytes a una de tipo real; la cade-

na tendrá tantos bytes como caracteres (incluyen-do el carácter de espacio de separación), más unbyte adicional que representa su número de carac-teres; en el ejemplo, 6 (lo que equivale a 00000110en binario). Repárese en el modo en que se repre-senta un entero negativo, como el complemento a0 de su positivo, y cómo se representa un númeroreal.

Trabajar directamente con estos tipos básicospuede resultar extraordinariamente pesado en unaaplicación compleja. De ahí que estos tipos bási-cos se combinen entre sí para formar tipos com-puestos. Los lenguajes de programación proporcio-nan herramientas para llevar esto a cabo. Por ejem-plo, en el lenguaje C se puede definir un dato com-puesto, por medio de una palabra clave, struct. Así,para agrupar las tres coordenadas que definen unpunto en 3D, se declararía una estructura con estapalabra y, a partir de ahí, estos tres valores se po-drían almacenar en regiones contiguas de memoriay podrían ser tratados como una unidad, tal comose muestra en la figura 3.

En este caso el dato compuesto está formadopor datos homogéneos. Pero podríamos tambiéncrear una estructura más compleja, exactamenteigual que una ficha donde almacenamos un nom-bre, una dirección, un número de teléfono, etc.Podríamos, por ejemplo, definir un tipo de "pun-to" que incluyera no sólo la descripción de su posi-ción geométrica sino, además, una etiqueta que nospermitiera identificarlo y un valor asociado, talcomo se muestra en la figura 4, que muestra unejemplo de estructura con datos heterogéneos. Aun-que no exactamente en esta forma hay aplicacio-nes de CAD que hacen uso de este tipo de estructu-ras para construir bases de datos.

Figura 2 Tipos de datos básicos

Page 330: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 335

PuntoAtt{ char i; double x; double y; double z; char* s;};

ix

y

z

s

struct punto{ double x; double y; double z;};

z

y

x

Tipos de datos abstractos

El desarrollo de técnicas que faciliten esta labor haconducido progresivamente a la noción de tipo dedato abstracto como evolución de lo que se deno-mina un tipo de dato concreto, es decir, un tipo dedato que cuenta con una forma concreta de reali-zarse físicamente, tal como hemos visto en los ejem-plos anteriores. Un tipo de dato abstracto se definecomo un modelo matemático que relaciona tiposbásicos junto con una serie de operaciones defini-das sobre ese modelo. Siguiendo con nuestro ejem-plo del punto, podríamos definir en C++ una clase"punto" que incorporase, además de la estructuradel ejemplo anterior, toda una serie de operacionesdefinidas sobre puntos (entendidos como vectorescon un extremo en el origen de coordenadas y otroextremo en el propio punto). Esto nos permitiríallevar a cabo operaciones geométricas con una sin-taxis elemental que oculte toda la complejidad, yaresuelta, de las operaciones que se están llevando acabo internamente.

Estructuras de datos

Los tipos de datos abstractos se representan pormedio de estructuras de datos que pueden definirsecomo un conjunto de variables relacionadas entresí de un modo específico. Los componentes bási-cos de las estructuras se denominan corrientemen-te celdas (cells). Podemos imaginarnos las celdascomo cajas o recipientes, de un tamaño determina-do que, en algún caso especial, puede ser elástico,y en cuyo interior hay tipos básicos tales como losque hemos visto al comienzo de este párrafo. Elejemplo de la figura 3, el punto 3D elemental erauna estructura constituida por celdas iguales. Elejemplo de la figura 4, el punto 3D con atributos,

era una estructura constituida por celdas distintas.Cuando se trabaja con estructuras de datos que

agrupan a datos diversos pero que contribuyen aun mismo significado se acostumbra a denominarcampo al componente abstracto, genérico, de cadatipo de valor y registro al conjunto de datos rela-cionados con un significado unitario, una termino-logía que volveremos a encontrar enseguida. Porejemplo, en el caso anterior, cada punto 3D queintrodujéramos sería un registro de dicho punto,una localización concreta, semejante a una ficha yque almacenaría los valores correspondientes a trescampos, los de las coordenadas x, y, z.

El estudio de los diversos tipos de estructurasde datos que son adecuadas para diferentes tiposde programas y aplicaciones es una de las áreasclásicas de la programación; arreglos (arrays), pi-las, listas, colas, colas con prioridad, árbolesbinarios, árboles binarios de búsqueda o montícu-los (heaps) son algunos de los términos que se pue-den encontrar en la literatura especializada. Lasbases de datos hacen un uso extenso de este tipo deestructuras que facilitan la organización de los da-tos. Por ejemplo, una lista es un tipo de estructuraque facilita la inserción de datos; está constituidapor registros que incluyen un apuntador a otro re-gistro; al insertar un datos no es necesario movertodos los datos una posición hacia un lado, comoocurría con las estructuras rígidas de los ejemplosanteriores, sino que basta con modificar el conte-nido de estos apuntadores tal como se muestra enla figura 5.. En bases con miles de datos la diferen-cia de tiempo implicada por una u otra operaciónes enorme.

O bien, otra estructura clásica, un árbol binariode búsqueda (binary search tree) es un tipo de es-tructura que puede reducir notablemente el tiempode búsqueda de un elemento. Los elementos se or-

Figura 3 Tipos de datos básicos unidos en unregistro homógeneo

Figura 4 Tipos de datos básicos unidos en unregistro heterogéneo.

Page 331: [Architecture eBook] Aplicaciones as en Arquitectura

336 Aplicaciones informáticas en arquitectura

12

11 13

6

5

3

4

1

2

10

8

7

16

14

C F M P

G

MC F

G

P

ganizan de tal modo que el nodo izquierdo descen-diente de un nodo determinado almacena un valorinferior al de su ascendente y el nodo derecho unvalor superior tal como se muestra en la figura 6.Para buscar un valor determinado no se necesitarecorrer toda la estructura sino seguir un caminoque vendrá dado directamente por esta estructuralógica.

Baste con estas menciones que pueden dar unaidea suficiente de los mecanismos que subyacen alas diversas aplicaciones que resumiremos en lo quesigue.

2 Bases de datos

Nociones básicas y evolución histórica

Visto lo resumido en la sección anterior es fácilcomprender que la creación y la gestión de una basede datos está abierta a cualquier programador. Dehecho, la inmensa mayoría de los programas inclu-yen funciones para la manipulación de coleccionesde datos. Datos que habrá que seleccionar con arre-glo a determinadas propiedades, que habrá que or-denar, filtrar, eliminar, modificar, etc. Es decir, todolo que hace corrientemente, como veremos, un sis-tema de gestión de bases de datos. Así es de hechocomo nacieron los primeros programas que se de-dicaban a gestionar y clasificar datos, programasdesarrollados ex profeso para una determinada ac-tividad y que no eran otra cosa que una colecciónde funciones que facilitaban la manipulación de es-tructuras más o menos simples como las que he-mos visto en el apartado anterior.

El término Data Base, "base de datos", aparecea comienzos de los sesenta. Se podría decir, pordar un hito concreto, y sin que sea necesario tomareste dato al pie de la letra, que se utilizó de un modomás o menos sistemático a partir de 1963, fecha enque se celebró un congreso en Santa Mónica, enEstados Unidos, con esta temática; un congreso alque seguirían otros muchos, hasta que el términoacabó asentándose en la comunidad científica paradesignar a una colección de datos que podían sertratado con diferentes procedimientos sistemáticos,para extraer información adecuada a una determi-nada finalidad.Antes de que aparecieran los programas gestoresde bases de datos, los datos requeridos corriente-mente por una empresa (agenda, direcciones, nó-minas, presupuestos, contabilidad, etc.) se almace-naban en archivos separados. Un sistema de ges-tión de archivos llevaba el control de todos los nom-bres y de la ubicación de estos archivos. Este pro-cedimiento es característico de la década de lossesenta y muchas empresas, principalmente IBM,proporcionaban soporte para este tipo de sistemas.Un ejemplo de los sistemas utilizados en esta épo-ca es el ISAM (Indexed Sequential Access Method);el nombre alude a los índices que guardaban la di-rección de los registros lo que evitaba tener querecorrer todos los miles de datos de que podía es-tar compuesto un fichero, cuando tan sólo se nece-sitara acceso a un determinado registro.

Figura 5 Datos estructurados en una lista

Figura 6 Datos estructurados en un árbolbinario de búsqueda

Page 332: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 337

Los programas que accedían a estos archivos esta-ban hechos a medida de la empresa y contaban conuna descripción de su contenido y de su estructurabásica. Se adecuaban al tipo de información alma-cenada con lo que cada uno de dichos archivospodía contar con varios programas diferentes paraprocesar su contenido. Y, por otro lado, unos mis-mos datos podían estar duplicados en varios archi-vos. Cualquier modificación en la estructura de losarchivos obligaba a modificar el programa, lo quesuponía un coste importante de mantenimiento.

Este modo primitivo de bases de datos no tienesentido en la actualidad debido al desarrollo y lafacilidad de uso de sistemas mucho más potentes ysofisticados. Pero recordar su existencia, aparte deque permitirá una mejor comprensión del modo enque han evolucionado este tipo de programas, nossirve para subrayar el hecho de que una serie dearchivos bien organizados no dejan de constituiruna forma rudimentaria de base de datos. Y esto esalgo que tiene importancia para la organización ygestión de un proyecto de ejecución.

A lo largo de la década de los sesenta aparecie-ron los primeros DBMS, que se extendieron conrapidez sobre todo a comienzos de los setenta. UnDBMS (Data Base Management System) o SGDB,por sus siglas en castellano ("sistema de gestión debases de datos") es un programa que gestiona deun modo integral la base de datos. El origen estáen un prototipo desarrollado por C. Bachman en1961 (el IDS, Integrated Data Store) que comenzóa distribuirse hacia 1964. Hay varios modos de lle-var a cabo esta gestión. Durante las tres últimasdécadas se han impuesto tres modelos principales.

Bases jerárquicas

El primero de ellos fue modelo de datos jerárqui-co. A fiinales de los sesenta IBM desarrolla el sis-tema IMS (Information Management System) quese utilizaría extensamente en la industria a partirde 1973, sobre todo como sistema de contabilidady de inventario a gran escala. Otro producto puestoen circulación en esta época por IBM y tambiénmuy utilizado fue el System 2000. Posteriormenteaparecieron muchos otros productos comercialescon una estructura similar.

Estas bases utilizaban registros concatenados porrelaciones en árbol o relaciones padre/hijo en lasque cada nodo dependía de un nodo superior y es-taba directamente relacionado a su vez con un nodo

inferior, semejante a lo que hemos visto en el apar-tado anterior. La estructura era muy simple y per-mitía moverse con rapidez de un registro a otro pormedio de punteros. Su aplicación idónea era elplaneamiento de la producción en empresas quefabricaban productos compuestos por elementosque a su vez estaban compuestos por subelementosque a su vez estaban compuestos por piezas gran-des compuestas a su vez por piezas pequeñas, etc.Es decir, empresas tales como fábricas de electro-domésticos complejos, automóviles o aviones.Dado que el acceso a los datos relativos a una pie-za implicaban por lo general el acceso a las piezasy elementos relacionados con ellas, esta estructuraresultaba idónea porque era, en sí misma, portado-ra de información.

Las bases de datos jerárquicas resultaban y re-sultan adecuadas para modelos cuya configuraciónpropia se adapta de modo natural a unaestructuración jerárquica. La relación entre los ele-mentos de una base jerárquica se denomina rela-ción "padre/hijo" lo que no es sino una metáforafácil de recordar de que lo característico de estarelación es ser "de uno a varios".

Las bases jerárquicas se adaptan bien a produc-tos como coches pero no tan bien a productos comoedificios. Un coche puede tener una o varias puer-tas pero cada puerta pertenece a una sola carroce-ría. Las puertas tendrán uno o varios vidrios perotodos ellos pertenecerán a una sola puerta. El mo-tor contará con diferentes elementos que conten-drán a su vez otros elementos pero, en general, es-tos estarán contenidos en un solo elemento princi-pal. Las cosas no son tan sencillas en el caso de losedificios, en donde hay partes que pueden ser sus-ceptibles de ser jerarquizadas y otras que no lo son.Así, por ejemplo, un edificio puede descomponer-se en fachadas, cada una de las cuales puede des-componerse en ventanas, cada una de las cualespuede descomponerse en diversos elementos talescomo vidrios, bisagras y cierres. Este tipo de orga-nización se presta con facilidad a ser integrado enuna base jerarquizada.

Pero no ocurre lo mismo con otros elementos,comenzando por el resto de los que constituyen lafachada, ni con el resto de los elementos del edifi-cio. Podemos, por ejemplo, descomponer el inte-rior del edificio en diferentes forjados y éstos, a suvez, en regiones diferenciadas por tabiques o divi-siones internas. Pero aparecerán zonas ambiguasen torno a las escaleras (¿dónde termina una esca-

Page 333: [Architecture eBook] Aplicaciones as en Arquitectura

338 Aplicaciones informáticas en arquitectura

lera y empieza un forjado?) o zonas de paso (¿cómosubdividiríamos internamente el pabellón Barce-lona de Mies van de Rohe?).

Hay, sin embargo, partes del edificio donde estetipo de organización es eficaz. Por ejemplo, no esde extrañar que las estructuras jerarquizadas fun-cionen bien en el caso de elementos como venta-nas que vienen de un sector industrial que puedeser sujeto a procedimientos similares a los emplea-dos para producir coches y que deben ser inserta-dos con precisión. Nos encontramos de nuevo concaracterísticas esenciales que diferencian a los edi-ficios de otro tipo de productos industriales. Vol-veremos sobre este tema, de creciente importan-cia, más adelante.

Bases de datos reticulares

El segundo modelo, el modelo de datos en red(network bases, plex bases, entendiendo el térmi-no "red" en un sentido lógico, no físico) surgió aprincipios de los setenta. Se desarrolló a partir delprimer prototipo propuesto por Bachman mencio-nado anteriormente y por iniciativa del CODASYLDBTG (Conference on Data Systems LanguageData Base Task Group) que publicó lo que se co-nocería como modelo de red CODASYL, en 1971.Los orígenes de este grupo se remontan al año 1959en que un grupo de fabricantes y usuarios de orde-nadores celebraron una reunión con la finalidad deelaborar un lenguaje de programación adecuadopara la resolución de problemas de gestión. En 1965se creó un grupo especializado que acabaría deno-minándose DBTG (Data Base Task Group), uncambio de nombre que refleja la tendencia inicia-da por el congreso de Santa Mónica de 1963 queya hemos mencionado. Los trabajos de este grupoconvergerían en la nueva propuesta.

Este tipo de bases sustituyeron con ventaja a lasjerárquicas, por un tiempo, en determinado tipo deaplicaciones. En el caso de productos tales comocoches o electrodomésticos, las estructuras jerár-quicas eran idóneas para mantener actualizada laproducción y para obtener información sobre elmodo en que la variación de una parte del conjuntoafectaba al resto. Sin embargo, cuando los datostenían una estructura más compleja, esta rigidez,que facilitaba la consistencia y la navegación rápi-da por los nodos de la estructura, pasaba ser uninconveniente.

Un ejemplo característico lo constituye una es-

tructura de clientes, vendedores, productos y pedi-dos que no se asemeja a la estructura de elementosy subelementos de una cadena de producción peroes de importancia fundamental para una empresa.Un cliente puede solicitar varias cosas, una o nin-guna; y estas cosas pueden estar controladas poruno o por varios agentes comerciales. A diferenciade los anteriores, los modelos de datos en red per-mitían especificar relaciones múltiples. Su estruc-tura permitía definir relaciones del tipo "varios avarios". Un ejemplo similar, en el caso de la arqui-tectura, sería el de una base que estructura elemen-tos tales como "pisos" de modo que contuvieran"cuartos". Las bases jerárquicas no admitirían queuna habitación pudiese pertenecer a dos pisos mien-tras que las bases reticulares sí.

A pesar de estas mejoras las bases en red se-guían teniendo limitaciones importantes. Las rela-ciones debían ser especificadas de antemano y laestructura de los registros también. Modificar laestructura de los registros requería reconstruir todala base. Al igual que los sistemas anteriores, reque-rían programas especiales y programadores dedi-cados al mantenimiento de la base lo que podía in-cluir de tanto en tanto una reconstrucción total delprograma.

Tanto las base jerárquicas como las bases en redtenían problemas cada vez mejor comprendidos.En el caso de las primeras había el grave inconve-niente, para muchas aplicaciones, de que no eraposible representar todas las relaciones entre com-ponentes, a lo que se añadía un elevado consumode memoria y un considerable riesgo de inconsis-tencia al hacer cambios en la base. En el caso delas segundas, las mejoras introducidas daban lugara estructuras muy rígidas con una serie de vínculosque aumentaban progresivamente en complejidad,tornando las bases intratables.

Bases de datos relacionales

A principios de los setenta aparece el concepto debase de datos relacional que fue desarrollado ori-ginalmente por E.F.T. Codd, un investigador deIBM que publicó un artículo ("Un modelorelacional de datos para grandes bancos de datoscompartidos") que se considera que marca el ini-cio de este nuevo modelo (ver Codd, 1970 en labibliografía). Los primeros desarrollos que siguie-ron a los propuestos por Codd no cumplieron es-trictamente los requisitos expuestos en este artícu-

Page 334: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 339

Jerárquicas Reticulares

Relacionales

lo fundacional, en un lenguaje matemático precisopero difícil y con una base teórica muy sólida. Con-trariamente a la relativa sencillez de los modelosactuales, el modelo relacional estaba fundada enuna base lógica y matemática bastante complejaque quedaba oculta para el usuario. Las operacio-nes se fundaban en un corpus teórico que compren-día fundamentalmente el álgebra relacional, con lasoperaciones propias de la teoría de conjuntos, alque se agregó posteriormente el cálculo relacionalcon métodos alternativos basados en el cálculo depredicados, una rama de la lógica matemática de-sarrollada a nivel teórico desde principios de si-glo.

A partir de los inicios de la década de los seten-ta y de la publicación del primer artículo de Codd,comenzaron a desarrollarse una serie de investiga-ciones que desembocaron hacia 1975, en un pri-mer prototipo que, en 1979, daría lugar al primerprograma de bases de datos relacional de ampliaimplantación, desarrollado por Oracle Corporation,una empresa que sigue siendo la primera firma eneste tipo de bases y que fue también la primera

empresa en emplear el lenguaje SQL al que nosreferiremos más adelante. A Oracle le seguiríaIngres, otro producto de amplia difusión en el mer-cado.

También durante esta década se desarrollan losprimeros lenguajes de consulta que veremos conalgo más de detalle más adelante. El primero fueSQL, siglas de Structured Query Language, "len-guaje de consultas estructurado" al que seguiríanprincipalmente QEUL y QBE.

El primer sistema global de bases de datos paraPC fue el dBase creado por Wayne Ratliff paragestionar el equipo de fútbol de una empresa ame-ricana. Su primera extensión comercial importantefue el dBase II (1981) al que siguieron el dBase III(1984) y el dBase IV (1988). Actualmente el dBase,la base de datos más vendida durante la década delos ochenta, está en retroceso debido a la apariciónde bases de datos de manejo más ágil que funcio-nan en Windows y a la creciente utilización de ba-ses relacionales de un diseño interno más riguroso.DBase fue también el primer DBMS en aparecersobre PC con lenguaje integral. Hasta entonces se

Figura 7 Bases jerárquicas, en red y relacionales

Page 335: [Architecture eBook] Aplicaciones as en Arquitectura

340 Aplicaciones informáticas en arquitectura

20001990198019701960

9894 9602

64

1012

8

14 41

3

1 .- Bases jerárquicas

4

3

2

1

2 .- Bases reticulares

4 .- Bases orientadas a objetos

3 .- Bases relacionales

Evolución reciente de ingresospor ventas de DBMS en miles de millones de dólares(fuente: Price Waterhouse 1996)

SQL

Art. Codd

SGBO

QBE OracleSQL/ISO SQL92

1er Codasyl Revisión Disolución

IMS, System 2000

2

requerían módulos auxiliares sobre lenguajes deprogramación. En 1993, tres años después de lapresentación de la versión 3 de Windows, Microsoftpresentó la base de datos relacional MicrosoftAccess que es en la actualidad el programa de estetipo más utilizado en PCs (lo que equivale a decirque es "el más" utilizado).

El modelo relacional eliminaba las estructurasexplícitas padre/hijo de las bases de datos anterio-res y, en lugar de ello, representaba todos los datospor medio de tablas en donde los datos estaban si-tuados en las intersecciones de filas y columnas.Esto que parece una obviedad y, sin lugar a dudas,simplifica notablemente la utilización de estos pro-gramas desde el punto de vista del usuario común,implicaba una gestión interna muy compleja queha tardado años en desarrollarse.

Un modo de resumir la diferencia entre este tipode sistemas y sus predecesores es que, en una basejerárquica o de datos en red, la relación es explíci-ta y está implementada de un modo concreto (pormedio de punteros) mientras que en una baserelacional la relación es implícita. No está definida

previamente pero puede definirse en cualquiermomento en función de los requisitos de la aplica-ción.

Las principales ventajas de un sistema relacionalson las siguientes: los registros pueden estar encualquier orden; pueden agregarse y borrarse conplena facilidad; pueden crearse con facilidad nue-vas tablas relacionadas entre sí, lo que facilita laestructuración de la información; las relacionesentre los registros pueden establecersedinámicamente a medida que se necesiten; sonmucho más fáciles de manejar por un usuario me-dio, lo que reduce notablemente el tiempo de apren-dizaje.

No todo son ventajas. Todo esta facilidad demanejo externo se consigue a expensas de un con-siderable trabajo matemático interno, lo que haceque, tanto por el alto nivel de redundancia que pue-de aparecer y, sobre todo, por la complejidad delos cálculos internos, el rendimiento de estos pro-gramas sea bastante más lento que el de sus prede-cesores. Para aplicaciones sencillas estas desven-tajas son irrelevantes debido al extraordinario au-

Figura 8 Porcentaje de ventas y evolución reciente de los principales sistemas de bases

Page 336: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 341

mento en capacidad de procesamiento de las má-quinas. En aplicaciones más complicadas esto pue-de ser un inconveniente que se debe considerar.

La década de los ochenta se caracteriza por unaprogresiva implantación de las bases de datosrelacionales, en versiones que no siempre satisfa-cían a los creadores del sistema. En 1985 Coddpublicó un nuevo artículo precisando más y mejoralguno de los conceptos implicados y establecien-do "doce reglas" que deberían ser seguidas por cual-quier base de datos que se autodefiniese como"relacional" y que llegarían a ser aceptadas comodefinición de un DBMS verdaderamente relacional.Hay que decir que la mayoría de las basesrelacionales actuales no cumplen exactamente lasdoce reglas propuestas por Codd. En 1990, Coddpresentó una segunda versión del modelo relacionalque complementaba el famoso artículo de 1985.

Las doce reglas del artículo de Codd de 1985,resumidas, eran las siguientes: 1) toda la informa-ción debe quedar representada explícitamente anivel lógico; 2) el acceso a todo dato debe quedargarantizado mediante una combinación del nom-bre de la relación (tabla), el nombre de su columna(atributo) y la clave principal; 3) los valores nulosdeben ser tratados de modo sistemático; 4) losmetadatos (esquema de la base) deben represen-tarse y ser accesibles al igual que los datos norma-les; 5) debe existir un sublenguaje relacional quepermita la manipulación completa de la base; 6)toda vista debe poder se actualizable por el siste-ma; 7) todas las operaciones de manipulación de-ben poder realizarse directamente sobre registrossin obligar al usuario a recorrer la base; 8) debegarantizarse la independencia física de los datos;9) debe garantizarse la independencia lógica de losdatos; 10) las reglas de integridad de la base debenpoder definirse desde el sublenguaje relacional yalmacenarse como metadatos; 11) debe garantizarsela independencia de distribución, es decir, la posi-bilidad de que la base funcione bajo un sistema debases de datos distribuidas; 12) ningún lenguaje debajo nivel que posibilite el acceso a los registrospuede alterar la integridad de los datos.

La situación actual

Durante la década de los noventa la gran mayoríade los sistemas de bases son relacionales con SQLy QBE como lenguajes de manipulación de las ba-ses. En esta década aparecen los que podemos con-

siderar como la cuarta generación de sistemas debases de datos (la primera serían los sistemas dearchivos, la segunda las bases jerárquicas, la terce-ra las bases de datos en red, la cuarta las basesrelacionales).

A finales de los ochenta aparecieron las prime-ras tentativas sistemáticas de extender a los siste-mas de bases de datos la noción de "orientación aobjeto". Un artículo de esta época, debido aAtkinson(1989) "El manifiesto de bases de datosorientadas a objeto", en el que se recogen 13 re-glas principales que deben contener este tipo debases, puede mencionarse como referencia de estenuevo giro en la evolución histórica de los siste-mas de gestión de bases de datos. Otro artículo deH. Darwen y C. Date (1995), este último uno delos más prolíficos autores sobre este tema, se ins-cribiría en la misma línea de propuesta de unareconsideración del sistema relacional desde estenueva perspectiva. Frente a estas propuestas se si-tuarían las de los partidarios de un sistema basadopuramente en objetos que abandonaría el modelorelacional. Aunque la discusión es teórica es másque previsible que sus consecuencias prácticas in-fluyan de modo determinante en el modo de traba-jo de los próximos años, incluyendo muy especial-mente el de los arquitectos.

Las bases de datos orientadas a objetos llevanasociadas una serie de nociones que ya hemos men-cionado en capítulos anteriores y que caracterizanla evolución de los lenguajes de programación du-rante los últimos 15 años. La idea principal es queun objeto, en sentido informático, permite un nivelde abstracción superior a los de los tipos de datosque hemos mencionado al comienzo de este capí-tulo y, en consecuencia, ofrece una mayor capaci-dad de representar objetos del mundo real. El usua-rio puede despreocuparse, hasta cierto punto, deltipo de dato y puede contar, por añadidura, con queun determinado objeto llevará asociadas una seriede operaciones propias que pueden ser invocadasde modo directo. El objeto es como un pequeñoprograma que se relaciona con el usuario a travésde un interfaz característico que incorpora los nom-bres y parámetros propios de cada operación. Lostipos concretos a los que se invoca físicamentepueden quedar ocultos, encapsulados, en la termi-nología propia de los sistemas basados en objetos,para el usuario.

Los objetos pueden heredar propiedades de otrosobjetos, lo que facilita notablemente la construc-

Page 337: [Architecture eBook] Aplicaciones as en Arquitectura

342 Aplicaciones informáticas en arquitectura

ción de estructuras complejas. Si definimos unaserie de propiedades generales: que, por ejemplo,todo objeto tipo "muro" debe tener altura, longi-tud, anchura, peso, densidad, coeficiente de aisla-miento térmico, etc., cualquier variedad de muroque definamos como derivada de este tipo contarácon estas propiedades generales y sólo tendremosque preocuparnos por definir sus nuevas propieda-des específicas: pongamos, por ejemplo, su "nú-mero y tipo de capas internas".

Las bases orientadas a objetos abren perspecti-vas de enorme importancia para las aplicacionesen arquitectura e ingeniería pues permiten, en prin-cipio, utilizar técnicas generales de definición deesquemas y consultas, propias de los sistemas ges-tores de bases de datos, muy desarrollados y expe-rimentados en infinidad de sectores, aplicándolasa los objetos propios del CAD (objetos geométricos,imágenes), junto con datos numéricos y de texto.

Esto se relaciona con el creciente interés porintegrar en bases de datos lo que se denominangenéricamente datos no estructurados de diversostipos y objetos digitales no estructurados de grantamaño o blobs (binary large objects). En concre-to, las aplicaciones CAD/CAM requieren, de unmodo cada vez más notorio, sistemas de gestión debases capaces de manejar el tipo de datos que semanejan en estas aplicaciones. Esta demanda apun-ta, por otro lado, hacia la difuminación de la fron-tera entre este tipo de aplicaciones y la propia no-ción de sistema de gestión de base de datos. Puesuna cuestión crucial sobre la que habrá que insistiry volver una y otra vez, y más a medida que cobreimportancia la noción de "orientación a objeto", esque un programa de CAD es, en sí mismo, un tipoespecial de base de datos, por lo que lo que propia-mente se necesita es un CAD capaz de integraradecuadamente un sistema de gestión de bases com-patible con otros productos comerciales.

Como ya hemos dicho, la situación actual secaracteriza por una oposición entre los partidariosde sistemas relacionales extendidos (a objetos) ysistemas orientados a objetos puros. El nuevoestándar de SQL, el SQL3, que se espera aprobaren 1999, sería un producto claramente híbrido quemantendría todas las características y la terminolo-gía del modelo relacional añadiendo las posibili-dades de la orientación a objeto. Frente a esto selevanta, como principal alternativa, el ODMG(Object Data Management Group) un conjunto denormas que surgieron por iniciativa de un grupo de

fabricantes y desarrolladores de bases de datos apartir de una reunión inicial en 1991 y que cuajóen un primer informe emitido en 1993 conocidocomo ODMG-93. En los últimos años se ha busca-do una convergencia entre ambas propuestas.

Otros tipos que hay que citar para concluir coneste resumen histórico, en otro orden de cosas, yen relación con las redes, son las bases de datosdistribuidas. Estos tipos de bases de datos han idoapareciendo, en grandes sistemas, en oposición alas bases de datos centralizadas. El aumento encomplejidad y eficacia del trabajo en red ha lleva-do en varios casos a la conclusión de que las venta-jas obvias de un sistema centralizado comenzabana debilitarse cuando la información provenía dezonas más dinámicas que perdían un tiempo pre-cioso enviando los datos a las unidades centralespara luego volver a extraerlos de allí. La soluciónes técnicamente compleja porque implica que elgestor de la base debe aumentar su capacidad paragestionar de un modo eficaz una información frag-mentada, pero los resultados han demostrado quelas ventajas, la mejor adaptación a las aplicacioneslocales, la mayor fiabilidad, la mejora en el rendi-miento, son superiores a los inconvenientes.

Por último, una línea de investigación de enor-me interés, con ya una larga tradición que se harenovado en los últimos años y que entronca direc-tamente con la investigación en inteligencia artifi-cial, es la relativa a la creación de bases de datosdeductivas o bases de datos lógicas, que utilizanlenguajes capaces de incorporar procedimientos delógica matemática y que se relacionan directamen-te con los sistemas expertos y con los sistemas ba-sados en el conocimiento (KBS, knowledge basedsystems). Resumiremos lo principal de estos temasen secciones posteriores de este capítulo.

Características principales de un sistema degestión de bases de datos

Una base de datos puede definirse genéricamentecomo una colección de datos almacenados de for-ma estructurada, relacionados entre sí. La nociónde dato es muy amplia y puede incluir desde datoselementales hasta datos compuestos de considera-ble complejidad y que permitan representar cual-quier tipo de hecho significativo. En este sentido,una colección de fichas, un diccionario, una enci-clopedia o una biblioteca pueden ser consideradoscomo una base de datos.

Page 338: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 343

Desde el punto de vista de la arquitectura hayinnumerables ejemplos significativos, algunos delos cuales ya pueden gestionarse con los sistemasactuales, mientras que otros podrán serlo en un fu-turo inmediato: una colección de símbolos gráfi-cos, de detalles constructivos, de elementos arqui-tectónicos, de partidas presupuestarias, de norma-tivas municipales, autonómicas, estatales o euro-peas, de mapas de bits de materiales, de propieda-des de materiales... todos estos ejemplos constitu-yen bases de datos potenciales de diferentes tipos.

Es importante insistir en que debe distinguirsela noción de "base de datos" de la noción de "siste-ma de gestión de la base de datos". La gestión de labase debe llevarse con arreglo a algún método quepermita obtener información de un modo eficientede dicha base. Si se utilizaran medios tradicionalesesto implicaría la existencia de personal especiali-zado y de un conjunto de reglas y métodos de ac-ceso a los datos que deben seguirse escrupulosa-mente para que el rendimiento sea eficaz. Si losmedios son informatizados esto se lleva a cabo pormedio de un conjunto de programas de aplicación,denominados genéricamente sistemas de gestión dela base de datos o DBMS (Data Base ManagementSystem) o SGDB según sus siglas en español (sis-tema de gestión de base de datos), que permitendefinir, construir y manipular los datos almacena-dos en la base.

Estos tres pasos son fundamentales. Lo primeroque se requiere es definir un esquema que estipulequé tipos de datos almacenará la base, cómo se re-lacionarán entre sí y qué restricciones pesarán so-bre ellos. A partir de aquí se puede iniciar el proce-so de construcción de la base, lo que implicará lle-nar de contenido las celdas vacías que se han crea-do en la definición. En tercer lugar, para cumplircon la finalidad principal de todo el proceso, seránecesario extraer información de diversos modos,actualizar la base o modificar su contenido, lo queimplica diversos grados de manipulación de la base.

El primer paso, la definición de los datos impli-ca un proceso previo de análisis conceptual quepermita modelar los datos mediante un tipo de re-presentación que haga compatibles la finalidad dela aplicación con las posibilidades de representa-ción física sobre un soporte informático. Una vezque se ha llegado a un modelo adecuado de datos,su definición formal queda documentada en lo quese denomina técnicamente un DDS (DataDictionary System), un "diccionario" que almace-

na la información sobre los tipos propios de cadaelemento que aparecerá en la base. Una vez queeste diccionario existe es posible describir los va-lores propios de cada elemento. Esto se lleva a caboa su vez mediante lo que se denomina un DDL(Data Description Language) para producir los es-quemas, la descripciones lógicas del contenido dela base. Cada usuario puede producir subesquemaspara adaptarlos a sus necesidades. Estos esquemasse almacenan en lo que se denomina genéricamen-te el catálogo de la base y que puede considerarsecomo un conjunto de metadatos que almacenaninformación sobre la propia estructura de datos dela base. Una vez que se ha completado el procesoprevio de definición y construcción de la base, losusuarios de la misma podrán utilizarla lo que im-plica la posibilidad de manipularla. Esto se lleva acabo por otro lenguaje específico que se denominaDML (Data Manipulation Language) que facilitala realización de, fundamentalmente, dos tipos detareas: la actualización de la base, con nuevos da-tos, y la consulta de la información contenida enella.

Tanto durante el proceso de construcción comode manipulación de la base se actúa sobre un ciertotipo de representación que no coincide con el modoreal en que están estructurados los datos. Los datosse representan del modo que sea más fácilmentecomprensible para el usuario. A esto se denomina,en conformidad con el concepto que hemos intro-ducido al comienzo de este capítulo, abstracciónde los datos. Esto posibilita a su vez el que existaun alto grado de independencia entre la gestión dela base y la propia base. El usuario maneja por logeneral diferentes vistas de la base que pueden co-rresponder a la totalidad de una tabla, a una selec-ción de los datos contenidos en una tabla o a unacombinación de datos provenientes de diversas ta-blas.

Hay que insistir, de nuevo en que, en muchoscasos, este proceso es relativamente sencillo y pue-de ser llevado a cabo por programas propios, utili-zando un lenguaje de programación, lo que puedetener la importante ventaja de que el programa seadapte exactamente a los requisitos del caso. Engeneral, sin embargo, se utiliza algún programacomercial. Los programas comerciales están, porlo general, construidos mediante una combinaciónde un lenguaje de propósito general, como Fortran,Pascal o C++, y lenguajes específicos para basesque se incorporan a los primeros, denominados len-

Page 339: [Architecture eBook] Aplicaciones as en Arquitectura

344 Aplicaciones informáticas en arquitectura

guajes "anfitriones". Los segundos se denominana su vez lenguajes "huéspedes" de los primeros.

Esto es particularmente relevante por lo que res-pecta a las consultas. No supone grandes dificulta-des de programación el extraer información sim-ple de una base, tal como seleccionar los elemen-tos en un determinado orden, o seleccionar los ele-mentos mayores de un valor dado, o seleccionarlos elementos que coincidan con una descripciónliteral. Pero cuando la diversidad de tipos de con-sulta puede variar o cuando es previsible que serequieran cambios o nuevas funciones por parte deun usuario corriente o cuando es necesario com-partir datos entre aplicaciones es cuando se revelala necesidad de los lenguajes de consulta.

Resumiendo, los DBMS incorporan la capaci-dad de:

a) Definir y describir la estructura de los datosde la base.

b) Almacenar los datos en esta estructurac) Presentar esta estructura de diversos modos,

ocultando los campos que no interesen en unmomento dado.

c) Ordenar los datos de diversos modos, por or-den alfabético, cronológico, por campos cla-ve, por registros seleccionados

d) Filtrar los datos de diversos modose) Combinar la información de diversos registros

o bases.

Cada base de datos o DBMS tiene una estructuraparticular de almacenamiento de datos y unas téc-nicas particulares de acceso a estos datos. UnaDBMS se caracteriza por el modelo que utiliza (laestructura y las técnicas) y por el tipo de aplica-ción al que se dirige de un modo más natural, sibien la mayoría de ellos pretenden servir a un sec-tor muy amplio que incluye muy diversos tipos deaplicaciones industriales o profesionales. Al elegirun DBMS debe cuidarse que cumpla una serie derequisitos principales que garanticen que el siste-ma será fiable.Los requisitos principales que debe cumplir unDBMS son:

a) control de integridad de los datosb) rapidez de accesoc) economía de espaciod) facilidad de edición y modificación de los

datose) protección contra accesos indeseados

f) protección contra errores

Modelado de datos

Hemos visto que el primer paso es la definicióndel esquema propio de la base. Esto implica, enprimer lugar, un análisis de cuál es la estructuramás adecuada para el tipo de aplicación que tene-mos presente. Éste es sin duda el paso más impor-tante que, en algunos casos será trivial y, en otros,prácticamente irresoluble. Puede decirse que losprincipales desarrollos que hemos mencionado nosuponen sino otros tantos modos de conquistar nue-vos territorios y de buscar métodos que permitanampliar la capacidad de modelado de los datos paraacercarlos a los casos reales.

El modelado de los datos implica un proceso deanálisis que conduce a un mayor o menor grado derestricción semántica. Es decir, el contenido de losdatos, su relación con los objetos reales que pre-tenden describir debe estar especificado de tal modoque se asegure la integridad de los mismos o bien,dicho de otro modo, que se evite a priori la posibi-lidad de que los datos puedan tomar valores incon-sistentes con su representación y que den lugar aerrores durante la aplicación.

El proceso de análisis debe progresar desde unmodelo externo, general, comprensible para unusuario no especializado, hasta un modelo internoadecuado para ser procesado por una máquina. Enotros términos, habrá que pasar desde un modelológico a un modelo físico. Esta transición ha sidoobjeto de análisis y estudios muy diversos que hanbuscado independizar al máximo las exigencias delos modelos físicos de las de los modelos lógicos.Este largo proceso de refinamiento va quedandoprogresivamente oculto a medida que los nuevossistemas son capaces de aceptar modelos de datosmás cercanos a la intuición humana. De nuevo, noslimitaremos a mencionar algunos hitos en este pro-greso como el modelo ER (entidad-relación) pro-puesto por P. P. Chen, principalmente en un artícu-lo de 1976 (ver bibliografía) al que siguieron otrosmuchos estudios que sirvieron para refinar el mo-delo.

En general, en los sistemas de bases utilizadosen la actualidad, los datos se definen de un modoque sigue guardando una estrecha relación con loque podría ser su realización física, aunque quedaoculto el sistema de cálculo relacional que permitellevar a cabo todo tipo de consultas y manipulacio-

Page 340: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 345

nes de la base. El modelo relacional utiliza los si-guientes términos. Una relación es un conjunto devalores relacionados entre sí y un esquema de rela-ción denotado por R(A1,A2,...An) es una lista deatributos (A) o n-tuplas, asociados a un nombre derelación (R). El dominio propio de la relación es elconjunto de valores que pueden tomar sus diversosatributos.

En la terminología SQL (daremos entre parén-tesis los términos equivalentes del modelorelacional) una base de datos está constituida poruna o varias tablas (relaciones), que se identificanpor un nombre, compuestas por casillas denomi-nadas celdas, organizadas como una matriz de fi-las (tuplas) y columnas (atributos). Las columnasdeben almacenar datos de un mismo tipo, que tie-ne un sentido determinado para la base de datos yque está etiquetado con una palabra clave. Comovemos los términos "campo", "atributo" o "colum-na" son funcionalmente equivalentes, al igual quelo son los términos "registro" y "fila". Puede en-tenderse un registro como el equivalente electróni-co de una ficha de cartón tradicional, con diferen-tes casillas etiquetadas con un identificador (el cam-po) que se llenan con los valores correspondientesal caso registrado.

El rango de valores propios de las columnas (atri-butos) se denomina su dominio. Por ejemplo, eldominio propio del atributo "país" incluye los va-lores "España", "Francia", "Alemania", etc., hastaun número que se puede considerar equivalente alde las sillas disponibles en la Asamblea de Nacio-nes. Los dominios pueden definirse, según el tipode base de datos, mediante rangos indefinidos (porejemplo, un número entero de tantos dígitos o unacadena de 20 caracteres como máximo) o defini-dos (una serie de términos válidos). El conjunto deatributos, estructurados en relaciones, forma lo quese denomina el universo del discurso de una baserelacional.

Las bases relacionales identifican cada fila oregistro por una clave primaria. Con frecuencia estaclave está incluida en un campo reservado, un cam-po específico para esta clave que facilita la gestióninterna, aunque puede servir para esto cualquier otrocampo definido como primario o incluso una com-binación de campos.

Las bases de datos actuales incorporan recursosde interfaz que facilitan la entrada de informacióny permiten también presentarla del modo más ade-cuado. En una base de datos popular como MS

Access, los mismos datos pueden presentarse comouna tabla, que es la presentación que más se acer-ca al modo en que los datos se estructuran interna-mente; como un formulario, diseñado en forma deuna ficha tradicional que se presenta aislada enpantalla para facilitar la entrada de datos; como unaconsulta, preparada de tal modo que se puedan in-sertar con facilidad filtros, palabras clave de bús-queda, modos de ordenación, etc.; o como un in-forme en donde los datos de la tabla se reorganizandel modo más adecuado para su impresión o pre-sentación final. Estas alternativas son similares alas que ofrecen otros programas equivalentes.

La figura 9 ilustra estas nociones básicas quese corresponden estrechamente con lo que hemosvisto en la primera sección de este capítulo. La ta-bla central de esta figura muestra una serie de cam-pos asociados a un tipo de puerta, con datos talescomo fabricante, altura, espesor de la hoja, tipo demarco y cerrajería. En una base de datos norelacional hubiera sido necesario incluir, en el cam-po "fabricante", los datos correspondientes si sequisiera que estuvieran accesibles directamente loque, multiplicado por todos los casos similares,incrementaría el tamaño, complicaría considerable-mente la gestión de la base y sería poco eficaz, yaque nos veríamos obligados a repetir importantescantidades de información. En una base relacionales posible identificar un campo como éste por uncódigo y relacionarlo con otra tabla específica endonde se incluyan todos los datos necesarios delos fabricantes con que se trabaje habitualmente.

Lenguajes de consulta. SQL. QBE

Por lo general, sobre todo en el caso de grandesbases de datos, el usuario no interviene en la defi-nición ni en la construcción de la base sino que selimita a interrrogarla para obtener información. Estainteracción con la base a través del sistema de ges-tión se lleva a cabo por medio de un lenguaje deconsultas apropiado. Los dos principales que seutilizan en la actualidad son el SQL y el QBE. Ellenguaje SQL es el medio habitual utilizado paratransferir información entre distintas aplicaciones.Por ejemplo, hay varios programas que transfiereninformación entre AutoCad por un lado y DBase,Oracle o Access por otro, por medio de SQL. Ellenguaje QBE se utiliza fundamentalmente comoun recurso de interfaz para facilitar la comunica-ción entre el usuario y el sistema gestor de la base.

Page 341: [Architecture eBook] Aplicaciones as en Arquitectura

346 Aplicaciones informáticas en arquitectura

Puerta Nº Fabr Altura Hoja Marco ...

"M15"

Campo :

Tabla : PRT

... :

Criterio :

PRT PRT PRT PRTQBE

SQL

SELECT Tabla PRT.Puerta, Tabla PRT. Nº Fabr, ...

..., Tabla PRT.Marco, ...

FROM Tabla PRT

WHERE ((( Tabla PRT.Marco) = "M15"));

Puerta Nº Fabr Altura Hoja Marco Cierre ManillaP12 C102 210 3.5 M07 H564 L27P24 C102 210 3.5 M07 H564 L27P35 C231 220 3.5 M15 X39 K29

TeléfonoC155Arisa

C231C102

ZercosPTRK

Nº FabrEmpresa Contacto Fax ...

El lenguaje SQL (Structured Query Language) fuedesarrollado por D. D. Chamberlin el el IBMResearch Laboratory de San José, California. Elartículo principal en el que se describe el lenguajees de 1976 (ver bibliografía). Originalmente se de-nominaba SEQUEL (Structured English QueryLanguage) y se diseñó e implementó en IBM comoherramienta para un sistema de bases de datosrelacionales experimental que se llamaría SYSTEMR.

Las publicaciones que dieron a conocer los pri-meros prototipos impulsaron a otras compañías adesarrollar tecnologías propias en este área y, comoya hemos visto, Oracle Corporation sacó su primerprograma en 1979 que, entre otras cosas, incorpo-raba por primera vez el lenguaje SQL. En 1982ANSI formó el comité de estándares SQL que seconsolidaría en 1986 con la publicación del estándarANSI/ISO para SQL. Poco tiempo después se ex-tendió a los entornos propios de los PCs. En 1989se revisó la primera versión de la norma a lo quesiguieron otras correcciones. En 1992 se apruebacomo norma internacional una nueva versión co-nocida como SQL2 o SQL92. Para 1999 se prevéla aparición de una nueva norma, denominadaSQL3, que además de incorporar una mayor capa-cidad semántica incorpore ciertas características deorientación a objetos.

SQL consiste básicamente en un programa quepermite trabajar con una base de datos de modointeractivo mediante un lenguaje relativamente sim-ple, con términos y frases similares a las del ingléscomún. Por ejemplo, el significado del código si-guiente

SELECT MODELO, PRECIO, ANCHURAFROM PUERTAS

sería, en español: "selecciona" (select) los atribu-tos modelo, precio y anchura "de la" (from)relación (tabla) puertas". En esta pequeña sen-tencia hay dos palabras propias de SQL que sonselect y from y cuatro palabras que han sido defini-das previamente, al crear el esquema de la base.Otros ejemplos similares pueden encontrarse confacilidad pidiendo a un programa de bases de da-tos que muestre la equivalencia de una consultacualquiera en este lenguaje.

Durante los últimos años SQL se ha convertidoen la referencia estándar, utilizada en la mayoríade los programas que gestionan bases de datos, tan-to en grandes como en pequeñas máquinas. Permi-te compartir datos entre aplicaciones y funcionatambién como un protocolo de intercambio com-partido por todo tipo de plataformas. El SQL pue-de entenderse como un programa autónomo quecontrola e interactúa con otros programas.

El estándar SQL ANSI/ISO no especifica unnúmero máximo de columnas en una tabla pero casitodos los desarrollos comerciales imponen un lí-mite que suele ser del orden de las 255 columnaspor tabla (este es, por ejemplo, el límite de la baseMS Access). Tampoco se especifica el númeromáximo de registros que, en general, dependerá dela capacidad de la plataforma sobre la que se tra-baje (el límite de MS Access no es el número deregistros sino el volumen total de la base, que nopuede sobrepasar 1 Gb).

Figura 10 Ejemplo de consulta con QBE y sutraducción a SQL

Figura 9 Ejemplo de base relacional con variasrelaciones (tablas) asociadas

Page 342: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 347

También a mediados de los setenta, en la Uni-versidad de Berkeley, apareció QUEL (QueryLanguage), un lenguaje desarrollado para el DBMSrelacional INGRES que se utilizó extensamente enmedios universitarios , y comercialmente a partirde los ochenta. Es en cierto modo similar al SQLpero no entraremos en su descripción pues los doslenguajes actuales más utilizados en las aplicacio-nes en los despachos de arquitectura son SQL yQBE.

El lenguaje QBE (Query By Example) es un len-guaje de consulta que fue desarrollado por M. M.Zloff, del IBM Research Center, Yorktown Heights,New York, hacia 1978 y que se extendió con rapi-dez durante la década de los ochenta. A diferenciade los dos anteriores, el usuario no tiene que escri-bir prácticamente nada, no tiene que conocer laspalabras claves del lenguaje y todo lo que necesitaes una comprensión adecuada de la lógica con laque se desenvuelve el lenguaje. A pesar de sus li-mitaciones por lo que respecta a la interacción conotras aplicaciones, ha tenido un éxito rotundo, de-bido a su extraordinaria facilidad de manejo: sepuede aprender su funcionamiento básico en me-nos de una hora aunque se necesite bastante mástiempo para aprender a confeccionar consultas ela-boradas.

La consulta se formula llenando plantillas derelaciones que aparecen en pantalla. No se necesi-ta recordar los nombres de los campos pues apare-cen directamente en pantalla y es posible seleccio-narlos como se seleccionan las órdenes de un menú.Tampoco es estrictamente necesario conocer susreglas de sintaxis pues las constantes y variablesadecuadas aparecen en muchos casos bajo las co-lumnas correspondientes, formulando ejemplos (deahí el nombre) que orienten al usuario sobre cómoconstruir variantes.

Pueden escogerse las tablas que se necesite pararealizar la consulta y especificar relaciones entreellas. Los resultados se muestran en tablas virtualesque corresponden al concepto genérico de "vista"que hemos presentado en párrafos anteriores. Estaposibilidad, que se traduce en el hecho corrientede que un usuario utilizará principalmente tablasvirtuales que correspondan a sus consultas más co-rrientes, es una de las razones que hacen de estelenguaje el favorito de las aplicaciones que hansurgido en PCs en los últimos años. Es, por ejem-plo, el lenguaje que utiliza un usuario corriente deun programa como Access, probablemente el pro-

grama de bases de datos más popular de la décadade los noventa, aunque es probable que el usuariomedio ignore la existencia de este lenguaje.

Es habitual que, como ocurre en el propio Accesslas consultas formuladas en QBE se traduzcan in-ternamente a SQL. La figura 10 muestra, en su partesuperior, un ejemplo simplificado de consulta enQBE en donde se indican las tablas y campos so-bre los que se quiere efectuar la consulta y, másabajo, el criterio de la consulta. En este caso el cri-terio es que se muestren tan sólo las puertas quetengan un tipo de marco determinado. Igualmentepodría haberse especificado ">210", bajo el cam-po "altura" o el código correspondiente a un fabri-cante determinado o una combinación de criterios,mediante las palabras clave "AND" (que mostraríalos registros que cumplieran ambas condiciones) obien "OR" (que mostraría los registros que cum-plieran cualquiera de las condiciones).

En la parte inferior se muestra el equivalente dela consulta anterior en lenguaje SQL. La represen-tación en SQL suele permanecer oculta en las ba-ses de datos corrientes pero es un poderoso instru-mento de programación que permite escribirlinealmente las consultas y redirigir el código acualquier programa capaz de reconocer estos có-digos. La mayoría de los programas de Cad de usocorriente, como AutoCad o Microstation, puedenleer instrucciones en lenguaje SQL, lo que permitela interacción entre sus bases propias y bases dedatos asociadas, una forma de trabajo que es pre-visible que cobre una importancia creciente en lospróximos años.

3. Sistemas de información y sistemasexpertos

Sistemas de información

El término "sistema de información" se utiliza prin-cipalmente en el campo de la gestión administrati-va de grandes compañías en las que se produce unflujo de información constante, protocolizado yjerarquizado. Una compañía con un gran númerode empleados de diferentes niveles de responsabi-lidad está sometida a una circulación constante deinformes, cartas, memorándum, actas de reunión,notas de despacho, etc. Los informes pueden serperiódicos, especiales, urgentes, inesperados..., sucontenido puede ir desde una rutinaria circular quedescriba cambios en la composición del personal

Page 343: [Architecture eBook] Aplicaciones as en Arquitectura

348 Aplicaciones informáticas en arquitectura

Programa

Proyecto

Datos Estructurados

Datos no Estructurados

Datos no Estructurados

Datos Estructurados

Fue

ntes

Ext

erna

sFuentes Internas

Sistemas de análisis, inferencia y

deducción lógica

Creatividad, intuición, conocimientos no

clasificables

hasta extractos de la actividad económica mundialelaborados por consultores expertos en estas mate-rias. Toda esta información es básicamente textualpero va con frecuencia acompañada de gráficos quela resumen para que pueda ser asimilada con ma-yor rapidez.

Por debajo de este flujo constante hay un siste-ma de organización que, en las grandes compañíasactuales, depende absolutamente de la gestión efi-caz de grandes bases de datos de diversos tipos. Aveces se articula todo este flujo en cinco grandesáreas de aplicación: el procesamiento de datos, eluso de sistemas especializados de gestión de la in-formación, el recurso a sistemas de soporte de de-cisiones (DDS, decision support systems), los mé-todos de automatización del trabajo de oficina, yel uso de sistemas expertos.

Aún cuando el tema tiene una importancia con-siderable y cabría hacer cierto tipo deextrapolaciones interesantes al caso de la arquitec-tura, no vamos a hacer otra cosa que mencionarlodejando para otra ocasión el desarrollo más deta-llado de estos paralelismos. Como se podrá apre-ciar, sin embargo, al final de este capítulo, esta no-ción está implicada en todo lo que se tratará a con-tinuación aunque no quede mencionada de un mododirecto.

Todo sistema de información puede describirsede un modo elemental por medio de un flujo deinformación articulado en tres etapas principalesque se resumen en la figura 10: 1) se recibe unainformación de entrada; 2) esta información,articulada en forma de datos, se procesa de diver-

sos modos adecuados a los diversos tipos; 3) seproduce una información como salida.

Un proyecto arquitectónico no es una excepción.Podemos describir todo el proceso del siguientemodo: 1) se recibe una información de entrada: elencargo de un proyecto, con un programa determi-nado que deberá materializarse en un tiempo de-terminado para realizarse en un lugar determina-do; 2) esta información, que comprende fotogra-fías, planos del lugar, datos numéricos sobre su-perficies, condiciones físicas generales, caracterís-ticas de las actividades que se van a realizar en losrecintos, descripciones diversas de las condicionesa que deben ajustarse los resultados. etc., se proce-sa de diversos modos, poniendo en juego toda lapotencialidad del despacho que incluirá la memo-ria personal de sus componentes, la memoria fija-da en hojas de papel y soportes electrónicos y lamemoria externa a la que se pueda acceder me-diante desplazamientos físicos o virtuales; 3) se pro-duce una información como salida: las especifica-ciones de un conjunto de formas y materiales enlos que se realizará el encargo.

Sistemas expertos

En el último capítulo de este libro volveremos so-bre la relación que mantienen los diversos trabajosde investigación que se han agrupado bajo el rótu-lo de inteligencia artificial y sistemas expertos. Sise quiere situar mejor lo que sigue en su contextohistórico puede ser conveniente leer la primera partedel dicho capítulo antes de proseguir.

El resultado más elaborado, surgido de las pri-meras investigaciones de la AI, fue probablementeel GPS (General Problem Solver) desarrollado porNewell y Simon en 1957. La puesta a prueba deeste producto llevó a la conclusión de que el nom-bre era demasiado ambicioso: había cierto tipo deproblemas que podían ser resueltos y otros que re-sultaban insolubles. La investigación derivó, porun lado, hacia cuestiones teóricas más generales,esto es, hacia la investigación de la posibilidad deencontrar modelos que reprodujeran de modo ade-cuado los diversos procesos mentales que utilizanlos seres humanos para resolver todo tipo de pro-blemas y, por otro lado, hacia el perfeccionamien-to de algunos de los métodos que se habían demos-trado eficaces. Esto implicó un considerable gradode especialización en las tareas que se abordaron acontinuación.

Figura 11 La actividad de un despacho como unsistema de información

Page 344: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 349

Base de Conocimiento

(KB)

Motor de Inferencia

Interface

Con

cha C

ompo

nent

es

Fun

dam

enta

les

En 1965, en el contexto del Stanford HeuristicProgamming Project, se diseñó un programa quecumplía algunos de los requisitos principales plan-teados en el programa de investigación de la AI(Artificial Intelligence) centrado en un caso con-creto, en el ámbito de la química. El programa te-nía como finalidad generar todas las configuracio-nes posibles de un determinado conjunto de áto-mos, como ayuda para los químicos que estuvierantratando de identificar un compuesto determinado.El programa se denominó DENDRAL (acrónimode DENDRitic ALgorithm) y su autor principal fueJoshua Lederberg, profesor de genética en la Uni-versidad de Stanford, en colaboración con EdwardFeigenbaum y Bruce Buchanan entre otros. Un añomás tarde el programa se amplió para permitir laidentificación de compuestos moleculares a partirde datos analíticos.

El éxito del DENDRAL hizo ver que las clavesdel éxito estaban en la especialización; en la bús-queda, no de métodos generales capaces de resol-ver cualquier tipo de problemas, sino de métodosadaptados a problemas específicos. Ha depuntualizarse, pese a todo, que los métodos utili-zados eran también deudores de aquel primer im-pulso en dirección de la máxima generalidad. Perotras este primer impulso se comenzó a ver conmayor claridad la necesidad de concentrar esfuer-zos en áreas determinadas si se pretendía seguircontando con el apoyo de la industria.

Feigenbaum, uno de los padres de la AI y lossistemas expertos, reconoció esta inflexión y la des-cribió, en los términos de la famosa obra de Kuhn(La estructura de las revoluciones científicas,1962) como un característico "cambio de paradig-ma". Esta inflexión implicaba una importante revi-sión teórica en la medida en que se pasaba de con-fiar en técnicas basadas en la comprensión de losprocesos mentales a confiar en técnicas basadas enel conocimiento. El propio Feigenbaum define unsistema experto como "un programa inteligente queutiliza conocimiento especializado y procedimien-tos de inferencia para resolver problemas propiosde un área especializada tal como lo haría un ex-perto humano".

Posteriormente aparecieron otros programas queconsiguieron una buena implantación en sectoresdeterminados de la producción industrial. Entreellos cabe citar MYCIN, el primer programa utili-zado en medicina como ayuda para la elaboraciónde diagnosis clínicos o el PROSPECTOR, un siste-

ma de consulta utilizado para ayudar a los geólogosen la búsqueda y evaluación de depósitos de mine-rales. Ambos se desarrollaron en Stanford entre1975 y 1978.

Estos programas estaban basados en la repre-sentación del conocimientos por medio de reglasde inferencia. Por ejemplo, el MYCIN contaba conuna base de conocimiento de algo más de 400 re-glas del tipo "SI el paciente tiene los síntomas tal ytal (lista de diversos tipos de síntomas, análisis yrasgos generales del paciente), ENTONCES tienela probabilidad (x%) de tener tal tipo de enferme-dad".

Tanto MYCIN como DENDRAL construyeronsus bases de conocimientos por medio de largasentrevistas con expertos humanos. Este método te-nía serios inconvenientes que afectaron por igual alos que les siguieron. En 1977 Feigenbaum descri-bió la situación en estos términos: "...la adquisi-ción de conocimiento es el cuello de botella quedificulta el avance en la construcción de sistemasinteligentes orientados a aplicaciones específicas".El "problema del cuello de botella" (the bottleneckproblem), como pasó a ser denominado, se convir-tió en el eje de las principales investigaciones delos años que siguieron y que buscaron métodos al-ternativos de aprendizaje, principalmente métodosque permitieran a las máquinas aprender por si so-las, llevando a cabo inferencias automáticas inter-nas a partir de un número más reducidos de cono-cimientos previos.

En la actualidad hay un número importante desistemas expertos que se utilizan en diversos sec-tores, entre ellos el sector de la construcción. Vol-

Figura 12 Estructura básica de unsistema experto

Page 345: [Architecture eBook] Aplicaciones as en Arquitectura

350 Aplicaciones informáticas en arquitectura

veremos sobre la cuestión de su posible interés paralos arquitectos más adelante. En lo que sigue seresumen las nociones generales, comunes a todotipo de aplicaciones.

Finalidad y características de los sistemasexpertos

Los sistemas expertos tienen como finalidad prin-cipal solucionar problemas concretos que son re-sueltos habitualmente por profesionales expertosen un área de conocimiento específica. Utilizanmétodos provenientes de la investigación en inteli-gencia artificial restringidos a dominios muy aco-tados y que se caracterizan principalmente por:

a) la construcción de una base de conocimientoque sea accesible por el sistema;

b) la aplicación de operadores lógicos a esta basemediante reglas de inferencia automatizadas enun módulo especial denominado motor deinferencias;

c) la utilización de sistemas de interface que per-mitan la entrada de preguntas, en un lenguajede alto nivel (con un léxico cercano al del len-guaje natural) y la salida, tanto en forma de res-puestas directas a las preguntas formuladas,como de explicaciones acerca del razonamien-to que ha conducido a esta respuesta.

En relación con esta última característica hay quehacer notar que los usuarios de un sistema expertoson, por lo general, profesionales con un buen co-nocimiento del área de que se trate y que, con fre-cuencia, no se sentirán satisfechos con una respuestaescueta sino que estarán interesados en saber lasrazones de esta respuesta para detectar posiblesinconsistencias en la formulación del problema opara detectar vías que no se han tenido en cuenta.

También cabe notar, en este mismo sentido, quelas conclusiones de las reglas de inferencia de unsistema experto pueden ser de dos tipos: absolutas(si/no) o relativas, especificando un porcentaje ouna medición numérica de la certeza con respectoa la respuesta formulada ("si, con una probabili-dad del 60%", etc).

Los tres módulos característicos de un sistemaexperto se integran en una unidad funcional peropueden separarse y de hecho lo hacen. El conteni-do sustancial del sistema está en el primer módulo,la base de conocimiento, mientras que los otros dospueden independizarse y desarrollarse de tal modo

que sirvan a diferentes sistemas. Los sistemas ex-pertos han seguido una evolución similar a la deotras aplicaciones informáticas que, en principio,se diseñaban a medida de un usuario específico yposteriormente se comercializaron como sistemasgenéricos. Tras haberse creado varias sistemas par-ticulares se vio con claridad que muchos de los com-ponentes del sistema eran comunes, más concreta-mente, que las funciones del intérprete de las re-glas de inferencia eran claramente separables delos enunciados específicos de reglas que pertene-cían a dominios específicos. Estos intérpretes ais-lados del sistema que actualmente se comerciali-zan por separado (expert systems shells) incluyenreglas generales y mecanismos diversos de razo-namiento y evaluación de certezas, así como, másrecientemente, herramientas para la adquisición deconocimiento.

La figura 11 presenta un diagrama queesquematiza estos módulos básicos y muestra cómolos dos módulos más genéricos pueden separarsepara formar lo que se denomina una concha (shell),esto es una unidad compuesta que se sitúa entre labase de conocimiento y el usuario y en la que seintegran todos los procedimientos principales delsistema.

Adquisición y codificación del conocimiento.El cuello de botella de los sistemas expertos

Los sistemas expertos son artefactos inteligentesque utilizan diversos métodos. El principal de es-tos métodos es el que se conoce como "basado enel conocimiento" y con el se construyen los deno-minados KBS (knowledge based systems). El co-nocimiento, en este contexto, se define como: "elconjunto de reglas, hechos, verdades, razones ydatos heurísticos recopilados por expertos huma-nos que han probado su aplicabilidad a la resolu-ción de problemas específicos en un área determi-nada de aplicación". Un KBS puede definirse, deun modo simple, como un sistema que integra ex-periencia humana y capacidad de procesamientológico. Es decir, una base de datos de un cierto tipo,que no es trivial construir, más un sistema capaz derelacionar en profundidad tales datos.

La construcción de una base de conocimientose lleva a cabo mediante la colaboración de un pro-fesional experto en el área de que se trate. Un inge-niero de conocimiento o KE (Knowledge Engineer)se encarga de traducir sus aportaciones a reglas que

Page 346: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 351

puedan quedar incorporadas al programa en su faseinicial. El sistema debe, en general, permitir que labase se amplíe y se refine progresivamente median-te nuevas aportaciones. Los KBS se construyen,por consiguiente, mediante la colaboración de trestipos de personas:

a) Diseñadores de propósito general que desarro-llan armazones o conchas (shells) sin propósi-to específico. Estos armazones son como plan-tillas vacías que recogen todos aquellos meca-nismos generales, ya comprobados en sistemasexpertos que han tenido éxito y que puedenser utilizados en diferentes contextos.

b) Ingenieros de conocimiento que particularizanlas KBS llenándolas con conocimiento sustan-tivo adecuado para un dominio específico. Estaoperación debe llevarse necesariamente a cabocon la ayuda de un experto humano en el áreade conocimiento de que se trate y que puedeser perfectamente ignorante de estos aspectostécnicos. Aunque presenta importantes com-plicaciones adicionales es deseable que la basepueda ser refinada progresivamente por el ex-perto sin la ayuda constante del KE.

c) Usuarios. El usuario de un sistema expertodebe tener suficientes conocimientos de infor-mática para poder usar el programa y suficien-tes conocimientos del dominio de que se tratecomo para poder evaluar la pertinencia de lasrespuestas, aunque no necesita ser un expertoen ninguno de los dos campos.

La creación de la base de conocimientos planteauna buena colección de problemas de notable inte-rés teórico. Resumiremos muy sucintamente algu-no de los aspectos principales.

En primer lugar debe escogerse un método ade-cuado para la representación del conocimiento.Algunos de los principales métodos utilizados sonla utilización de sistemas de deducción automáticabasados en el cálculo de predicados, la formula-ción de reglas de producción, la utilización de re-des semánticas o la utilización de marcossemánticos.

Los métodos basados en el cálculo de predica-dos se fundan en la incorporación a un lenguaje deprogramación de los axiomas y teoremas de unarama de la lógica, ampliamente analizada y desa-rrollada durante este siglo, el cálculo de predica-dos, de tal modo que se puedan automatizar lasdeducciones lógicas basadas en premisas dadas por

el usuario. Este es el sistema en que se basa el len-guaje de programación PROLOG, el lenguaje deprogramación más utilizado en inteligencia artifi-cial, al que ya nos hemos referido en el capítulo 2.

Las reglas de producción se utilizaron en losprimeros sistemas expertos que ya hemos citado,como el MYCIN, que constaba de unas 400 reglascodificadas en lenguaje LISP, el otro lenguaje uti-lizado corrientemente en inteligencia artificial, alque también nos hemos referido en el capítulo men-cionado. El sistema está basado en la obra del lógi-co americano Post que en 1943 presentó un siste-ma que posteriormente se desarrolló para aplicarloa trabajos pioneros en inteligencia artificial. Con-siste en una colección de reglas del tipo "si-enton-ces" con una estructura de tipo antecedente-conse-cuente que permite derivar enunciados nuevos deotros dados. El proceso de razonamiento se produ-ce por ciclos con generación de hipótesis interme-dias que son corroboradas con mayor o menor gra-do de certeza hasta producir una conclusión quelleva a su vez incorporado un coeficiente de certe-za. Este método tiene algunas ventajas importan-tes, como su modularidad o el que sea fácilmenteincrementable y modificable. Por otra parte ofreceescasa capacidad de autogeneración y es altamen-te dependiente de la formulación de reglas por elconstructor de la base.

Los sistemas basados en redes semánticas utili-zan grafos conceptuales para representar las rela-ciones entre términos. Estos sistemas están inspi-rados a su vez en métodos utilizados por Peirce afinales del siglo pasado. Los contenidos concep-tuales de una proposición se representan por me-dio de nodos de diferentes tipos que albergan pre-dicados, nombres, circunstancias y relaciones en-tre elementos. Este sistema de representación per-mite computar relaciones implícitas que no son di-rectamente perceptibles y generar nuevos enuncia-dos. Otro sistema similar es la utilización de árbo-les jerárquicos, similares a los árboles binarios quehemos visto al principio de este capítulo y que sonparticularmente adecuados para representar enti-dades que están relacionadas entre sí como lo es-tán los géneros y las especies lo que facilita laautomatización de las inferencias.

La utilización de marcos o frames es una ideadebida a Marvin Minsky, a partir de un famoso ar-tículo de 1975 ("A framework for representingknowledge"), ampliamente citado y debatido porlos teóricos de la AI. El sistema propuesto por

Page 347: [Architecture eBook] Aplicaciones as en Arquitectura

352 Aplicaciones informáticas en arquitectura

Minsky intenta abordar técnicamente un obstáculofundamental, un obstáculo que aparecía (y sigueapareciendo) como la manifestación de una dife-rencia radical e insalvable entre el modo en que loshumanos "vemos" las cosas y el modo como las"ven" los ordenadores. Los seres humanos aíslanlos objetos en función de una informacióncontextual de ramificaciones complejas. Minskyproponía aproximarse a esta forma de percepciónmediante la representación por medio de bloquesglobales articulados entre sí. El instrumento bási-co para lograrlo sería el marco (frame), una estruc-tura de representación basada en objetos relacio-nados con otros objetos. Minsky presupone que encada situación en que nos encontramos extraemosde nuestra memoria un esquema conceptual, un"marco" que orienta y organiza las percepciones.El marco se define como un registro complejo concategorías genéricas que pueden ponerse en rela-ción con otras categorías genéricas de otros mar-cos. La propuesta de Minsky, inspirada en trabajosdel psicólogo Bartlett que se remontan a los añostreinta tiene interesantes connotaciones sobre lasque volveremos en el último capítulo.

4 Tipos de datos utilizados enarquitectura

Tras la revisión anterior que ha presentado los sis-temas principales que se incluyen bajo el términotécnico "base de datos" será conveniente volver alconcepto general de "dato" informático, a lo resu-mido en el primer apartado de este capítulo, y te-ner en cuenta que hay varios modos de utilizar da-tos de un modo sistemático aunque no se esté utili-zando propiamente un programa tipo DBMS. Unproyecto arquitectónico incorpora diversos tipos dedatos y, en la actualidad, es el propio usuario elque debe encargarse de compaginar todos estosdatos en uno o varios volúmenes ordenados de pá-ginas y planos.

La intención general de este capítulo es hacerver que esto puede llevarse a cabo de un modomucho más eficaz de lo que se hace corrientemen-te y que es previsible la aparición, en un plazo re-lativamente breve, de sistemas que ayuden a coor-dinar todos los datos de un proyecto de un modointegral, esto es, que lleven a cabo la misma fun-ción para un proyecto arquitectónico que un DBMSlleva a cabo para datos más simples en una empre-sa de otro tipo. De hecho, ya existen programas

que llevan a cabo esta labor pero de un modo aúninsuficiente o escasamente compatible con las con-figuraciones y modos de trabajo de los despachosactuales.

La eficacia de estos sistemas está estrechamen-te ligada a su capacidad para gestionar el sistemaconstructivo que se va a utilizar, es decir, los mate-riales y las operaciones que van a permitir que selleve a cabo una idea arquitectónica. Los sistemasconstructivos son mayoritariamente tradicionalesy minoritariamente innovadores, en un porcentajepequeño pero muy variable según la época, el lu-gar y el tipo de obra. El modo en que un proyectoarquitectónico utilice y desarrolle cuanto está rela-cionado con estos sistemas es determinante paraponderar su eficacia y está directamente relaciona-do con la capacidad de gestionar adecuadamentetipos específicos de bases de datos.

Las bases arquitectónicas gestionarán principal-mente elementos arquitectónicos. Conviene dete-nerse en el sentido de estos términos antes de pro-seguir. Un elemento es una parte de un objeto ouna entidad que se considera como autónoma o cla-ramente diferenciable con respecto al resto. En unaestructura configurada por diferentes piezas se de-nomina elemento a cada una de ellas. El término"elemento" tiene el sentido de "parte constituyen-te". Un sentido que se remonta al que tenía estetérmino en la filosofía natural que hemos heredadode los antiguos griegos. El elemento es "algo dado",algo fundamental de lo que se parte para construiru organizar otra cosa.

El elemento como cosa concreta, determinada,es, sin embargo, algo que varía con las circunstan-cias históricas y económicas. Y esta característicatambién se remonta al sentido que tiene el términoen el ámbito de la filosofía natural y de la física.Pues la noción de elemento como constituyentefundamental de la materia ha ido variando en cadaépoca histórica, desde los cuatro elementos clási-cos hasta los quarks, pasando por los átomos o lasmoléculas. Ahora bien, ninguno de estos puntos devista descarta completamente el anterior y aunquesea posible que a principios del siglo que vieneexistan chips basados en el comportamientocuántico de semiconductores microscópicos, des-de otros puntos de vista, desde otros tipos de tra-bajos o consideraciones, el aire, el agua, el fuego yla tierra seguirán siendo considerados como "ele-mentos" de cuyas propiedades fundamentales sedebe partir al analizar las condiciones de otros ti-

Page 348: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 353

pos de trabajos.El término "elemento" es, por consiguiente, un

término relativo pero que aparece como fundamen-tal una vez queda delimitado con claridad el ámbi-to de una aplicación concreta.

Estas consideraciones son particularmente rele-vantes en el caso de la arquitectura. La finalidad dela arquitectura es la reordenación del espacio natu-ral de modo que se adecúe a determinadas finali-dades sociales. Para ello cuenta en principio condos tipos de materiales, con dos grandes catego-rías previas: materiales informes y materialespreformados. El mayor peso relativo de uno de es-tos dos extremos está relacionado directamente conla mayor o menor industrialización de la obra deque se trate. Si la práctica totalidad de los elemen-tos que intervienen en una obra consisten en mate-riales preformados o "prefabricados", este gradode industrialización será máximo. Pero incluso eneste caso extremo será preciso recurrir a algún tipode material informe para completar la obra: aun-que no sea más que determinada cantidad de resi-nas sintéticas para sellar las juntas. En el otro ex-tremo, las casas primitivas, construidas con adobey argamasa, no cuentan con otro elemento que laspiezas irregulares con que se construye el núcleode los muros y que, en muchos casos, se fabrica-ban a pie de obra.

La noción de "composición de elementos" tie-ne, o tenía, en arquitectura un doble sentido. Entanto que término académico, está referido a unestadio de aprendizaje preproyectual en donde sedirige la atención del estudiante hacia una tipologíade configuraciones que están presentes en todoproyecto: vestíbulos, escaleras o ventanas son ele-mentos arquitectónicos que figurarán, siempre, encualquier proyecto, y que justifican un análisis quebusque identificar soluciones compositivas univer-sales a partir de las cuales se puedan establecer di-versas variantes.

En tanto que término técnico, la noción de ele-mento está referida a una condición de la prácticaprofesional en donde resulta obligado conocer elrepertorio de configuraciones con que puede con-tar un proyecto. Este repertorio es variable y estárelacionado hasta cierto punto con lo anterior, conla tipología de configuraciones. Para seguir con elmismo ejemplo: no hay vestíbulos dados a prioricomo algo prefabricado; pero hay alguna escalera;y hay muchas ventanas cuyas configuraciones es-tán fijadas y, en la mayoría de los casos no pueden

ser modificadas.Este panorama, extraordinariamente dinámico

y complejo, es el que caracteriza a la práctica ar-quitectónica y el que será preciso tener bien pre-sente antes de analizar el modo en que la informá-tica interviene en el proceso. Por un extremo, laarquitectura se relaciona con otros sectores indus-triales en donde la noción de elemento es omnipre-sente; las ventanas metálicas, por ejemplo, son ele-mentos arquitectónicos cuyas condiciones de pro-ducción se basan en reglas estrictas que pueden sertotalmente automatizadas y cuya inserción en laobra arquitectónica se realiza también de un modototalmente preciso. Otro tanto cabe decir de piezassanitarias, puertas interiores o cierto tipo derevestimientos.

Por el otro extremo, la arquitectura está ancladaen un lugar; esto quiere decir que habrá, al menos,una parte del edificio, sus cimientos, en donde ca-rece de sentido la noción de "elemento preformado"o es una noción que debe ser relativizada al máxi-mo pues siempre será necesario insertar elementosinformes de transición.

Las consideraciones anteriores son independien-tes de la informática y se detienen aquí. Pero debe-rán mantenerse como un fondo sobre el que con-trasten adecuadamente las descripciones que sigueny que serán, necesariamente, más técnicas.

Una primera consideración, retomando las des-cripciones técnicas, es que un programa de CADes también un sistema gestor de bases de datos. Yesto puede ayudar a entender mejor la previsibleevolución de estos programas. Cuando se utilizaun programa de CAD se está, de hecho, utilizandoun sistema que cuenta con un método de gestióninterna de datos que será alguno de los que hemospresentado anteriormente. Es interesante observarque en algunas normativas sobre capas, tales comolas que hemos mencionado en el capítulo 10, seequipara los archivos de modelo (o la presentaciónen espacio modelo, model space) a la tabla quecontiene los datos generales, y los archivos de pla-nos (o la presentación en espacio papel, paperspace) a los informes generados a partir de unaconsulta, tal como se hace cuando se manejan ta-blas relacionales.

Muchos programas de CAD utilizan gestores queorganizan los datos en forma jerarquizada oreticular aunque el método preciso no se puedaconocer con exactitud porque es información in-terna del programa. La organización jerárquica es

Page 349: [Architecture eBook] Aplicaciones as en Arquitectura

354 Aplicaciones informáticas en arquitectura

DRAWING

SYMBOL TABLES NAMED OBJECT DICTIONARY

HEADER VARIABLES

Blo

ck

Tab

le

Dim

Sty

le

Tab

le

Line

Typ

e T

able

Laye

r T

able

Vie

wpo

rt

Tab

le

UC

S

Tab

le

Tex

tSty

le

Tab

le

Reg

App

. T

able

Vie

w

Tab

le

Mod

el S

pace

0

...

Acad Ver

Pd Mode

Ce Color

Pd Size

Ce SizeGro

up

MLi

ne

(Usu

ario

)

...

corriente porque la propia organización de ciertotipo de entidades gráficas lo favorece; un ejemploque ya hemos visto en el capítulo correspondientea CAD3D es el sistema CSG de modelado de sóli-dos que representa los datos de un sólido compuestopor medio de un árbol binario que es recorridosistemáticamente por el programa para acceder ala información de las primitivas de base.

Otro ejemplo puede venir dado por la estructu-ra interna del programa de CAD más utilizado enlos despachos arquitectónicos. Cuando se inicia unasesión con AutoCad, la base de datos de la aplica-ción contiene tres cosas: un conjunto de 9 tablas desímbolos, 1 "objeto-diccionario" y 1 un conjuntofijo de variables con valores iniciales. Prescinda-mos del diccionario (que se usa fundamentalmenteen programación para crear objetos con datos ex-tendidos) y de las variables. Las 9 tablas, que seilustran en la figura 14, no pueden modificarse ensu estructura matriz; contienen registros que con-tienen a su vez entidades o propiedades de entida-des. Cada entidad y cada propiedad tiene su lugaren esta jerarquía. Si, por ejemplo, queremos crearuna línea, el sistema abre la tabla de bloques, quecontiene dos objetos predefinidos: un bloque parael espacio papel y otro bloque para el espacio mo-delo. Abre este último para escritura, crea un nue-vo registro, inserta los datos correspondientes alobjeto "línea", incluyendo entre ellos unidentificador o "campo clave", cierra el registro ycierra la tabla. Si queremos crear una capa, el pro-ceso es similar y viene ilustrado en la figura 15;nótese que esta tabla ya cuenta también con una

capa predefinida, la capa "0" a la que se añade nues-tra nueva capa.

Las bases relacionales proporcionan una consi-derable flexibilidad de uso pero lo hacen, como yahemos dicho, a consta de una gestión interna mu-cho más lenta. Esto las hace inadecuadas por elmomento para formar una parte substancial de unprograma de CAD. Pero es previsible que la mis-ma evolución que ha llevado a las empresas a in-vestigar y optar por sistemas que ofrecen una ma-yor capacidad de consulta y aprovechamiento dela información, pueda llevar a modificaciones delos programas de CAD que potencien la utiliza-ción de los datos de diverso tipo. Más concreta-mente, algunos programas de CAD ya utilizan ba-ses internas que combinan características de basesrelacionales y bases orientadas a objetos con fun-ciones equivalentes a las relacionales.

Pongamos un ejemplo evidente. Un muro, mo-delado en AutoCad, puede ser una entidad de ca-racterísticas diferentes e incompatibles que, segúnlos casos, imposibilitarían su utilización para cier-tas aplicaciones. Podemos haberlo modelado comouna serie de líneas (en modo alámbrico), como unacombinación de bandas extrusionadas (unapolilínea ancha con "thickness"), como una seriede caras poligonales (por ejemplo como una seriede "3dfaces"), como una serie de primitivas com-binadas con el módulo AME de la versión 12 deAutoCad o como una serie de primitivas combina-das con el módulo ACIS de las versiones 13 y 14de AutoCad.

Estas diferentes alternativas implican la organi-

Figura 13 Base de datos (estructura interna) de AutoCad

Page 350: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 355

Geometría

...

Material

Propiedades

Cara 1Cara 2

Cara 16

Cara 8

...Cara 2Cara 1

Material 1Material 2Material 3

Volumen

Muro

Hueco

Masa

Coste

Coeficiente...

Block Table

Layer Table

PaperSpace

ModelSpace

Layer "0"

Layer "New"

...

...

linea xxx

otras entidades

zación de los datos geométricos que describen elmuro, que serán los mismos en todos los casos (al-tura, anchura, espesor, posición y dimensiones delos huecos, etc.) de diferentes modos, modos rígi-dos, que facilitan una gestión rápida y efectiva porparte del programa pero que son inflexibles e im-posibilitan la utilización de datos ya introducidospara otro tipo de aplicación. Si, por ejemplo, he-mos generado el muro por medio de bandasextrusionadas, una opción sencilla y efectiva, y, pos-teriormente, queremos utilizar este muro para unaanálisis físico, asociándole propiedades determi-nadas, nos veremos obligados a volver a generarlopor medio de un módulo de modelado de sólidosque admita la especificación de propiedades mate-riales. Pero esto, por otro lado, resulta ineficaz paraun programa de rendering al que sólo le interesacontar con una descripción de las caras externaspor medio de normales asociadas a éstas.

Si la información relativa al muro estuviera con-tenida en una base relacional (o relacionable) queincluyera la información geométrica básica seríafactible utilizar esta base de muy diversos modos(efectuar diversos tipos de consultas) para que elresultado fuera, según los casos, un modeloalámbrico, un modelo con caras ocultas o un mo-delo susceptible de ser sometido a consultas relati-vas a propiedades de componentes materiales quese le pueden asociar tal como se sugiere en la figu-ra 16.

Esto es hacia lo que hay que esperar que tiendanlos programas de CAD y lo que, hasta cierto pun-to, es posible hacer en mayor o menor grado con la

ayuda de programas complementarios.A un nivel más elemental, pero cercano a los

usos actuales, debe también tenerse en cuenta, re-lacionando esto con los sistemas primitivos de ba-ses de datos por sistemas de gestión de archivos,que hay, como se decía al comienzo de este aparta-do, muchos modos de utilizar datos organizadossin necesidad de recurrir a un programa especiali-zado en gestión de datos. Cuando, por ejemplo, sehan coleccionado una serie de dibujos de símbolosgráficos, tales como símbolos para instalaciones dediversos tipos, detalles de carpintería, elementosde mobiliario o piezas sanitarias en 2D o elemen-tos diversos en 3D, un tema al que volveremos conmás detalle más adelante, se está haciendo un uso,no por elemental menos importante, de una basede datos.

El gestor de estas bases elementales es, en pri-mer lugar, el propio sistema operativo. La organi-zación y el mantenimiento de la organización sebasa en las propias capacidades de los sistemasoperativos para ordenar los ficheros en directoriosy subdirectorios que pueden hacer el papel de re-gistros y campos, así como en las posibilidadesofrecidas por el sistema para copiar, mover, borrarestos datos y para hacer consultas elementales, ta-les como pedir que se muestren los ficheros conunas determinadas características o buscar un fi-chero con un nombre determinado, etc. El mante-nimiento de una base de este tipo tan sólo requierecierta disciplina en la utilización de convencionesterminológicas.

Utilizaremos en lo que sigue el término reper-torio para enfatizar el hecho de que no estamos

Figura 14 Inserción de una línea y una nuevacapa en las tablas correspondientes de la figura

anterior de la base de datos de AutoCad

Figura 15 Muro como objeto en base Cad y baserelacionada

Page 351: [Architecture eBook] Aplicaciones as en Arquitectura

356 Aplicaciones informáticas en arquitectura

bien familiarizado: muros, tabiques, puertas o ven-tanas se representan por una serie de líneas que secorresponden directamente con la forma de dichoselementos, con mayor o menor grado de simplifi-cación. Esto último es algo que se debe tener encuenta al elaborar la base pues puede ser necesariocontar con un elemento dibujado con diferente gra-do de resolución. Una puerta, una ventana o unapieza sanitaria no se representa igual a 1:5 o 1:10que a 1:50 o 1:100. Por esta razón se requerirían almenos dos o tres resoluciones o dos o tres tipos derepresentaciones para cierto tipo de elementos quepueden estar incorporadas al mismo dato, situán-dolas en diferentes capas o que pueden listarsecomo elementos diferentes. La figura 17 muestraun ejemplo de un elemento arquitectónico, un per-fil de carpintería metálica de una ventana, que cam-bia de aspecto al ser insertado a tres escalas dife-rentes.

b) Símbolos

Cierto tipo de elementos no se representan en unplano por medio de proyecciones sino por mediode símbolos. Esto afecta principalmente a elemen-tos que tienen importancia pero que son de dimen-siones pequeñas o cuya configuración no aportaríauna información tan adecuada como la transmitidapor un símbolo convenido. Válvulas de fontanería,conexiones de aparatos eléctricos, lámparas, siste-mas de protección contra el fuego, etc., son ejem-plos característicos de este tipo de elementos. Enel caso de los elementos representados por símbo-los, la escala de representación no afecta, por logeneral, al grafismo, por lo que tan sólo se necesi-tará un grado de resolución y una representaciónúnica. También es corriente agruparlos de tal modoque todos los símbolos correspondientes a "elec-tricidad" o "fontanería" o "incendios", etc., se re-únan en un mismo bloque o célula que incorporeuna leyenda con el significado de cada uno de ellos.Este bloque se inserta en una parte conveniente delplano y puede recomponerse, borrando las partesque no interesen y copiando las adecuadas a dife-rentes partes del plano, etc. Todos estos son modosde trabajo habituales pero que, como hemos dicho,están a la espera de métodos de gestión más efica-ces. La figura 18 muestra un fragmento de un pla-no arquitectónico con diferentes símbolos.

c) Anotaciones (textos, cotas y etiquetas incluidasen los planos)

hablando propiamente de lo que se conoce como"base de datos" en la medida en que éstas llevanasociadas un programa capaz de gestionarlas sinode bases "en bruto" que pueden ser gestionadas porun programa pero que en general no lo son.

Al nivel más elemental puede decirse que la uti-lización informatizada de repertorios de elemen-tos arquitectónicos se lleva a cabo de los siguien-tes modos.

En primer lugar, del modo más corriente, pormedio de colecciones de elementos de diversos ti-pos, lo que denominaremos "repertorios gráficos",que pueden insertarse en el proyecto de modo di-recto o modificando alguna de las dimensiones ge-nerales. En segundo lugar, de modo menos habi-tual pero cada vez más frecuente, por medio de "re-pertorios paramétricos", es decir, descripciones deelementos por medio de variables cuyas dimensio-nes se solicitan en el momento de la inserción, loque permite limitar el número de elementos de labase y aumentar sin límite el número de variantesque se pueden utilizar para un mismo elemento. Entercer lugar, de un modo también bastante habi-tual, mediante lo que se puede denominar, supo-niendo una metodología sistemática de gestión (loque raramente se da) "reelaboración de casos pre-cedentes". En cuarto lugar, de un modo escasamenteutilizado, pero que es de prever que adquiera ma-yor importancia en los próximos años, por mediode combinación de bases de datos gráficas y tex-tuales. En quinto lugar, por medio de bases exter-nas a las que puede accederse de diversos modos,principalmente por medio de la compra de CDRomso por Internet.

Repertorios gráficos

A la hora de construir una base de elementos quese prevé incorporar a diferentes planos de proyec-to, debe tenerse en cuenta que un plano es un docu-mento gráfico que contiene básicamente tres tiposde entidades repetitivas, con funciones y caracte-rísticas diferentes.

a) Representaciones de elementos arquitectónicosconcretos

La incorporación a un plano de dibujos que repre-sentan elementos arquitectónicos por medio de pro-yecciones ortogonales que se relacionan directa-mente con el elemento en cuestión, es un tipo dedato primario con el que cualquier arquitecto está

Page 352: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 357

Esc. 1:10

Esc. 1:50

Esc. 1:100

Los planos requieren información complementariano gráfica. Las principales son: cotas, especifica-ción de superficies útiles o construidas, designa-ción de ejes o sectores diferenciados en planta,designación del uso de espacios, referencia a deta-lles o secciones, especificación de materiales omodos de colocación en el caso de detalles. Lamayoría de estos textos se insertan durante el pro-pio proceso de dibujo por medio de herramientasespecíficas de acotación y de inserción y ediciónde textos. Otros, sin embargo, pueden provenir debases externas tal como se indicará más abajo; esposible asociar atributos de texto a bloques de di-bujo y relacionar estos atributos con bases quemantengan actualizada la información acerca de lascaracterísticas específicas de determinados elemen-tos. Al igual que en el caso anterior, la escala deestos elementos es independiente de la representa-ción y, a diferencia del caso anterior, el contenidopuede modificarse tantas veces como se necesitepor medio de ordenes de edición de textos. La fi-gura 19 muestra otro fragmento de un plano arqui-tectónico con diferentes tipos de textos.

Repertorios paramétricos

Las bases de datos pueden, en muchos casos, sermás efectivas si se basan en prototipos genéricosen lugar de basarse en elementos particularizados.En aquel caso la descripción será más topológicaque geométrica, lo que es tanto como decir que valepara los infinitos casos en los que la relación bási-ca entre las diferentes partes de un mismo elemen-to se mantenga igual. Si siempre utilizamos puer-tas de 62, 72 u 82 puede ser más práctico mantener3 bloques diferentes que se denominen, por ejem-plo, "puerta62", "puerta72" y "puerta82", pues tar-daremos más o menos lo mismo en teclear estos 6caracteres que el nombre del bloque paramétrico yla dimensión correspondiente. Pero la diferenciaes realmente muy pequeña y bastará con que semultiplique por dos el número de posibilidades paraque, probablemente, prefiramos definir una deter-minada dimensión en el momento de crear el ele-mento en lugar de almacenar todas las variantes.

En el capítulo correspondiente a CAD2D, de laprimera parte del curso, ya se introdujeron los con-ceptos básicos de lo que se denomina "diseñoparamétrico". En AutoCad, o en otros programasque permitan desarrollos similares, se puede apli-car con facilidad lo que allí se recogió bajo el tér-

Figura 16 Un elemento arquitectónico insertadoa tres diferentes escalas.

Figura 17 Elementos simbólicos incluidos enplanos arquitectónicos

Figura 18 Anotaciones diversas incluídas enplanos arquitectónicos

Page 353: [Architecture eBook] Aplicaciones as en Arquitectura

358 Aplicaciones informáticas en arquitectura

mino "programación de variantes", es decir, pormedio de rutinas personalizadas desarrolladas, porejemplo, en AutoLisp. En lugar de, pongamos porcaso, grabar en la base diferentes tipos de puertas,ventanas, etc., se puede grabar un única puerta,ventana o marco con una configuración semejantey en donde las dimensiones principales estén da-das por variables que se especificarán en el mo-mento de la inserción. Este tipo de base economizaespacio, resulta más sencilla de manejo y facilita lagestión, ya que no hay que seguir la pista de ungran número de elementos sino tan sólo de una fa-milia genérica.

En Microstation, en módulos adicionales deAutoCad y en otros programas, esto puede llevar-se a cabo por medio de "células paramétricas" queincorporan métodos más eficaces que la progra-mación de variantes, basados en desarrollos talescomo la especificación de reglas internas que asig-nan restricciones adicionales, cotas paramétricas,ecuaciones que relacionan dimensiones, etc., a unelemento dado. La principal ventaja de estos mé-todos frente a la programación de variantes es quepermiten la modificación interactiva una vez inser-tada la célula. Esto permite ampliar la noción deelemento paramétrico a elementos más complejos,en los que tendrá mayor interés la posibilidad demodificar las dimensiones a lo largo de la evolu-ción del proyecto.

Reelaboración de casos precedentes

La noción de "caso precedente" puede insertarsede modo natural en la teoría de CAD pues respon-de a una práctica tradicional habitual que se poten-cia de modo espectacular por medios informáticos.

Comencemos por subrayar una obviedad: todala arquitectura puede ser considerada en ciertamedida como una "reelaboración de casos prece-dentes". Ningún proyecto se ha llevado a cabo sintomar en consideración el modo en que otros pro-yectos han respondido a programas similares. Pue-de, de hecho, estimarse la originalidad de un dise-ño por su menor o mayor alejamiento de estas refe-rencias. En un extremo tendremos la mera repeti-ción o adaptación a las condiciones del lugar; laarquitectura popular es un ejemplo importante, dig-no e indiscutible, de este modo de proceder. El tra-bajo de un arquitecto que repite la misma solución(cobrando los mismos honorarios) una y otra vezes otro ejemplo, que puede ser más discutible, de

lo mismo. En el otro extremo tendremos la radicalinnovación: las obras que merecen un lugar desta-cado en la historia de la arquitectura son un ejem-plo importante, notable e igualmente indiscutible.Las obras que no aparecen en ningún libro de his-toria pero que ocupan un lugar destacado, para bieno para mal, en la memoria de los vecinos del lugaren que se han edificado son otro ejemplo, más po-lémico, de lo mismo.

La diferencia entre "prototipo" y "caso prece-dente" merece también ser subrayada. Un prototi-po es generalizable y por tanto, en teoría,parametrizable, puesto que puede ser descrito pormedio de variables dimensionales; caería por con-siguiente en el caso anterior como un caso extremode elemento o conjunto de elementos paramétricos.Un caso precedente no es parametrizable sino quees un punto de partida singular al que se puede so-meter a variaciones, por ejemplo, suprimiendo al-guna de sus partes o introduciendo otras.

En la práctica profesional tradicional era corrien-te rentabilizar el esfuerzo dirigido a crear una so-lución original e interesante reelaborando esta so-lución en casos posteriores. Un análisis del estilode grandes arquitectos muestra que este estilo in-confundible está basado en un repertorio de solu-ciones originales que se mantienen o evolucionanmás o menos sutilmente a lo largo de diferentesproyectos. Esto es así también en el caso de arqui-tectos menos conocidos que, por diversas razonesque van de la comodidad o la familiaridad, hastala necesidad de controlar con rigor el detalle, pre-fieren utilizar un rango limitado de alternativas quese repiten en uno u otro encargo.

Desde el punto de vista informático esto quieredecir que la "base" de que se parte es la propiacolección de proyectos que el despacho haya ela-borado hasta la fecha. El único requisito que debecumplirse es, en principio, el mantenimiento de unsistema de ordenación y acceso a archivos anterio-res que asegure una utilización cómoda y segura.El concepto puede ampliarse si se tiene en cuentala movilidad de los despachos o bien el propio he-cho de que la distancia que separa la "cita" o la"inspiración" de la mera "copia" es sutil; es un he-cho que muchos arquitectos derivan sus solucio-nes constructivas de otras soluciones ajenas queles agradan o les motivan.

Aunque dé mayor trabajo y sea menos corrien-te, hay casos en que un despacho puede preferirmantener una colección de detalles diversos, pro-

Page 354: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 359

Ventana con persiana de lamelas orientables y carpintería de aluminio con doble vidrio

Base de elementos

parametrizadosBase de especificaciones textuales

pios y ajenos, como punto de partida para la elabo-ración de soluciones propias. Así como la búsque-da, en otros casos, se produciría a partir de los pro-pios planos del proyecto que se elaboró en su día,en este caso la base se mantendría separada, en unsubdirectorio especial o en periféricos tales comodiscos magnetoópticos o CDRoms, de fácil acce-so.

Repertorios y bases asociadas de textos conespecificaciones de proyecto

El desarrollo de un proyecto de ejecución requierela especificación de detalles constructivos, pormedio de dibujos geométricos que describan la for-ma de los elementos utilizados y de las relacionesentre ellos, pero también por medio de textos queprecisen las características materiales de estos ele-mentos y el modo en que se relacionan entre sí, aligual que cualquier otra información de interés queno pueda ser dibujada.

Esta información textual que complementa losplanos de detalle es común a otros documentos deproyecto. Deberá aparecer en, al menos, dos luga-res; en las partidas o cuadros de precios de mate-riales con que se elaboran los presupuestos y en lamemoria técnica o los pliegos de condiciones par-ticulares que acompañan al proyecto ejecutivo.

El contenido de esta información es, por otrolado, en general, independiente de un proyecto de-terminado. Esto justificaría en principio manteneruna base de textos que resuma las característicasprincipales de los diversos materiales y elementosque pueden intervenir en un proyecto. Esta base,adecuadamente gestionada, puede servir tanto paralos documentos gráficos, para la elaboración de losdetalles incluidos en los planos de proyecto, comopara la elaboración de las especificaciones que fi-guran en determinados apartados de la memoriatécnica.

En cualquier caso es importante considerar laposibilidad de ligar los elementos que constituyenun proyecto a una base de datos externa al progra-ma que permita relacionar especificaciones gráfi-cas con atributos dados por cadenas de texto. Tan-to AutoCad como Microstation permiten hacer estosin demasiadas dificultades. Todos los elementosque constituyen un modelo 2D o 3D pueden que-dar ligados a atributos textuales. La figura 20 mues-tra un ejemplo de detalle arquitectónico con un textoincorporado que se ha extraído de una base de es-

pecificaciones asociada.Aquí nos encontramos con un caso límite en el

que puede hablarse de "base de datos" en el senti-do corriente en aplicaciones informáticas y quehemos descrito en la sección anterior. Sin embargono existen programas que lleven a cabo esta ges-tión de modo directa: se requeriría un programa-dor o un usuario bastante avanzado para poder crearlos procedimientos rutinarios que permitan combi-nar bases relacionales con especificaciones de tex-to y dibujos elaborados en un programa de CAD.Esto puede hacerse con relativa facilidad, en lamedida en que la mayoría de programas de CADpermiten importar y exportar información en SQL.Pero se requiere alguien con una formación espe-cializada.

Repertorios externos. Catálogos y bancos dedatos

La utilización de bases de datos de elementos ar-quitectónicos puede estar referida a catálogos deproductos industriales. Esta posibilidad, que es cadaaño más real, ofrece notables ventajas y notablesinconvenientes que hay que mencionar pues es untema recurrente desde que existe el CAD y es pre-visible que siga teniendo importancia y sea motivode debates o nuevas propuestas en un futuro inme-diato.

Las ventajas son obvias. Si las diferentes em-presas interesadas pusieran a disposición de los ar-quitectos, de un modo asequible, la informaciónrelativa a los diferentes productos que fabrican, suutilización sería más directa, sería innecesarioredibujarlos y actualizarlos y se minimizarían erro-

Figura 19 Detalle arquitectónico obtenido porinserción de un elemento parametrizado y una

especificación asociada

Page 355: [Architecture eBook] Aplicaciones as en Arquitectura

360 Aplicaciones informáticas en arquitectura

res de transcripción.Las desventajas también resultan evidentes. En

primer y principal lugar, pocos arquitectos profe-sionales querrán atarse a un producto determinadoen la fase de anteproyecto. Ni siquiera en la fase deproyecto de ejecución, en muchos casos. Y esto esasí, tanto por razones de dinámica de trabajo comopor razones de ética profesional. Aquí aparece denuevo la diferencia fundamental entre CAD yCAAD; los proyectos arquitectónicos requierencierto grado de ambigüedad, cierto grado de tole-rancia en las especificaciones de los componentesque deje un amplio margen; un margen en el que sepuedan acomodar tanto las diferencias propias dediferentes modelos industriales como las diferen-cias debidas a incidencias imprevistas que se pue-dan presentar durante la ejecución. Resulta en mu-chos casos más práctico especificar un elementogenérico en la fase de anteproyecto aunque la tole-rancia, el margen de variación, pueda ser superiora 5 cm.

También cabe la posibilidad de ligar un archivode CAD a una base externa de tal modo que unelemento determinado se redibuje automáticamenteal cambiar la referencia externa, tal como ocurreen AutoCad con las xrefs, o en Microstation conlos archivos vinculados. Esto, de nuevo, ofrece im-portante ventajas e importantes inconvenientes. Lasventajas obvias son que el elemento se actualizaautomáticamente. Las desventajas son, en primerlugar, que es necesario mantener la conexión conla base concreta en la que está situado tal elemen-to. Y, en segundo lugar, que si el entorno del ele-mento no está parametrizado, lo que es más queinhabitual, en muchos casos habrá que redibujareste entorno para adecuarlo a las nuevas dimensio-nes.

Otra posibilidad es contar con una colección deelementos y detalles más o menos genéricos elabo-rados por una empresa intermediaria que lleve acabo las siguientes tareas:

a) Recopilación de la información necesaria a par-tir de la colaboración con empresas que elaborenlos productos correspondientes. Esta informaciónpodría completarse, idealmente, con datos adicio-nales obtenidos de publicaciones especializadas.

b) Selección de un programa de CAD en el que seelabore la documentación y de un formato que fa-cilite el intercambio con otros programas.

c) Elaboración de un archivo por cada elemento ocada detalle que integre la información seleccio-nada, por medio de dibujos y textos, con una reso-lución adecuada para las escalas habituales.

d) Esto puede completarse con rutinas que elabo-ren un menú personalizado que pueda cargarse ydescargarse con facilidad y que facilite la utiliza-ción de estos catálogos.

Aunque todo esto puede realizarse individualmen-te y hay muchos arquitectos que han organizadouna biblioteca propia, es evidente que la tarea essuperior a la capacidad de un despacho corriente sise quiere cubrir un abanico suficientemente ampliode posibilidades. Por esta razón han surgido en losúltimos años diversas empresas que han elaboradocatálogos de este tipo. En Cataluña, por ejemplo,hay una de estas empresas, de carácter semipúblico,el ITEC (Institut de Tecnologia de la Construccióde Catalunya) que contaba a principios de 1997con un catálogo de unos 400 detalles. Estos deta-lles se han elaborado solicitando una contribucióna diversas empresas y se comercializaban a partirde un CDRom (de unas 25.000 pts de coste en esasfechas).

El catálogo está preparado para ser utilizado conAutoCad por medio de un menú que se cargaautomáticamente al invocar un script y que puedeconmutarse con el menú corriente por medio deuna orden complementaria, lo que evita tener quevolver a cargarlo cada vez que se desea insertar undetalle. El dibujo insertado pasa a formar parte deldibujo activo (es decir, se venden los derechos de

Figura 20 Página Web con información sobretemas arquitectónicos (COAC)

Page 356: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 361

BIBLIOTECA DE SOLUCIONES CONSTRUCTIVAS

Cerramientos Pavimentos Ventanas

MurExt012

MurExt012

MurExt012 Pavmnt036

Pavmnt035

Pavmnt034 VenMad027

VenMet028

VenMet029

123

1

32

1

32

4

1234

2

43

1

3

12

utilización de los detalles junto con el CDRom).Los detalles están organizados en bloques anida-dos lo que facilita la edición y manipulación de loscomponentes. No se incluyen capas específicas, unerror corriente en otro tipo de catálogos, pues creaninformación engorrosa y por lo general inútil, sinoque la definición de color y tipo de línea es bylayer("por capa") dando por supuesto que el usuarioquerrá utilizar sus propias capas. La base se puedeutilizar desde la unidad propia del CDRom o sepuede instalar en un directorio definido por el usua-rio, lo que también garantiza la independencia dela aplicación y evita interferencias en el sistemapropio del usuario.

Los elementos se agrupan en capítulos del tipo:cerramientos exteriores (obra de fábrica de dos ho-jas y una hoja, muros cortina, etc.), carpintería In-terior (plantas, alzados y secciones de puertas blin-dadas, de paso, correderas, plegables, etc.), car-pintería exterior (plantas, alzados y secciones deventanas fijas, practicables, correderas, etc. enmadera, aluminio y pvc), forjados (detalles de for-jados de losa maciza, nervados, viguetas,semiviguetas, cuadros de características EH; deta-lles de forjados de madera maciza, laminada; IPNy bovedilla, alveolares, placas TT), cubiertas (de-talles de cubierta de teja curva, plana y mixta; de-talles de cubierta de cemento y pizarra), pavimen-tos (interiores y exteriores), etc.

En otros países existen diversas empresas, pú-blicas, semipúblicas y privadas que ofrecen estetipo de servicios y el abanico de posibilidades esmayor. En Estados Unidos, hay empresas comoAGS (Architectural Graphic Standards) asociadaa John Wiley & Sons, que era utilizada ampliamentepor arquitectos americanos en formato tradicionaly que, desde 1995 ofrece su producto en unCDRom bien organizado. Otras empresas, comoMarvin Design System o Roger East Design, ofre-cen en un formato fácilmente accesible los produc-tos de fabricantes particulares. Este tipo de infor-mación depende de productos locales por lo queraramente se utiliza desde otros países. Los men-cionamos como ejemplo de aplicaciones que es pre-visibles que estén disponibles en breve plazo. Pue-de encontrarse más información en Sanders (1996).En España no hay aún empresas que ofrezcan ser-vicios comparables aunque el CIC (Centro Infor-mativo de la Construcción) ha iniciado reciente-mente un catálogo de estas características que pa-rece que será accesible por Internet y que está tam-

bién disponible en CDRom.En general, hay dos vías de información que ya

existen y es de prever que se potencien aún más enel futuro. En primer lugar CDRoms producidoscomercialmente y que se adquieren como se ad-quiere un libro o un disco compacto. En segundolugar, Internet. La principal desventaja de los pri-meros es que, aunque el formato sea compatible ycualquier ordenador pueda leerlos, lo que no es unpequeño avance en comparación con lo que toda-vía ocurría hace pocos años, el tipo de organiza-ción interna es muy variable y los CDRoms comer-ciales no se pueden "hojear" como se hojea un li-bro. En un libro sabemos que contaremos con uníndice, al principio o al final del mismo y que po-demos hojear las páginas en secuencia para encon-trar lo que queremos. En un CDRom nos encontra-remos con hipertextos y con sistemas de navega-ción o índices organizados de diversos modos quepueden despistar más que orientar a los que los uti-lizan si su diseño no es correcto.

Por lo que respecta a Internet, el principal in-conveniente es el tiempo de acceso necesario parabuscar la información que nos puede interesar y,una vez encontrada, el tiempo necesario para tras-ladarla a nuestro ordenador. Este tiempo de acceso

Figura 21 Muestra de catalógos de detallesarquitectónicos (ITEC)

Page 357: [Architecture eBook] Aplicaciones as en Arquitectura

362 Aplicaciones informáticas en arquitectura

puede reducirse si se contratan empresas de servi-cio pero entonces el principal inconveniente co-menzará a ser el coste, aparte de que aún no exis-ten empresas que proporcionen servicios suficien-temente recomendables en el sector de la construc-ción.

Las empresas que, en otros países, se dedican aorganizar esta información se pueden dividir en treso cuatro categorías. Las públicas o semipúblicasque proporcionan guías generales o grandes listasde suministradores pero poca información de deta-lle, las que publican catálogos restringidos a secto-res muy determinados de la industria de la cons-trucción y las que publican catálogos de productosconcretos de firmas concretas. No hay empresasque organicen grandes cantidades de informaciónde productos de la construcción de un modo inte-resante para un arquitecto, es decir, con dibujos ytextos que puedan ser directamente copiados e in-tegrados en el proyecto con escasa manipulación.Esto hace pensar que, probablemente, el coste demantener actualizada semejante cantidad de infor-mación no es rentable de ningún modo por lo que,probablemente, nos veremos obligados en el futu-ro inmediato a construir nuestras propias bases.

Detalles constructivos y solucionesconstructivas

Una parte fundamental y omnipresente en la ela-boración de un proyecto es la constituida por losdetalles constructivos. Los detalles se desarrollanantes, durante y con posterioridad al inicio de laobra. Sea en mayor o menor medida, la soluciónconstructiva está presente para el arquitecto conexperiencia que diseña una abertura en un muro, elremate de una cubierta o la situación de una esca-lera en planta. Si la situación no está clara puedeser que se detenga a elaborar con mayor precisiónel detalle concreto que le asegure que la configura-ción y las dimensiones que está seleccionando es-tán dentro de un rango adecuado y que la especifi-cación final no alterará el sentido del proyecto.

Los términos "solución constructiva" y "detalleconstructivo" pueden aparecer como sinónimospero, en general, no lo son. Por detalle constructi-vo entendemos la especificación detallada, pormedio de gráficos, con especificacionesgeométricas y textuales, de una parte concreta deun edificio concreto o de un tipo compartido poruna clase bien determinada de situaciones arqui-

tectónicas. Ocurre, sin embargo, que esta clase pue-de expandirse de tal modo que la frontera entredetalle y solución genérica tiendan a confundirse.Como en toda clasificación, los extremos son cla-ros pero las zonas medias son borrosas.

Por solución constructiva entendemos una con-figuración genérica de formas y materiales que pue-de ser aplicada a diversos casos, con variacionesque afectarán principalmente a la geometría y a losmateriales concretos que se vayan a utilizar, peroque podría quedar descrita por medio de esquemasy textos sin necesidad de apoyarse en dibujos oimágenes muy elaborados.

Este planteamiento describe también la situaciónen términos informáticos. Detalles concretos pue-den quedar almacenados como "dibujos con tex-to" en repertorios especializados y actuar así comosoluciones genéricas que pueden utilizarse en dife-rentes casos con mínimas variantes. Esto es así, deun modo particularmente notorio, como ya hemosmencionado, en el caso de arquitectos que tienenun estilo consolidado y la posibilidad de aplicarloa obras reales, y que buscan deliberadamente me-jorar o adaptar una solución ya empleada a nuevosproyectos. Y, como también se ha subrayado, enestos casos la informática no hace sino proseguiruna labor tradicional por nuevos medios. Muchosarquitectos acostumbraban a dibujar y redibujardetalles ya empleados anteriormente indicando asus delineantes que modifiquen esto o aquello paraadaptarlo a la nueva situación.

Si queremos describir todo esto de un modo mássistemático llegaremos a la conclusión de que undetalle constructivo presenta una descripción delestado final de una serie de tareas, dereelaboraciones, en las que han intervenido datos,relaciones entre estos datos y juicios acerca de es-tas relaciones.

Los datos provienen de catálogos de productosmateriales puestos a disposición de los profesiona-les por diversas casas comerciales y que evolucio-nan con relativa rapidez. Puede decirse que cadacinco años se producen variaciones dignas de con-sideración en ciertos sectores de la industria de laconstrucción. El mantenimiento de una informa-ción actualizada sobre los productos a los que sepuede recurrir para la elaboración de los detalleses, por consiguiente, un primer aspecto que se debeconsiderar a la hora de buscar un método para pa-sar de los detalles particulares a otros detalles si-milares, renovados, o a soluciones generalizadas.

Page 358: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 363

Las relaciones entre datos, es decir, las relacio-nes que cabe establecer entre los diversos produc-tos, provienen del conocimiento y de la inventivadel diseñador que es en definitiva quien las esta-blece. El conocimiento posibilita la recuperaciónde relaciones estables y la inventiva posibilita laproposición de relaciones nuevas. Dicho de otromodo: lo que caracteriza a un detalle constructivoes la combinación de diversos materiales y produc-tos que deberán estar en contacto de varios modos.Este contacto caracteriza el detalle, tanto desde elpunto de vista estético como desde el punto de vis-ta del comportamiento funcional; hay materialesque se llevan bien entre sí y otros que se llevanmal, lo que puede dar lugar a disfunciones a medioy largo plazo. La experiencia previa es, por consi-guiente, fundamental pero debe estar también abier-ta a nuevas posibilidades, algo obvio si tenemos encuenta que hay muchos materiales recién llegadosa los catálogos de productos para la construcción.

En cualquier caso se requiere, por consiguiente,un juicio acerca de la eficacia de la generación pro-puesta. Este juicio proviene de un experto que noes, necesariamente, el propio diseñador aunque estosea así en la mayoría de los casos. El experto ideales aquel capaz de prever cuál será el comporta-miento de la solución propuesta a lo largo de unperiodo de tiempo determinado bajo unas condi-ciones determinadas. Este periodo puede ser delorden de diez años y estas condiciones, las extre-mas a las que se viera sometida la solución adopta-da en el lugar en que se vaya a ubicar el proyecto.

5 Bases y sistemas específicos utilizadosen arquitectura

Para concluir este capítulo resumiremos las carac-terísticas de dos tipos de aplicaciones que hacenun uso directo y especializado de bases de datos ysistemas de información. Aunque su campo de apli-cación es muy diferente, sus características técni-cas son muy semejantes. El más conocido y desa-rrollado de ambos, lo que se conoce como GIS(Geographic Information System) o SIG por sussiglas en castellano (sistema de información geo-gráfica) utiliza métodos específicos de gestión deuna base constituida fundamentalmente por infor-mación cartográfica. El término FacilitiesManagement se usa en los países anglosajones paradescribir un modo de gestionar una informaciónprevia que como veremos tiene muchos puntos en

común con lo anterior si bien, por razones obvias,está menos extendido y es menos conocido pese asu evidente interés desde el punto de vista de lapráctica profesional.

Sistemas expertos utilizados en aplicacionesarquitectónicas

Los sistemas utilizados realmente en la industriade la construcción parten de una restricción consi-derable del campo de estudio. Hay diversos siste-mas utilizados fuera de España, principalmente enInglaterra, Estados Unidos y Australia. Algunos deestos sistemas tienen ya más de diez años de anti-güedad y se han utilizado en sectores tales como laingeniería mecánica.

En Cataluña se han desarrollado algunos traba-jos que no han llegado a cuajar. El ITEC ha incor-porado a su base de mediciones algunos de los pro-cedimientos derivados de un modelo teórico pre-sentado en 1992 pero que no ha llegado a ser desa-rrollado por falta de medios. La mayor dificultadde la elaboración de un sistema experto es la intro-ducción de los datos, dificultad que aumenta cuan-to más se abre el campo de estudio.

Por lo que respecta a sistemas efectivamenteutilizados, Allwood (1989) los agrupa en 6 clasesque abarcan las principales aplicaciones y de lasque mencionaremos tan sólo las 5 de aplicaciónmás clara.

a) Diagnosis

Los sistemas que entrarían bajo esta denominaciónserían sistemas que contienen listas de fallos posi-bles en un tipo de construcción junto con los sínto-mas asociados a los diversos tipos de fallos. El diá-logo con el usuario permitiría establecer las causascorrectas de cada fallo determinado. Ejemplos deeste tipo de sistema serían algunos programas de-sarrollados en Inglaterra para analizar las causasde humedades en edificios.

b) Selección

En este caso se trataría de contar con un programaque auxiliase a seleccionar el material o el produc-to más adecuado para unas condiciones determi-nadas. Se ha utilizado en selección de pinturas paraestructuras metálicas o en selección de tuberías paracierto tipo de conducciones.

c) Interpretación de datos

Page 359: [Architecture eBook] Aplicaciones as en Arquitectura

364 Aplicaciones informáticas en arquitectura

Hay varios sistemas expertos que analizan datosde estructura compleja o muy voluminosa y extraenconclusiones en función de ciertos requisitos plan-teados previamente. Un ejemplo interesante y nodemasiado característico de este tipo de sistema ex-perto sería el de un programa que analizaba los re-corridos posibles del agua por un marco de venta-na y los ponderaba en función de unos límitespreestablecidos.

f) Control y monitorización

Cuando la interpretación de datos se hace en tiem-po real y se incorpora a un edificio determinadonos encontramos con la transición entre un sistemaexperto utilizado como herramienta de diseño y unsistema experto tal como se utiliza en domótica,esto es como un medio de construir "edificios inte-ligentes". El sistema experto lee los datos relativosa una determinada situación y los pone en relacióncon tablas de valores que le permiten juzgar la ade-cuación de los datos a unas condicionespreestablecidas. Si estas condiciones no se cum-plen el propio sistema puede activar mecanismoscorrectores que adecúen los valores a las condicio-nes deseadas.

g) Diseño

La idea de utilizar un sistema experto para apoyarel proceso general de diseño a diferentes niveles esun tema recurrente desde la aparición del ordena-dor. Esto es posible siempre que se acote conve-nientemente el ámbito en que se produce la inter-vención del sistema. Este ámbito suele estar co-rrientemente constituido por situaciones en las quela alternativas son enumerables y pueden ser juz-gadas de un modo claramente determinado, es de-cir, puestas en relación con condiciones de funcio-namiento precisas. Hay diversos sistemas sencillosque se han utilizado para el diseño de cocinas, es-caleras o remates de cubiertas. Las conclusionesprovisionales parecen ser que, por ahora, no pare-ce que resulte proporcionado el esfuerzo dedicadoa generar un sistema de estas características conlos beneficios obtenidos.

Los sistemas expertos más utilizados hasta ahorason los basados en modelos de diagnósticos y enmodelos de diseño de mecanismos o estructurasformales complejas.

Los sistemas basados en diagnósticos producenuna base de conocimiento estructurada en función

de la puesta en relación de síntomas y causas pormedio de hipótesis que, a partir de un determinadosíntoma apuntan a diversas causas posibles a lasque se asigna un determinado valor de certeza. Elsistema decide entonces cuál de estas posibles cau-sas debe considerarse como la que está en el ori-gen del síntoma. La metodología general es simi-lar a la utilizada en medicina. Es importante subra-yar que el proceso no tienen por qué terminar aquí,puesto que uno de los requisitos de un sistema ex-perto es que sea capaz de reproducir el encadena-miento lógico en sentido descendente, razonandoa la inversa para proporcionar una explicación quepueda llevar eventualmente al usuario a elegir otravía de interrogación al sistema.

En los casos más elaborados y más interesantesdesde el punto de vista de la práctica, esto implicapor lo general la puesta en relación de un modelogeométrico con un modelo semántico. Lo que im-plica a su vez que el modelo geométrico debe lle-var incorporados atributos que puedan ser identifi-cados por el modelo semántico. El modelosemántico puede requerir por añadidura datos adi-cionales que están implícitos en el modelo geomé-trico pero que no vienen dados de forma explícita.

Por lo que respecta al segundo caso, los siste-mas expertos capaces de generar estructuras for-males complejas, la estructuración del sistema sebasa en conceptos ya vistos en los apartados ante-riores junto con otros nuevos. En primer lugar, esevidente que el sistema no puede tener en cuenta lamodelización en el sentido en que es entendidahabitualmente en los programas de CAD sino quela propia noción de "modelo" debe ser entendidade un modo mucho más universal. El modelogeométrico es una resultante final de una descrip-ción genérica dada mediante la puesta en relaciónde objetos conocidos. El proceso es el inverso delcaso anterior: dadas las reglas de producción, elsistema propone una solución determinada quecumpla los requisitos especificados.

Para cumplir estos requisitos se pueden utilizargramáticas de formas parametrizadas incorporan-do métodos como los descritos en los apartadosanteriores a un modelo que describiremos en elapartado final de este capítulo. Las reglas de pro-ducción establecen diversas relaciones posiblesentre elementos dados, formuladas como reglas gra-maticales. Cada una de las salidas posibles puedecontar con una determinación final en función deparámetros que pueden ajustarse adicionalmente.

Page 360: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 365

Estos sistemas sólo admiten por el momentodetalles constructivos como tipo de problema quepueda ser resuelto de un modo razonable. Hay va-rios modelos experimentales que han llevado a re-sultados aceptables en la práctica como ciertosejemplos desarrollados en la universidad de Sydneypara elegir el tipo de terminación más adecuadopara un tipo de cubierta tradicional en función deuna gramática de forma.

Los sistemas expertos utilizados en arquitectu-ra también pueden clasificarse en función de la fasede diseño en que son utilizados. Desde este puntode vista podemos distinguir cinco tipos de progra-mas:a) Programas utilizados en la fase previa del pro-

yecto. Con esta finalidad se han diseñado pro-gramas de análisis de la viabilidad del proyec-to en términos financieros y constructivos yprogramas de especificación de las necesida-des programáticas en función de un determina-do objetivo general.

b) Programas utilizados en la fase de anteproyec-to. Con esta finalidad se han diseñado progra-mas de análisis de las características del solar,de asistencia a la especificación del sistemaconstructivo y el sistema de instalaciones pro-yectado, y de diagnóstico de soluciones en fun-ción de normativas vigentes.

c) Programas utilizados en la fase de proyecto. Lasprincipales referencias se dan con respecto aprogramas de determinación de solucionesconstructivas.

d) Programas utilizados durante la fase de cons-trucción. Con esta finalidad se han diseñado pro-gramas de control de la obra.

e) Programas de mantenimiento. Los principalesprogramas expertos en este área son los dirigi-dos a la gestión automatizada de instalacionesy los dirigidos al diagnóstico de patologías apartir de síntomas visibles de modo muy simi-lar a los programas de medicina comentadosmás arriba.

Sistemas de información geográfica

Un sistema de información geográfica es una apli-cación compleja que depende de múltiples desa-rrollos que han evolucionado en paralelo. Por estarazón es difícil concretar una fecha y un lugar dereferencia que ayude a comprender de dónde hasurgido y cómo ha evolucionado una tecnología que

para muchos es aún desconocida. Con todas estasreservas, puede señalarse el año 1964, en que elDepartamento de Agricultura de Canadá dio a co-nocer lo que a veces se considera como el primersistema de información geográfica, como una fe-cha que marca el origen de este tipo de aplicacio-nes. Pocos años después el Harvard Laboratoryfor Computer Graphics and Spatial Analysis ela-boró uno de los primeros productos de cartografíaautomática que pasaría a integrarse en un SIG detipo vectorial.

Durante la década de los setenta y ochenta sedesarrollaron nuevos productos y se comenzaron autilizar por parte de las administraciones públicas.El ámbito de aplicaciones comenzó a extenderse aun número creciente de sectores: a la cartografíacatastral y parcelaria, a la gestión de recursos natu-rales, a la gestión de servicios metropolitanos porparte de las compañías de teléfonos, electricidad,agua, alcantarillado, recogida de residuos, a la pla-nificación urbana, a la gestión del transporte y laselección de rutas para el caso de accesos de emer-gencia y a un sinfín de aplicaciones que, en todoslos casos requieren un mismo tipo de información:datos asociados a mapas y capacidad para extraerinformación de estos datos.

Un SIG es un ejemplo particularmente avanza-do de lo que hemos presentado más arriba con laetiqueta genérica de sistema de información, estoes, un conjunto de datos, medios, operaciones yrelaciones entre estos elementos, que permiten unadecuado tratamiento de la información. Un siste-ma de información geográfica es un sistema de in-formación en el que la información está relaciona-da directamente con el uso y la gestión del territo-rio. Formalmente, un SIG puede definirse como unconjunto de instrumentos y métodos, especialmen-te dispuestos para capturar, almacenar, analizar, mo-dificar y presentar información territorialgeorreferenciada del mundo real.

Muchas de las características de un SIG son si-milares a las de los sistemas de bases de datos queya hemos visto. Podemos decir que la finalidadprincipal de un SIG, como ocurría con aquéllas, espoder responder a determinado tipo de consultas.Más concretamente: a) la respuesta a consultas decarácter espacial, por ejemplo, el suministro de in-formación sobre el número de centros de determi-nadas características que se encuentran en un áreadeterminada o la distancia que hay entre estos cen-tros; b) la respuesta a consultas de carácter no es-

Page 361: [Architecture eBook] Aplicaciones as en Arquitectura

366 Aplicaciones informáticas en arquitectura

pacial, por ejemplo, el suministro de informaciónsobre determinados aspectos de la pirámide depoblación correspondiente a un área determinada.

Esto se consigue mediante la integración de da-tos. Y en este sentido el paralelo entre sistemascorrientes de gestión de bases de datos y SIGs sedebilita a favor de éstos, que constituyen un siste-ma altamente especializado y, actualmente, unareferencia paradigmática. Pero la similitud siguesiendo válida. Como veremos en lo que sigue, unSIG requiere, como los sistemas generales que he-mos visto, una definición de la estructura generalde la base, un proceso de construcción y un meca-nismo de manipulación y consulta. Una cuestiónpreliminar que tiene, en este caso una importanciadeterminante es el origen de los datos.

Origen de los datos

Construir un SIG implica que se cuenta con unafuente de información que permita dar contenidoadecuado a la base. Aquí aparecen una serie de cues-tiones de primera importancia pero que se salenfuera de nuestro ámbito, entre otras razones por-que la mayoría de ellas sólo pueden ser abordadaspor entidades públicas o grandes empresas. Noslimitaremos, por consiguiente, a enumerarlas.

Los datos y la información sobre el territorio seobtienen de diversas fuentes, las principales de lascuales son las siguientes: el catastro, que recogeun censo en el que figuran características relativasal uso, utilización del suelo y edificaciones cons-truidas sobre él, y que constituye la fuente más ex-tensa y de contenido más homogéneo; el registrode la propiedad, que mantiene un censo oficial detitularidades y derechos jurídicos que complemen-ta la información del catastro; la topografia dispo-nible, que permite representar la superficie del te-rritorio y los accidentes naturales: ríos, lagos, mon-tañas, núcleos de población, etc.; la infraestructu-ra viaria que recoge información sobre localiza-ción de carreteras, vías férreas, caminos, etc.; lossistemas de redes públicas, de donde se obtieneinformación gráfica y numérica sobre el trazado ylas características de la red de saneamiento, agua,electricidad, gas, telefonía, etc.; los departamentosde urbanismo de instituciones públicas, que man-tienen la información sobre el planeamiento vigentey los usos del suelo.

La fuente técnica principal es la cartografía ylas diversas técnicas de elaboración que implica.

La principal de ellas es la topografía, que consistegenéricamente en la ejecución de las operacionesnecesarias para llegar a una descripción precisa dela superficie del terreno. La topografía implica unaserie de cálculos y medidas que en la topografíamoderna se llevan a cabo por medio de lafotogrametría, que permite la obtención de infor-mación fiable de los objetos y de su entorno me-diante pares de imágenes fotográficas; la restitu-ción que permite pasar de esta información foto-gráfica bidimensional a información tridimensional;la ortofotoproyección, que consiste en la correc-ción de los efectos de la proyección cónica del te-rreno que obtenidos directamente de una fotogra-fía aérea; la teledetección, en que la informaciónse recoge a partir de sensores situados en satélites;el recurso al GPS (Global Positioning System), quepermite la determinación de la posición relativa deun punto a partir de la información obtenida poruna constelación de satélites en órbita alrededorde la tierra, situados a unos 20.000 km de altura.

Estos datos son de diversos tipos y puedenestructurarse de muy diversos modos. En general,los SIGs captan información por medio de imáge-nes que deberán ser compactadas o vectorizadas obien por medio de datos que ya están en formatovectorial. Los tipos y sistemas utilizados son losque ya hemos visto en la primera parte de este li-bro. La información raster puede ser compactadapor medio de árboles binarios (quadtrees) simila-res a los descritos en el capítulos sobre CAD3Dpara la representación de modelos geométricos pormedio de descomposiciones celulares. La informa-ción vectorial se estructurará posteriormente enentidades tales como puntos, segmentos, polígonoso volúmenes, por medio de relaciones topológicasentre estas entidades que especifiquen si se da unasituación de adyacencia, enlace o inclusión y pormedio de tablas que especifican atributos propiosde las entidades de lugar.

Definición del sistema y construcción de la base

Dando por supuesto que se cuenta con una fuenteadecuada de datos geográficos de diversos tipospuede abordarse la construcción del sistema. En lacreación de un SIG se siguen en general los siguien-tes pasos básicos: a) análisis de los objetivos y de-finición del esquema de datos; b) construcción dela base, lo que implica la digitalización oreconversión de datos y el tratamiento y asigna-

Page 362: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 367

Catastro

Viales

Altimetría

ción de propiedades adicionales a los datos asícomo la determinación de la topología; c) gestiónde la base.

En primer lugar se requiere un análisis concep-tual de los tipos de datos que se necesitan para unaaplicación determinada. En general, esto se con-cretará en dos tipos básicos de información reque-rida:

- información gráfica o espacial, que describirála posición y la configuración de los elementospropiamente geográficos, fundamentalmente,puntos, líneas y polígonos, que configuran elespacio representado.

- información no gráfica que estará referida adatos tales como atributos, identificadores, eti-quetas, etc., que aportan información numéricao textual sobre los elementos representados.

Por lo que respecta a la información espacial, elproceso de análisis conceptual previo a la defini-ción del esquema de la base buscará, en general,agrupar las entidades principales (geográficas) engrupos homogéneos que corresponderán a:

a) tipos geométricos: puntuales, lineales, poligo-nales, volumétricos,...

b) tipos lógicos o temáticos: calles, parcelas, ejes,redes de servicio, mobiliario urbano, hidrogra-fía, planeamiento, topografía...

c) tipos especiales: elementos que conllevan untipo de gestión diferente del resto y que debenrelacionarse con tablas de atributos dispares.

En el caso que se vaya a utilizar como DBMS unabase de datos relacional se identifican los elemen-tos gráficos con geocódigos (claves numéricas).Esto permite relacionarlos con atributos no gráfi-cos a través de tablas en las que se definen cuálesson los atributos propios de cada uno de estos ele-mentos que pueden a su vez ser puestos en relacióncon otros atributos de otros elementos. El resulta-do es una estructura en la que, por un lado, hay unconjunto de capas o niveles, tales como los que semuestran en las figura 22 que corresponden a unfragmento del ensanche de Barcelona (no estructu-rado en un GIS), y, por otro, una serie de tablasrelacionales que permiten generar información de-rivada que, a su vez, puede dar lugar a nuevas enti-dades gráficas que la representen.

Figura 22 Fragmento del ensanche de Barcelona con capas de información sobre altimetría, viales ycatastro

Page 363: [Architecture eBook] Aplicaciones as en Arquitectura

368 Aplicaciones informáticas en arquitectura

línea 1

línea 2

línea 3

línea 7

línea 2

línea 4

línea 1

línea 6línea 5

línea

3lín

ea 8

línea

4lín

ea 9

1

2

En general los pasos que hay seguir son los si-guientes:

a) Por lo que respecta a la generación inicial pue-den darse tres situaciones típicas: mapas tradi-cionales sin versión digital; datos digitales exac-tos pero mal digitalizados; datos biendigitalizados pero sin atributos. El reciclaje dedatos gráficos implica la limpieza de elemen-tos gráficos por medio de herramientas espe-ciales.

b) Construcción de la topología del mapa.c) Definición de objetos.d) Creación de objetos gráficos aprovechando los

atributos de los elementos.e) Creación de toponimia inteligente. Esto permi-

te que el texto visible se convierta en texto in-teligente que puede procesarseinformáticamente.

f) Georreferenciación. Uso de la topología cons-truida previamente para copiar el nombre de laetiqueta al nombre del sector que la contiene.

g) Relación de objetos con la base de datos.

Los elementos de un SIG bien estructurado debentener ciertas características tales como: a) estar"limpios"; b) estar georeferenciados; c) tener unarelación topológicas con otros objetos. Por lo querespecta a los datos alfanuméricos deben incluirotras características tales como tener precisión yvigencia o contar con un identificador único. Si elidentificador es un nombre puede haber problemaspor errores de escritura o necesidad de cambiarlos,etc. Una solución cara y difícil de mantener paracrear un identificador único e inmodificable es lageocodificación.

El proceso de geocodificación es una técnica ge-neral que permite encontrar la correspondenciaentre dos o más mapas y bases de datos que nocompartan una referencia común. Las ventajas delgeocódigo son: a) es descriptivo pero fácilmenteidentificable en pantalla o papel; b) asegura la ho-mogeneidad de la codificación; c) permite lareutilización de bases. Los inconvenientes son: a)debe definirse a priori y no puede cambiarse; b)puede llegar a obligar a cambiar la estructura debases previas; c) todas las entidades o departamen-tos que colaboren en el SIG deben ponerse de acuer-do para utilizar una estrategia común.

La elección de un SIG implica elegir unhardware y un software adecuados a la aplicaciónque se quiere llevar a cabo. El hardware necesario

es similar al que se ha descrito en capítulos ante-riores por lo que no entraremos en el detalle de losdispositivos necesarios. Se necesitan ordenadoresde potencia similar a los utilizados en aplicacionesmultimedia, escáners, impresoras a color, etc.El software con que se cuenta es básicamente ungestor de bases de datos con características parti-culares por su modo de estructurar la informaciónterritorializada que las distingue de las bases dedatos convencionales y de los sistemas de dibujoautomatizado. Es posible, en general, transferir lainformación en formatos conocidos tales comoDXF para gráficos y ASCII para texto o basesalfanuméricas. El problema no es la dificultad detransferir los datos sino el peligro de perder la es-tructura de datos de un SIG, lo que obliga a rees-tructurar los datos y a utilizar diversas técnicas dereciclaje para restaurar o volver a transferir losdatos.

Estructura topológica

El medio fundamental de que se valen es el esta-blecimiento de una relación explícita entre los ele-mentos constituyentes del SIG, lo que se lleva acabo por medio la generación de una basetopológica. La topología es el instrumento mate-mático que permite una definición explícita de lasrelaciones entre elementos dentro de un entorno de-terminado y el análisis y procesamiento posterior

Figura 23 Datos estructurados con y sininformación topológica

Page 364: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 369

de las relaciones implícitas entre estos elementos.Un ordenador no puede "ver" los datos

cartográficos, es decir, no puede distinguir la iden-tidad de los datos. La capacidad de separarespacialmente unos objetos de otros es algo carac-terístico de los seres humanos y está guiada por elinterés y por muchas horas de educación durante lainfancia. En ausencia de sistemas inteligentes dereconocimiento de formas, algo en lo que se estáinvestigando intensamente en los últimos años yque resulta ser bastante más complicado de lo queinicialmente se pensó, es preciso aportar esta in-formación al sistema por métodos manuales,semiautomáticos o automáticos, según los casos.

La figura 23 muestra la diferencia, no aparentea simple vista, entre un polígono dado por la inter-sección de 4 líneas y un polígono definido explíci-tamente como tal. En el primer caso el sistema notiene modo de saber que el usuario considera lafigura resultado de la intersección como una enti-dad en sí misma, lo que sí es posible en el segundoal contar con un objeto en la base de datos quecoincide exactamente con el polígono que quere-mos segmentar.

La creación de la topología puede llevarse a cabopor el propio SIG de forma automática. Esto per-mite, entre otras cosas, no incluir esta informacióncuando se intercambian objetos, lo que simplificanotablemente estos intercambios. La creación dela topología es un proceso que se da en varias fa-ses. Las relaciones topológicas principales quepueden darse entre objetos cartográficosindividualizados son las siguientes: de coinciden-cia, de inclusión, de conectividad, de superposi-ción, de influencia (permite definir prioridades),de proximidad (por lo general no explícita sinocalculada cuando se necesita).

La organización de la información se lleva acabo a través de coberturas, capas o niveles. Cadacobertura contiene features o características geo-gráficas, ligadas topológicamente y asociadas a susdatos descriptivos. Los atributos descriptivos decada característica se almacenan en el ordenadorde forma similar a los datos gráficos, a través detablas denominadas tablas de atributos de caracte-rísticas. Un registro de la tabla almacena toda lainformación por lo que respecta a una ocurrenciade esta característica.

Utilización del sistema

Las principales o más comunes funciones de mani-pulación de datos que realiza un SIG, además de laprevia captura de información y codificación yestructuración de los datos sin lo que no sería posi-ble realizar ningún tipo de consulta, son las siguien-tes: cálculo automático de superficies; cálculo au-tomático de geocódigos; etiquetado de entidadesen conexión con datos alfanuméricos; localizaciónde elementos gráficos a través de sus atributosalfanuméricos; obtención de atributos numéricosligados a un elemento gráfico; selección y visuali-zación de elementos espaciales que cumplen de-terminadas condiciones (espaciales o no espacia-les); determinación de zonas de influencia alrede-dor de elementos espaciales; análisis de grafos yredes.

Todo esto puede, por añadidura, editarse e im-primirse, para lo que se cuenta como sería de espe-rar con mecanismos adecuados para la generaciónde ficheros con facilidades de formateo ysimbolización y con utilidades para generar diver-sos tipos de informes gráficos y alfanuméricos.

Los SIG proporcionan medios inteligentes de or-ganización y gestión de la información. Esto im-plica un nivel más profundo de sistematización yla posibilidad de una mayor potencia en la genera-ción de consultas.

Facilities Management

Puede compararse un SIG con un sistema de CADavanzado que incorpore diversos atributos talescomo información complementaria de las entida-des. La diferencia fundamental es que el SIG per-mite, además de lo anterior, la integración de lainformación espacial y textual y la posibilidad deobtener información adicional.

Esto sugiere que podría hacerse lo mismo conun edificio complejo. Un edificio puede asimilarsea un territorio si desplegamos todos sus niveles ytratamos los distintos recintos como parcelas delterritorio. Esto se ha hecho efectivamente en casosen los que el esfuerzo de construir una base de es-tas características resultaba adecuado. Un ejemploparticularmente interesante de la utilización direc-ta de bases de datos en proyectos arquitectónicoslo constituye lo que se denomina, en Inglaterra yEstados Unidos, facilities management y que pue-de traducirse como "gestión de dependencias y

Page 365: [Architecture eBook] Aplicaciones as en Arquitectura

370 Aplicaciones informáticas en arquitectura

equipamiento". Es un tipo de aplicación que sederiva bastante directamente de técnicas hereda-das de los sistemas de información geográfica.

Un mapa geográfico, tal como un mapa de Eu-ropa, puede ser considerado como una colecciónde polígonos yuxtapuestos o relacionados entre síde algún modo. El mapa de una ciudad como Bar-celona puede también ser considerado desde estepunto de vista. Y, aunque el término "mapa" resul-te algo más extraño en este contexto, nada nos im-pide considerar un edificio como "un mapa", esdecir, como una serie de polígonos relacionadosentre sí que representen habitaciones, vestíbulos ycorredores. Los principales obstáculos con que tro-pieza este modo de consideración son, en primerlugar que, a diferencia de lo que ocurre con losmapas corrientes, un edificio consta de varios ni-veles entrelazados entre sí que puede resultar pro-blemático delimitar y, en segundo lugar, que losespacios interiores de un edificio no siempre pue-den delimitarse con la misma claridad que los com-ponentes de un mapa.

Las ventajas de este modo de representación son,sin embargo, lo suficientemente importantes comopara dejar a un lado los inconvenientes. La princi-pal es que, a partir de tal representación, es posiblecrear una base de datos que gestioneautomáticamente estos polígonos, así como las pro-piedades o elementos asociados a ellos. Y, a partirde aquí, pueden llevarse a cabo operaciones auto-máticas de muy diversos tipos. Por ejemplo, y tansólo desde el punto de vista gráfico, esto significaque será posible resaltar y representar de diferen-tes modos, con color, tramas, gruesos de línea, etc.,cualquier colección que resulte significativa en di-ferentes contextos.

Desde el punto de vista de la gestión, las venta-jas son mucho mayores y permiten entender la cre-ciente importancia de este tipo de técnicas. Es po-sible llevar a cabo, automáticamente, operacionesde ordenación según diversos criterios: superficie,antigüedad, función, número de ocupantes, tipo deequipamiento, etc. Es posible realizar de modoautomático toda una serie de operaciones que, tra-dicionalmente, habría que realizar repetidamenteo estaban contenidas en archivos de vigencia du-dosa, o no susceptibles de gestión automática. Elcálculo automático de áreas, perímetros o volúme-nes es un ejemplo elemental de esto. Pero tambiénes posible especificar relaciones entre elementosdiversos o calcular distancias o recorridos míni-

mos. Pueden asociarse costes, valores térmicos,número de elementos de mobiliario, instalaciones,etc.

Los sistemas de información basados en mapasse desarrollan mediante el establecimiento de rela-ciones entre archivos gráficos, que representanmapas, es decir, información geométrica, y archi-vos de texto, bases de datos corrientes, que repre-sentan textos, es decir, información no geométrica.Este tipo de relación ya existe desde hace años enmuchos programas de CAD. Por ejemplo AutoCadcuenta, desde hace varias versiones, con "atribu-tos" asociados a "bloques" que permiten asociarinformación textual a una entidad gráfica. Esta in-formación, que se organiza en la base de datos pro-pia del programa de CAD, podía relacionarse di-rectamente, exportarse o importarse, con bases dedatos externas, tal como dBase, una base de datosprogresivamente en desuso pero que era hasta hacepocos años la más utilizada por usuarios de PCs.La generalización del uso de bases de datosrelacionales, la primera y principal de las cualesfue y sigue siendo Oracle, ha forzado la apariciónde técnicas más ágiles de gestión de los datos y,como consecuencia, la demanda de técnicas de re-presentación que faciliten este modo de gestión. Aesto ha contribuido también la necesidad de bene-ficiarse de técnicas y algoritmos provenientes desistemas de información geográfica, que sacan elmáximo partido de estos modos de organizar lainformación.

Todo esto tiene una aplicación específica en estaespecialidad. En lugar de ciudades se cuenta conedificios en los que las dependencias yequipamientos se representan como una colecciónde polígonos que representan habitaciones y sím-bolos gráficos asociados a ellos. La base de datosasociada contiene datos tales como superficies,perímetros, mobiliario, instalaciones, número de or-denadores, número de teléfonos, características deestos equipos, nombre y filiación de los ocupantes.

Esto quiere decir que gran parte de la gestión sehace de modo automático. El presupuesto requeri-do para colocar una moqueta, cambiar el pavimen-to, pintar las paredes, etc., puede generarse y co-rregirse con mayor rapidez y precisión. Otro tantocabe decir de las previsiones de cambios deequipamiento o personal.

Las consecuencias son de considerable impor-tancia en el caso de organizaciones que cuentancon grandes sedes y medios físicos pero deben re-

Page 366: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 11. Bases de datos y sistemas de información 371

organizarse con frecuencia, tal como ocurre en elcaso de edificios institucionales o grandes empre-sas financieras o industriales. En general, la mayorventaja es que se permite reducir el tiempo de ac-tualización del inventario. Si se genera una base dedatos precisa desde el comienzo de la vida del edi-ficio se reducirá notablemente el tiempo necesarioen renovar los datos y en calcular el coste de suce-sivas modificaciones.

Es importante comprender las razones de fondopor las que este tipo de aplicaciones tiene una de-manda creciente y necesita de recursos especiali-zados. En las últimas décadas, se han producidouna serie de cambios determinantes en los paísesdesarrollados. En primer lugar, los recursos inmo-biliarios, debido al creciente coste de los edificios,han ido adquiriendo una importancia creciente; todagran empresa, pública o privada, cuenta con unactivo inmovilizado que le puede suponer en mu-chos casos una cifra cercana al 50% del total y delque necesita sacar el máximo partido. En segundolugar, la dinámica del trabajo se ha acelerado, tan-to por lo que hace al contenido del mismo como alos cambios de personal y a los modos de organi-zación requeridos. En tercer lugar, el número y com-plejidad de las instalaciones y la subsecuente ne-cesidad de mantener un control estricto sobre lasmismas se ha incrementado tambiénespectacularmente; a este factor hay que añadir elcreciente coste de mantenimiento de un edificio quepuede llegar a representar el 80% del total de loscostes a lo largo de su vida útil.

Todo esto requiere de algún sistema de gestiónpreciso, potente, rápido y capaz de dar respuestascon agilidad a situaciones de cambio. Los métodosproporcionados por la gestión de bases de datos,interrelacionados con métodos adecuados de repre-sentación de edificios, todo ello combinado contécnicas informáticas, son la respuesta básica quese ha encontrado a esta nueva especialidad de tra-bajo para los arquitectos.

Al interés intrínseco de esta especialidad hay queañadir el hecho de que representa un modelo muydesarrollado de gestión de elementos, que puedeorientar la integración de bases de datos en los pro-yectos arquitectónicos en casos más sencillos y másgenerales.

Page 367: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 373

Capítulo 12. Métodos y sistemas de cálculo

1 Conceptos y herramientas

Este capítulo será breve pues su intención princi-pal no es otra que servir de introducción a otrostextos que aborden el tema con suficiente profun-didad. Me limitaré por consiguiente a indicar algu-nos métodos sencillos de uso general y, sobre todo,a dejar constancia de la importancia que tienen losmétodos y sistemas de cálculo a lo largo de todo elproceso de desarrollo de un proyecto arquitectóni-co.

El mejor modo de subrayar esta importancia esdejar bien claro que lo primero es el concepto y,después, la herramienta. Si los conceptos no estánclaros, la herramienta puede convertirse en un armapeligrosa. De ahí que la mejor recomendación paraquien quiera utilizar la informática para hacer cál-culos de instalaciones o de estructuras es que co-mience por estudiar los fundamentos conceptualesde estas materias, que continúe estudiando los di-versos modos en que estos fundamentos se encar-nan en uno u otro método y, a partir de esta base,que se decida por un método informatizado espe-cífico.

Insistamos. Para llevar a cabo cálculos que afec-ten a las dimensiones y al comportamiento físicode un edificio debe tenerse en cuenta que se nece-sita, en este orden:

a) Un conocimiento suficiente del tipo de pro-blema que se está tratando, esto es, de la teoría, delos experimentos en que se funda la teoría, y deltipo de análisis que cabe llevar a cabo sobre estabase. No está de más que todo esto se completecon cierto conocimiento de la evolución históricade la teoría y de la situación actual, contempladadesde esta perspectiva histórica.

b) Un conocimiento suficiente de los métodosmatemáticos adecuados para tratar problemas de

cierto grado de complejidad y, obviamente, de aque-llos que resultan pertinentes para el caso de que setrate.

c) Un conocimiento suficiente de las herramien-tas informáticas disponibles. Es decir, un conoci-miento suficiente de las posibilidades y las limita-ciones de estas herramientas.

Estos requisitos se necesitan a lo largo de unrecorrido que pasa por una serie de fases caracte-rísticas. En primer lugar es necesario generar unmodelo que represente adecuadamente el objeto deque se trate. Esto implica una abstracción, una re-ducción del caso real a una serie de parámetros quepuedan ser objeto de análisis matemático, a unaestructura de datos que resuma de modo suficientelas características más relevantes del objeto queestamos calculando, prescindiendo de las que nolo sean. Es fundamental, en este estadio, ser plena-mente consciente de lo que se está eliminando enaras de la necesaria simplificación del problema.

Estamos hablando de modelos matemáticos yesto significa, entre otras cosas, que los modelosmatemáticos están pensados para problemas con-cretos y por tanto cada modelo matemático tieneun ámbito de aplicación restringido. Es absoluta-mente necesario conocer bien este ámbito de apli-cación para poder garantizar la fiabilidad del re-sultado. También debe tenerse en cuenta el gradode complejidad del método escogido. Frecuente-mente podremos escoger entre diversos modelosmatemáticos para solucionar el mismo problema.En general podremos obtener resultados más pre-cisos utilizando programas basados en métodos decálculo más complejos. Sin embargo, esto se lo-grará a costa de emplear más tiempo y más memo-ria puesto que el modelo será más cercano a la rea-lidad y por consiguiente más elaborado. En la prác-tica interesará escoger el modelo más simple si su

Page 368: [Architecture eBook] Aplicaciones as en Arquitectura

374 Aplicaciones informáticas en arquitectura

fiabilidad es suficientemente aceptable.En segundo lugar es necesario insertar este mo-

delo en un proceso en el que el comportamientodel modelo a lo largo del tiempo, bajo la acción dediferentes solicitaciones, pueda ser simulado de talmodo que los resultados del cálculo en una fasesean adecuados para servir como datos de entradaen un fase posterior. Un programa de aplicaciónhace precisamente esto. Articula una serie dealgoritmos que simulan fases determinadas de unadinámica real. Pero para poder llevar a cabo unasimulación por medio de un programa es impres-cindible, de nuevo, un conocimiento cabal de loque va a ocurrir en realidad, esto es, del modo enque se prevé que el objeto de referencia del mode-lo variará a lo largo del tiempo en función de lasdiversas fuerzas que puedan actuar sobre él.

En tercer lugar es preciso interpretar y evaluarlos resultados obtenidos. Aquí, quizás más que aen ninguno de los estadios anteriores, se necesitacontar con una experiencia adecuada que permitadetectar inconsistencias en el proceso o en la mo-delización previa de los datos. El resultado de uncálculo nunca, o tan sólo en casos excepcionales,puede aparecer como algo inesperado para quienutiliza un programa de cálculo. Por lo general, quienha puesto en marcha el proceso, espera encontrarun valor que se mueva dentro de ciertos límites. Elprograma proporcionará un resultado que precisaeste valor. Si este valor de salida no se sitúa en losmárgenes esperados, lo normal es repetir el cálcu-lo porque puede haberse colado un error en la en-trada de datos algo que sucede con relativa frecuen-cia. Una aceptación acrítica de los resultados auto-máticos del cálculo, que confíe ciegamente en laprecisión de la máquina, puede tener resultadoscatastróficos.

Dicho todo esto, podemos distinguir dos gran-des grupos de métodos informatizados de cálculo:métodos generales, válidos en principio para cual-quier tipo de aplicación, y métodos particulares,ligados directamente a aplicaciones específicas,como puede ser el caso de las instalaciones o lasestructuras.

Métodos generales. Programas no específicos

Cuando se utiliza un método general de cálculo,no ligado a un tipo de aplicación específico, puededecirse que hay dos instrumentos principales a losque recurrir.

En primer lugar, pueden utilizarse lenguajes deprogramación para preparar una serie de rutinasgenéricas que automaticen el proceso de cálculo apartir de unos datos variables de entrada. Aunquela exposición de esta forma de trabajo queda fuerade los límites de este libro, hay que decir que estees, idealmente, el mejor método de todos, en la me-dida en que proporciona a quien lo usa plena liber-tad para adaptar el programa a sus necesidades.

Muchos cálculos sencillos pueden llevarse acabo con lenguajes de programación igualmentesencillos. Un arquitecto interesado en estos temasdebería ser consciente de que la utilización de unlenguaje de programación como AutoLisp o VisualBasic para cálculos elementales, es algo que puedeconseguirse sin excesivo esfuerzo en cuestión deunas pocas semanas. La palabra "programación"provoca un temor injustificado en muchos arqui-tectos que podrían sacar un gran partido de algunode los lenguajes mencionados.

En segundo lugar pueden utilizarse hojas de cál-culo, de las que se tratará en la siguiente seccióncon algo más de extensión. Una hoja de cálculopuede entenderse como una plantilla que permitellevar a cabo formas de programación muy senci-llas, en la que se proporcionan una serie de funcio-nes básicas para llevar a cabo operaciones aritmé-ticas relativamente simples y una estructura rela-cional que permite hacer fluir los resultados delcálculo de una a otra casilla, de un modo que pue-de ser fácilmente asimilado sin entrar en las com-plejidades de los flujos más elaborados de un len-guaje de programación.

En manos de un arquitecto especializado en al-guna de las áreas mencionadas estas herramientasgenéricas son la mejor alternativa y la mejor reco-mendación que puede hacerse para mantener uncontrol pleno sobre todo el proceso. Decir esto estanto como decir que, en muchos casos, la mejoropción puede ser encargar el cálculo a un arquitec-to especializado en el tipo de aplicación de que setrate y que sea capaz de utilizar estos medios.

Métodos particulares. Programas específicos

La alternativa al uso de métodos genéricos, váli-dos para todo tipo de aplicaciones, es utilizar pro-gramas adaptados a casos concretos. La "adapta-ción" se refiere no sólo al tipo de cálculo sino atodo el entorno del programa, que facilite la entra-da de cierto tipo de datos y cuente con suficientes

Page 369: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 375

utilidades para gestionar la información de modoadecuado.

Existen en el mercado una gran diversidad deprogramas específicos de cálculo de estructuras yde instalaciones, orientados a necesidades y pro-blemas diferentes. En muchos casos, principalmenteen el caso de instalaciones basadas en modelos co-merciales específicos, puede resultar más operati-vo utilizar uno de estos programas. Muchas em-presas comerciales cuentan con programas propiosy pueden realizar los cálculos necesarios para unproyecto determinado. Ésta es una alternativa co-rriente para la que, una vez más, será preciso con-tar con una buena experiencia o el asesoramientode un especialista que nos permita evaluarcríticamente los resultados que proporcione la em-presa, dado que ésta tiene intereses comerciales quele pueden llevar a aplicar coeficientes de seguri-dad excesivamente generosos que impliquen gas-tos mayores de lo necesario.

Si se quiere intervenir directamente en el proce-so y elegir programas específicos conviene teneren cuenta lo siguiente al evaluar las posibles alter-nativas:

a) Comprobar el modelo matemático en que sebasa, lo que implica un determinado ámbito de apli-cación y un determinado grado de precisión y, con-secuentemente, de complejidad.

b) Comprobar la mayor o menor facilidad deutilización. Hay programas específicos que puedenrequerir un excesivo grado de especialización ensu manejo.

c) Comprobar la posible integración con otrasaplicaciones. Un requisito habitual es asegurar lacompatibilidad con programas de CAD de uso co-rriente. Por ejemplo, en la mayoría de los casosserá necesario comprobar si pueden exportarsedatos en formato DXF o DWG sin pérdida de in-formación relevante.

Una alternativa relativamente usual es combi-nar los dos métodos que hemos presentado. Estoes, hacer una estimación de los resultados por me-dio de un cálculo genérico, llevado a cabo en elpropio despacho o con ayuda de un especialista y,a partir de esta base, encargar un cálculo más exac-to, basado en programas específicos. A partir deaquí, las desviaciones que se produzcan pueden seranalizadas con mayor rigor.

2 Hojas de cálculo

Las primeras hojas de cálculo informatizadas(spreadsheets) aparecieron en 1978 con la VisiCalcpara Apple II que fue seguida por muchas otras,entre ellas Lotus 1-2-3, probablemente la hoja decálculo más utilizada en MSDOS, hasta que fuedesplazada por MS Excel, en Windows, que es lamás utilizada durante la década de los noventa.

Una hoja de cálculo consiste en un programaque presenta una simulación informática de unahoja de cálculo tradicional, por medio de una es-tructura relacional de datos y fórmulas abstractas,lo que permite efectuar todo tipo de cálculosautomáticamente y pasar los resultados a lo largode un flujo especificado libremente por el usuario.Sirve para procesar números de un modo similar acomo un procesador de textos procesa palabras. Eldestino natural de una hoja de cálculo es, por con-siguiente, cualquier tarea en la que sea precisomanejar listas de números y relaciones entre ellos.

El programa mantiene actualizados todos los da-tos que se introducen al inicio del proceso, lo quele convierte en un medio poderoso de gestión. Lasalida de los datos puede también presentarse demodo automático de diversos modos, por mediode gráficos de barras bidimensionales o tridimen-sionales, curvas o círculos divididos en sectores.

Las hoja de cálculo utilizadas corrientementeconsisten en una tabla compuesta por casillas de-nominadas celdas (cells) organizadas como unamatriz de filas (rows) y columnas (columns). Lasceldas pueden contener valores numéricos, cade-nas de texto o funciones. La figura 1 muestra unesquema en el que se muestran los componentesbásicos de una hoja de cálculo y la figura 2 otroesquema simple en el que se ilustra el modo en queuna casilla puede contener datos determinados oresultados de aplicar una función determinada atales datos.

Internamente, una hoja de cálculo es un modelonumérico en el que se almacenan ordenadamentelas posiciones de cada celda, de tal modo que estasposiciones pueden ser dadas como argumento parafunciones asignadas a otras células y su valor pue-de ser modificado según el sentido de estas funcio-nes.

El funcionamiento básico es muy sencillo aun-que puede complicarse bastante si se utilizan fun-ciones matemáticas complejas. Si introducimos unaserie de valores numéricos en una serie de celdas,pongamos que las C5, C7, C9 (las letras corres-

Page 370: [Architecture eBook] Aplicaciones as en Arquitectura

376 Aplicaciones informáticas en arquitectura

A12345

B C D

= ½(4B1+3B2)

67

A B C1234567

Número decimalNúmero decimal

162569.5

A12345

B C D

Celda B3; Formato:

Número enteroNúmero decimalTextoFechaPorcentajeEspecial6

7

E F G H I

ponden a filas y los números a columnas según unconvenio habitual) puede introducirse, como valorcorrespondiente a, por ejemplo, la celda D12, conla sintaxis propia del programa que utilicemos, elvalor "Suma C5, C7, C9" o bien "Promedio C5,C7, C9", o cualquier otra función matemática queligue los valores dados.

La nueva celda mostrará automáticamente el re-sultado de la operación. Y, si cambiamos algunode los valores especificados para las celdas a quese refiere este valor-función, el resultado se actua-lizará automáticamente. Esto convierte a las hojasde cálculo, no sólo en una alternativa a las calcula-doras corrientes, sino en un poderoso instrumentode experimentación que permite ensayar diversascondiciones de trabajo con rapidez antes de dar porbueno un resultado.

La diferencia entre una hoja de cálculo y las es-tructuras de datos organizadas en tablas es que lashojas de cálculo permiten incluir en las celdas da-tos de diferente tipo. Esto implica que es necesarioespecificar el formato de las celdas entendiendopor esto, en primer y principal lugar, el tipo de datoque se va almacenar, sea numérico, de texto, fecha,función, etc., y, en segundo lugar, el modo o estiloen que se van a almacenar estos datos. Lo primeroes imprescindible pues el programa no permitiráefectuar operaciones entre datos de diferente for-mato. Lo segundo es conveniente para que el as-pecto de los datos sea más ordenado e incorporeinformación secundaria. Por lo general todos lashojas de cálculo informatizadas cuentan con am-plios recursos para facilitar al usuario el manteni-miento de la consistencia entre datos y para preve-nir errores derivados de formatos incompatibles.

En el caso de la arquitectura, las hojas de cálcu-lo se pueden utilizar para muy diversas tareas. Agrandes rasgos, estas tareas a las que las hojas de

cálculo sirven de un modo particularmente adecua-do se pueden dividir en dos grandes grupos: por unlado gestión y ordenación de entidades de diversotipo y, por otro lado, operaciones de cálculo.

Ejemplo de lo primero, de la utilización de unahoja de cálculo como herramienta de gestión, es suaplicación para mantener actualizada una lista delos documentos de un proyecto, una ficha de pro-yecto, un calendario de planificación de activida-des, un estudio de presupuesto, un presupuestocompleto, la contabilidad del despacho o formula-rios y facturas de diversos tipos.

Ejemplo de lo segundo, de la utilización de unahoja de cálculo como herramienta de cálculo, es suaplicación para llevar a cabo el cálculo de una ins-talación de climatización, o de una estructura sim-ple. Veremos ejemplos de este tipo de aplicacionesen la siguiente sección.

Las hojas de cálculo actuales permiten tambiénincorporan otros accesorios bastante útiles. Es po-sible utilizar herramientas elementales de dibujopara trazar líneas, flechas, rectángulos, polígonos,arcos, elipses, etc., o para crear cuadros y diagramasque puedan incorporarse fácilmente a documentosde texto, sin necesidad de utilizar programassofisticados de dibujo y sin la complicación de te-ner que importar estos dibujos a documentos detexto.

También permiten presentar datos de un modosintético por medio de gráficos de barras (businessgraphics), un tipo de aplicación no muy habitualen el caso de los despachos de arquitectura peroque puede ser de interés como medio de presentarcierto tipo de información de un modo sintético yque se genera de modo automático, con una grandiversidad de opciones, a partir de los datos queincorpora el programa.

Las hojas de cálculo son adecuadas para proce-

Figura 1 Componentes básicos de una hoja de cálculo

Figura 2 Flujo de datos enuna hoja de cálculo

Page 371: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 377

sos secuenciales, cálculos tabulares e iterativos,siempre que el número de iteraciones sea conocidopreviamente. En cambio tienen dificultades pararesponder a procesos iterativos variables o proce-sos de simulación con perdidas de tiempo y dura-ciones indeterminadas.

Algunos ejemplos habituales de utilización dehojas de cálculo son:

- cálculo de elementos estructurales simples: ci-mentaciones, muros de contención, tensión ydeformación en barras;

- cálculo de aislamiento térmico de elementosconstructivos compuestos;

- cálculo de aislamiento acústico;- cálculo simplificado de pequeñas redes de flui-

dos;- mediciones y presupuestos;- facturas y formularios automatizados que im-

pliquen cálculos de costes;- cuadros de organización y planificación del pro-

yecto;- cuadros de evolución y planificación de la obra

3 Notas sobre el cálculo de Instalaciones

Una mención sumaria de los diferentes tipos deaplicaciones técnicas que se engloban en la frase"instalaciones en los edificios" bastará para justifi-car la necesaria superficialidad con que debemosabordar este tema. Sería necesario decir algo so-bre, al menos, los siguientes grupos:

a) Abastecimiento y distribución de agua fría.Esto implica el cálculo del consumo previsto, delos depósitos y bombas necesarios en su caso, delas dimensiones de las tuberías y conducciones enlos diferentes ramales de la instalación, de las ca-racterísticas de los mecanismos que pueden encon-trarse en las ramificaciones y terminales: válvulasde diversos tipos, grifos, etc.

b) Abastecimiento y distribución de agua calien-te. A los cálculos anteriores habría que sumar laestimación del consumo previsto de agua caliente,los depósitos y sistemas previstos de modo exclu-sivo para agua caliente y todo lo que debe añadirsea los cálculos propios del abastecimiento de aguafría.

c) Evacuación y saneamiento. El cálculo debe-ría partir de una estimación de los caudales previs-tos de aguas pluviales y aguas negras, de las di-mensiones de las tuberías de evacuación en cada

caso, de las dimensiones de los colectores genera-les y, en su caso, de las dimensiones de elementossingulares tales como arquetas o separadores de gra-sas.

d) Ventilación. En este caso sería necesario uncálculo del caudal del aire a extraer, del diámetrode los conductos de extracción, del tipo de ventila-dores, del cálculo del volumen de reposición, de lasuperficie de las rejillas.

e) Suministro de gases combustibles. El cálculodependerá inicialmente de los diferentes sistemasde suministro: gas "ciudad" (mezclas de hidróge-no, óxido de carbono o hidrocarburos ligeros), gasnatural (fundamentalmente metano) o gaseslicuados del petróleo (propano, butano o mezclasde éstos). En el caso de los dos primeros el cálculose reduce a poco más que el dimensionamieno delas tuberías.

f) Acondicionamiento térmico. Lo primero quese necesita calcular, a partir de las característicasmateriales previstas para el edificio, de su situa-ción geográfica y de su orientación, son las pérdi-das térmicas que tendrán lugar a lo largo de las di-ferentes épocas del año y poner estos datos en rela-ción con el concepto de comfort; una puesta en re-lación que en modo alguno es sencilla y que re-quiere algo más que el efectuar unas cuantas ope-raciones numéricas. Los resultados del cálculo pue-den llevar a modificar de modo sustancial el pro-yecto, antes que traducirse de modo inmediato enun determinado sistema de calefacción o refrigera-ción.

h) Calefacción. En el caso de que se escoja undeterminado sistema de calefacción, será necesa-rio calcular la potencia y las dimensiones de la cal-dera, el volumen de almacenamiento de combusti-ble requerido, el diámetro de chimeneas y conduc-tos de humos que pueda necesitar en su caso la salade máquinas, la capacidad de los distintos elemen-tos calefactores y los diámetros de las distintas tu-berías, así como las pérdidas de carga en los dife-rentes casos, las características de los elementosde regulación, válvulas de expansión o de seguri-dad, la posible aparición de condensaciones y otrascuestiones en las que, más que en otros casos, senecesita ponderar adecuadamente los resultadosnuméricos con la opinión de un experto.

i) Aire acondicionado. El cálculo de una insta-lación de aire acondicionado difícilmente se podrállevar a cabo sin el concurso de una empresa espe-cializada pero se requieren cálculos previos que

Page 372: [Architecture eBook] Aplicaciones as en Arquitectura

378 Aplicaciones informáticas en arquitectura

deberán ser realizados por el arquitecto y que de-berán proporcionar una estimación previa del ta-maño de la bomba de calor y las dimensiones delos conductos principales; no es posible avanzaren la confección de un proyecto que incluya unainstalación de aire acondicionado sin una idea cla-ra del tamaño y la distribución de los elementosimplicados, que puede ser, mucho más que en loscasos anteriores, determinante en la concepciónformal del proyecto.

g) Acondicionamiento acústico. Como en el casodel acondicionamiento térmico, el primer cálculodebe estar dirigido hacia una estimación de la ca-pacidad aislante del edificio, tanto externa comointernamente. Y, también como antes, las conse-cuencias de este cálculo deberán afectar de mododirecto al proyecto, incorporando aislantes a losmuros, aumentando su espesor o modificando losmateriales previstos.

j) Protección contra incendios. Las normativassobre protección contra incendios han aumentadoconsiderablemente en los últimos años y lo prime-ro que se debe hacer es asegurarse que el edificiosatisface estas normativas, a nivel local, autonómi-co, estatal y europeo, que no siempre son bien co-nocidas. Muchas de estas normativas, con su insis-tencia en la compartimentación como factor pre-ventivo, afectan más que nada a la propia concep-ción del proyecto. La capacidad de resistencia alfuego de los propios elementos empleados tampo-co es algo que requiera, en general, cálculos, puesse trata fundamentalemente de saber si los mate-riales escogidos cumplen los requerido por su ubi-cación. Otro tanto cabe decir de los sistemas dealarma y señalización. El número y tipo deextintores en función de las superficies que hay quecubrir puede requerir ciertos cálculos elementalesque pueden confeccionarse fácilmente con una hojade cálculo.

j) Electricidad. El cálculo debería partir del gra-do de electrificación necesario y de las caídas detensión admisible en los diferentes tramos. A partirde aquí pueden obtenerse las secciones de los con-ductores en función de la potencia prevista, de lostipos utilizados y de la longitud de los mismos. Porlo general se utilizan tablas suministradas por lacompañía eléctrica aunque las fórmulas básicas sonsencillas y las secciones están normalizadas a unnúmero muy limitado de valores por lo que, en lamayoría de los casos que pueden presentarse, porejemplo viviendas unifamiliares o bloques residen-

ciales, las soluciones están muy tipificadas y el cál-culo no presenta grandes complicaciones.

Éstas son las aplicaciones más habituales. En lamayoría de los casos, lo que se requiere es un cál-culo aproximado, una estimación previa, relativa-mente tosca, que permita vislumbrar el rango devalores posibles en los que va a situarse la solu-ción definitiva. Una hoja de cálculo es, desde estaperspectiva, una herramienta preciosa pues permi-te trazar, en abstracto, la estructura de la solución yponerla a prueba variando sistemáticamente losdatos de entrada.

También es interesante tener en cuenta que haycierto tipo de fórmulas que son de manejo engo-rroso y que no pueden introducirse con facilidaden una calculadora manual. La figura 3 muestra unejemplo de aplicación en la que se utilizan fórmu-las de este tipo.

En general, el mayor inconveniente del cálculode instalaciones deriva de la gran diversidad deproyectos que se abordan en un despacho de arqui-tectura. Para un despacho especializado en deter-minado tipo de obras supondría, con toda seguri-dad, una buena inversión el dedicar el tiempo sufi-ciente a modelar, numéricamente, el cálculo apro-piado para las instalaciones de los proyectos quecaen dentro de su ámbito. Cuando, como ocurrecon frecuencia, esto no es así, y el despacho deberesponder a cualquier demanda, quizás la opciónmás recomendable sigue siendo dirigirse a un es-pecialista que ya cuente con modelos adecuadospara cada caso o sea capaz de generarlos con rapi-dez.

Por otro lado, también hay que subrayar que escada vez más habitual el plantear desde el inicio deun proyecto una concepción integrada del compor-tamiento de todo el edificio, especialmente por loque hace referencia a su comportamiento energéti-co. Esto permite aumentar la fiabilidad de los re-sultados aunque es evidente que comporta un gra-do de complejidad en la modelización del sistemamuy considerable.

El cálculo de instalaciones acostumbra a ser unproceso interactivo, ya que habitualmente no sebusca un resultado estático concreto, sino que sebusca una situación de equilibrio entre diversos fac-tores, en donde hay que ir corrigiendo y compen-sando los parámetros para encontrar el diseño óp-timo, por medio de secuencias de ensayo y error endonde la intuición y la experiencia juegan un papelmuy importante.

Page 373: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 379

11

0.4 × A13 × D13 × B13/C13

1213

Datos

A B C D E F G H

Coeficiente f Longitud Diámetro Velocidad Pérdida carga(no dim)0.9:galvaniz.

Superficie Caudal Potencia(m) (cm) (m/s) (mm.c.a.) (m ) (m /s) (watios)

Pérdida de carga en tuberías

Ejemplo de cálculo

0.25 × × (C13/100)

D13 × F13

E13 × E13 × 101 300/10 336

π

1.82 1.22

2

Pérdida de carga en tuberías

Ejemplo de cálculo

Coeficiente f

1211

13

0.9:galvaniz.(no dim)

A

SuperficieVelocidad Pérdida cargaDiámetroLongitud(m/s)(m) (cm) (mm.c.a.) (m )

B C D E

PotenciaCaudal(watios)(m /s)

GF H

0.90.91.8

1100100

102020

255

0.07659088617.42494091034.849881810

0.007853980.031415930.03141593

0.015707960.157079630.15707963

0.0117910926.8255192053.65103830

Debido a este tipo de proceso "interactivo" y ala dificultad de representar con modelos matemáti-cos estáticos las situaciones de equilibrio entreparámetros que varían en función de la evoluciónde otros parámetros similares, cada vez se utilizanmás los métodos de simulación numérica. Estosmétodos, generalmente basados en dinámica de flui-dos o en modelos de transmisión de calor, prevenla evolución en el tiempo del comportamiento delos diferentes sistemas que estamos intentando cal-cular, teniendo en cuenta las interacciones que sevan produciendo entre los diferentes parámetros queintervienen. Esto permite analizar y corregir el sis-tema con mucha más eficacia que los sistemas es-táticos.

El mayor problema, en estos casos, es controlarel grado de fiabilidad de los modelos ya que fre-cuentemente la simplificación de la realidad quecomportan es tan elevada que pone en entredichosus resultados finales. En este sentido se está evo-lucionando muy rápidamente y se comienza a dis-

poner de modelos cada vez más complejos y mejorcontrastados.

Por último, además de los programasinformáticos que nos permiten definir los elemen-tos, también es importante tener en cuenta la ges-tión posterior del sistema, que habrá de basarse enel modelo utilizado y en la recepción y utilizaciónde los datos del comportamiento real del edificiopara ir corrigiendo las posibles inexactitudes de lasprevisiones y adaptar en cada momento la respues-ta adecuada a lo que realmente está ocurriendo.

4 Notas sobre el cálculo de estructuras

La finalidad del cálculo de estructuras es determi-

Figura 3 Ejemplo de cálculo con fórmulas de introducción no directa en calculadoras corrientes

Page 374: [Architecture eBook] Aplicaciones as en Arquitectura

380 Aplicaciones informáticas en arquitectura

nar las dimensiones y las características físicas delos elementos sustentantes de una edificación, detal modo que se asegure su estabilidad, bajo diver-sas condiciones de sobrecarga, dentro de un mar-gen de variación razonable. Para cumplir esta fina-lidad se necesita combinar conocimientos y recu-rrir a métodos que provienen de disciplinas muydiversas. El cálculo de estructuras implica a la me-cánica, la resistencia de materiales, la obtenciónde diagramas de esfuerzos y deformaciones por mé-todos gráficos y numéricos, la resolución deecuaciones por medio de matrices relativamentecomplejas, o el recurso a ecuaciones diferencialesen determinados casos de especial complejidad.

Por añadidura se deben adaptar estos métodos yconocimientos a una casuística relativamente am-plia que resumiremos un tanto abruptamente en loque sigue.

Dado que todo edificio está anclado a un lugarconcreto, el primer paso en todo cálculo es com-probar cuáles son las características resistentes delelemento que, en última instancia, va a recibir lascargas, es decir, el propio terreno. Esto implica larealización de una serie de ensayos y análisis quevan desde el reconocimiento visual a la extracciónde muestras por medio de sondeos o la realizaciónde ensayos, de campo o en laboratorio, pasandopor la obtención de informes geológicos de la zona.

Las características del terreno serán el primerfactor que se deberá considerar, aunque no el úni-co, para la elección de una determinada estructurade cimentación que, en principio, pertenecerá a unode dos grandes grupos: superficial, por medio dezapatas (aisladas, trabadas o continuas) o losas decimentación y profunda, por medio de pilotes pre-fabricados o construidos in situ. Por otro lado, losempujes laterales requerirán, en muchos casos, elrecurso a estructuras de contención, muros o pan-tallas de diversos tipos.

La estructura del edificio propiamente dicha sepuede clasificar a su vez de diversos modos. Losdos más relevantes en la práctica son los que clasi-fican las estructuras en función del material o enfunción de la tipología edificatoria.

Desde el punto de vista del material las estruc-turas se clasifican en estructuras de hormigón (enmasa, armado, pretensado o postensado), metáli-cas (de acero laminado en perfiles sencillos, com-puestos o armados), de fábrica (bloque, cerámicao ladrillo), de madera (maciza, clavada, laminaday encolada), de materiales especiales o infrecuentes

(acero inoxidable, aluminio) o mixtas.Desde el punto de vista de la tipología

edificatoria la clasificación más relevante para elcálculo es la que distingue entre forjadosunidireccionales (apoyados en muros o en pórti-cos), forjados bidireccionales (reticulares, de pla-cas y pilares), espaciales (en mallas, laminares) yestructuras especiales, con grandes luces o elemen-tos singulares, grandes voladizos, etc.

Métodos utilizados en el cálculo de estructuras

En el cálculo de estructuras se utilizan diversosmétodos que, desde un punto de vista muy general,se pueden clasificar en analíticos, numéricos y ex-perimentales. Los métodos analíticos permiten for-mular un resultado de modo universal, en funciónde símbolos no comprometidos con resultados con-cretos y, por consiguiente, con la mayor o menorexactitud de éste. Son fundamentales desde el pun-to de vista teórico pero de escaso interés práctico,pues en muy pocos pasos es posible pasar de mododirecto de la formulación al resultado sin utilizartécnicas adicionales que garanticen la fiabilidad deéste.

Los métodos numéricos, por el contrario, estánbasados en estrategias adecuadas que permiten con-trolar el grado de precisión o prever desviacionesimprevistas de los resultados esperados. Esto esparticularmente importante cuando se utiliza unordenador y determinadas formulaciones "mal con-dicionadas" pueden pasar inadvertidas. Un casotípico es la resolución de dos ecuaciones con dosincógnitas como las siguientes: a) x + y = 10; b)999x + 1.001y = 20, que representan dos rectas casiparalelas y que requieren una considerable preci-sión en la obtención del resultado, lo que puedepasar inadvertido a primera vista. Otros casos ca-racterísticos vienen dados por la manipulación dematrices con muchos ceros en la diagonal princi-pal. Por otra parte, en muchos otros casos de im-portancia práctica puede ser necesario utilizar es-trategias específicas para evitar que la repeticiónde determinados tipos de cálculos acumulen la re-percusión de pequeñas diferencias de precisión.

En fin, los métodos experimentales se aplicanen procesos de fabricación en los que se comprue-ba la resistencia real de un elemento concreto, seapor medio de maquetas a pequeña escala, sea pormedio de prototipos a escala real cuando se tratede elementos, como puede ser el caso de una vigueta

Page 375: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 381

pretensada de la que se van a producir un gran nú-mero de unidades.

Desde nuestro punto de vista los métodos másimportantes son evidentemente los métodos numé-ricos. En el cálculo de estructuras los métodos decálculo numérico más conocidos son: a) el cálculoelástico de elementos independientes; b) el méto-do de Cross, poco utilizado actualmente ya que eramuy adecuado para el cálculo manual, pero estásiendo sustituido por métodos que superan la com-plejidad de cálculo de otros métodos por la capaci-dad proporcionada por los ordenadores; c) el cál-culo matricial que resumiremos brevemente en elsiguiente apartado; d) el cálculo por el método delos elementos finitos que también presentaremossucintamente más adelante; e) métodos experimen-tales de modelización de materiales.

También pueden distinguirse los diferentes mé-todos de cálculo de acuerdo con los tipos de ele-mentos que componen la estructura. Desde estepunto de vista puede diferenciarse entre: a) mode-los basados en barras teóricamente lineales(unidimensionales); b) modelos basados en elemen-tos continuos bidimensionales o tridimensionales;c) modelos mixtos.

Y también pueden clasificarse los diferentes mé-todos, abundando en lo dicho más arriba sobretipologías edificatorias, según el modelo topológi-co de la estructura, esto es, según se trate de: a) unmodelo bidimensional ortogonal, con una simpli-ficación considerable pero aceptable para casosconcretos y relativamente corrientes; b) un modelobidimensionale libre, con una simplificación másflexible, que será viable siempre que la estructurase pueda descomponer en planos; c) un modelo tri-dimensional ortogonal, más complejo y de resulta-dos más precisos, con la limitación principal de laortogonalidad de los elementos; d) un modelo tri-dimensional libre que será, en definitiva, el tipomás flexible y que proporcionará resultados másprecisos a costa de una mayor complejidad de cál-culo.

Por lo que respecta a aplicaciones comerciales,hay una gran variedad de programas específicosde cálculo de estructuras, orientados a necesidadesy problemas diferentes, entre los que es necesariopoder escoger los más convenientes. Al evaluarcada uno de ellos hablaremos de fijarnos básica-mente en lo siguiente: a) qué modelo matemáticoutilizan o, dicho de otro modo, qué ámbitos de apli-cación y qué grado de complejidad y precisión con-

llevan; b) qué tipo de interface utilizan: aunque estono afecte a la precisión del cálculo puede tener con-secuencias importantes, cuantificables en tiempo,derivadas de la facilidad de utilización; c) qué po-sibilidades tiene de integración con otras aplica-ciones: por ejemplo, si admite dibujos o modeloselaborados con otros programas sin pérdida de in-formación relevante.

Cálculo matricial

Muchas estructuras, no sólo arquitectónicas, pue-den representarse por medio de mallas medianteuna descomposición de sus elementos en dos cate-gorías: barras y nudos. Esta representación vale parala estructura de un edificio, para una red eléctricao para una red hidráulica. Muchos de los métodosde análisis de estas estructuras son comunes y per-miten establecer analogías valiosas entre diferen-tes campos.

En el caso de una estructura arquitectónica esaceptable, en muchos casos, representar el conjun-to como un sistema de barras y nudos que está so-metido a acciones externas. Los conceptos clási-cos de resistencia de materiales, la ley de Hooke(enunciada hacia 1660) que establece una corres-pondencia lineal entre tensiones y deformacioneso los teoremas de Mohr (formulados hacia 1892)que permiten calcular los desplazamientos de losnudos, posibilitan, a partir de la hipótesis de que laestructura permanece en equilibrio, obtener unaserie de ecuaciones que nos describen su estado.

Estas ecuaciones relacionan, globalmente, ma-trices de rigidez de la estructura con vectores dedesplazamiento y vectores de fuerzas externas. Laresolución de estas ecuaciones proporciona losvalores de desplazamiento en todos los nudos. Apartir de estos valores pueden obtenerse los esfuer-zos internos de las barras y llegar por consiguientea un punto en el que es posible evaluar las dimen-siones necesarias de los elementos reales que per-mitan absorber estos esfuerzos.

Este método presupone una simplificación no-table: en una estructura formada por vigas y pila-res éstos quedan sustituidos por ejes que deben, engeneral, formar pórticos planos. Esto implica, porañadidura, que se parte del supuesto de que el ma-terial es homogéneo, que la sección es constante alo largo de todos los ejes y que las cargas y los ejesde las barras están situados en un mismo plano.Pero, como hemos dicho, esta simplificación es

Page 376: [Architecture eBook] Aplicaciones as en Arquitectura

382 Aplicaciones informáticas en arquitectura

elemento de la losaelemento de la viga

nodos

aceptable en muchos casos de aplicación prácticay el método tiene unos sólidos fundamentos teóri-cos y prácticos.

Su mayor inconveniente era, hasta mediados deeste siglo, el gran número de ecuaciones, con otrastantas incógnitas, que había que resolver. Para unedificio de media docena de pisos con otros tantosvanos este número podía estar en torno al centenar,lo que hacía el método muy pesado de aplicaciónen la práctica. Esto ha cambiado radicalmente conla aparición de los ordenadores, lo que ha revolu-cionado el cálculo de estructuras y ha convertidoel cálculo matricial en el método de cálculo másutilizado en sus diversas variantes que, de un modou otro, aplican los métodos del cálculo matricial ala resolución del cálculo de estructuras relativamen-te simples.

Cálculo por el método de los elementos finitos

La simplificación inherente a los métodos de cál-culo matricial es aceptable en muchos casos, me-nos aceptable en otros, e inaceptable en un buennúmero de casos restantes de considerable impor-tancia en la arquitectura y la ingeniería: casos enlos que es necesario tener presente la continuidadreal de la estructura y, en principio, buscar un mo-delo matemático adecuado a este punto de partida.Esto lleva a formular las condiciones de equilibrioa partir de un análisis riguroso que considere lasfuerzas que actúan sobre un elemento diferencialde la estructura. El resultado es una formulaciónpor medio de ecuaciones diferenciales que permi-ten determinar las condiciones de equilibrio de laestructura con gran generalidad pero a costa de unacomplicación intratable en la gran mayoría de loscasos.

El método de los elementos finitos está estre-chamente emparentado con el método del cálculomatricial a partir de un punto de partida que se re-veló como extraordinariamente fecundo: conside-rar la estructura como descompuesta idealmente enelementos yuxtapuestos, de geometría simple. Es-tos elementos, que tienen una determinada dimen-sión, variable según los casos, los "elementos fini-tos", se consideran a su vez formados por elemen-tos discretos, puntos aislados situados en su con-torno, denominados "nodos" (no confundir con los"nudos" de las mallas que tienen un sentido físicodistinto).

Esta idealización permite formular las

ecuaciones de equilibrio de un modo similar a comose hace en el cálculo matricial. De nuevo, el grannúmero de ecuaciones que deben ser resueltas ha-ría el método totalmente impracticable con herra-mientas tradicionales pero puede ser resuelto confacilidad por medio de la potencia de los ordena-dores actuales.

El origen del método se remonta a los años cua-renta con la introducción del término "elementocontinuo" por R. Courant. El término "elementosfinitos" fue sugerido inicialmente por R.W.Cloughen 1960 (ver Oñate, 1996, p. 26) en relación conproblemas de elasticidad plana. Durante esta y lassiguientes décadas aparecieron un innumerable nú-mero de trabajos. Uno de los principales contribu-yentes a la teoría ha sido O. C. Zienkiewicz y enalguna de sus obras más o menos recientes puedenencontrarse abundantes referencias bibliográficas(ver Zienkiewicz, 1989, 1991).

El método sirve para el cálculo de estructurasunidimensionales, bidimensionales y tridimensio-nales. En todos los casos se requieren una serie depasos principales que resumimos a partir de Oñate(op. cit) y que pueden englobarse en tres fases prin-cipales: el diseño de la estructura, el cálculo pro-piamente dicho y la interpretación y representaciónde los resultados que puede llevar eventualmente auna modificación de la estructura y a la repeticiónde todo el proceso.

Figura 4 Forjado continuo modeladocon elementos finitos

Page 377: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 12. Métodos y sistemas de cálculo 383

En primer lugar es preciso, en relación con eltipo de estructura que se pretende calcular, selec-cionar un modelo matemático adecuado para elcálculo. Una vez seleccionado este modelo, se pro-cede a discretizar la estructura en elementos fini-tos. Hay diversas posibilidades para llevar esto acabo, automáticas o semiautomáticas, según el tipode estructura y el tipo de cálculo. Una discretizaciónadecuada es una parte esencial del proceso e im-plica una representación de la estructura por me-dio de una malla más o menos densa y más o me-nos regular.

A partir de esto se obtienen una serie deecuaciones que relacionan, como en el cálculomatricial, las matrices de rigidez con el vector decargas de cada elementos. Se procede al ensam-blaje de las matrices de rigidez y del vector de car-ga elementales en toda la malla, y del vector decargas sobre los nodos. El término "ensamblaje"designa el proceso de obtención de las ecuacionesgenerales. Este sistema de ecuaciones se resuelvepara obtener las incógnitas: el movimiento de to-dos los nodos de la malla. A partir de esto se pue-den calcular las deformaciones y, a su vez, a partirde las deformaciones, se pueden obtener las ten-siones en cada elemento.

Todo esto implica un programa informático quepueda procesar estos cálculos. Hay diversas alter-nativas comerciales que no comentaremos, si bienhay que subrayar que la elección no es trivial y sedeben ponderar al menos todos los factores men-cionados más arriba.

El último paso es la interpretación de los resul-tados y la presentación gráfica y numérica de losmismos.

Page 378: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 13. Proyecto de ejecución 385

Capítulo 13 . Proyecto de ejecución

Los temas desarrollados en los capítulos preceden-tes resumen los conceptos, técnicas y cuestionesprincipales que se plantean al desarrollar un pro-yecto, entendido como una propuesta operativa, endonde las especificaciones formales y materialesdeben concretarse y adecuarse a las condicionesreales de su ejecución y a las diversas normativasque rigen esta ejecución.

La intención principal ha sido presentar las prin-cipales herramientas, máquinas y programas conque se cuenta en la actualidad, integrándolas en unplanteamiento global que permita juzgar mejor suadecuación al proceso de trabajo de un arquitecto.

Idealmente, este capítulo final debería consistiren el análisis de un proyecto de ejecución real, de-sarrollado íntegramente por medios informáticos,comprobando el papel jugado por cada una de es-tas herramientas en el proceso general. Por múlti-ples razones esto no es posible. Una de estas razo-nes es la propia complejidad de un proyecto de eje-cución real.

Un proyecto de ejecución de, pongamos porcaso, un edificio de oficinas de cuatro pisos, puedeimplicar varios cientos de planos y otras tantas pá-ginas de documentación escrita. Se conoce mal elnúmero "adecuado" de planos para producir deter-minado tipo de proyectos y esto es así, entre otrascosas, por la gran variedad de situaciones de cola-boración que se dan en un mismo tipo de proyecto.

Puede ser interesante citar algunos casos extre-mos. Las referencias son muy escasas pero hay al-gunas particularmente notables. Nos refereriremosen concreto a dos. Una proveniente del campo dela arquitectura y otra proveniente de un campo aje-no, la industria aeronaval, de la que se pueden ex-traer indicaciones muy interesantes.

El primer ejemplo está referido a la construcciónde la Biblioteca Nacional de Francia, narrada porsu propio autor, Dominique Perrault en un congre-so sobre la gestión del proyecto en la construcción.(Perrault, 1993).

Este proyecto, de un volumen extraordinario,con unos 350.000 m2 de construcción, incluyendoel acondicionamiento externo (de unos 50.000 m2)y un presupuesto de unos 5.000 millones de fran-cos (unos 125.000 millones de pts al cambio de1998) se desarrolló y se ejecutó en algo menos deseis años, entre agosto de 1989, fecha en que seadjudicó a Perrault el premio del concurso interna-cional, y la primavera de 1995.

El número de planos requerido para la ejecu-ción de este proyecto, incluyendo tanto los planosrealizados por los arquitectos, como los realizadospor los ingenieros colaboradores, como los apor-tados por las empresas constructoras, fue del or-den de 65.000. Considerando las correcciones de-bidas a errores sistemáticos esta cifra se elevaríasegún estimaciones del propio Perrault a unos80.000.

Toda la realización de la obra se llevó a cabopor medios informáticos, y la novedad de realizarun proyecto de estas dimensiones, por mediosenterarmente informatizados, con la voluntad ex-presa de integrar todas las colaboraciones en unmismo sistema, fue uno de los aspectos claves dedesarrollo del proyecto. Se dedicaron 6 meses aescoger el sistema adecuado.

Después de múltiples discusiones se tomó ladecisión de utilizar AutoCad, pese a sus limitacio-nes para un proyecto de esta envergadura, por larazón principal de ser un programa bien conocidopor todo posible colaborador. Tenía "...le grandavantage d'être connu et utilisé par beaucoup degens". Al poco tiempo se produjeron fallos, no ha-

Page 379: [Architecture eBook] Aplicaciones as en Arquitectura

386 Aplicaciones informáticas en arquitectura

bía planos tradicionales a los que recurrir y se tomóla decisión de dedicar un esfuerzo adicional al man-tenimiento y la seguridad del sistema con un en-cargo específico a dos empresas para que se hicie-ran cargo exclusivamente de esta labor.

Entre las funciones de estas empresas se incluíanlas siguientes: tareas de formación, análisis del sis-tema para reducir el tiempo de producción de do-cumentos, ampliación de la biblioteca informáticay análisis de métodos para mejorar su gestión. Tam-bién se encargó a esta sección la ordenación de loselementos gráficos y escritos que pudieran tenerinterés para el desarrollo de proyectos futuros. Sinembargo, es de remarcar el hecho de que toda estainformación no aportaría sino una parte, en torno aun 20% según Perrault, de la información realmentenecesaria para la construcción de la obra. El restoderivaría, en gran medida, del "contacto humano".

El segundo ejemplo, que puede resultar inicialmenteextraño por venir de un campo en principio ajenoal de los arquitectos, nos lo suministra el modo deproducción de aviones.

En una ponencia presentada en Barcelona en1993 por Patrice Quenderf, de la DivisionAeroespacial de Toulouse (ver Quenderf, 93 en labibliografía) se describía el sistema utilizado enToulouse para la producción de aviones comercia-les del que indicaremos algunos de los aspectos másnotorios.

Un avión se define mediante unos 90.000 pla-nos. Entre un avión y el anterior de la misma seriese pueden dar unos 2.000 cambios para adaptar elproyecto a cambios en los requisitos de la compa-ñía o a cambios en las normativas internacionales.Cada elemento incluido en los planos debe, porañadidura, cumplir con normas nacionales e inter-nacionales que pueden sufrir variaciones de año enaño.

La evolución de la intervención del CAD/CAMen este proceso es la siguiente. En la década de lossetenta alrededor de un 1% de la producción deespecificaciones se hacía por medios informáticos.Este porcentaje aumentó a un 33% en 1981. A un80% en 1984. Y al 100% en 1987. Toda la produc-ción actual está informatizada. Es de subrayar queestas cifras se adelantan en pocos años a la inser-ción de la informática en otros sectores, incluidoslos despachos de arquitectura.

Los elementos se modelan principalmente en 3Dy de ellos se extraen vistas o secciones. Se utilizan

principalmente dos programas, específicos para estetipo de diseño. Todos los elementos están codifi-cados con códigos de 30 dígitos que incorporaninformación acerca de la forma, las dimensiones,los materiales y las propiedades técnicas de modoque puedan agruparse en 18 familias con caracte-rísticas de producción semejantes.

Las alrededor de 200 estaciones de trabajo uti-lizadas (Sun e IBM workstations), están conecta-das en red (Ethernet). Todos los ficheros compar-ten una biblioteca de datos y modelos, un "CentralData Bank" en dos formatos, "nativo" y "neutral".El formato "neutral" es independiente del progra-ma utilizado y asegura la compatibilidad en el casode modificaciones. Esta base es accesible porsubcontrastistas o colaboradores externos, que pue-den estar situados en Australia o Canada, via FranceTelecom. El sistema de seguridad y control es, comopuede suponerse, muy sofisticado y cada usuariodebe pasar por varios controles antes de acceder ala base.

Como ya hemos indicado al comienzo, no cabemostrar un ejemplo de proyecto ejecutivo en ar-quitectura por falta, entre otras cosas, de modelosadecuados. Aunque las referencias al proyecto dela Biblioteca Nacional de Francia y al modo de or-ganización del proyecto de un avión comercial pue-dan parecer extrañas y excesivas, dan buenas indi-caciones, aunque cueste creerlo, de algunas de lascaracterísticas que pueden seguir en el futuro losproyectos de ejecución de los arquitectos. Dichoesto, convendrá añadir algunas matizaciones paraconcluir.

Como ya se ha remarcado en varias ocasiones alo largo de las páginas anteriores, cualquier com-paración entre un proyecto arquitectónico y un pro-yecto elaborado en sectores industriales basadosen la producción en serie a partir de prototipos queno tenga en cuenta la diferencia esencial entre am-bos, se arriesga a derivar conclusiones faltas defundamento real. Esta diferencia esencial estribaen que el proyecto arquitectónico está anclado aun lugar y es, por esta razón, singular, único, irre-petible. Cualquier forma extrema de prefabricaciónse topará en última instancia con esta realidad.

Sin embargo, es igualmente cierto que hay unagran distancia entre las construcciones primitivas,realizadas sin arquitectos y sin proyectos de ejecu-ción y sin la intervención de las industrias que su-ministran elementos preformados, y las construc-

Page 380: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 13. Proyecto de ejecución 387

ciones actuales. La informatización de los proyec-tos ha propiciado un nuevo empuje en la direcciónde una creciente racionalización del proceso y exis-ten pocas dudas de que está modificandosustancialmente el modo de organizar y gestionarlos proyectos de arquitectura.

Discutir si esto va a afectar en sentido positivoo negativo la calidad de los proyectos es, en nues-tra opinión, una discusión estéril. Se seguirán dan-do proyectos buenos y malos en condiciones inter-nas de producción diferentes que será necesarioasimilar. Es del análisis de estas nuevas condicio-nes de producción de los proyectos de lo que hatratado, entre otras cosas, este texto.

Page 381: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 389

Este último capítulo consta de tres partes. Las dosprimeras esbozan el panorama de los principalesdesarrollos que han tenido lugar en lo que, desdefinales de los cincuenta se ha convenido en llamar"Inteligencia artificial". El segundo resume algu-nos de los principales trabajos que han tenido lu-gar en el ámbito de la arquitectura, que pueden re-lacionarse con una preocupación menos centradaen el desarrollo de herramientas concretas y másen la investigación de métodos alternativos de di-seño. El tercero es una aportación personal; unareelaboración, para adecuarla al contexto de estelibro, de una ponencia presentada al Congreso deECAADE (Education in Computer AidedArchitectural Design), "Turing to 2000", que se ce-lebrará en Liverpool en febrero del año 2000.

1 Inteligencia artificial

Aunque es prematuro señalar una fecha de naci-miento para una ciencia en vías de consolidación,se apunta frecuentemente al año 1956 como iniciode lo que se denomina "inteligencia artificial" o AIsegún sus siglas en inglés (Artificial Intelligence).En este año, un grupo de jovenes investigadores sereunía en el Dartmouth College (New Hampshire,Estados Unidos) para participar en un seminariosobre la posibilidad de generar programasinformáticos capaces de "pensar".

Entre estos se encontraban los nombres de quie-nes posteriormente se han consagrado como algu-nos de los principales teóricos de la AI y que pro-movieron los principales proyectos de investiga-ción en este área: John McCarthy, inventor del len-guaje Lisp y, según parece, del propio término "Ar-tificial Intelligence", Marvin Minsky, que siguesiendo un activo colaborador en el Media's Lab delMIT, en Harvard, uno de los principales centros de

investigación del mundo sobre AI, Herbert Simonquien recibió el Premio Nobel de Economíaen1978, y Allen Newell, autor junto con Simon, delo que se pueden considerar como los primerosprogramas de inteligencia artificial así como denumerosas contribuciones posteriores de interés.

Entre sus antecesores, los padres espirituales deesta nueva generación, están indudablemente AlanTuring, Claude Shannon, Norbert Wiener y VonNeumann de quienes ya hemos hablado en el pri-mer capítulo. En la mayoría de los casos se habíaproducido algún tipo de contacto entre estos dosgrupos, a pesar de la diferencia de edad. En el casode Shannon, el más joven de los "padres", esta re-lación fue más directa y Shannon fue uno de losprofesores senior que ayudaron a organizar el sim-posio de Dartmouth y a obtener fondos de la fun-dación Rockfeller para este fin.

Hay otros nombres que contribuyeron a realizarlos primeros experimentos significativos. Los tra-bajos de Warren McCulloch, que venía del mundode la psiquiatría y de Walter Pitts, un notable mate-mático, sobre redes neuronales, fueron un prece-dente importante para las investigaciones que si-guieron. Donald O. Hebb, un fisiólogo de la McGill University, propuso por añadidura vías paraque las redes neuronales de McCulloch y Pitts pu-dieran asimilar conocimiento de modo autónomo,es decir para que fueran "capaces de aprender". Al-gunos de los temas principales de los años que se-guirían quedaron así enunciados hacia 1949, algu-nos años antes del simposio de Dartmouth.

En cualquier caso Newell, Simon, McCarthy yMinsky, junto con sus estudiantes, constituyeron elnúcleo central de la AI durante las dos décadas si-guientes y, en aras de la brevedad, nos referiremosprincipalmente a su trabajo. Puede encontrarse unaexposición más completa de la historia de la inteli-

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador

Page 382: [Architecture eBook] Aplicaciones as en Arquitectura

390 Aplicaciones informáticas en arquitectura

gencia artificial o del desarrollo de algunos temasprincipales en McCorduck (1976), Boden (1977),Haugeland (1987), Crevier (1993), Gillies (1996)o Trillas (1998).

Allen Newell había crecido en San Francisco yse había graduado en física en Stanford, en dondehabía estudiado con un destacado matemático,George Polya quien, según dicen los cronistas, fueel responsable de introducir en la AI una palabraclave, "heurística", así como un libro sobre resolu-ción de problemas que tuvo una considerable in-fluencia (Polya, 1945). De aquí fue a Princenton aestudiar matemáticas pero lo dejó puesto que "pre-fería trabajar en problemas concretos". Comenzóa investigar en un proyecto para la defensa área endonde conoció a Simon, y de sus charlas surgió laidea de desarrollar lo que se considera como el pri-mer programa de inteligencia artificial de la histo-ria, el Logic Theorist, un programa capaz de de-mostrar teoremas lógicos de modo automático. Loprobaron, en 1956, en un ordenador de la RAND yel programa consiguió demostrar treinta y ocho delos primeros cincuenta y dos que aparecían en elcapítulo segundo de los Principia Mathematica deRussell y Whitehead. Una de las demostracionesera incluso "más elegante" que la del original, comoorgullosamente informó Simon por carta a BertrandRussell.

Herbert Simon es conocido sobre todo por suobra Administrative Behavior (1947), en la que ini-ciaba un análisis de cómo los diferentes interesesde los grupos que trabajan en una administracióninfluyen en la toma de decisiones complejas y quealgunos años más tarde, en 1978, junto con otrostrabajos en esta misma línea, le valdría el PremioNobel de economía. Profesor en Carnegie-Mellon(Pittsburg) desde 1949 sus áreas de interés han sidomuy diversas y orientadas a temas que, en princi-pio, parecerían bastante lejanos de los de sus otroscolegas. Sin embargo existe una estrecha relaciónentre la capacidad de Simon para analizar el com-portamiento de organizaciones burocráticas com-plejas y sus contribuciones a la inteligencia artifi-cial. Simon era una persona de una inteligencia másque notable pero que se ganó una justa fama dearrogante, con afirmaciones provocativas sobre lapotencialidad de la AI que no han resistido el pasodel tiempo. Sus trabajos siguen teniendo, sin em-bargo, un enorme interés. El mismo Simon hablade esta época en uno de sus libros (Simon, 1991)que es otra fuente importante para la historia de

este periodo.Uno de los trabajos más significativos de esta

primera época, no tanto por lo que logró sino porlo que comprobó que no podía lograr, fue el Gene-ral Problem Solver, desarrollado por Newell ySimon y ejecutado por primera vez en 1957. Esteprograma, como muestra su modesto nombre, es-taba inicialmente planteado con la intención de re-solver cualquier tipo de problema que pudiera pre-sentarse a un ser humano. Evidentemente, debía detratarse de problemas que pudieran ser enunciadosde un modo no ambiguo, lo que no es una pequeñarestricción; la mayoría de los planteamientos ini-ciales de un proyecto arquitectónico no cabrían eneste enunciado, pues su mayor dificultad puedeestar, precisamente, en que no pueden ser enuncia-dos de un modo "no ambiguo", una diferencia fun-damental sobre la que volveremos más adelante.

Pero dadas estas premisas y concedida inclusola posibilidad de que la resolución pudiera plan-tearse como la búsqueda en un espacio de solucio-nes bien definido, es fácil demostrar que la resolu-ción no puede buscarse recurriendo exclusivamen-te a la fuerza bruta de cálculo. Un ejemplo bienestudiado es el ajedrez. A pesar del ámbito aparen-temente muy restringido en que se mueven las po-sibles jugadas, en determinadas situaciones se pro-duce una explosión combinatoria que desborda lascapacidades de los más potentes ordenadores.

Se requiere por consiguiente algún medio dedirigir la búsqueda. Newell y Simon llegaron a laconclusión de que esta búsqueda debe ser heurísti-ca, esto es, debe estar basada en un cierto "arte" oen una cierta "preceptiva"; no puede estar basadaen algoritmos exactos sino en principios genéricoscuya pertinencia para el caso no se puede conocerde antemano; y no puede hacerse otra cosa, porconsiguiente, que ponerlos a prueba y retirarse encuanto se vislumbre que no son adecuados para lasituación en que nos hemos adentrado.

Esto quiere decir que el programa debe estar pro-visto de mecanismos potentes de búsqueda perotambién de una serie de principios que le ayuden aseguir una estrategia. Estos principios son reglastales como "compara tal y tal estado para obtenerdiferencias cuantificables entre ambos" y "aplicauna operación que reduzca la diferencia". Por aña-didura, un sistema de estas características debecontar con una clara especificación de cuál es lameta y de cómo saber si se aproxima o se aleja deella.

Page 383: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 391

Algunas de las presuposiciones del programa serevelaron falsas. Por ejemplo, implícita en el plan-teamiento anterior, está la idea de que "los proble-mas" tienen una estructura similar, songeneralizables. La diversidad de casos y la necesi-dad de especificar dominios cada vez más restrin-gidos para abordar las complicaciones que ibanapareciendo dieron al traste con este planteamien-to. Otra dificultad importante ya la hemos mencio-nado: el proyecto minusvaloraba la importancia yla dificultad que conlleva el enunciar adecuadamen-te un problema. Llegar a este punto puede suponer,en muchos casos, haber recorrido más de la mitaddel camino.

John McCarthy tenía poco que ver, a pesar desu apellido, con el famoso senador anticomunista,pues tanto él, como su padre, como su hermano,eran marxistas militantes que tuvieron diversos pro-blemas por su pertenencia a este partido, algo queno debe extrañar en Estados Unidos y en plenaguerra fría. Posteriormente las ideas de McCarthyse fueron haciendo más conservadoras aunque con-servó una leyenda de excéntrico, famoso por suslargos silencios, sus escasas publicaciones y unasorprendente capacidad de concentración que lepermitía resolver complejos problemas en bastan-te menos tiempo que el común de los mortales.

Su formación informática se inició en IBM y deahí pasó al Dartmouth College, próximo a Harvard,donde trabajaba Minsky. Ambos organizaron, conla ayuda de un profesor mayor (NathanielRochester) y de Claude Shannon entre otros, y unagenerosa ayuda de la fundación Rockfeller, el se-minario que hemos citado, del que nació la AI.Durante bastante tiempo, principalmente a princi-pios de los sesenta, Minsky y McCarthy trabajaronen estrecha colaboración y la AI se convirtió enprácticamente un sinónimo de "Minsky yMcCarthy". Posteriormente se distanciarían entreotras cosas por diferencias sobre los fundamentoslógicos de la AI. McCarthy seguiría considerandonecesaria una estricta fundamentación formal mien-tras Minsky evolucionó hacia una concepción abier-ta, antijerárquica, de procesos en paralelo sin unorden preciso. En 1962 la Universidad de Stanfordle dio la oportunidad de dirigir su propio laborato-rio y Mc Carthy se fue a California.

A finales de los cincuenta y principios de lossesenta McCarthy trabajó en diversos proyectos quedarían lugar a dos hitos fundamentales, no ya en lahistoria de la AI, sino en la propia historia de la

informática. El primero fue la creación del lengua-je Lisp, anunciado en 1958 y que se convertiría enel principal lenguaje utilizado en AI hasta la apari-ción de Prolog. El Lisp no nació de la nada puesestaba en buena parte basado en un lenguaje ante-rior, el IPL (Information Processing Language) queNewell y Simon, con la colaboración de J. C. Shawhabían desarrollado para su programa de resolu-ción genérica de problemas y que, al igual que Lisp,estaba basado en el procesamiento de listas.

El segundo fue el funcionamiento en tiempocompartido. Esta forma de estructurar un sistema,que ha sido incorporada a todos los sistemas dered actuales, nació inicialmente como un proble-ma práctico derivado de la escasez de ordenado-res. A medida que aumentaba el número de progra-madores, las pérdidas de tiempo esperando a queel programa concluyera un proceso para poder ini-ciar otro se hacían más insoportables. McCarthy ysus colegas decidieron que había que buscar unasolución. Y así inventaron un sistema que permitíaque varios usuarios se comunicaran con el ordena-dor al mismo tiempo. Para ello conectaron variosterminales al ordenador central y a una estructuraprogramática que iba pasando con rapidez de unaa otra terminal recogiendo ordenadamente la in-formación que le llegaba de cada una de ellas. Evi-dentemente esto era bastante más complicado deorganizar e implicó ni más ni menos que la crea-ción de un sistema operativo capaz de mantener elcontrol de toda la información que pasaba por elordenador central. Esta idea se convirtió, al cabode unos años, en un flujo de millones de dólarespara las empresas que comercializaron la idea.

Marvin Minsky fue, y quizás sigue siendo, lafigura más representativa de la AI. Tuvo una for-mación un tanto errática, en Harvard, con estudiossobre materias muy diversas pero que resultan co-herentes a la luz de sus trabajos posteriores. Se in-teresó al comienzo por el conductismo de Skinnerque abandonó por influencia del psicólogo GeorgeMiller con quien trabajó durante unos años en es-tudios sobre los mecanismos de aprendizaje. Bajola dirección del matemático Andrew Gleason es-cribió un trabajo sobre un tema de topología quese convertiría en su tesis de grado.

Durante el verano de 1951 decidió construir unared neuronal "de verdad", lo que llevó a cabo conmaterial prácticamente de deshecho. La máquina,a la que llamaron Snarc, simulaba el cerebro deuna rata, que aprendía a correr por un laberinto,

Page 384: [Architecture eBook] Aplicaciones as en Arquitectura

392 Aplicaciones informáticas en arquitectura

por medio de 40 neuronas artificiales (una cifraexcesivamente limitada aún para una rata). Integróeste experimento es su tesis doctoral y tuvo la suertede que en el tribunal estuviese Von Neumann quedefendió su trabajo frente al resto de miembros quese mostraron más bien escépticos. Durante los añossiguientes Minsky se interesó por la óptica (inven-tó un tipo especial de microscopio) y, posterior-mente por la robótica que constituiría uno de losejes fundamentales de su trabajo.

Con la partida de McCarthy el papel de Minsky,que no era un programador, fue derivando cada vezmás al de un teórico con una notable capacidad paradescubrir y promover investigaciones brillantesentre sus estudiantes aunque más alejado de la prác-tica directa.

La partida de McCarthy fue, en buena medida,compensada con la aparición, en 1963, de otro bri-llante protagonista de los primeros tiempos de laAI, Seymour Papert, un original personaje, de for-mación variopinta que incluía estudios de lógicaen Johanesburgo, de psicología, con Piaget, en Gi-nebra, y de matemáticas en Cambridge (Inglate-rra), hijo de un entomólogo que había recorridoSuráfica con su familia estudiando la mosca tsé-tsé.

Minsky y Papert, con las ventajas que suponíanunas generosas ayudas a la investigación, pusieronen marcha diversos proyectos sobre robótica, per-cepción, teoría de la computación y psicología in-fantil. Fruto de esto último fue la aparición, en 1976,del LOGO, un lenguaje de programación para ni-ños que les permitía dirigir los movimientos de unatortuga con órdenes sencillas introducidas por te-clado. La intención del juego era introducir con-ceptos geométricos haciendo que el niño aprendie-ra, jugando, cómo construir figuras simples y, así,fomentar el aprendizaje a través del descubrimien-to, una idea poderosa que, lamentablemente haquedado obsoleta, a pesar de la fama que tuvo acomienzos de los ochenta, con la proliferación dejuegos que explotan rutinariamente las capacida-des gráficas de los ordenadores actuales.

Minsky y Papert abordaron también los prime-ros trabajos sobre visión por computador, con unasorprendente ingenuidad, lejos de la agudeza y pro-fundidad de los trabajos de David Marr, otro nota-ble personaje que apareció también en el MIT afinales de los sesenta y que aquí no podemos sinomencionar, pues pertenece a otro periodo de la AIque no tiene cabida en esta breve introducción.

Otro proyecto importante fue la creación demicromundos, con robots capaces de deambular yllevar a cabo determinadas acciones simples. Lainvestigación sobre robótica fue, como ya hemosindicado, una de las actividades principales de esteperiodo y, en cierto sentido, una de las causas delfracaso y la retirada de fondos de la siguiente dé-cada, al no poder ser cumplidas las grandes expec-tativas creadas.

Entre las contribuciones posteriores de Minskyse pueden citar la teoría de "marcos" (frames), me-canismos para incorporar el contexto al conoci-miento, que se puede datar hacia 1975, aunque elconcepto había aparecido antes en publicacionesde McCarthy. Me remito a lo resumido en el capí-tulo 11, en relación con sistemas expertos. Y unlibro muy debatido y de considerable interés, Lasociedad de las mentes (The Society of Mind, 1986).En esta obra Minsky propone un modelo en el quese considera la mente humana como constituida pormillones de entidades, denominadas "agentes", ca-paces de realizar un solo tipo de función. La infor-mación fluye incensantemente por el espacio deestos agentes que son ciegos a todo lo que no sea eltipo de estímulo al que están sintonizados. Esteconjunto caótico cobra sentido mediante asociacio-nes enmarañadas y complejas que se denominan"servicios" y que se estructuran en jerarquías abi-garradas.

Este modelo proporciona algunas claves intere-santes que permiten explicar de un modo bastantesatisfactorio los modelos de aprendizaje, como es-tructuras que se van creando y destruyendo por ra-zones diversas entre las que puede figurar la pro-pia inercia de tal estructura. Minsky introduce porañadidura en este modelo, agentes especiales de-nominados "censores" y "supresores", que encar-nan bien alguna de las ideas claves de la psicologíafreudiana. Es, por otro lado, un modelo en el que lanoción de "yo" queda considerablementedesdibujada, de un modo que recuerda la famosadefinición de Hume del yo como "un manojo deideas" (a bundle of ideas). Es, en definitiva, no sóloun modelo programático sino una propuesta filo-sófica que encaja bastante bien con otras manifes-taciones de Minsky y con su notable desprecio porquienes "sienten miedo" ante la perspectiva de quepodamos estar alumbrando una nueva especia deseres inteligentes.

No hay que perder de vista la atmósfera

Page 385: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 393

contracultural en que estaban inmersas las univer-sidades americanas a principios de los sesenta paraapreciar algunas de las peculiaridades de la AI. Esfácil pensar que quienes trabajaban en este área eranun grupo excéntrico de científícos despistados, aje-nos a todo lo que no fueran sus investigaciones,incomprensibles por otro lado para el resto de loshumanos. Lo cierto es que hay cierta relación, re-velada incluso en aspectos superficiales, entre estaatmósfera contracultural y la pasión por la infor-mática. Muchos de los estudiantes fanáticos de laprogramación sentían, en paralelo, un considera-ble entusiasmo por todo lo que supusiera una alter-nativa radical al establishment. La cultura de loshackers, que surgió en esta misma época, con todasu carga de anarquismo latente, no es ajena a otrosmovimientos sociopolíticos de la época.

La palabra hacker que, en la actualidad ha pasa-do a ser sinónimo de "pirata informático", derivade un término del argot de las editoriales, hack,escritor de segunda categoría que trabaja de negropara otros escritores o para la propia editorial. Asíse denominaban a sí mismos los aficionados a laprogramación cuya mayor gloria no era escribir unprograma que se vendiera, sino escribir pequeñosprogramas, almacenar trucos para quebrar las cla-ves de acceso a un ordenador principal o a otroprograma. Barbudos, noctámbulos, amantes de unajerga que nadie más que ellos comprendían y de locual se sentían evidentemente orgullosos fueron,como sería de esperar, objeto de debates y de aná-lisis psicológicos y sociológicos con opiniones fuer-temente polarizadas con respecto a su salud men-tal. Un debate que puede extrapolarse con facili-dad a nuestros días.

Durante la década de los sesenta y aprovechan-do el mayor número de colaboradores más o me-nos desinteresados que pululaban por los laborato-rios, se produjeron todavía un buen número de tra-bajos genéricos significativos, de considerable im-portancia a nivel teórico aunque de escasa influen-cia directa. No hay, sin embargo, que menospre-ciar esta influencia. Muchas herramientas y técni-cas de uso común en la actualidad derivan de con-ceptos poderosos que se introdujeron en esta épo-ca. En otros casos, el valor de la investigación po-día estar en la exploración de un camino que noconducía a nada; muchas "máquinas neuronales"construidas por entonces sirvieron para compro-bar hasta qué punto resultaba complicado intentarmodelar el razonamiento o la percepción, lo que

trajo como consecuencia el planteamiento de nue-vos programas de investigación más restringidospero que, a la larga, dieron importantes frutos.

Uno de los resultados más citados de la décadade los sesenta y que puede encuadrarse en la líneade simulación neuronal de McCulloch y Pitts y delos micromundos explorados por Minsky y Papert,es un programa debido a Terry Winograd, desarro-llado hacia 1963, en el que un ordenador podíainteractuar, en un sentido muy restringido, con unusuario. El programa, denominado Shrdlu segúnparece por el nombre de unos monstruos popula-res en unas historietas de la época (aunque no fueesta la versión que Winograd dio a los periodis-tas), consistía en un micromundo compuesto porvarios bloques de formas y colores simples, dis-puestos sobre un plano, de cualquier modo, disper-sos o amontonados unos sobre otros. El trabajo deWinograd partía de una investigación sobre el len-guaje natural y su finalidad era que un ser humanopudiese hablar con el programa, con un vocabula-rio obviamente muy restringido pero que incluyerafrases con sentido en situaciones variables. Frasestales como "Toma la pirámide azul y colócala allado del cuadrado rojo" o bien "Toma el bloqueque esté situado más alto que todos los demás ydéjalo en el suelo" o bien "¿Qué hay al lado de laesfera verde", etc.

Esto resultó bastante interesante, se considerócomo un gran avance y el programa se hizo famo-so en poco tiempo. Sin embargo, intentos poste-riores por enriquecer la situación, por ampliar loslímites de este pequeño mundo, se revelaron in-fructuosos. La ilusión de que Shrdlu comprendíael inglés en el que le hablaba el usuario se revelótan alejada de lo que entendemos por "hablar" comola de otro famoso programa de esta época, Eliza,desarrollado hacia 1965 por Joseph Weizenbaumy que tomó su nombre del personaje de ElizaDoolittle del Pigmalión de Bernard Shaw. Eliza si-mulaba a un psiquiatra y producía diálogos no com-prometidos, repitiendo frases del paciente o inter-calando comentarios más o menos tópicos que leimpulsaban a seguir hablando. El resultado, del quese pueden encontrar muestras divertidas en, porejemplo, la obra de Margaret Boden (1977), pro-duce un convincente pero engañoso efecto de queel ordenador está realmente manteniendo una con-versación.

A lo largo de los sesenta fue creciendo la con-vicción de que los problemas eran mayores de lo

Page 386: [Architecture eBook] Aplicaciones as en Arquitectura

394 Aplicaciones informáticas en arquitectura

que se había pensado. Pero, lo que fue aún peor,este mismo sentimiento comenzó a calar en las al-tas esferas, que eran las que proporcionaban losfondos materiales para todas estas investigaciones.Los militares, que habían soñado con robots espíascapaces de entender ruso, comenzaron a impacien-tarse.

Hasta principios de los setenta, a lo largo de casidos décadas, centros como la universidad deStanford, la de Carnegie Mellon, el MIT de Harvardo los laboratorios de IBM, destinaron o captaronsumas cuantiosas a proyectos de investigación sinfinalidad específica. Pero a partir de esta fechaslas dotaciones comenzaron a disminuir de un modoacelerado. Y a principios de los setenta se produjola debacle. Tanto los centros de financiación de Es-tados Unidos como los de Gran Bretaña decidie-ron que había que cortar el suministro. En 1973,James Lighthill publicó, para el Science ResearchCouncil, un informe muy elaborado en el que seargumentaba que las investigaciones sobre AI eranexcesivamente caras y no se vislumbraban perspec-tivas de recuperación económica a largo plazo. Elresultado de este informe fue una caída brusca dela financiación hasta el punto de que los únicoscentros que continuaron investigando en esta línea,sin apoyo oficial, fueron el Imperial College deEdimburgo y la Universidad de Essex.

Algo similar ocurrió en Estados Unidos por losmismos años. En pocos años, a esta debacle se sumóel fracaso de la denominada "5ª generación" deordenadores, anunciada en un famoso simposio ce-lebrado en Japón en 1981. Puede verse un resu-men de primera mano en la obra de Tohru Moto-oka y Masaru Kitsuregawa (1984) incluida en labibliografía. Tohru Moto-oka, fue director del pro-yecto de Quinta Generación en Japón que debería,según se profetizó, extenderse por todo el mundohacia 1992, y que incorporaría el paralelismo, lossistemas expertos, la inteligencia y la visión artifi-cial, y los sistemas de traducción automatizados anuevos ordenadores relativamente asequibles parapequeñas empresas.

El interés se trasladó a los sistemas expertos, esdecir, a una limitación de la aplicación de estos mé-todos de investigación a dominios más restringi-dos y una conexión clara y directa con aplicacio-nes industriales o profesionales bien definidas.Como ya hemos tratado este tema en el capítulo 11me remito a lo resumido allí, incluyendo lo relati-vo a aplicaciones propias de la arquitectura. En el

mundo académico anglosajón las siglas AI comen-zaron a ser sustituidas, por las de KBS (KnowledgeBased Systems) que adquirieron una mayor respe-tabilidad.

El estilo más bien agresivo que había contribui-do a popularizar la AI se volvió contra ella. Algu-nas de sus figuras más eminentes habían afirmadocosas como que "El problema mente-cuerpo ya haquedado resuelto pues hemos construido máquinasque pueden pensar" o bien que "En breve plazo lahumanidad podrá contar con robots domésticos quele descargarán de sus tareas más pesadas". Las ex-pectativas que estas frases y otras similares habíancreado provocaron una reacción de rechazo.

A lo largo de este periodo, durante la década delos setenta, se produjeron sin embargo varios tra-bajos de notable interés. Además de los de Minskyya mencionados cabe citar, en una línea similar,los debidos a Roger Schank y sus colaboradoresen la Universidad de Yale. Schank introdujo unanoción sugerente, la de guión (script) como medioalternativo para poder abordar lo que para enton-ces ya se había convertido en el problema funda-mental de la AI: cómo simular el sentido común, lacomprensión, en el sentido corriente del término;algo que se da de modo natural en los seres huma-nos pero que se revelaba como imposible de simu-lar por medio de máquinas.

La noción de script partía de la idea de que lacomprensión de una situación está ligada a una se-rie de sucesos, de operaciones básicas que el suje-to espera encontrar como asociadas a tal situación.Comprender sería, desde este punto de vista, tenerpreparado "un guión", una serie de respuestas pre-visibles que raramente serán desmentidas por sor-presas o apariciones imprevistas. El concepto serelaciona en buena medida con la idea de "marco"de Minsky pero los guiones de Schank están rela-cionados de un modo mucho más directo con ellenguaje. De hecho Schanck, que llegaba a soste-ner que todos nuestros actos mentales o verbalesse derivan de una docena de verbos fundamenta-les, ligados a operaciones fundamentales tales como"mover", "agarrar", "sostener", "absorber", etc.,encontró grandes partidarios y grandes críticos en-tre los lingüistas, tanto o más que entre los investi-gadores de la AI.

Esta derivación hacia la lingüística no es casual.Al igual que ocurrió de hecho con las aportacionesde David Marr a la teoría de la percepción visual,los mejores trabajos de esta época comenzaron a

Page 387: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 395

reubicarse en áreas más tradicionales y lo que ha-bía aparecido inicialmente como una área autóno-ma comenzó a desvelarse como un instrumentopoderoso que servía para lograr avances especta-culares en áreas con una larga historia.

En cualquier caso, durante la década de losochenta la situación se recompuso y se iniciaronnuevos proyectos de investigación. Actualmente laAI sigue siendo una de las áreas de investigaciónmás sugerentes y que más recursos mueve en loslaboratorios universitarios. Su interés va bastantemás allá del ámbito informático e incide en aspec-tos que interesan de modo directo a la teoría deldiseño y, en general, a la cultura de nuestro tiem-po. Por añadidura, ha proporcionado las herramien-tas básicas para muchos desarrollos tecnológicosque se han incorporado de diversos modos a losprogramas de CAD.

En general, puede afirmarse que una de las pri-meras conclusiones a las que llegaron los investi-gadores de la AI es que resulta mucho más difícilde simular el sentido común que el conocimientoespecializado. Una gran parte de la investigaciónactual se mueve en esta dirección. Dado que resul-ta considerablemente más difícil resumir lo que haocurrido en los últimos quince años detendré aquíesta presentación sumaria para concluir el capítulocon una polémica reciente que puede ilustrar ade-cuadamente la situación actual.

En los últimos años algunas de las cuestiones plan-teadas por la AI se han planteado abiertamentecomo una discusión científico-filosófica de enor-me interés. Hay, al menos, dos aportaciones exter-nas al campo de los investigadores que trabajan enla AI que merecen ser mencionadas en la medidaen que han sido discutidas con cierta virulencia poralguno de estos investigadores pero sin rebatir demodo convincente los argumentos utilizados.

La primera de estas aportaciones a las que mequiero referir para concluir esta sección es la deJohn Searle. Searle es profesor de filosofía en laUniversidad de Berkeley y es conocido por sus tra-bajos sobre filosofía del lenguaje en una línea queentronca con los trabajos de Austin y en la que seconsideran los problemas teóricos planteados porel estudio del lenguaje a la luz de una teoría gene-ral de la acción humana. En 1980 publico un artí-culo (Searle, 1980) cuya argumentación principalamplió en 1984, en una serie de conferencias, lasReith Lectures (iniciadas por Bertrand Russell en

1948), que puede encontrarse en versión española(Searle, 1984).

En estos escritos presentó un firme alegato con-tra alguna de las pretensiones de los teóricos de laAI, basado en un experimento virtual, tan amplia-mente citado y debatido que ha pasado a conocer-se como el experimento de "la habitación china".Los argumentos de Searle en relación con el "pro-blema mente-cuerpo" son dignos de ser comenta-dos con calma pero no lo haremos aquí por falta deespacio y remito al lector interesado a la traduc-ción española mencionada. Aquí me limitaré a re-sumir las páginas en que Searle describe su imagi-nario experimento.

Searle nos propone que imaginemos que un gru-po de programadores ha escrito un programa parasimular que un ordenador entiende chino. El orde-nador confronta cada pregunta que se le hace conuna inmensa base de datos y, en cada caso, produ-ce una respuesta adecuada a la pregunta que se lehace. No es necesario que la conversación sea in-teligente; basta con que sea suficientemente fluiday que un chino real situado ante la máquina no en-cuentre diferencia apreciable entre el tipo de res-puestas que recibe y se quede por consiguiente conla impresión de que el ordenador "entiende chino".

Ahora bien, dice Searle, ¿deberemos concluirde este experimento que un ordenador es "capazde entender" chino? Para fundamentar su respues-ta negativa a esta pregunta nos propone continuarel experimento imaginándonos que somos nosotroslos que nos introducimos en el interior de una ha-bitación en la que se supone que hay un ordenadorpero que en realidad no contiene sino varias cestasllenas de símbolos chinos y un libro de reglas, es-crito en español, que nos permiten manipular lossímbolos chinos de modo puramente formal, porejemplo "toma un signo chagyuan-changyuan dela cesta número uno y ponlo al lado de un signochongyuon-chongyuon de la cesta número dos".

Supongamos, siguiendo con el imaginario ex-perimento, que las reglas son tan buenas y que no-sotros nos hacemos tan hábiles en producirlas, quelas respuestas satisfacen a un chino real, lo mismoque ocurría con el programa de ordenador. ¿Debe-remos concluir de esta situación que "entendemoschino"? La respuesta, concluye Searle, es eviden-temente que no: "Comprender un lenguaje, o cier-tamente, tener estados mentales, incluye algo másque tener un puñado de símbolos formales" (Searle,1984, p. 39 de la trad. esp.).

Page 388: [Architecture eBook] Aplicaciones as en Arquitectura

396 Aplicaciones informáticas en arquitectura

La argumentación de Searle ha sido ampliamentedesarrollada por Roger Penrose, uno de los princi-pales científicos ingleses, profesor de matemáticasen Oxford y bien conocido por sus contribucionesa las matemáticas, la geometría y la física, quien,de un modo quizá un tanto sorprendente (e injusti-ficado) para lo que corrientemente se piensa quees la "mentalidad científica", ha adoptado una pos-tura aún más distante que la de Searle con respectoa la posibilidad de que las máquinas puedan llegara pensar. Esta posición la ha defendido en tres mag-níficos libros publicados recientemente, traducidosa nuestro idioma como: La nueva mente del empe-rador, Las sombras de la mente y Lo grande, lopequeño y la mente humana (ver Penrose, 1989,1994, 1999).

La posición de Penrose ha sido atacada con ciertavirulencia por alguno de los principales defenso-res de la AI. Casualmente, cuando la traduccióndel libro de Penrose acababa de salir en Barcelo-na, Marvin Minsky estaba en esta ciudad, invitadopor la Universitat Politècnica de Catalunya paraentregar los premios de un concurso de ciencia fic-ción. Sus opiniones sobre el libro de Penrose apa-recían publicadas al día siguiente en la sección deCultura de "El País" (ver "El País", 4-12-1991, p.30). Eran de esta índole: "Es un libro miedoso yreligioso, y también estúpido"; "Penrose aseguraque es imposible construir una mente y basa esaafirmación no en criterios científicos sino en la fe";"Las máquinas pueden ser inteligentes, porque elcerebro humano es simplemente otra máquina; todolo perfecta y compleja que se quiera, pero una má-quina".

También arremetía contra un término, la intui-ción, utilizado por Penrose como algo que sin dudaexiste, como su prácticamente sinónimo, la com-prensión, aunque "no podamos definirlos" (verPenrose, 1999, p. 83) de este modo: "no existe laintuición y no hace falta el Espíritu Santo para ex-plicar el funcionamiento de la mente. Pensar quehay algo más es tirar la toalla y no plantear las co-sas en términos científicos".

Volviendo a Penrose y al último de sus libroscitados, me interesa particularmente resaltar su ca-racterización de las diversas posiciones con res-pecto a la capacidad para "pensar" de los ordena-dores y al "problema mente-cuerpo". Esta caracte-rización o clasificación es difícil de superar por suprecisión y claridad por lo que las cito casi literal-mente (ver Penrose, 1999, p. 84 de la trad. esp.).

Para Penrose hay cuatro posturas principales conrespecto a esta cuestión, posturas que denomina A,B, C y D.

Para la posición A, todo pensamiento es com-putación y esto incluye las sensaciones de conoci-miento consciente, que también son el resultado dedeterminados cálculos de los que no somos cons-cientes.

Para la posición B, es posible simular cualquieracción física por medio de un computador pero estoexcluye la consciencia que es "una característicade la acción del cerebro".

Para la posición C, la particular acción físicadel cerebro a partir de la cual se produce la cons-ciencia tampoco puede ser simulada por un com-putador.

Para la posición D, "la consciencia no puede serexplicada en términos físicos computacionales ocualesquiera otros términos científicos".

Penrose atribuye a los partidarios de la AI laposición A, a Searle la posición B y a sí mismo laposición C. Remito al lector interesado en más de-talles a los textos originales y me quedo con estaclasificación a la que volveré en lo que sigue. Debodecir que me interesan y me hacen gracia los parti-darios de AI y también recomiendo al lector la lec-tura de una de las obras más sorprendentes quedefienden puntos de vista similares a los de la "AIfuerte": La física de la inmortalidad, obra no es-crita por un informático sino por un gran físico,Frank, J. Tipler. Considero muchas de las declara-ciones de los grandes investigadores de la AI comoprovocaciones más bien saludables. Pero los pun-tos de vista que me parecen más razonables son losB y C. Y, personalmente, me situaría en la posiciónC pues comparto las creencias de Penrose en un"mundo platónico" que fundamentaría este puntode vista. Ahora bien, esto es una cuestión de creen-cias; dudo que puedan presentarse argumentos de-finitivos desde cualquiera de estas posiciones.

2 Inteligencia artificial y diseño

Nicholas Negroponte es famoso como un "gurú"de la informática, que viaja por todo el mundo pre-dicando los diversos modos en que las nuevas tec-nologías pueden y deben cambiar nuestros hábitosde vida y al que los dirigentes de paísesindustrializados y sin industrializar consultan an-

Page 389: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 397

tes de embarcarse en inversiones millonarias. Estambién el director del Media's Lab del MIT deHarvard, un no menos famoso laboratorio de in-vestigación interdisciplinaria en el que trabajan al-gunos de los mejores cerebros de la AI, entre ellosMinsky. Su recientemente publicado Being Digital(ver Negroponte, 1995) se ha convertido en un éxitode ventas y ha contribuido a aumentar la fama desu autor.

Menos conocido es el hecho de que Negropontees arquitecto y, aún menos, que, hace ya 30 años,cuando aún no había llegado a la treintena, publicóotro libro, The Architecture Machine (Negroponte,1970), en el que proponía una atrevida simbiosisentre arquitectos y máquinas, como medio de su-perar algunos de los principales problemas de laarquitectura. Una arquitectura entendida más comouna contribución a la construcción de un nuevo en-torno que como una disciplina artística. Un puntode vista, por otro lado, bastante sensato, que nossirve para recordar cuánto han cambiado las cosasen estos treinta años.

Dado que este libro de Negroponte es práctica-mente desconocido entre los arquitectos, que es laprimera o una de las primeras contribuciones quese enmarca claramente bajo el título de esta sec-ción y que contiene algunas ideas que han resistidobien el paso del tiempo (otras no tanto) parece obli-gado comenzar por aquí.

Negroponte comienza su libro, dedicado "a laprimera máquina que pueda apreciar el gesto", conla afirmación general, que sigue siendo perfecta-mente aceptable, de que un ordenador puede asis-tir al proceso de diseño de tres modos principales:

a) mediante la automatización de procesos co-rrientes;

b) mediante la modificación de métodos tradi-cionales para adaptarlos a métodos computables;

c) mediante un intercambio en el que "el proce-so de diseño, considerado como evolutivo, se pre-sente a una máquina, también considerada comoevolutiva y, a partir de ahí, pueda comenzar a de-sarrollarse por ambas partes un cierto aprendizaje,crecimiento y capacidad de adaptación" (a mutualtraining, resilience and growth).

De estas tres alternativas, Negroponte afirma quesólo le interesa la tercera, que es de la que tratarásu libro. Esto es, del modo en que "dos especies"(el hombre y la máquina), "dos procesos" (el dise-ño y la computación) y "dos sistemas inteligentes"(el arquitecto y el ordenador) pueden llegar a rela-

cionarse. Esta relación "no puede ser la de maestroy esclavo" sino la de "dos asociados" con el poten-cial y el deseo "de mejorarse a sí mismos".

Es probable que estas afirmaciones provoquenrisa, rechazo o, incluso, que se vean, más cínica-mente, desde la perspectiva de un sistema univer-sitario en el que se necesitan fondos para investi-gar y esto sólo puede lograrse si se consigue con-vencer a las fuentes solventes de que algo grandio-sos está a punto de ocurrir. El momento era propi-cio y también crítico. Como hemos visto en la sec-ción anterior, los organismos, muy principalmentemilitares, capaces de subvencionar las investiga-ciones de las universidades de Estados Unidos, es-taban fascinados con las posibilidades prometidaspor esta nueva disciplina. Pero también empeza-ban a arrugar la nariz pues los frutos prometidostardaban en madurar más de la cuenta. La arqui-tectura era un área inexplorada en la que aún eraposible conseguir apoyo para proyectos tan ambi-ciosos como el esbozado en aquel libro. Y la carre-ra posterior de Negroponte ha demostrado de so-bras su considerable capacidad de convencimientoy su sentido de la oportunidad.

Pero junto a todo esto, y a una serie de ejerci-cios y programas que han soportado mal los 30 añostranscurridos desde la publicación del libro, apare-cen comentarios que merecen ser revisados. Pueslo que Negroponte propone, como finalidad gene-ral de su proyecto, es una extensión de la culturaarquitectónica. Argumenta, con bastante razón, quela arquitectura es, de hecho, algo bastante ajeno ala gran mayoría del entorno construido pues losarquitectos no pueden intervenir ni a gran escala,con lo que las ciudades crecen de formaincontrolada, ni a pequeña escala, por falta de com-pensación profesional. Así, puntualiza, citando unestudio contemporáneo, "menos del 5% de las re-sidencias y menos del 1% del entorno urbano deEstados Unidos es diseñado, en el sentido propiodel término".

La finalidad principal sería, por consiguiente,introducir una mayor racionalidad y una "concep-ción humanista" en todo este proceso de construc-ción escasamente controlado. Y apuntar a este fincon ayuda de las máquinas. Es algo que puede re-sultar paradójico y que, desde luego, se presta,como es fácil imaginar, a provocar resultados in-versos a los deseados. Pero apunta a cuestionescentrales, por lo que volveremos sobre ello en latercera sección de este capítulo.

Page 390: [Architecture eBook] Aplicaciones as en Arquitectura

398 Aplicaciones informáticas en arquitectura

Las máquinas capaces de colaborar en esta víadeberían ser "robots éticos" con capacidad no sólode "resolver problemas" sino, sobre todo, de "pre-ocuparse por problemas". ¿Cómo conseguir má-quinas de este tipo? Aquí Negroponte se embarcaen una descripción visionaria, muy propia de laépoca pero que, en la actualidad, está bien lejos deser cumplida. Su descripción se acerca bastante ala de un robot doméstico capaz de tener sensacio-nes y percepciones, de reconocer todo tipo de pa-trones formales o de tomar iniciativas tales comoconectarse automáticamente a grandes ordenado-res centrales para consultar grandes bases de datosexternas o efectuar cálculos especialmente comple-jos cuando el problema "que le preocupa" lo re-quiera.

Una posición como la sostenida por Negroponteno daba para muchos más participantes. El restode las contribuciones que cabe mencionar son me-nos espectaculares, aunque su influencia sobre elmodo en que, en la práctica, el ordenador se haincorporado a los despachos de arquitectura ha sidomayor.

Un segundo personaje, aún menos conocido queNegroponte entre los arquitectos, es Charles M.Eastman. Las primeras contribuciones de Eastmanson de la misma época de Negroponte; de hechoeste incluye un artículo suyo en la bibliografía deThe Architecture Machine. Pero,significativamente, a pesar de que el artículo cita-do por Negroponte (ver Eastman, 1969) viene deun congreso sobre inteligencia artificial, la evolu-ción posterior de Eastman se decantó hacia terre-nos mucho más concretos. A principios de los se-tenta trabajó intensamente en modelado de sólidosy algunas de sus contribuciones han quedado parala historia como parte fundamental en la evoluciónde los métodos de modelado geométrico. Sobre estetema ya se ha tratado en el capítulo 4, al que meremito.

El interés de la obra de Eastman debe verse, porconsiguiente, desde dos facetas. En primer lugar,en sí misma, como una serie de aportaciones técni-cas valiosas. Pero, en segundo lugar, como un re-flejo de lo que estaba ocurriendo en las universida-des americanas. Durante los setenta se produce uncorrimiento desde terrenos especulativos, muyatractivos, pero cuyos resultados tendían a alejarsehacia el futuro con una constancia que irritaba pro-gresivamente a los proveedores de fondos, haciaterrenos más concretos que prometían resultados

menos espectaculares pero más rentables a cortoplazo.

En los últimos años, las contribuciones deEastman a las que hemos podido tener acceso es-tán dirigidas al modelado de datos. Al igual queotros muchos investigadores más orientados al de-sarrollo de aplicaciones que estén relacionadas demodo directo con la práctica real de la arquitectu-ra, Eastman se ha interesado por sistemas que per-mitan integrar de modo adecuado datos geométricoscon datos no geométricos, de tal modo que ambostipos de información resulten accesibles directa-mente durante el proceso de diseño. De nuevo meremito a un capítulo anterior, el capítulo 11, en don-de se dan indicaciones adicionales sobre la impor-tancia que previsiblemente tendrán este tipo de téc-nicas en un futuro cercano (Ver también Eastman,1985, 1987, 1991).

Un tercer personaje de mención obligada esWilliam J. Mitchell. Mitchell es probablemente elmayor divulgador de las técnicas informáticas apli-cadas a la arquitectura, con una larga lista de librosy artículos publicados sobre el tema, en la que noescasean las contribuciones y desarrollos origina-les, las primeras de las cuales se remontan a princi-pios de los setenta. Por añadidura ha sido decanode la Facultad de Arquitectura de Harvard, profe-sor de una larga lista de arquitectos que se han es-pecializado en informática y promotor de numero-sos eventos que han contribuido a la consideraciónde la informática como una herramienta íntimamen-te implicada en el desarrollo de metodologías al-ternativas para el proyecto arquitectónico. Hay va-rias obras mencionadas en la bibliografía que pue-de tener interés consultar.

En Europa debe destacarse el papel jugado porTom Maver, desde Glasgow, como uno de los prin-cipales impulsores de integración en la docencia yla investigación a través de organizaciones comoECAADE o por Lionel March, que muchos arqui-tectos conocen seguramente mejor que los otrosnombres citados, por sus obras sobre arquitecturay geometría y por la revista Environment andPlanning B, en donde han aparecido un notablenúmero de contribuciones de interés sobre infor-mática aplicada a la arquitectura.

Pero, en concreto, ¿qué tipo de contribucionesde interés cabe destacar, más allá de las que hemosvisto en capítulos anteriores? Aparte de los siste-mas expertos, que deberían integrarse en esta listapero que, por razones de organización temática, los

Page 391: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 399

hemos abordado en el capítulo 11, pueden citarsetres grupos de trabajos diferentes aunque mantie-nen estrechas relaciones entre sí: la investigaciónsobre la automatización de distribuciones, la inves-tigación sobre la investigación sobre fractales y lainvestigación sobre gramáticas formales.

Automatización de distribuciones

Un tema de investigación sobre el que se publica-ron varios trabajos de relativo interés desde finalesde los sesenta hasta principios de los ochenta es ladistribución automática de espacios de circulacióny habitaciones.

Hay diversos modos de apuntar a este objetivo.El más corriente, en los primeros programas, era laelaboración de matrices de adyacencia. Una ma-triz de adyacencia es una tabla en la que se asignana los diferentes recintos de una planta un númeroque indica el grado de proximidad deseado (0 indi-ca que no es deseable una relación directa y 5 o 10,como valor máximo, según el rango utilizado, in-dica que deben estar yuxtapuestos).

Las razones por las que se especifican estos va-lores pueden ser diversas: funcionales, higiénicas,acústicas o incluso psicológicas. En cualquier casoel programa computa los valores y produce un re-sultado que intenta aproximarse al máximo a losrequisitos planteados. Hay dos salidas típicas. Elprograma puede producir un "diagrama de burbu-jas", un organigrama similar a los que se utilizanen los primeros proyectos de estudiante, con la ven-taja de que es posible explorar de modo sistemáti-co las posibilidades que se presentan en cada casoy que permite clarificar las ideas iniciales. O bien,si además se especifican las áreas deseadas paralos diversos recintos, puede producir un esquemacon rectángulos yuxtapuestos que se adecúe, en lamedida de lo posible, a ambos requisitos.

Es posible, por añadidura, insertar algoritmosheurísticos que minimicen ciertas cantidades como,típicamente, la longitud de los espacios de asigna-ción. También es posible recurrir a métodos mássofisticados de programación lineal para esta mis-ma finalidad.

Otra forma relativamente habitual de proceder(ver, por ejemplo, Baybars & Eastman, 1980;Baybars, 1982) es utilizar grafos asociativos paraidentificar y sintetizar el esquema en planta. Losnodos representan los diferentes espacios y las aris-tas las comunicaciones entre ellos. De este modo

se pueden analizar las diferentes relaciones y va-riantes que pueden darse a partir de variantes de undeterminado programa.

La mayoría de estos programas producen resul-tados de modo automático, sin otra intervencióndel arquitecto que la introducción y ajuste poste-rior de los datos de entrada para repetir el proceso.En algunos casos, por ejemplo en Gero et al. (1973),se han utilizado métodos semiautomáticos que da-ban "más juego" al arquitecto. En el programa quese describe en dicho artículo el arquitecto podíaintervenir con frases del tipo "Me gustaría añadiralguna otra habitación" a los que el programa res-pondía con frases como "Muy bien" o "Estupendaidea". Parece que despertó escaso entusiasmo en-tre los arquitectos que lo probaron, lo que no mesorprende mucho.

El caso es que, en general, y a pesar de que sehan presentado métodos bastante eficaces para lo-grar estos objetivos, su utilización ha sido escasapor no decir nula. No conozco ningún arquitecto,ni en España ni en Europa, que haya hecho uso deestos métodos.

¿A que se debe este fracaso? En primer lugar,para ser honestos, a la falta de información. Es du-doso que más del 5% de arquitectos en ejercicio,en nuestro país, conozca la existencia de este tipode recursos. Y, en segundo lugar, a la falta de dis-ponibilidad; los que hayan oído hablar de métodoscomo éste no los encontrarán incorporados en nin-gún programa comercial. Tendrán que recurrir aprogramas ad hoc o a arquitectos especializadosen informática que les desarrollen programas deeste tipo.

¿Y por qué los arquitectos que trabajan en in-formática no han intentado desarrollar programaso no han impulsado el desarrollo de este tipo cuan-do era relativamente fácil desarrollar versiones demétodos que ya han sido publicados hace unoscuantos años? Esta es una pregunta que, por ejem-plo, se podría hacer al autor de este libro. Y aquíviene la tercera razón que tiene mayor calado. Elcaso es que, como hemos argumentado en otro lu-gar (Monedero, 1998) los trabajos que se han mo-vido en esta dirección no han tenido suficientementeen cuenta hasta qué punto es importante en arqui-tectura la noción de tipo.

Dicho de otra forma. Es demasiado evidente, ysupone un serio inconveniente a pesar de que tam-bién tenga alguna ventaja, que muchos trabajossobre "informática y arquitectura" no están hechos

Page 392: [Architecture eBook] Aplicaciones as en Arquitectura

400 Aplicaciones informáticas en arquitectura

por arquitectos sino por ingenieros. Ingenieros quetrabajan en escuelas de arquitectura o que se hanespecializado en este campo, por la razón que sea.

Y los ingenieros siguen pensando que la ecua-ción función -> forma sigue siendo válida porquesiguen pensando en términos de problema -> solu-ción. Pero en arquitectura, como Aldo Rossi seencargó de resaltar en una serie de notables escri-tos publicados pocos años antes de dichos traba-jos, escritos que estos investigadores o no conoceno han ignorado olímpicamente, lo importante no es"llegar" al esquema de distribución. En muchas oca-siones esto no es punto de llegada sino, más bien,un punto de partida. En la inmensa mayoría de loscasos no hay sino poco más que media docena desoluciones posibles; algunas de ellas milenarias. Y,a partir de aquí, intervienen otros factores, bastan-te más interesantes pero bastante menos fáciles decontrolar por una "matriz de adyacencia" u otrodispositivo similar.

Este argumento vale igualmente para las gramá-ticas de forma que describiremos más abajo, unmétodo más sofisticado y muy interesante desdeun punto de vista teórico pero que adolece, en de-finitiva, en determinadas interpretaciones, del mis-mo error de planteamiento.

Modelos de procedimientos. Fractales

Los programas utilizados en CAD consisten engeneral en estructuras de datos que son recorridasperiódicamente por el sistema para modificarlas ovisualizarlas. Cuanto mayor sea la complejidad delmodelo, mayor se va haciendo la base de datos aso-ciada, con los subsecuentes gastos de memoria yde tiempo de procesamiento.

Es posible, sin embargo, especificar un modelomediante muy pocas líneas de código, como un pro-cedimiento de generación que se activa cuando senecesita pero que ocupa muy poca memoria. Unagran parte del esfuerzo de investigación en méto-dos de modelado se ha producido y se está produ-ciendo en esta dirección, y en este contexto debesituarse la noción de lenguaje formal, sobre la quevolveremos más adelante, íntimamente ligada a lanoción de método o modelo de procedimientos(procedural method o procedural model)

Un modelo de procedimientos es un modelo enel que la morfología del objeto depende esencial-mente del procedimiento especificado para su ge-neración. El procedimiento es por lo general una

ley que se aplica en ciclos sucesivos sobre una en-tidad simple de la que parte el procedimiento. Eltipo de entidad de que se parte, la ley de recursióny el número de ciclos definen el modelo. Son comogérmenes que están a la espera de ciertas condicio-nes para desarrollarse.

Las ventajas y los inconvenientes de un modelode procedimientos son: el ahorro de memoria dealmacenamiento a costa de una ralentización delproceso y, por otro lado, el hecho de que es el pro-cedimiento el que dicta la forma y no al revés, sibien hay procedimientos que admiten considera-bles grados de control. Un modelo de procedimien-tos puede incluir la relación de varios objetos entresí.

En el caso de los fractales se acepta a priori uncierto grado de autonomía del proceso; los objetosfractales son objetos que pueden ser generadosmediante procedimientos extremadamente compac-tos y que dan lugar a la suficiente variedad de for-mas como para que puedan utilizarse a posteriori.

Los fractales son formas irregulares cuya geo-metría depende de la escala pero que, al variar ésta,el grado de irregularidad que caracteriza a estasformas aparece inalterado. El término "fractal" sedebe al científico Benoit Mandelbrot que lo acuñóhacia 1975, a partir del término latino fractus, quepuede traducirse por "interrumpido", "irregular",o "roto", para designar a ciertos objetos matemáti-cos que presentaban notables propiedades como laautorrepetición o la autosemejanza, ("sibisimilitud"u "homotecia interna"). A cualquier escala a la quese examine un fractal se aprecia una configuracióncon características formales semejantes. Lo másnotable es que la descripción matemática que dalugar a esta inacabable autogeneración formal,siempre igual y siempre distinta, es de una notableconcisión y puede reducirse a unas pocas líneas decódigo.

La autosimilitud y la irregularidad dentro de unorden dado son también características propias delos objetos naturales por los que los fractales hanencontrado aplicaciones para simular determinadotipo de objetos. Las aplicaciones más directas enel caso de la arquitectura son la utilización defractales para generar texturas en 2D, para generarobjetos naturales como árboles o montañas en 3Do para generar prismas semialeatorios que se hanutilizado para simular crecimientos urbanossemicaóticos en la proximidad de conurbacionescon leyes de crecimiento irregular.

Page 393: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 401

Una introducción general al tema de los fracta-les debería comenzar por las dos obras principalesde Madelbrot (1975, 1982). Puede encontrarse undesarrollo matemático bastante asequible enGuzman et al. (1993), una descripción de diversosfenómenos físicos en Burrough (1984), una mues-tra de aplicaciones de los fractales al tratamientode imágenes en Barnsley (1988b) o de la aplica-ción de los fractales al urbanismo en Batty (1987).

La posibilidad de describir una forma comple-ja por medio de un lenguaje formal simple, es de-cir, por medio de una serie de elementos básicos alos que se aplica una determinada regla de combi-nación, emparenta a los fractales con una clase másgeneral de entidades. Desde el punto de vista de laarquitectura, las investigaciones más elaboradas sehan desarrollado a partir de la noción de "gramáti-ca de forma" o shape grammar.

Gramáticas de forma (shape grammars)

La noción de "gramática de forma" es externa alcampo arquitectónico y tiene su origen enLindenmayer (1968). En el campo de la arquitec-tura se ha desarrollado, entre otros, por Stiny yMitchell (1978), Stiny (1980) y Flemming (1981).Puede mencionarse también el trabajo de otros in-vestigadores como Smith (1988) o Reffye (1988)que han elaborado diversos medios para describirla estructura de ciertas plantas por medio de"parámetros de forma".

La primera aparición del término, que sepamos,en un artículo relacionado con el diseño, es debidaa George Stiny, que en 1977 publicó un artículosobre la generación de motivos ornamentales chi-nos. En este artículo se mostraba un modo de ge-nerar de modo automático estos motivos, relativa-mente complejos, pero que obedecían a una estruc-tura periódica. Pero otros, aún más interesantes, de-nominados "rayos de hielo", no exhibían este tipode regularidad periódica y requerían otros méto-dos para su generación automática, que son los queStiny investigaba en este trabajo y conseguía re-producir automáticamente por medio de una gra-mática de forma adecuada al caso.

Una gramática de forma puede definirse comoun sistema generativo independiente de la geome-tría específica de una forma determinada. Contie-ne por consiguiente información topológica perono geométrica. Más exactamente, contiene un sis-tema de generación espacial basado en reglas de

construcción que se aplican de modo sistemático ala producción de una forma que queda determina-da en última instancia por el contexto.

Los elementos del sistema son: a) la forma(shape) definida como una disposición finita de lí-neas rectas de distancia limitada, pero no nula, endos o tres dimensiones; b) un conjunto de opera-ciones booleanas y transformaciones euclideanasdefinidas sobre estas formas; c) una especificaciónparamétrica que permita definir familias de formasequivalentes; d) una etiqueta asociada a una formaque la asocie a un conjunto de puntos etiquetados;e) una regla definida sobre estos elementos de talmodo que una forma etiquetada permita obtenerautomáticamente otra forma semejante.

Puede encontrarse una descripción matemáticamás elaborada en Stiny (1980) y una descripciónmás arquitectónica en Flemming (1987). Y merecela pena revisar los interesantes resultados a los quese llega en Mitchell & Stiny (1978) sobre la gene-ración de villas de Palladio por medio de gramáti-cas de forma; en Stiny (1980b) sobre las arquitec-turas de juguete de Froeble que inspiraron a FrankLloyd Wright; en Flemming (1981) sobre la casaGiuliani Frigerio de Terragni en Como; enFlemming & Downing (1981) sobre los bungalowsde Buffalo; en Koning & Eizenberg (1981) sobreun gramática que genera automáticamente casas dela pradera semejantes a las diseñadas por Wright aprincipios de siglo.

No tiene sentido incluir reproducciones de es-tos trabajos pues lo relevante es la enorme canti-dad de variantes que pueden ser generadasautomáticamente por este método. Por esta razónrecomiendo al lector interesado que se dirija direc-tamente a las fuentes originales. He mencionadoex profeso los artículos más asequibles, la mayoríade ellos publicados en la revista Environment andDesign B que tiene un carácter más bien minorita-rio pero puede encontrarse en bibliotecas especia-lizadas. Todos estos artículos están al menos en labiblioteca del Collegi d'Arquitectes de Catalunya,en Barcelona.

Lenguajes formales

Puede unificarse el concepto de gramática de for-ma con los objetos fractales a los que se refería elpárrafo anterior, mediante una formulación unita-ria que clarifique el término genérico de "lenguajeformal". Un fractal puede ser especificado por una

Page 394: [Architecture eBook] Aplicaciones as en Arquitectura

402 Aplicaciones informáticas en arquitectura

gramática. Pongamos como ejemplo una figura quepuede encontrarse en cualquier texto sobre estostemas. La curva de Koch se puede recubrir concuatro figuras que se pueden deducir del total porhomotecias de razones (1-r)/2, r, r, y (1-r)/2 con0<r<1. Esto puede integrarse en un programainformático y la aplicación recursiva de esta fór-mula nos da una figura como la que puede encon-trarse en cualquier publicación sobre fractales.

Ahora bien, esta misma figura puede venir ge-nerada por una gramática constituida por un axio-ma, un operador y una regla. El axioma especificaun segmento de recta como primera entidad de lagramática. El operador especifica un giro de 90ºsimbolizado por el signo "+" o de -90º simboliza-do por el signo "-". La regla establece que:

A -> A + A - A - A + A + A + A - A

La aplicación recurrente de este sistema a unsegmento de recta da como resultado la curva deKoch que ahora puede ser entendida como el obje-to resultante de aplicar una gramática formal degeneración. De modo similar podemos generar ar-bustos por medio de las siguientes gramáticas queparten en ambos casos de una misma línea curvadacomo axioma inicial y de un mismo operador queespecifica un giro de 22º en sentido positivo o ne-gativo:

a) A -> A + A + [+ A - A - A] - [- A + A + A]b) A -> A + A + [+ A - A] - [- A + A]

En esta formulación tan simple pueden encon-trarse los cuatro componentes fundamentales de unagramática:

1. Un conjunto finito de formas.2. Un conjunto finito de símbolos que actúan

como identificadores de las formas.3. Un conjunto finito de reglas del tipo A -> B

que se leen como "la forma A da lugar a laforma B por aplicación de la regla n".

4. Una forma inicial con identificador.

Así, la aplicación sucesiva de reglas de generacióna la forma inicial da lugar a objetos diversos, se-gún cuáles sean las reglas escogidas y el orden deaplicación.

Como ya hemos dicho, las gramática de formahan constituido en los últimos diez años una áreamuy activa de investigación en el campo de la ar-quitectura. Su aplicación real, sin embargo, es es-

casa, por no decir prácticamente nula, pese al con-siderable esfuerzo que han dedicado a este tema lamayoría de los nombres principales de investiga-dores que han trabajado en este campo.

La importancia que se asigna a las gramáticasde forma deriva probablemente de que parecenconstituir la respuesta informática más genérica ala posibilidad de tratar de modo directo un con-cepto crucial para la teoría arquitectónica como esel concepto de tipo. Una gramática de forma puedeconsiderarse como la estricta articulación lógica,computable y derivable, de una tipología arquitec-tónica. Contiene el rasgo más preciado que se man-tenía ausente de los métodos de modelado geomé-trico: el carácter de universalidad de clase.

Esto es tanto como decir que la pertinencia dela estrategia está ligada a la pertinencia del refe-rente, es decir, al propio concepto de tipo. Con estovolvemos a la discusión apuntada dos apartadosmás arriba. Este tipo de aplicaciones depende enúltima instancia de una discusión teórica mucho máselaborada sobre el concepto de tipo arquitectóni-co. Para apuntar con rapidez a un aspecto clave yamencionado: la razón por la que muchas de estasinvestigaciones resultan irrelevantes es porque elconcepto de tipo ya está fijado a la escala a la quese producen este tipo de trabajos.

3 ¿Puede diseñar una máquina? Unaembarazosa versión del test de Turingpara uso de arquitectos

El subtítulo de esta sección puede responderse deinmediato de varios modos que llevan a unareformulación de la pregunta.

Una primera respuesta sería, parafraseando aShannon: "Claro. Nosotros somos máquinas y di-señamos ¿o no?".

Una segunda respuesta, menos sarcástica, sería:"Naturalmente. Hace años que existen programasque, dadas ciertas condiciones de entrada, produ-cen una forma como respuesta."

Pero una tercera respuesta, aún más previsible,y expresada con no menor contundencia, sería: "Im-posible. Un diseño es, por definición, algoespecíficamente humano. Es la respuesta a creen-cias, deseos, intenciones, emociones. Las máqui-nas no pueden creer, ni desear, ni tener intencionesni emocionarse."

Page 395: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 403

La finalidad de este último apartado no es darotra respuesta más a esta cuestión, aunque confie-so que me gustaría intentarlo, con mayor extensión,en otro momento, sino simplemente defender trescosas: que una pregunta de este tipo tiene un enor-me interés, que debe ser necesariamentereformulada (lo que no implica necesariamente unamodificación de su sentido) para poder ser respon-dida con alguna precisión y que, a partir de estareformulación, se desvelan algunas cuestionescruciales para la crisis en que está inmersa la ar-quitectura contemporánea desde hace unos cuan-tos años y, en especial, la española. Aunque tam-bién soy consciente de que esta última observaciónpodría liquidarse con un "¿Crisis? ¿Qué crisis?".

El Test

Imaginemos por consiguiente la siguiente escena.En una habitación se disponen butacas y mesas fren-te a una pared en la que hay tres pequeñas mesas,cada una de ellas etiquetada con una letra y, sobreellas, un monitor, un teclado y una ranura alargada.En las butacas, frente a la pared, se sientan losmiembros de lo que llamaremos, con toda la pom-pa requerida por las circunstancias, "el Tribunal".Este Tribunal está compuesto por, pongamos que,12 personas de diferente posición social y profe-sión entre los que no puede faltar algún arquitecto,algún ingeniero, algún informático. Y algún políti-co.

El test debe llevarse a cabo durante un períodode tiempo suficientemente largo. Tres o cuatro días,que es lo que duran aproximadamente los exáme-nes para titularse como arquitecto en los paísesanglosajones, o para convalidar unos estudios dearquitectura en nuestras escuelas, parece una cifrarazonable. El tribunal prepara un encargo, resumelas condiciones principales y presenta un progra-ma para construir un edificio de unas característi-cas determinadas, en cada una de las tres ranuras.Suponemos que una de ellas va provista de unescáner que permita traducir la información, texto,dibujo o imágenes al lenguaje de un ordenadormientras que las otras dos no lo necesitarían. Peronada, en el exterior de estas ranuras permite apre-ciar estas diferencias.

Si desde el interior de estas tres habitaciones senecesita información adicional, se oye una suavezumbido y, en el monitor, aparece un mensaje en elque se solicita más información. El tribunal, que

en este caso actúa como cliente, delibera y, en basea estas deliberaciones, un miembro del tribunal res-ponde con la información solicitada. Esto puedeimplicar ligeras variaciones en el programa, seña-lar consecuencias que no se apreciaban directamen-te en el planteamiento inicial, etc. Es decir supone-mos que, de modo similar a como ocurría en el testde Turing original, hay un diálogo entre ambas par-tes. Las condiciones son más sencillas pues el diá-logo está restringido a una situación muy concretapor lo que podemos considerar este test como unaversión más suave que la del test original.

Supondremos que, como resultado de la prue-ba, se darán cuatro situaciones principales. Las tresprimeras darían el triunfo a uno de los tres conten-dientes. Podemos imaginar que el Tribunal dicta-mina que, repetida la prueba en varias ocasiones,en una clara mayoría de los casos presentados elmejor diseño era el del arquitecto, el del ingenieroo el del ordenador. Es previsible que cada uno deestas alternativas obtendría como respuesta una des-calificación del resultado por parte del colectivoafectado y una petición de repetición de la pruebao una descalificación de esta por alguna razón. Sivencieran los arquitectos, los ingenieros encontra-rían seguramente algún argumento científico paradescalificar la prueba. Si vencieran los ingenieros,es más que probable que los arquitectos se decla-raran en huelga. Y si venciera el ordenador podríamuy bien ocurrir que arquitectos e ingenieros fun-daran una asociación "por un diseño humanista".

Así que dejemos estos casos a un lado y con-centrémonos en la cuarta posibilidad que es bas-tante plausible y, sobre todo, más jugosa. Esto es,que el Tribunal dictamine que no puede llegar aninguna conclusión clara, que le faltan elementosde juicio para dictaminar quien es el autor de cadaproyecto.

O, mejor, para dejar la discusión sobre arqui-tectos e ingenieros para otra ocasión pues su papelaquí no era otro que llamar la atención sobre lapertinencia del problema en relación con discusio-nes más actuales, supongamos simplemente que elTribunal dictamina que le es imposible decidir siel autor de una determinada solución es un arqui-tecto o un ordenador.

El primer punto que hay que subrayar es queesta reducción sigue necesitando de reduccionesposteriores para poder clarificar mínimamente ladiscusión. En primer lugar ¿quién decide? ¿cuálesson las cualificaciones de este abstracto Tribunal?

Page 396: [Architecture eBook] Aplicaciones as en Arquitectura

404 Aplicaciones informáticas en arquitectura

¿sería correcto decir, siguiendo la tradición del testde Turing que “cualquier persona”, medianamenteculta, está capacitada para decidir sobre la calidadde una obra arquitectónica?

Y, por otro lado, ¿es posible generalizar hastaese extremo? ¿podemos hablar de “un proyecto dearquitectura”, sin más, sin tener en cuenta la enor-me variedad de proyectos que se dan en la prácticay que supondrían una mayor o menor dificultad parasu resolución automatizada?

Sobre el rechazo de la posibilidad de hacer talprueba

Antes de proseguir hay que abordar una objeciónde principio. Probablemente la posición de muchaspersonas sensatas sería: esto es un juego más omenos divertido pero bastante alejado de la reali-dad. Pues, por lo que sabemos, no hay, actualmen-te, ningún ordenador capaz de responder como sesupone que lo haría en la situación descrita.

Este rechazo requiere, como respuesta, diversasindicaciones. En primer lugar no está de más re-cordar una famosa polémica protagonizada por unfilósofo aficionado a la informática en la décadade los sesenta, Hubert Dreyfus (ver Dreyfus, 1972)a quien ya nos hemos referido más arriba. Este au-tor escribió varios artículos (el principal de los cua-les tenía por título "Alchemy and AI") y un libro enel que rechazaba, con diversos argumentos bastan-te bien fundados y unas buenas dosis de mordaci-dad, las posibilidades abiertas por el test de Turingy, más concretamente, los supuestos logros de losordenadores.

A pesar de que sus argumentaciones eran bas-tante interesantes Dreyfus se dejó llevar hacia po-siciones que le dejaron bastante mal parado. Parademostrar su afirmación de que ningún ordenadorpodría jugar al ajedrez mejor que un ser humanoaceptó un desafio en el que su rival sería un pro-grama informático. Y perdió. Se refugió en su faltade práctica y afirmó, aún con mayor rotundidad,que jamás un ordenador podría vencer a un granmaestro. Algunos años más tarde el campeón delmundo era derrotado por Deep Blue, un ordenadorproducido por IBM.

A esto puede añadirse que, como recordaremosmás adelante hay una buena colección de progra-mas "capaces" de escribir cuentos, dibujar o hacermúsica.

En segundo lugar hay que decir que, con aun-

que no se dé exactamente la situación que hemosplanteado, no hay que esperar muchos años paraencontrar ordenadores que diseñen. Pues hay bas-tantes ejemplos en los que se da algo bastante pa-recido. Hemos visto en la sección anterior como sehan desarrollado programas que pueden elaborarsoluciones formales complejas a partir de una se-rie de especificaciones iniciales. Aunque no exis-ten, en sentido estricto, aplicaciones que produz-can una solución formal a partir de un programafuncional o de una serie de requisitos iniciales, talcomo hemos supuesto en nuestra versión del Testde Turing es previsible que se puedan contar conprogramas de este tipo en un plazo relativamentebreve.

Por otro lado resulta no menos evidente de queesta posibilidad está estrechamente ligada al tipode proyecto de que estemos hablando. Pocas per-sonas con suficiente conocimiento de las condicio-nes reales en que se realizan cierto tipo de edifica-ciones pondrán en duda que la utilización de unordenador para automatizar soluciones es, ya, parabien y para mal, una realidad. Los promotores sonmás conscientes de esta posibilidad que los pro-pios arquitectos.

Un encargo que consista en la edificación de unbloque de viviendas, de 8 pisos de altura, con unaprofundidad edificable de 18 metros, con dos vi-viendas por planta, cada una de ellas de 80 metroscuadrados con dos dormitorios, sala, comedor, co-cina y dos cuartos de baño es un encargo que admi-te un número muy limitado de soluciones que pue-den resumirse en tipos parametrizados de tal modoque las variantes puedan presentarse de modo au-tomático.

En estos casos la función del arquitecto es, fun-damentalmente, la de emitir un juicio experto. Loque se requiere de él en tales casos, suponiendoque se quiera contar con su opinión, es que ayude acalibrar las ventajas e inconvenientes de una solu-ción determinada. No más.

Y, así, aparecen otras dos cuestiones crucialessobre las que volveremos. Primero ¿a quién perte-nece el ordenador que ha generado estas solucio-nes? O, si se prefiere, ¿quién da la orden de anali-zar las variantes implícitas en el encargo? Desdeluego, puede hacerlo el propio promotor.

Y, segundo, ¿es esto muy diferente de lo queocurre en algunos grandes despachos en donde elarquitecto jefe dedica el 90% de su tiempo a viajesy reuniones y, quizá, el 10% a diseñar? Pues su

Page 397: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 405

papel es, precisamente, revisar las soluciones a lasque han llegado otros arquitectos subordinados ycorregirlas.

Creatividad y tipología

Para seguir despejando tópicos no muy bien fun-dados, lo primero que debe ponerse en cuestión esla noción ingenua de creatividad ex nihilo. En 1928Vladimir Propp publicó una famosa obra, Morfo-logía del Cuento, donde analizaba un gran númerode cuentos rusos para demostrar que todos ellosobedecían a una serie de tipos básicos, a un esque-ma universal que se repetía con diversas variantes,no sólo en las narraciones de su país sino en las deotros muchos. La obra de Propp ha sido traducidaal francés por un crítico estructuralista, Todorov,quien ha llevado a cabo análisis similares de otrasobras famosas en los últimos años. Pero la idea esfamiliar para cualquier escritor profesional y se en-cuentra en comentarios bastante más añejos. Goethesostenía, hace ya bastantes años, que no había másde 40 situaciones trágicas posibles.

La idea de creatividad como desarrollo de va-riantes a partir de un tipo previo, de una estructuraformal preestablecida, es común a la literatura, lamúsica, la pintura o la arquitectura. La variaciónse puede producir sobre la propia estructura, ha-ciendo evolucionar la estructura subyacente encomplejidad. Pero, más frecuentemente, se produ-ce por medio de la inserción de medios expresivossingulares, ligados a un tiempo y un lugar. Lo quenos cautiva de las novelas de Simenon no es que latrama funcione con regularidad y verosimilitud,aunque echaríamos en falta que no se cumplieraesta condición previa, sino los tipos extraídos delParís de una época determinada en los que las mi-serias humanas unen por caminos inesperados a lasclases bajas con las clases altas.

¿Puede programarse un ordenador para escribirnovelas? A principios de los setenta una serie deinvestigadores publicaron un informe sobre un pro-grama que hacía algo parecido. Como relataMargaret Boden, su logro no iba mucho más alládel escritor novato que pidió consejo a un escritorpopular sobre el modo de construir relatos intere-santes. Este le aconsejó que pusiera “un poco dereligión, un toque aristocrático, un poco de sexo y,sobre todo, misterio”. El escritor novato siguió fiel-mente el consejo y, tras algunas horas de esfuerzo,presentó al maestro el siguiente guión: “!Dios san-

to¡ – dijo la duquesa - ¡estoy preñada! ¿Quién ha-brá sido?”.

Pero era un inicio. J. Reichardt (1971) mencio-na un programa de ordenador diseñado por M.Masterman que componía haikus con resultadosbastante más notables. Y desde entonces se handiseñado un buen número de programas para hacerdibujos automáticos, para tocar composiciones dejazz o para generar composiciones musicales dediversos tipos. ¿Por qué sorprenderse o rechazaresta posibilidad cuando el Arte Moderno ha ensal-zado el automatismo, el papel del azar, el atractivomisterioso del objet trouvé?

Existen, sin duda, fórmulas y recursosestereotipados que pueden combinarse de diversosmodos para producir novelas, pinturas, obras mu-sicales y obras arquitectónicas de modo automáti-co. Las principales diferencias están en la mayor omenor complejidad del producto pero es sólo cues-tión de tiempo el que un ordenador pase de generarcocinas de modo automático a generar casas de trespisos y 400 metros cuadrados por planta. Si se tomael término “automático” con cierta flexibilidad pue-de mencionarse varios programas que ya lo hacen.

Y, por otro lado, insistamos, la cuestión tiene unconsiderable calado filosófico. La erradicación delsujeto es una consigna cara a un grupo de filósofoscuyas ideas o, más bien, cuyo estilo de discurso,personalmente no comparto, entre otras cosas por-que son reverenciados por arquitectos que parecenencontrar un cierto regusto en envolver su confu-sión mental con más confusión prestada pero que,sin embargo, apuntan a cuestiones cruciales. Es elcaso de, por ejemplo, toda una línea que va deHeidegger a Derrida pasando por el estructuralismo.No deja de ser curioso, por otro lado, que esta "erra-dicación del sujeto" haya servido para ensalzar aciertos sujetos.

Dos proyectos en busca de autor

No me atrevería a recomendar un Congreso de Ar-quitectura e Informática como el mejor modo depasar tres o cuatro días en París. Pero siempre haybuenos momentos. Uno de los mejores, para migusto, fue cuando, en una misma sesión se presen-taron, en el Congreso de ECAADE 98, en París,dos ponencias sobre la utilización del ordenadoren el proyecto de arquitectura.

En la primera de ellas (“IT as Design Enabling

Page 398: [Architecture eBook] Aplicaciones as en Arquitectura

406 Aplicaciones informáticas en arquitectura

Technology”) se mostraba como una sola persona,con la ayuda de un Sistema Experto, podía generaren poco tiempo unos cuantos cientos de viviendasunifamiliares diferentes. El autor era I.K.Petrovic(Belgrado) (ECAADE 98, París, p 178) uno de losmás veteranos participantes en congresos de estetipo y uno de los pocos que han trabajado en Inte-ligencia Artificial y Sistemas Expertos aplicados ala arquitectura.

En la segunda (“Virtual Design Studio:Multiplying Time”) se mostraban los resultados deun trabajo en colaboración entre un equipo forma-do por profesores y estudiantes de las universida-des de Hong Kong, Zürich y Seattle para diseñaruna vivienda unifamiliar. Los autores principaleseran B. Kolarevic (Hong Kong), G.Schmitt,U.Hirschberg, D.Kurmann (Zürich), B.Johnson(Seattle) (ECAADE 98, Paris, p. 123) un equipoen el que figuran también algunos nombres cono-cidos en la investigación sobre computación y ar-quitectura.

Obviamente, ambos trabajos obedecían a inte-reses y líneas de investigación bastante diferentes.En un caso se trataba de explorar la capacidad delos Sistemas Expertos para explorar variantestipológicas alternativas. En el otro se trataba, prin-cipalmente, de poner a prueba métodos de trabajoen colaboración a través de Internet. El que apare-cieran juntos no sé si se debió a la casualidad o a laperversidad o al sentido del humor de los organi-zadores. Pero creo que causó cierto grado de des-concierto, más o menos inconsciente, en la audien-cia.

Para mi, lo más interesante fue comprobar como,en ambos casos, la noción de autor quedaba dilui-da. Y el modo más prosaico pero también más di-recto de comprobar hasta que punto esto es así se-ría preguntarse: si estos proyectos se llevaran real-mente a cabo ¿quién cobraría los honorarios? ¿Elautor del sistema experto, en el primer caso? ¿Elpropietario de la licencia? ¿El usuario que dirigíala búsqueda de alternativas? ¿El arquitecto que dabalas ordenes? Y, en el segundo caso ¿los profesoresque organizaron el taller? ¿las universidades parti-cipantes? ¿los estudiantes y profesores que desa-rrollaron el diseño? (no les daría ni para un par decervezas) ¿el cliente, por haber arriesgado su saludmental en el empeño, suponiendo que hubiera pre-tendido dialogar con todos los colaboradores?.

Y, sin embargo, una gran parte de la arquitectu-

ra que admiramos también carece de autor. Lo quenos cautiva de los poblados medievales que hanresistido el paso del tiempo, de la arquitectura po-pular de cualquier parte del globo es, precisamen-te, que la palabra "armonía" surge de un modo es-pontáneo como adjetivo adecuado para describirestas estructuras. Y que, precisamente, nos pareceun término adecuado en la medida en que parecerelacionarse con un fenómeno físico que puedeindentificarse con seguridad; al igual que ocurrecon la noción de armonía en música que depende,en primerísimo lugar, de un fenómeno físico, la re-sonancia de los armónicos secundarios, que es in-dependiente de una elección individual.

Juegos y jugadores

El que existan ingenios artificiales que corran másrápido que el hombre no ha disminuido la afición alas carreras de atletismo. El que existan programascapaces de jugar al ajedrez no ha disminuido laafición a este juego; podría incluso ocurrir que hayaaumentado su popularidad. Y, que yo sepa, nadieha inventado ningún programa para resolver cruci-gramas aunque sería perfectamente posible; y to-dos los periódicos del mundo siguen publicandosecciones fijas de este pasatiempo para el que existe,evidentemente, demanda.

Pero esto son juegos ¿qué decir de la, más seria,actividad profesional? Pues que cuando mejor fun-cionan es precisamente cuando son como juegos.Schiller, en sus Cartas sobre la Educación Estéticadel Hombre (1795) lo explicó de un modo inmejo-rable:

"Porque, digámoslo de una vez: sólo juega elhombre cuando es hombre en el pleno sentido dela palabra, y sólo es plenamente hombre cuandojuega. Esta afirmación, que acaso en este momentoparezca paradoja, recibirá una significación gran-de y profunda cuando hayamos llegado al punto deaplicarla a la doble seriedad del deber y del desti-no; servirá de cimiento, os lo prometo, a todo eledificio del arte estético y del, más difícil aún artede la vida. Y si esa afirmación resulta inesperada,es en la ciencia solamente; porque en el arte hacelargo tiempo que vive y tiene eficacia..." (carta XV).

Y esto es, sin duda, aplicable a la relación de unbuen arquitecto con un buen cliente. En este senti-do, lo esencial de tal relación dudo que vaya a cam-biar por influencia del ordenador. Pero sí cambiarálo inesencial. Esto es lo que conviene traer a la luz,

Page 399: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 407

para que se pudra cuanto antes.

El papel del cliente

A nadie le parece mal que los ordenadores se ocu-pen de tareas rutinarias y pesadas si está garantiza-do que el resultado será de fiar. Ordenar largas lis-tas de nombres, hacer cálculos largos y repetitivoso bien cavar zanjas y tender tuberías son activida-des que relegamos con gusto a las máquinas. Tam-poco nos parece nada mal que un ordenador se ocu-pe de la conducción automática de un tren o unavión siempre que se nos asegure que el sistema escapaz de reaccionar ante situaciones imprevistas oque hay un operario humano que pueda tomar elcontrol con rapidez en estos casos.

El salto a actividades profesionales como la me-dicina o la arquitectura, sin embargo, aparece comomucho más polémico. La razón está en que apare-cen nuevos factores que quizá no se aprecian comoes debido. Estos factores son muy diversos pero sedespliegan en torno a términos tales como “jue-go”, “creatividad” o “política” que los humanosconsideramos como "propias".

He preguntado a algunas personas de mi entor-no familiar, a amigos y, sobre todo, a amigas, comoreaccionarían ante una situación similar a la des-crita, es decir, cual sería su reacción si contarancon la posibilidad de contar con un ordenador comoalternativa a un arquitecto.

La primera reacción es de rechazo y es conve-niente introducir algunas condiciones restrictivaspara equilibrar la comparación. Así, si prefieren tra-tar con un arquitecto en lugar de con un ordenadorhay que estipular que la comunicación con el pri-mero debería ser tan distante como con un ordena-dor; por ejemplo, utilizando exclusivamente el co-rreo electrónico. Hay que decir que esta es una res-tricción que muchos considerarían inaceptable pueslo que les interesa es, precisamente, el “contactohumano” con su arquitecto. Pero no hay que dejar-se impresionar por esto a lo, que de todos modos,volveremos. También muchas personas prefierenun contacto personal con su médico pero en el casode una enfermedad grave están perfectamente dis-puestas a atender a diagnósticos distantes siempreque se les garantice su autoridad. Y, por otro lado,en la mayoría de los casos habitamos edificios ycasas en los que no hemos tenido ocasión de cono-cer al arquitecto.

Superado este rechazo inicial resulta que la ma-

yoría de los respuestas son favorables al ordena-dor. O bien, debido a la falta de rigor de la mues-tra, digamos que un número significativo de res-puestas ¿Por qué razón? Porque, cito literalmenteuna de ellas: “El ordenador me daría más juego.No pretendería imponerme su criterio. Atenderíaobjetivamente mis demandas y, si no quedo satis-fecha, las modificaría sin rechistar, ofreciéndomeotras alternativas”.

Es evidente que este tipo de respuesta, al mar-gen del mayor o menor porcentaje de puntos devista que refleje, apunta a una cuestión clave. FrankLloyd Wright decía que el arquitecto debía ser comoun sacerdote o guía espiritual que hiciera ver a susclientes cuales eran su “auténticas necesidades”.Le Corbusier buscaba clientes sofisticados, de gus-tos artísticos refinados (y bien dotados económi-camente) que estuvieran “a la altura” de susvanguardistas propuestas. Mies van der Rohe im-ponía despóticamente sus diseños, destilados a lolargo de años de cuidadas reelaboraciones, aunqueesto le costara llegar a juicio, como le ocurrió conMiss Farnsworth.

Pero en la mayoría de los casos los arquitectosbuscan “contentar” a sus clientes deslizando, máso menos subrepticiamente algunas soluciones queconfían en que el cliente aprenderá a apreciar. Enel mejor de los casos estas son soluciones “cultas”que mejoran la calidad del diseño. En el peor, sontópicos, clichés de moda, repetidos tontamente, queel arquitecto adora como fetiches que justifican suposición y sus honorarios.

Así que lo primero que nos revela (o nos recuer-da) el Test de Turing cuando pretendemos adaptar-lo para uso de arquitectos es que existe una rela-ción muy compleja, muy contradictoria y muy malestudiada entre un arquitecto y sus clientes. Hastatal punto es esto así que aparece como el primerobstáculo para la crisis actual de la arquitectura(¿qué crisis?).

El papel del arquitecto

Naturalmente, podemos invertir los términos. A loque apunta el caso citado de la persona que prefe-ría que su casa la proyectara un ordenador porque“le daba más juego” es a una necesaria diversifica-ción, socialmente sancionada, de los diferentespapeles que juega un arquitecto en nuestro mundo.Los tres prototipos de relación con el cliente

Page 400: [Architecture eBook] Aplicaciones as en Arquitectura

408 Aplicaciones informáticas en arquitectura

ejemplificados más o menos casualmente porWright, Le Corbusier o Mies: el arquitecto sacer-dote que guía a los indecisos, el artista sofisticadoa la espera del conoisseur, el purista que ofrece unproducto perfecto a quien sea capaz de soportartanta perfección cotidiana, deben ser completados,explícitamente, con otras formas de relación con elcliente.

Las escuelas de arquitectura, que aún no hansabido asimilar y discutir críticamente la nociónde “vanguardia”, siguen empeñadas en negar la rea-lidad. O, quizás más exactamente, en colaborar auna cínica condena. Pues la realidad es que mu-chos arquitectos se pliegan dócilmente a los de-seos de sus clientes y esto es, en muchos casos,perfectamente lógico. El arquitecto actúa como unexperto comentarista que hace resaltar las ventajasy los inconvenientes de una determinada opción.Pero dejando que sea el cliente quien decida enúltima instancia.

¿Qué significa "vanguardia"? He aquí otro tér-mino, ubicuo en todas las historias de la arquitec-tura moderna, de una obscuridad casi insondable.Pongamos tan sólo tres ejemplos, que podrían mul-tiplicarse por cien, para apreciar hasta que puntoeste término es un cliché sin sentido.

¿Es vanguardia, 50 años después de queMaxwell hubiera mostrado en público que los co-lores primarios, en mezcla aditiva, los colores alos que nuestro sistema visual reacciona con ma-yor intensidad, son el rojo, verde y azul, defendera diestro y siniestro que los colores fundamentalesson el amarillo, el rojo y el azul y que no se debeutilizar el verde porque es "un color secundario"?Esto sostenía Kandisky en 1912 y los neoplasticistasholandeses con Van Doesburg y Mondrian a la ca-beza en la década de los veinte.

¿Es "vanguardia" oponerse a utilizar ordenado-res para proyectar en lugar de instrumentos tradi-cionales como cartabones o compases? Conozcoalgunos arquitectos "de vanguardia", profesores deproyectos que, hasta hace poco, prohibían a susestudiantes entregar planos realizados con ordena-dor. Pero, quizás hay que ser comprensivos: comoellos no sabían utilizarlos tomaban estas drásticasmedidas para no estropear la buena comunicaciónentre profesor y alumno.

¿Es vanguardia oponerse a todo cuando suene a"ciencia" en las escuelas de arquitectura y utilizarcomo criterio de corrección de los proyectos prin-cipios vagos, misteriosos que, en muchos casos,

piden a gritos que se graben en cinta magnética yse sometan a un análisis tan ejemplar como el queAlan Sokal (ver Sokal, 1998) ha llevado a cabocon las obras de algunos gurús delpostmodernismo?

Conozco dos tipos fundamentales devanguardistas: los vanguardistas "de trompeta" ylos vanguardistas "de altura". Los primeros tienenuna especial habilidad para ponerse al frente de lamanifestación. Triunfan durante algunos años peroluego nadie se acuerda de ellos. Los segundos as-cienden en solitario durante mucho tiempo. Y sólosabemos de ellos cuando han llegado a la cumbre(y, a menudo, cuando ya son viejos o están en elcementerio). Creo que se necesitan muchos tiposde arquitectos, incluyendo, desde luego, losvanguardistas de altura. Pero es difícil saber pordonde andan, con el ruido que hacen los otros...

El diseño como "problema", como"propuesta" o como "acuerdo"

Desde le mundo de la ingeniería se tiende a consi-derar el diseño, desde una perspectiva científica,como un "problema". Hay un planteamiento pre-vio, unos datos de partida, un programa, unos ob-jetivos a cumplir y todo esto configura una situa-ción inicial a la que se debe dar una respuesta finalcon la especificación de una forma y unos materia-les. Tenemos un punto de entrada (el programa),tenemos un punto de salida (la forma y los mate-riales) y, en el interior de esta caja negra, se produ-cen ciertos procesos, más o menos descriptibles,que es lo que llamamos "diseñar".

El test del que hemos partido es, en cierta medi-da, tramposo, porque se adapta bien a esta descrip-ción que es, por otro lado, la descripción canónicaque aparece en la mayoría de los manuales sobrediseño. Pero en muchos casos, en los casos mássignificativos, más relevantes para la práctica realde la arquitectura, esto no sucede así.

Por un lado, en los casos de mayor resonanciacultural y de mayor influencia interna, el diseño noaparece como la respuesta a un problema sino comouna propuesta innovadora que sorprende a su des-tinatario. Los grandes arquitectos son pésimos se-guidores de las condiciones de los concursos y aúnpeores seguidores de las condiciones del encargo.El arquitecto de talento es el capaz de convencer asu cliente de que "lo que realmente quería" no eralo que le pidió sino lo que el arquitecto le hace ver

Page 401: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 409

que tenía que pedir.Si no existieran arquitectos capaces de dar la

vuelta a sus encargos para adaptarlos, forzando lascondiciones de partida en mayor o menor grado,hasta quebrarlas por completo en determinadoscasos, no existiría la arquitectura como una disci-plina autónoma y con una tradición milenaria. Aligual que tampoco existiría el lenguaje sino hubie-ra habido poetas, anónimos o famosos, capaces deinventar nuevos términos o de dar nuevos sentidosa los que ya existen.

Ahora bien, y por otro lado: cuando hablamos,día a día, para comunicarnos, no innovamos en estesentido, no hacemos poesía, no somos incensamentecreativos. Y, por lo que respecta al diseño, en lamayoría de los casos el diseño no se plantea ni comoproblema a resolver ni como propuesta innovadora.

¿Cómo se plantea entonces? Creo que en unnúmero, no sé si mayoritario pero si lo suficiente-mente importante como para prestarle bastante aten-ción, el diseño se plantea como una transacciónentre posibilidades que pueden estar dadas desdeel comienzo o que se van desvelando con mayorclaridad poco a poco y que se trata de evaluar. Eldiseño aparece entonces como el lugar de confron-tación de intereses complejos que hay que equili-brar.

El papel del arquitecto en estos casos es el de unnegociador que ostenta una representación com-pleja. Por un lado debe satisfacer los intereses in-mediatos de un cliente privado o de un represen-tante público de los intereses de un grupo particu-lar de ciudadanos. Por otro lado debe satisfacer losintereses de una sociedad constituida políticamen-te como tal que le ha dado unas competencias acondición de que defienda unos valores generales.Esto es aceptado, de un modo más o menos incons-ciente y de mayor o menor buen grado por el clien-te que sabe que, en cierto modo, debe llegar a unacuerdo con el arquitecto y aceptar, en determina-dos casos, soluciones que no ve con claridad peroque respeta.

El marco en el que se produce esta negociaciónes, en sentido estricto, un marco político. El dise-ño, así considerado, resulta ser una forma especialde actividad política en el sentido más genuino deltérmino. Por esta razón el papel de los ordenado-res resulta tan fácil y, al mismo tiempo, tan difícilde integrar en esta actividad. Pues los ordenadoresson semillas de robots, esto es, de "esclavos sumi-sos" tal como revela su etimología y todos los mi-

tos modernos y toda la imaginería que se ha desa-rrollado sobre estos. El término procede de unapalabra checa que significa «servidumbre» y quepasó al inglés a partir del estreno de la obra futuristaR.U.R. de Karel Capek en Londres en 1921. IsaacAsimov lo vio muy cuando, en 1950, al comienzode su "Yo, robot", escribió las normas supremasque dictarían la actividad de los robots en una so-ciedad ficticia, en las primeras décadas del año2000.

Otras formas de ser arquitecto. La necesidadde un nuevo marco y nuevo guión.

La utilización de un ordenador como herramientade diseño, en casos en los que pueda substituir a unser humano es, en buena medida, también una cues-tión política. Esto es, lo que se discute en el fondoes en que circunstancias se debe utilizar un orde-nador para substituir a una persona o un colectivodeterminado de personas.

La cuestión puede ser similar a la del desarme.Las armas actuales tienen una ilimitada capacidadde destrucción. No discutimos si, por ejemplo, unarma artificial “puede", o no, destruir “toda unapoblación”. Lo que discutimos es si, en determina-das circunstancias, en circunstancias extremas estoes algo que “debe” hacerse para preservar a la hu-manidad de calamidades peores.

Basta con pasearse por algunos barrios de algu-nas ciudades para llegar a la conclusión de que subs-tituir arquitectos por ordenadores tendría escasasconsecuencias relevantes. De hecho, en muchoscasos, es evidente que el aspecto del barrio mejo-raría; resulta difícil hacerlo tan mal. La única ex-plicación para la aparición de determinadosengendros es que el arquitecto ha sentido la nece-sidad de justificar sus honorarios introduciendo untoque de "creatividad".

Sin embargo es más que dudoso que substituirmalos arquitectos, o constructores o promotores quese hacen pasar por tales, por ordenadores sumisosfuese una buena solución. El problema está en quela gran mayoría de la arquitectura que se construyerealmente no es una arquitectura que surja ni deldiseño entendido como "resolución de un proble-ma", como "propuesta" o como "acuerdo". Mássencillamente: no es arquitectura; no está diseñadade ninguno de estos modos o bien, más exactamen-te: no es un "acuerdo" entre partes legitimadas po-líticamente para actuar como tales partes.

Page 402: [Architecture eBook] Aplicaciones as en Arquitectura

410 Aplicaciones informáticas en arquitectura

Si no se encuadra adecuadamente la actividadde quienes están obligados a investigar en arqui-tectura con criterios de máxima generalidad la in-vestigación no puede avanzar. Los médicos ayu-dan a conformar el ideal de una vida sana a partirde la investigación sobre como combatir y comoprevenir más adecuadamente las enfermedades. Lanoción de "patología" sólo está presente en las es-cuelas de arquitectura, cuando lo está, para aludira desperfectos estructurales o constructivos. El quebarrios enteros de ciudades desarrolladas sean purapatología se acepta como una calamidad inevita-ble.

Como hemos visto en las secciones anterioresel mayor desafío que se aborda en la investigaciónen Inteligencia Artificial, en los últimos años, es lasimulación del "sentido común", algo que está di-rectamente relacionado con nuestra capacidad na-tural para comprender una situación. Esto es, derelacionarla con otras situaciones posibles y de sa-ber "que hacer" en tales casos. Los términos "mar-co" (frame) y "guión" (script) debidos respectiva-mente a Marvin Minsky y Roger Schank surgie-ron, como también hemos visto, de la necesidad debuscar conceptos y métodos adecuados para incor-porar estas ideas básicas a sistemas informáticos.

¿Pero como simular el sentido común cuandoeste ha desaparecido del horizonte? Hay valiosasherramientas, proveniente de la investigación teó-rica más avanzada en los últimos años que podríanser incorporadas a la investigación y la enseñanzade nuestras escuelas. Y se han llevado a cabo in-tentos notables en esta dirección. ¿Por qué no hantenido la menor repercusión?

En algunos casos la respuesta, como se ha suge-rido más arriba, está en una insuficienteprofundización de algunas nociones que están ínti-mamente ligadas al conocimiento de la arquitectu-ra como puede ser la importancia crucial de la no-ción de tipo.

Pero, en general, el obstáculo difícilmente su-perable está en la propia condición social de la prác-tica arquitectónica. En todo occidente se está evo-lucionando desde una concepción de la actividaddel arquitecto como una profesión, a la concepciónde esta actividad como un negocio. Y esto es algomás que una frase hecha. Durante la década de lossetenta, en Estados Unidos, se obligó a la AIA, trasuna dura pugna legal, a suprimir de su código deconducta determinadas reglamentaciones que seconsideraba suponían una violación de las leyes

antimonopolio.En 1987 la AIA aceptó la derrota y promulgó

una nueva versión en la que habían desaparecidoartículos tales como: a) Los referentes a la publici-dad del despacho o de sus integrantes o la publica-ción de artículos en revistas con comentarios elo-giosos sobre la propia obra; b) Los referentes a lacompetencia de honorarios; la aceptación de ho-norarios por debajo de los mínimos establecidospor la AIA; la aceptación de descuentos o rebajasde diversos tipos; c) Los referentes a la substitu-ción de un arquitecto por otro sin comprobar queeste último ha cobrado o en circunstancias pococlaras. Las consecuencias, reconocidas por la pro-pia asociación es que se comenzó a difuminar ladiferencia entre "profesión" y "negocio".

En enero de 1999 estuve en Cuba, invitado porla Universidad de Oriente, para impartir un cursode Postgrado. Durante las dos semanas que estuveen la isla visité varias instituciones y empresas re-lacionadas con la arquitectura para enterarme, enla medida de lo posible, como se entendía allí laprofesión de arquitecto. La situación general de estepaís es tan catastrófica que resulta difícil emitir cual-quier opinión sobre sistemas alternativos cuandola única alternativa es la supervivencia más elemen-tal. Sin embargo no deja de resultar sorprendentepara nuestros hábitos el comprobar que, al menossobre el papel, cabe una concepción completamentediferente de la actividad de los arquitectos cuyosvínculos con el sentido común no son desprecia-bles por más que la situación política general delpaís sí lo sea.

Puede decirse que en Cuba existen tres formasorganizadas de entender la actividad de los arqui-tectos. En primer lugar hay lo que allí se denominael arquitecto "de la comunidad" que podría ser algoasí como un médico de barrio. Su función es asistira quienes quieran hacer cualquier tipo de reformau obra de poca monta. La comparación con el mé-dico de barrio no es casual. Según me explicaronalgunos de los miembros de estas organizacioneses tanto o más importante saber algo de psicologíaque de arquitectura.

En segundo lugar está la posibilidad de integrar-se en una empresa en donde se trabaja en diferen-tes secciones, unas dirigidas por arquitectos, otraspor ingenieros especialistas en estructuras, otras poringenieros especialistas en instalaciones de diver-sos tipos, otras por economistas. Hay empresas de

Page 403: [Architecture eBook] Aplicaciones as en Arquitectura

Capítulo 14. Sobre el grado de "asistencia" en el diseño asistido por ordenador 411

diversos tamaños y con especialidades en diferen-tes tipos de edificios.

Y, por último, con carácter excepcional, hay ar-quitectos "de renombre" con despacho más o me-nos privado, a los que se les encarga ciertas obrasespeciales.

Es imposible opinar sobre la posible eficacia deun sistema de estas características. Y si se defiendecomo alternativa es fácil que nos acaben tachandode ingenuo o de defensor de un régimen dictato-rial. Lo cierto es que nada más lejos de mi inten-ción. Mi escasa simpatía por el régimen de FidelCastro descendió a niveles absolutamente mínimoscuando pude comprobar en directo la miseria a laque conduce el fanatismo. Y, sobre todo, cuandopude comprobar que los únicos libros que uno po-día tener la seguridad de comprar en cualquier li-brería eran los discursos de Fidel, las biografíasdel Che o los poemas de Jose Martí. Creo que cuan-do un régimen político niega a sus ciudadanos laposibilidad de escoger sus lecturas se ha negado asi mismo como alternativa política.

Pero la cuestión, crucial, es que nadie discuteesta u otras posibles alternativas de reestructura-ción de la profesión de arquitecto. Sencillamenteno se discute. Ni en las universidades, ni en las te-levisiones, ni en los periódicos ni en los libros. Serarquitecto es una forma de negocio que se rige porla ley de la oferta y la demanda, la competición y lasupervivencia del más apto. Bajo estas condicio-nes mi apuesta es: en otros 50 años las grandesempresas de arquitectura, que en todos los paisesde occidente controlan el mayor porcentaje de lafacturación en la industria de la construcción, ten-drán una nueva versión de Hal (el ordenador de2.001, odisea del espacio) como director de pro-yectos. Así que la respuesta a la pregunta que en-cabeza esta sección está dada. Espero que tambiénhaya contribuido a aclarar, en alguna medida, elsentido que puede tener esta respuesta y si merecela pena buscar una alternativa.