administracion de los sistemas de informacion laudon y laudon

115
1 CAPITULO I 1.1 ¿Por qué sist. de información? Hasta la década de los 80, los administradores no necesitaban saber mucho sobre cómo la información se obtenía, procesaba y distribuía en sus instituciones y la tecnología que se requería era mínima. Se consideraba que el proceso de administración era cara a cara, personal y no un proceso acelerado globalmente coordinado. Pero en la actualidad pocos administradores pueden darse el lujo de ignorar cómo se maneja la información en sus instituciones. El entorno económico competitivo de los 90 Dos muy poderosos cambios mundiales han alterado el entorno de los negocios: a. El surgimiento y reforzamiento de la economía global : un porcentaje cada vez mayor de las economías depende de las importaciones y de las exportaciones (comercio exterior); el éxito de las empresas en los 90 dependerá de su capacidad para operar de manera global b. La transformación de las economías y las sociedades industriales en economías de servicio basadas en el conocimiento y la información : la globalización de las economías industriales del mundo realza el valor de la información para la empresa y permite nuevas oportunidades para los negocios. Hoy día los sistemas de información proporcionan la comunicación y el poder de análisis que muchas empresas requieren para llevar a cabo el comercio y administrar los negocios a una escala global En una economía basada en el conocimiento y en la información, la tecnología y los sistemas de información adquieren gran importancia. ¿Qué es un sistema de información? Un sistema de información puede definirse como un conjunto de componentes interrelacionados que permiten capturar, procesar y almacenar datos, para luego distribuir información que apoye la toma de decisiones y el control en una institución. Además pueden ayudar a los administradores y al personal a analizar problemas, visualizar cuestiones complejas y crear nuevos productos. Tres actividades de un sistema de información producen la información que la institución requiere para la toma de decisiones, la coordinación y el control: 1. alimentación: es la captura o recolección de datos primarios dentro de la institución o de su entorno para procesarlos en un sistema de información. 2. Procesamiento: es la conversión del insumo en forma que sea más comprensible para los seres humanos. 3. Salida o producto: es la distribución de información procesada a las personas o en las actividades en donde será usada. Los sistemas de información también requieren de: 4. retroalimentación: que es el producto regresado a personas indicadas dentro de la institución para ayudarles a evaluar o a corregir la etapa de alimentación. Proveedores Clientes MEDIO AMBIENTE

Upload: aldo-hernan-zanabria-galvez

Post on 13-Jun-2015

3.762 views

Category:

Documents


13 download

TRANSCRIPT

1

CAPITULO I 1.1 ¿Por qué sist. de información? Hasta la década de los 80, los administradores no necesitaban saber mucho sobre cómo la información se obtenía, procesaba y distribuía en sus instituciones y la tecnología que se requería era mínima. Se consideraba que el proceso de administración era cara a cara, personal y no un proceso acelerado globalmente coordinado. Pero en la actualidad pocos administradores pueden darse el lujo de ignorar cómo se maneja la información en sus instituciones. El entorno económico competitivo de los 90 Dos muy poderosos cambios mundiales han alterado el entorno de los negocios: a. El surgimiento y reforzamiento de la economía global: un porcentaje cada vez mayor de las economías

depende de las importaciones y de las exportaciones (comercio exterior); el éxito de las empresas en los 90 dependerá de su capacidad para operar de manera global

b. La transformación de las economías y las sociedades industriales en economías de servicio basadas en el conocimiento y la información: la globalización de las economías industriales del mundo realza el valor de la información para la empresa y permite nuevas oportunidades para los negocios. Hoy día los sistemas de información proporcionan la comunicación y el poder de análisis que muchas empresas requieren para llevar a cabo el comercio y administrar los negocios a una escala global

En una economía basada en el conocimiento y en la información, la tecnología y los sistemas de información adquieren gran importancia. ¿Qué es un sistema de información? Un sistema de información puede definirse como un conjunto de componentes interrelacionados que permiten capturar, procesar y almacenar datos, para luego distribuir información que apoye la toma de decisiones y el control en una institución. Además pueden ayudar a los administradores y al personal a analizar problemas, visualizar cuestiones complejas y crear nuevos productos. Tres actividades de un sistema de información producen la información que la institución requiere para la toma de decisiones, la coordinación y el control: 1. alimentación: es la captura o recolección de datos primarios dentro de la institución o de su entorno

para procesarlos en un sistema de información. 2. Procesamiento: es la conversión del insumo en forma que sea más comprensible para los seres

humanos. 3. Salida o producto: es la distribución de información procesada a las personas o en las actividades en

donde será usada. Los sistemas de información también requieren de: 4. retroalimentación: que es el producto regresado a personas indicadas dentro de la institución para

ayudarles a evaluar o a corregir la etapa de alimentación. Proveedores Clientes MEDIO

AMBIENTE

2

Retroalimentación

Almacenam. o insumo

Procesamiento Clasificar Ordenar Calcular

Salida o Producto

INSTITUCIÓN

Estado

Com

petidores

Accionistas El interés de este libro está en los Sistemas de Información Basados en Computadora a nivel de institución (SIBC): SIBC: Sistemas de información que descansan en el hardware y software de computadora para el procesamiento y la distribución de información. Sistemas de información informales: (como las redes de chismes en la oficina) descansan, en contraste, en acuerdos implícitos y reglas no establecidas de comportamiento. No hay un acuerdo sobre lo que es información o cómo debe ser almacenada y procesada. Son esenciales para la vida de la institución pero su análisis queda fuera de esta obra. Sistemas de información formales: descansan sobre definiciones aceptadas y fijas de los datos y de los procedimientos para recolectarlos, almacenarlos, procesarlos, distribuirlos y emplearlos. Los sistemas formales presentados en esta obra son estructurados; esto es, operan mediante reglas predeterminadas que permanecen relativamente fijas y que no se pueden cambiar fácilmente. Los sistemas formales de información pueden ser basados en computadora o manuales. Los sistemas manuales emplean tecnología de papel y lápiz. Éstos sirven para necesidades muy importantes, pero también salen del tema del libro. Los sistemas de información basados en computadoras (SIBC) por el contrario, descansan en la tecnología del software y el hardware de las computadora para procesar y distribuir la información. De aquí en adelante, cuando se emplee el término sistemas de información, se referirá a los sistemas de información basados en las computadoras, sistemas formales en la institución que se apoyan en la tecnología de las computadoras. La diferencia entre las computadoras y los sistemas de información Las computadoras electrónicas y sus programas de software son los fundamentos técnicos, las herramientas y los materiales de los modernos sistemas de información. Las computadoras constituyen el equipo para almacenar y procesar la información. Los programas de computadora o software, son conjuntos de instrucciones operativas que dirigen y controlan el procesamiento mediante computadora. Saber cómo trabajan las computadoras y los programas de cómputo es importante para el diseño de soluciones a los problemas de la institución, pero la razón de emplearlas se deriva del sistema de información del que las computadoras sólo son una parte. Perspectiva de negocios en los sistemas de información Desde el punto de vista de negocios, un sistema de información es una solución de organización y administración basada en la tecnología de información a un reto que surge del medio ambiente. Los sistemas de información proporcionan la solución institucional más importante a los retos y problemas que surgen del medio ambiente de negocios. Para diseñar y usar sistemas de información de manera eficaz, primeramente es necesario entender el entorno, la estructura, la función y las políticas de las instituciones así como el papel de la administración y

3

la toma de decisiones de ésta. Luego es necesario examinar las capacidades y oportunidades que proporciona la tecnología de información actual para dar soluciones. Sistemas de información: son más que computadoras. El uso eficaz de los sistemas de información implica entender sobre organización, administración y la tecnología de la información que da forma a los sistemas. Todos los sistemas de información pueden describirse como soluciones institucionales de administración a los retos del entorno. Instituciones Los sistemas de información son parte de las instituciones. Los elementos claves de una institución son su personal, la estructura, los procedimientos de operación y su cultura. (Estos 4 elementos serán descritos en el cap.4). Las organizaciones formales están compuestas de diferentes niveles y especialidades. Sus estructuras reflejan una clara división del trabajo. Una institución coordina el trabajo mediante una jerarquía estructurada y procedimientos de operación de acuerdo a normas. La jerarquía ordena a las personas en una estructura piramidal con niveles ascendentes de autoridad y responsabilidad. Los niveles superiores de la jerarquía están formados por personal directivo, profesional y técnico mientras que en los niveles inferiores se tiene al personal operativo. Los procedimientos estándar de operación (PEO): son reglas definidas con precisión para realizar tareas desarrolladas para enfrentar situaciones esperadas; estas reglas guían al personal en una gran variedad de procedimientos. La mayor parte de los PEO se formalizan y quedan por escrito, pero otros constituyen prácticas informales de trabajo. Las instituciones requieren de muchos tipos de habilidades y de personas; además de los administradores: Trabajadores del conocimiento: personas como ingenieros o arquitectos que diseñan productos o servicios y crean conocimientos para la institución; Trabajadores de la información: personas tales como secretarias o contadores que procesan y distribuyen los documentos de la empresa; Trabajadores de producción o servicios: personas que en realidad producen los productos o servicios para la institución (ensambladores, empacadores, maquinistas). Toda institución tiene una cultura única, o conjunto fundamental de supuestos, valores y formas de hacer las cosas que han sido aceptados por la mayor parte de sus miembros; partes de la cultura de la organización pueden estar implícitas en sus sistemas de información. Los diferentes niveles y especialidades en una institución crean diferentes intereses y puntos de vista. Éstos a menudo entran en conflicto. El conflicto es la base de la política institucional. Los sistemas de información surgen de esta caldera de puntos de vista distintos, conflictos, compromisos y acuerdos que son cosa común en toda institución. Administración Los administradores perciben los retos de negocios en el entorno. Ven la estrategia de la institución para responder y asignan los recursos humanos y financieros para alcanzar su estrategia y coordinar el trabajo. En todo momento deben ejercer un liderazgo responsable; pero los administradores deben hacer más que administrar lo que ya tienen. También deben crear nuevos productos, servicios y además, de tiempo en tiempo, deben crear de nuevo la institución. La tecnología de la información puede jugar un papel poderoso al llevar a cabo la reingeniería de la institución. Es importante advertir que los roles y las decisiones varían a los diferentes niveles de la organización: Administradores de nivel superior o directivos: son responsables de las decisiones estratégicas a largo plazo sobre qué productos y servicios producir. Administradores de nivel medio o gerentes: llevan a cabo los programas de los directivos.

4

Administradores operativos o supervisores: son responsables del seguimiento de las actividades diarias de la institución. Cada nivel de administración tiene diferentes necesidades de información y diferentes requerimientos en el sistema. Tecnología La tecnología de los sistemas de información es una de las muchas herramientas de las que los administradores pueden disponer para enfrentar el cambio. De mayor importancia hoy día, la tecnología de información es el pegamento que mantiene unida a la información. Es el instrumento a través del cual la administración controla y crea. Los SIBC utilizan la tecnología de software, hardware, almacenamiento y telecomunicación. Hardware de computadora: es el equipo físico empleado para las actividades de alimentación, el procesamiento y la salida en un sistema de información. Consta de la unidad de procesamiento en la computadora, diversos dispositivos de alimentación, salida y almacenamiento y los elementos físicos que permiten enlazar a dichos elementos. Software de computadora: son las instrucciones detalladas, previamente programadas, que controlan y coordinan los componentes del hardware de computadora de un sistema de información. Tecnología de almacenamiento: incluye los medios físicos para el almacenamiento de la información, como los discos magnéticos o las cintas, y el software que rige la organización de los datos en estos medios físicos. Tecnología de telecomunicaciones: formada por los dispositivos lógicos y software que enlazan diversos componentes de hardware de computadora y que transfieren la información de un lugar a otro. Diferentes tipos de sistemas Como existen intereses, especialidades y niveles diferentes en una institución, existen también distintos tipos de sistemas. (ver fig. 1.4 pag. 14). La organización se divide en niveles estratégicos, de administración, de conocimientos y operativos y luego se divide en áreas funcionales como ventas y mercadotecnia, manufactura, finanzas, contabilidad y recursos humanos. Los sistemas se construyeron para servir a estos distintos intereses de la institución. Sistemas de nivel operativo: apoyan a los gerentes operativos al hacer el seguimiento de las actividades y transacciones elementales de la institución (como ventas, recepción de materiales, depósitos en efectivo, nóminas, decisiones de crédito y el flujo de materiales en la planta). El fin principal del sistema a este nivel es responder a las cuestiones de rutina y seguir el flujo de transacciones a lo largo de la institución. Sistemas de nivel de conocimiento: apoyan a los trabajadores del conocimiento y los de la información en una institución; pueden mejorar la productividad de los ingenieros y diseñadores. La finalidad de estos sistemas es ayudar a la empresa de negocios a integrar nuevos conocimientos para el negocio y para que la institución controle el flujo de la documentación. Estos sistemas constituyen las aplicaciones de mayor crecimiento en la actualidad en los negocios. Sistemas de nivel gerencial: se diseñan para las actividades de seguimiento, control, toma de decisiones y las actividades administrativas de los administradores de nivel medio. Estos sistemas comparan los resultados del trabajo del día con los del mes o año anterior. En general proporcionan reportes periódicos en vez de información instantánea de sobre las operaciones. Algunos sistemas de nivel gerencial dan soporte a decisiones no rutinarias. Tienden a enfocarse en decisiones menos estructuradas para las cuales los requerimientos de información no son siempre claros. Sistemas de nivel estratégico: ayudan a los niveles directivos a atacar y dirigir las cuestiones estratégicas y las tendencias a largo plazo dentro y en el entorno de la institución. Su interés principal es hacer frente a los cambios que ocurren en el entorno con las capacidades con las que se cuentan.

5

Los sistemas de información también pueden diferenciarse por funciones organizacionales. Las más importantes, como ventas y mercadotecnia, contabilidad, finanzas y recursos humanos, son apoyadas por sus propios sistemas de información. Fig. 1.4 pag. 14

Gerentes operativos

Trabajadores del conoc. y la información

Gerentes o adm. medios

Directores o administradores de nivel superior

Nivel operativo

Nivel de conocimiento

Nivel Estratégico

Nivel de administración

Grupo servido Tipos de sistemas de información

Recursos humanos

Contabilidad Finanzas Manufactura Ventas y mercadotecnia

El nuevo papel de los sistemas de información La naturaleza cambiante en la tecnología de la información Una de las razones por la que los sistemas juegan un papel importante en las instituciones, y por qué afectan a más personas, es el poder cada vez mayor y el costo decreciente de la tecnología de información: las computadoras y los periféricos que son el núcleo de los sistemas de información. Esta nueva capacidad de hardware hace que esté a la disposición de personas totalmente inexpertas software poderoso y amigable. El carácter cambiante en las aplicaciones La necesidad de planear la arquitectura de información en una institución ARQUITECTURA DE LA INFORMACIÓN de la institución, es el papel particular que la tecnología de la información juega en una institución para permitirle alcanzar sus metas u objetivos seleccionados. En la arquitectura de información se incluye qué tanto la información y la capacidad de procesamiento quedan centralizadas o distribuidas. 1.3 Enfoques contemporáneos sobre los sistemas de información

6

No lo leí Existen enfoques técnicos y conductuales para el estudio de los sistemas de información. Ambas perspectivas pueden combinarse en un enfoque sociotécnico de los sistemas. 1.4 El reto de los sistemas de información: cuestiones principales de administración No lo leí Existen 5 retos claves de tipo administrativo par construir e implantar sistemas de información:

1. Diseñar sistemas que sean competitivos y eficientes; 2. Entender los requerimientos del sistema dentro de un entorno global de negocios; 3. Crear una arquitectura de información que de soporte a las metas de la institución; 4. Determinar el valor en negocios del sistema; 5. Diseñar sistemas que las personas puedan controlar, entender y usar de una manera ética y

responsable.

7

UNIDAD II

2.1 Descripción de los sistemas: vocabulario y símbolos Racionalización de los procedimientos: modernización de los procedimientos normales de operación para maximizar las ventajas de computación y hacer más eficientes los sistemas de información. El almacenamiento en línea (normalmente un disco magnético u óptico) se refiere a información a la que la computadora y el usuario pueden acceder de inmediato. Procesamiento por lotes y en líneas En el procesamiento por lotes las operaciones como pedidos o tarjetas de control de asistencia para la nómina se acumulan o almacenan en grupo o lote, hasta el momento cuando, a causa de un ciclo para dar información, resulta eficiente o necesario procesarlas. Este era el único método de procesamiento hasta principios de los ´70 y se emplea en los sistemas más antiguos. En el procesamiento en línea que ahora es muy común, el usuario alimenta las operaciones a un dispositivo directamente conectado con un sistema de cómputo. En general las operaciones se procesan de inmediato. El tipo de procesamiento es determinado por el tipo de negocio. Los sistemas en lotes a menudo utilizan la cinta como medio de almacenamiento, mientras que los en línea emplean el almacenamiento en disco que permite el acceso inmediato a puntos específicos de información. En los sistemas por lotes, las operaciones se acumulan en un archivo de operaciones que contiene todas las operaciones para un lapso específico. De manera periódica este archivo se usa para actualizar un archivo maestro que contiene información permanente sobre estos temas. En el procesamiento en línea las operaciones se alimentan de inmediato al sistema. 2.2 Panorama general de los sistemas en las instituciones Ningún sistema por sí mismo proporciona toda la información que la institución requiere. Las instituciones cuentan con muchos sistemas de información que sirven a los diferentes niveles y funciones. Los sistemas de procesamiento de operaciones (SPO) dan servicio al nivel operativo de la institución, éste realiza y registra las operaciones diarias de rutina necesarias para la operación de la empresa. Las tareas, los recursos y las metas del nivel operativo de la institución están previamente definidos y altamente estructurados. Dos características son importantes en los SPO:

1. Los SPO ensanchan la frontera entre la institución y su entorno, enlazan a los clientes con el almacén de la empresa, de la fábrica y con la administración. Si no operan bien, la institución fracasa.

2. Son los principales generadores de información para otro tipo de sistema: como hacen el seguimiento de las operaciones con el medio ambiente son el único lugar donde los administradores obtienen evaluaciones inmediatas del funcionamiento de la institución.

Los sistemas del trabajo del conocimiento (STC) y sistemas de automatización en la oficina (SAO) sirven a las necesidades de información en los niveles de conocimiento en la institución. Los STC ayudan a los trabajadores del conocimiento y los SAO ayudan principalmente a los trabajadores de la información. Los SAO son aplicaciones de la tecnología de la información diseñadas para incrementar la productividad de los trabajadores de la información en la oficina clásica. Los sistemas de información para la administración (SIA) y los sistemas para soporte a decisiones o ejecutivo (SSD o SSE)sirven al nivel administrativo de la institución. Los primeros proporcionan a los administradores informes y en algunos casos acceso en línea a los registros ordinarios e históricos. Los SIA sirven principalmente a las funciones de planeación, control y toma de decisiones a nivel gerencial. Resumen información obtenida de los SPO y la presentan a los administradores en forma de resumen rutinario e informes de excepción.

8

Los SIA emplean modelos muy sencillos para presentar la información, son orientados casi exclusivamente a hechos internos y no del entorno o externos. Los administradores emplean SSD para ayudarse en la toma de decisiones semiestructuradas únicas o rápidamente cambiantes y que no pueden especificarse fácilmente con antelación, los SSD se diferencian de los SIA de diversas maneras: los SSD tienen capacidad de análisis más avanzadas que permiten que quien los usa emplee diversos modelos para analizar la información. Estos sistemas dependen de la información interna de los SPO y de los SIA, y con frecuencia se sirve de información suministrada por fuentes externas (como precios vigentes de futuros financieros, proporcionados por otra empresa). Los SSD tienden a ser más interactivos, pues facilitan a los usuarios acceso sencillo a la información y a los modelos analíticos a través de instrucciones amigables de computadora. Los sistemas de soporte gerencia (SSG) son empleados por los directivos para la toma de decisiones; sirven al nivel estratégico de la institución, dirigen las decisiones no estructuradas y crean un ambiente generalizado de computación y comunicación en vez de proporcionar alguna aplicación fija o capacidad específica; están diseñados para incorporar información sobre eventos externos, pero también obtienen información resumida de los SIA y SSD internos. Insumos de información Usuarios Nivel SSG Información agregada; interna y externa Directivos Estratégico SSE o SSD Poco volumen de información: modelos

analíticos Profesionales, gerentes de áreas no de línea Management

SIA Información resumida de operaciones; alto volumen de información; modelos sencillos

Gerentes Management

STC Especificaciones de diseño; base de conocimiento

Profesionales, personal técnico Conocimiento

SAO Documentos; programas Empleados Conocimiento SPO Transacciones; eventos Personal operativo; supervisores Operativo

2.3 Ejemplos de sistemas de información SPO En todas las instituciones existen 5 tipos de SPO, aún cuando los sistemas sean manuales, éstos son:

1. ventas/mercadotecnia 2. manufactura/producción 3. finanzas/contabilidad 4. recursos humanos 5. otros tipos (ej. Universidades)

ver cuadro pag. 47 STC y SAO La mayoría de las instituciones no ha desarrollado un sistema único a nivel de conocimientos o de automatización de oficina de tipo integral. Sin embargo, muchos pequeños elementos y piezas de aplicación avanzadas de conocimientos se tienen ya disponibles. Una de éstas es el diseño asistido por computadora (DAC). SIA Ayudan a los administradores al seguimiento del adecuado funcionamiento de la institución y predicen su futuro desempeño de manera de que puedan intervenir cuando las cosas no van bien. En general dependen para su información de los sistemas de procesamiento de operaciones subyacentes. El SIA sirve a los administradores interesados en los resultados semanales, mensuales y anuales; no para las actividades diarias. Se orienta hacia las cuestiones estructuradas que se conocen bien con antelación, que en general no son flexibles y tienen poca capacidad analítica. Características del SIA:

9

1. da soporte a las decisiones estructuradas y semiestructuradas a los niveles operativos y de control administrativos. Sin embargo, son también de utilidad para propósitos de planeación del personal directivo.

2. en general se orienta hacia los informes y el control. Están diseñados para informar sobre las operaciones existentes y, por lo tanto, ayudan a proporcionar el control diario de las operaciones.

3. dependen de los datos existentes de la empresa y en los flujos de información. 4. tienen poca capacidad analítica. 5. ayudan a la toma de decisiones valiéndose de la información presente y la del pasado. 6. son relativamente inflexibles. 7. están orientados hacia el interior y no hacia el exterior. 8. las necesidades de información se conocen y son estables. 9. requieren de un largo proceso de análisis y diseño (del orden de 1 a 2 años)

SSD Los SSD son de acción instantánea, interactivos, orientados hacia modelos y hacia la acción. Tienen que dar la suficiente respuesta como para correr varias veces al día, para corresponder con las condiciones cambiantes; son usados por los administradores y por un gran ejército de trabajadores del conocimiento, analistas y profesionales cuya primera obligación es manejar la información y tomar decisiones. En estos sistemas se incluye de manera explícita un software amigable, y son interactivos: el usuario puede cambiar las suposiciones e introducir nuevos datos. Características de los SSD:

1. ofrecen flexibilidad, adaptabilidad y una respuesta rápida. 2. Permiten que los usuarios inicien y controlen el insumo y el producto. 3. Operan con muy poca o ninguna asistencia de programadores profesionales. 4. Proporcionan soporte a decisiones y soluciones para problemas cuyas soluciones no pueden

anticiparse por adelantado. 5. Emplean herramientas sofisticadas de análisis y modelaje.

SSG Están diseñados para la alta dirección que tiene, si es que lo tiene, poco contacto con los sistemas de información de base computacional. Los SSG combinan la información de diversas fuentes externas e internas. Filtran, comprimen y rastrean información crítica, destacan do la reducción de tiempo y esfuerzo que se requiere para obtener información útil a los ejecutivos. Características de los SSG:

1. ofrecen flexibilidad, adaptabilidad y una respuesta rápida. 2. permiten que los usuarios inicien y controlen el insumo y el producto. 3. operan con muy poca o ninguna asistencia de programadores profesionales. 4. proporcionan soporte a decisiones y soluciones para problemas cuyas soluciones no pueden

anticiparse por adelantado. 5. emplean herramientas sofisticadas de análisis y modelaje.

10

UNIDAD III 3.1 La información como recurso estratégico En las últimas décadas se ha dado una revolución en la manera en que las instituciones tratan a la información y a los sistemas de información. En la actualidad, las instituciones emplean la información y los sistemas de información como herramientas para llevar la delantera a sus competidores. Las instituciones han constituido una categoría especial de sistemas de información llamadas sistemas estratégicos de información para este fin. ¿Qué es un sistema estratégico de información? Son sistemas computacionales a cualquier nivel en la institución que cambian las metas, operaciones, servicios, productos o relaciones con el entorno para ayudar a la institución a obtener una ventaja sobre la competencia. Los sistemas estratégicos de información a menudo cambian a la institución así como a los productos, servicios y procedimientos internos, llevándola a nuevos patrones de comportamiento. Cambio de concepción de la información y los sistemas de información PERÍODO CONCEPCIÓN DE LA INFO SIST. DE INFO FINALIDAD 1950-1960 Info como un Dragón de Papel

Requerimiento burocrático necesario y perverso.

Máquinas electrónicas de contabilidad MEC

Velocidad en la contabilidad y en el procesamiento de documentos.

1960-1970 Info para un soporte global Apoyo a propósitos generales.

Sist. de información para la Administración (SIA).

Velocidad a los requerimientos generales de información a ser presentada.

1970-1980 Info para la Administración Control administrativo a las necesidades del usuario

Sist. de soporte a decisiones (SSD) y Sist. de soporte gerencial (SSG)

Acelerar y mejorar el proceso de toma de decisiones de ciertos ejecutivos.

1980-2000 Info como recurso estratégico Ventaja competitiva; arma estratégica

Sistemas estratégicos Promover la sobrevivencia y prosperidad de la institución

Los sistemas estratégicos de información deben diferenciarse de los sistemas a nivel estratégico para los directivos que se enfocan en problemas de toma de decisiones a largo plazo. Los sistemas estratégicos de información pueden ser usados por todos los niveles de la institución y son de mayor alcance. 3.2 Cómo los sistemas de información pueden emplearse para obtener ventajas competitivas Los sistemas estratégicos de información pueden ayudar a las empresas a superar la competencia de diversas maneras. Por ejemplo a desarrollar nuevos productos y servicios, apuntar a diversos nichos de mercado, evitar que los clientes y proveedores cambien a la competencia y proporcionar productos y servicios a costos menores que los competidores. Para identificar dónde los sistemas de información pueden proporcionar la ventaja competitiva es necesario entender primero la relación la empresa con su entorno. Las fuerzas de la competencia y los modelos de cadena de valor Dos modelos de empresa y su entorno han sido utilizados para identificar áreas en donde los sistemas de información puedan proporcionar ventajas sobre la competencia. Éstos son el modelo de la cadena de valor y el modelo de las fuerzas competitivas. Modelo de las fuerzas competitivas:

11

Porter, 1980. La ventaja competitiva puede alcanzarse al estimular la capacidad de la empresa de tratar con clientes, proveedores, productos y servicios sustitutos y nuevos concurrentes a su mercado. Las empresas pueden usar cuatro estrategias competitivas básicas para lidiar con estas fuerzas de la competencia:

diferenciación de producto: consiste en crear lealtad a la marca al crear nuevos productos y servicios que puedan ser distinguidos de los de la competencia y que los competidores existentes no puedan duplicar.

Diferenciación orientada: consiste en desarrollar nuevos nichos de mercado en donde una empresa pueda competir en el área objeto mejor que sus competidores.

Desarrollar ligas estrechas con competidores y proveedores: las empresas pueden crear ligas con clientes y proveedores que “aten” a los clientes a los productos de la empresa a los proveedores a un calendario de entregas y a una estructura de precios diseñada por la empresa compradora. Esto hace surgir costos de cambio (el costo para que los clientes cambien a los productos y servicios de la competencia) y disminuye el poder de negociación de los clientes y los proveedores.

Transformarse en productor de bajos costos: para evitar que nuevos competidores entren en sus mercados, las empresas pueden producir bienes y servicios a un precio menor que sus competidores sin sacrificar la calidad y el nivel del servicio.

Una empresa puede alcanzar una ventaja competitiva al seguir una de estas estrategias o varias de manera simultánea. Modelo de la cadena de valor: Porter, 1985. Destaca las actividades específicas de la empresa en donde las estrategias competitivas pueden ser mejor aplicadas y donde casi seguro que los sistemas de información tengan un impacto estratégico. Este modelo contempla a la empresa como una serie o “cadena” de actividades básicas que añaden un margen de valor a los productos o servicios de la empresa. Estas actividades pueden clasificarse en primarias y de apoyo. Las actividades primarias¸ están principalmente relacionadas con la producción y la distribución de productos y servicios de la empresa que crean valor para el cliente. Entre éstas se incluyen: la logística interna: incluye la recepción y almacenamiento de materiales para su distribución a producción; la logística externa: implica el almacenamiento y distribución de los productos; las operaciones: transforman los insumos en productos terminados; las ventas y mercadotecnia: incluye la promoción y venta de los productos de la empresa; la actividad de servicios; incluye el mantenimiento y reparación de los productos y servicios de la empresa. Las actividades de apoyo hacen posible la concurrencia de las actividades primarias y consisten en la infraestructura de la institución: Administración y dirección: Recursos humanos: reclutamiento, contratación y capacitación de personal Tecnología: mejora de productos y procesos de producción Abastecimiento: adquisición de insumos. Las instituciones tienen una ventaja competitiva cuando proporcionan mayor valor a sus clientes y a menor precio. Un sistema de información podría tener un impacto estratégico si ayudara a la empresa a dar productos o servicios a menor costo que los competidores o darlos al mismo costo pero con mayor valor. Las actividades que dan el mayor valor a los productos o servicios dependen de las características de cada empresa en particular. Las empresas deberían tratar de desarrollar sistemas estratégicos de información para las actividades de valor que añaden el mayor valor a su empresa en particular. Ejemplo: una empresa puede ahorrar dinero en las actividades de logística interna haciendo que los proveedores hagan a la fábrica entregas diarias de productos, abatiendo por tanto los costos de almacenamiento e inventarios. Productos y servicios de los sistemas de información Las instituciones financieras han sido las pioneras en el uso de los sistemas de información para crear nuevos productos y servicios. Citibank desarrolló los cajeros automáticos (CA) y las tarjetas de débito bancario en 1977; los CA tuvieron tanto éxito que sus competidores, grandes o pequeños, se vieron obligados a contraatacar con un gran esfuerzo tecnológico.

12

Esto es un ejemplo que muestra el desarrollo y uso de los sistemas de información para crear nuevos productos de consumo. Sistemas para enfocarse al nicho de mercado Un sistema de información puede proporcionar a las empresas una ventaja competitiva al producir ésta para mejorar sus técnicas de ventas y mercadotecnia. Tales sistemas tratan a la información como un recurso que puede ser “explotado” por la institución para incrementar la rentabilidad y la penetración en el mercado. Enlaces con clientes y proveedores Ejemplo de Baxter: terminales enlazadas a las propias computadoras de Baxter están instaladas en hospitales. Cuando éstos quieren colocar algún pedido, sencillamente emplean una terminal de computadora local de Baxter para ordenar de todo el catálogo de existencias de Baxter. El sistema genera información de embarques, remisiones, facturas e inventarios, y las terminales en los hospitales proporcionan a los clientes una fecha de entrega estimada. Con más de 80 centros de distribución en los EEUU, Baxter puede hacer entregas diarias de sus productos, con frecuencia horas después de recibir el pedido. Este sistema es semejante a los de entregas justo a tiempo desarrollados en Japón, para abatir el costo de inventarios, el espacio de almacenamiento y el tiempo de fabricación. Mientras el inventario justo a tiempo permite que los clientes reduzcan sus inventarios, el inventario sin existencias permite que los eliminen por completo. Todas las responsabilidades de los inventarios pasan al distribuidor, que maneja el flujo de existencias. El inventario sin existencias es un instrumento poderoso para unirse con los clientes, y dan al proveedor una ventaja competitiva. Sistemas interinstitucionales y mercados electrónicos Sistemas interinstitucionales: son los sistemas que enlazan a una empresa con sus clientes, distribuidores o proveedores, porque automatizan el flujo de información a través de las fronteras de las instituciones. Los sistemas interinstitucionales pueden estrechar los lazos con los clientes o los proveedores, abatir costos e incrementar la diferenciación de productos. Los sistemas interinstitucionales que proporcionan servicios a diferentes instituciones al integrar muchos vendedores y compradores crean un mercado electrónico. Mediante computadoras y telecomunicaciones, estos sistemas funcionan como intermediarios electrónicos. Los mercados electrónicos están en crecimiento porque las tecnologías de cómputo y de comunicaciones pueden abatir los costos de las típicas operaciones de mercados, como la selección de proveedores, establecimiento de precios, pedidos de bienes y pago de facturas. Sistemas para abatir costos Los sistemas estratégicos antes descriptos modifican las relaciones estratégicas entre una institución y sus mercados, clientes y proveedores. Otros sistemas de información estratégicamente orientados facilitan las operaciones internas, el control administrativo, la planeación y el personal. Estos sistemas son estratégicos porque ayudan a las empresas a abatir de manera significativa sus costos internos, permitiéndoles dar productos y servicios a menores precios que los de sus competidores. Al abatir los costos de operación, incrementar las utilidades y hacer que las empresas sean más eficientes, tales sistemas contribuyen a la sobrevivencia y prosperidad de la empresa. 3.3 Implicaciones para los administradores y las instituciones Contrarrestando la fuerza de la competencia Las empresas pueden usar sistemas estratégicos de información para manejar las diversas fuerzas de la competencia. Cuando las empresas emplean sistemas de información para proporcionar productos o servicios que no pueden ser fácilmente duplicables o que sirven a mercados altamente especializados, pueden hacer que suban los costos de entrada al mercado para los competidores. Los sistemas de información pueden contrarrestar las fuerzas de la competencia al “encerrar” a los clientes y proveedores. Estos sistemas pueden hacer que los costos de cambiar de un producto a otro resulten prohibitivos para los clientes.

13

Los sistemas estratégicos contrarrestan las fuerzas de la competencia al cambiar rápidamente la base de competencia. Los sistemas estratégicos de información pueden llevar a un fabricante a una posición incapturable como el productor de menor costo y más alta calidad del sector. O pueden crear nuevos productos o servicios para diferenciarse de los competidores de manera que la empresa no tenga ya que competir sobre la base del costo. En general, los sistemas estratégicos de información proporcionan ventajas de mercado significativas (aunque por lo común temporales) principalmente incrementando los costos de entrada de los competidores. El apalancamiento de la tecnología en la cadena de valor Ahora, como las operaciones de una institución han llegado a depender fuertemente de los sistemas de información, y a medida que estos sistemas penetran en la institución, los incrementos de productividad en el procesamiento de la información pueden tener impactos dramáticos en la productividad global de la corporación. Este efecto de apalancamiento es importante al considerar las recomendaciones para la administración. El modelo de la cadena del valor puede complementar al modelo de las fuerzas de la competencia al identificar puntos críticos de apalancamiento en donde las empresas pueden emplear la tecnología de la información de manera más eficiente par aumentar su posición competitiva. Alianzas estratégicas y sociedades de información Cada vez más las empresas emplean sistemas de información para obtener ventajas estratégicas al entrar en alianzas con otras empresas donde ambas operan al compartir recursos o servicios. Tales alianzas son, con frecuencia, las sociedades de información, en donde dos o más empresas comparten su información para obtener ventajas mutuas. Pueden unir sus fuerzas sin fusionarse. Tales sociedades ayudan a las empresas en su acceso hacia nuevos clientes, creando nuevas oportunidades para hacer ventas cruzadas en la orientación de los productos. Administración de las transiciones estratégicas La adopción de los tipos de sistemas presentados, en general implica cambios en las metas de negocios, las relaciones con los clientes y proveedores, las operaciones internas y en la arquitectura de la información. Tales cambios sociotécnicos, que afectan a los elementos sociales y tecnológicos de la institución, pueden considerarse como transacciones estratégicas, o sea, un movimiento entre los niveles de los sistemas sociotécnicos. Tales cambios a menudo implican el hacer difusas las fronteras de la institución, esto es especialmente en los sistemas estratégicos cuya base está en las telecomunicaciones. Qué es lo que los administradores pueden hacer Los administradores deben determinar cómo puede la institución construir sistemas de información de importancia estratégica. Los sistemas de información son demasiado importantes para dejarlos en manos de un pequeño grupo dentro de la corporación. Los directivos deben buscar las oportunidades para desarrollarlos. Estudios de sistemas estratégicos exitosos han encontrado que éstos raramente se planean sino que evolucionan lentamente durante largos períodos de tiempo, y casi siempre se originan de problemas operativos de tipo práctico; los sistemas estratégicos, como todos los nuevos productos, surgen al observar de cerca situaciones reales que ocurren en le mundo de los negocios. Retos de administración

1. Capacidad de conservar la ventaja competitiva: la ventaja estratégica no siempre se puede sostener. Las condiciones del mercado cambian, el medio ambiente económico y de los negocios cambia, la tecnología y las expectativas de los clientes cambian. Los sistemas que originalmente se diseñaron como estratégicos con frecuencia llegan a ser las herramientas de sobrevivencia.

2. barreras institucionales para las transiciones estratégicas: uno de los obstáculos mayores para las transiciones estratégicas puede ser la resistencia misma al cambio; para tener éxito, las transiciones estratégicas requieren de cambios en la cultura organizacional.

14

UNIDAD IV 4.1 La relación entre las instituciones y los sistemas de información Las cuestiones que hacen surgir los sistemas de información contemporáneos (eficiencia, creatividad, burocracia, empleo, calidad de la vida de trabajo) son cuestiones de largo alcance en la sociedad industrial y son anteriores a las computadoras. Los avances en los sistemas de información han incrementado el interés por estas cuestiones porque muchos conocidos escritores afirman que la tecnología de los sistemas de información puede transformar radicalmente a las instituciones en máquinas pequeñas y ligeras. La relación entre la tecnología de información y las instituciones es compleja, y las interpretaciones de estas relaciones son controvertidas. El objetivo de este capítulo es presentar una visión global y la investigación actual de manera que se puedan comprender las cuestiones y participar del debate. La relación unívoca Los sistemas de información y las instituciones ejercen entre sí una influencia mutua. Los sistemas de información afectan a las instituciones y éstas necesariamente afectan al diseño de los sistemas. Existe un gran conjunto de factores de mediación que influyen en la interacción entre la tecnología de la información y las instituciones. Entre éstos se tiene la estructura organizacional, los procedimientos normales de operación, las políticas, la cultura, el entorno y las decisiones administrativas. Como existen muchas clases de instituciones, resulta que la tecnología de los sistemas de información tendrá un impacto diferente en los distintos tipos de instituciones. No existe un efecto individual de las computadoras.; no es posible, por ejemplo concluir que las “computadoras” aplanan los niveles de jerarquía en las instituciones. ¿Qué es una institución?

Visión técnica y macroeconómica Una institución es una estructura social estable y formal que toma los recursos del medio ambiente y los procesa para la obtención de productos. Esta definición se enfoca en tres elementos de la institución: el capital y el trabajo son los factores primarios de la producción que son proporcio0ados por el medio ambiente. La institución transforma estos insumos en productos y servicios mediante una función de producción; los productos y servicios son a su vez consumidos por los entornos a cambio de los insumos. Las instituciones son formales por ser entidades legalmente constituidas y deben apegarse a las leyes. Tienen reglas y procedimientos internos; son estructuras sociales porque son un conjunto de elementos sociales. Las instituciones procesan y emplean información con objeto de producir productos para el medio ambiente.

Visión conductual de la empresa Las instituciones son conjuntos de derechos, privilegios, obligaciones y responsabilidades que conservan un equilibrio delicado a lo largo del tiempo mediante el conflicto y la resolución de éste. ¿Cómo se relacionan estas definiciones sobre las instituciones con la tecnología de los sistemas de información? La primera definición nos lleva a pensar que la introducción de nuevas tecnologías cambia la manera como se combinan los insumos para formar los productos, como el cambio de las bujías de un motor; la empresa puede considerarse como infinitamente maleable. Pero la definición conductual más realista de una institución sugiere que las construcciones de nuevos sistemas de información o reconstrucción de los antiguos implica mucho más que un ajuste técnico de máquinas y trabajadores. En vez de ello, el cambio tecnológico requiere de cambios respecto a quién es el dueño y quien controla la información, quién tiene derecho de acceder y actualizarla y quién toma las decisiones sobre quién, cuándo y cómo. Las definiciones técnica y conductual de las instituciones no son contradictorias; de hecho, se complementan. La definición microeconómica nos dice cómo miles de empresas combinan capital, trabajo y tecnología de información, mientras que el modelo conductual nos lleva dentro de la empresa individual

15

para ver cómo, de hecho, empresas específicas emplean el trabajo y el capital para la obtención de sus productos. Los sistemas de informaciones pueden alterar definitivamente la vida dentro de las instituciones. Algunos de estos sistemas cambian el equilibrio de la empresa en lo referente a los derechos privilegios, obligaciones, responsabilidades y sentimiento que pudieran haberse establecido a lo largo de un gran período de tiempo. 4.2 Características sobresalientes de las instituciones En esta sección se presentan las principales características de las instituciones que los administradores deben conocer al construir sistemas de información. Estas características organizacionales son los factores de mediación que influyen en la relación entre las instituciones y la tecnología de la información. Características comunes de las instituciones Con respecto a ciertos aspectos, todas las instituciones modernas se parecen porque comparten los siguientes atributos:

1. clara división del trabajo y especialización 2. jerarquía de autoridad 3. reglas y procedimientos (PEO) explícitos 4. toma de decisiones universal 5. calificaciones técnicas para los puestos 6. eficiencia máxima de tipo organizacional

Max Weber fue el primero en describir estas características ideales típicas de las instituciones; las llamó burocracias y dice que prevalecen porque son las formas más eficientes de organización. Procedimientos estándar (o normales) de operación: todas las instituciones, con el tiempo, se estabilizan para producir un cierto número de productos o servicios. En periodos grandes, las instituciones que sobreviven se hacen muy eficientes; en este período, el personal desarrolla reglas, procedimientos y prácticas razonablemente precisas llamadas procedimiento estándar de operación (PEO) para enfrentar todas las situaciones virtualmente esperadas. Algunas de estas reglas y procedimientos se ponen por escrito como procedimientos formales, pero la mayoría son reglas prácticas para ser seguidas en determinadas situaciones. Mucha de la eficiencia que alcanzan las instituciones modernas tiene poco que ver con las computadoras, pero mucho con el desarrollo de los procedimientos estándar de operación. Cualquier cambio en los PEO requiere de un gran esfuerzo organizacional. Políticas institucionales: las instituciones están ordenadas de manera que las personas ocupen diferentes posiciones. Como las personas tienen distintos intereses y especialidades, tienen diferencias naturales en cuanto a puntos de vista, perspectivas y opiniones sobre cómo los recursos, premios y castigos deben distribuirse. A causa de estas diferencias, en toda institución se producen conflictos políticos, rivalidades y dificultades; la política es una parte normal de la vida institucional. Las personas usan la política para obtener todo lo que significa un puesto. Una de las grandes dificultades de lograr el cambio en las instituciones, en especial el que se refiere al desarrollo de nuevos sistemas de información, es la resistencia política a cualquier cambio organizacional importante que pueda ocurrir. Cultura organizacional: es el conjunto de supuestos fundamentales sobré qué es lo que la institución debe producir, cómo obtener dichos productos, dónde y para quién. Todo lo demás, tecnología, normas, valores, declaraciones en público, etc. debe apegarse a estos supuestos. La cultura organizacional es un poderosa fuerza unificadora, que limita el conflicto político y promueve la comprensión mutua. Al mismo tiempo es un poderoso freno al cambio, en especial al de carácter tecnológico. En general, las culturas organizacionales son mucho más poderosas que las tecnologías de información. Por qué las instituciones son tan distintas entres sí: características únicas Las instituciones tienen distintas estructuras, metas, actas constitutivas, estilos de liderazgo, tareas y entornos.

16

DIFERENTES TIPOS DE INSTITUCIONES Una diferencia importante entre las instituciones es su estructura o conformación; las diferencias entre las estructuras organizacionales se caracterizan de muchas maneras. Mintzberg identifica cinco tipos principales de instituciones: 1. Estructura de emprendedores: instituciones con estructuras muy sencillas. En general son jóvenes y

pequeñas, empresas emprendedoras en entornos muy cambiantes, dominadas por un inversionista y administradas por un administrador único. Por lo común, los sistemas de información están pobremente planeados.

2. Máquina burocrática: la grande y clásica burocracia se da en entornos poco cambiantes, produciendo sólo productos estándar. Está dominada por una dirección estratégica que centraliza el flujo de información y autoridad de decisión. Puede quedar organizada en divisiones funcionales, por ej. manufacturas, finanzas, mercadotecnia y recursos humanos. Los sistemas de información tienden a ser de base macrocomputacional.

3. Burocracia divisionalizada: es una combinación de muchas máquinas burocráticas, cada una de las cuales produce un producto o servicio distinto, en general dirigida desde una matriz. Este tipo de organización es conveniente para los medios ambientes de cambios lentos y productos estandarizados, pero como estas instituciones son divisionalizadas, tienden a operar en diversos entornos (uno por cada división o línea de productos). Los sistemas de información son habitualmente elaborados y complejos, de manera que pueden dar apoyo, por una parte, a la planeación financiera realizada en la matriz y a sus requerimientos de informes, y por otra, a las necesidades operativas de las divisiones. En general, hay una gran cantidad de tensión y conflictos entre los grupos de SI en la matriz (que desean crecer en nombre de la eficiencia y del control de costos) y los grupos de SI de las divisiones (que desean crecer en el nombre de un servicio más eficaz a las operaciones). Los grupos de SI de las divisiones suelen tener papeles más importantes, mientras que los grupos de SI en la matriz se contraen.

4. Burocracia profesional: es la estructura típica de los despachos de abogados, de los sistemas escolares, los despachos de los contadores y otras instituciones basadas en el conocimiento que dependen del conocimiento y sapiencia de los profesionales. Este tipo de organización es adecuado para medios ambientes y conjuntos de capacidades que cambian lentamente. Son dominadas por jefes de departamentos y tienen una autoridad central débil. Los miembros profesionales de la institución que tienen considerable información y autoridad son los que crean el producto o servicio. Tales instituciones tienen en general sistemas primitivos centralizados de información, contabilización del tiempo y facturación por los servicios profesionales.

5. Adhocracia: esta forma de organización en “fuerzas de tarea” se encuentra normalmente en instituciones de investigación y de alta tecnología que deben responder a medios ambientes y mercados de cambios rápidos o que obtienen sus ingresos de contratos gubernamentales. Tales instituciones son más innovadoras que las máquinas burocráticas, más flexibles que las burocracias profesionales y tienen un poder más soportado y efectivo que la sencilla empresa emprendedora. Se caracterizan por grandes grupos de especialistas organizados en fuerzas de tarea multidisciplinarias y de corta vida que se enfocan hacia los nuevos productos, y una administración central débil. A nivel central, los sistemas de información tienen un desarrollo pobre, pero en general son muy avanzados a nivel de las fuerzas de tarea en donde los expertos construyen sus sistemas que son únicos para funciones muy estrechas.

MEDIOS AMBIENTES Las instituciones tienen diversos medios ambientes y éstos ejercen una poderosa influencia en la estructura organizacional. En general, las instituciones en entornos muy cambiantes se parecen más a las adhocracias: son menos jerarquizadas, con mucha autoridad delegada a los subordinados. Las instituciones en entornos más estables tienden hacia las máquinas burocráticas. La mayoría de las personas no se dan cuenta de qué tan frágiles y de corta vida son en realidad las instituciones formales. Las principales razones para el fracaso de las instituciones son la incapacidad para adaptarse a entornos rápidamente cambiantes y la falta de recursos para soportar aun períodos cortos de

17

vicisitudes o la incapacidad de la administración para ajustar su cultura interna, sus políticas, y su estructura organizacional. En general, la mayoría de las instituciones no se adapta bien a los grandes cambios ambientales. Desde el punto de vista institucional, la tecnología es un factor ambiental primordial que continuamente amenaza el orden establecido. OTRAS DIFERENCIAS ENTRE INSTITUCIONES Las instituciones difieren en cuanto a sus objetivos últimos y los tipos de poder empleado. Las instituciones sirven a diferentes grupos o tienen distintos constituyentes. Algunas benefician primero a sus miembros, otras a los clientes accionistas o al público. Los roles sociales de las instituciones difieren. Algunas se interesan principalmente en política, mientras que otras juegan roles principalmente económicos. De manera clara, la naturaleza del liderazgo difiere n gran forma de una institución a otra, aun entre instituciones parecidas dedicadas a perseguir las mismas metas. Algunos de los principales estilos de liderazgo son el democrático, el autoritario, el liberal (en donde el liderazgo es ausente), el tecnocrático (de acuerdo con criterios técnicos o modelos formales) o el burocrático (que aún se apega a reglas formales). Estos tipos de liderazgo pueden darse en cualquier institución y parecen depender del azar y de la historia. También, otra característica en que difieren las instituciones está en las tareas que llevan a cabo y la tecnología que emplean. En algunos casos realizan tareas rutinarias que pueden programarse (en general son las máquinas burocrática: jerarquizadas y operan de acuerdo a los procedimientos establecidos); en otros casos, las instituciones operan conforme a tareas de gran criterio, no rutinarias. A causa de las grandes diferencias entre las instituciones, probablemente sea un error concluir que los sistemas de información tendrán ciertos impactos específicos sobre todas las instituciones. Niveles de análisis En base a las características antes expuestas, se puede establecer una comparación interinstitucional. Pero dentro de las instituciones, existen distintos niveles, ocupaciones, divisiones y grupos. En todas las instituciones existen niveles, pero cada institución es distinta de las otras en términos de lo que son los niveles. El impacto de los sistemas de información probablemente es distinto para los diferentes niveles y grupos dentro de una institución. A los niveles de organización individual y de grupo pequeño, los sistemas de organización se apegan a una tarea, puesto o proyecto individual. A los niveles departamental o divisional, los sistemas de información tienen que ver con una función, un producto o servicio particular de la empresa. A los niveles institucionales, interinstitucionales y de redes de instituciones, los sistemas de información dan soporte a productos, servicios y objetivos múltiples y facilitan las alianzas y la coordinación entre dos distintas instituciones o grupos de éstas.

Características comunes Características únicas Estructuras formales Tipos de organización Procedimientos de operación (PO) Medios Políticas Metas cultura Poder Socios Función Liderazgo Tareas Tecnología Niveles 4.3 Cómo afectan las instituciones a los sistemas de información Las instituciones tienen un impacto en los sistemas de información debido a las decisiones tomadas por los administradores y los empleados.

18

Decisiones sobre el papel que desempeñan los sistemas de información Las instituciones tienen un impacto directo sobre la tecnología de la información al tomar decisiones sobre cómo será empleada y qué papel desempeñará en la institución. Decisiones sobre el paquete de cómputo: ¿quién proporciona los servicios de tecnología de información? Una segunda manera en que las instituciones afectan a la tecnología de la información es en las decisiones sobre quién ha de diseñar, construir y operar la tecnología dentro de la institución. Los administradores y las instituciones en general toman las decisiones claves sobre el paquete de cómputo. Estas decisiones determinan cómo los servicios de tecnología han de ser dados, por quién y cuándo. El paquete de cómputo se compone de tres elementos distintos. El primero es una unidad formal de la institución, o la función llamada departamento de sistemas de información. La segunda consiste en los especialistas de sistemas de información, que pueden ser tanto internos como externos. Un tercer elemento del paquete de sistemas de información es la tecnología en sí, el hardware y el software. En los primeros años de las computadoras, cuando el papel de los sistemas de información era limitado, el grupo de sistemas de información se componía principalmente de programadores, especialistas altamente entrenados que elaboraban las instrucciones de software para la computadora. En la actualidad, en la mayoría de los grupos de sistemas de información, una proporción creciente de los miembros de este personal son analistas de sistemas, cuya labor es traducir os problemas de negocios y sus requerimientos en requerimientos de información y sistemas. Los gerentes de sistemas de información son los jefes de los equipos de programadores y analistas. Los usuarios finales son los representantes de los departamentos fuera del grupo de sistemas de información para quienes se desarrollan las aplicaciones. Decisiones sobre por qué se construyen los sistemas de información Las instituciones adoptan los sistemas de información para ser más eficientes, para ahorrar dinero y disminuir la fuerza de trabajo. En la actualidad, los sistemas son construidos con la idea de eficiencia implícita, pero han alcanzado una importancia vital sencillamente porque permiten permanecer activos en los negocios. 4.4 Cómo afectan los sistemas de información a las instituciones Algunos investigadores basan su trabajo en la economía, mientras que otros toman un enfoque conductual. Teorías económicas

Teoría microeconómica: ME CANSÉ DE LEER

19

UNIDAD VI

6.1 ¿Qué es un sistema de cómputo? Configuración de sistemas Un sistema contemporáneo de cómputo puede dividirse en 5 partes principales:

1. El procesador central contiene componentes que manejan la información virgen para ponerla de manera más útil y controla las otras partes del sistema de cómputo;

2. El almacenamiento o memoria secundaria (discos magnéticos y ópticos, cintas) alimentan los datos y los programas en el procesador central y guarda los datos para su uso posterior;

3. los dispositivos de entrada convierten datos e instrucciones a una forma electrónica para su procesamiento en la computadora;

4. los dispositivos de salida transforman los datos electrónicos producidos por el sistema de cómputo y presentan los datos de manera que las personas los entiendan;

5. los dispositivos de comunicación controlan el paso de la información entre el procesador central, los dispositivos de entrada y salida y los usuarios finales

Bits y bytes: cómo se presenta la información en las computadoras Para que la información fluya a través de un sistema de cómputo y tome la forma adecuada para ser procesada, todos los símbolos, imágenes o palabras deben ser reducidos a una cadena de dígitos binarios. Un dígito binario se llama bit y representa un cero o un uno. En la computadora, la presencia de un símbolo magnético o electrónico significa un uno y su ausencia un cero. Las computadoras digitales operan directamente con dígitos binarios, ya sea aisladamente o encadenados para formar bytes. Una cadena de ocho bits se llama byte. Cada byte puede ser usado para representar un número decimal, un símbolo o una parte de una imagen. Bit: un dígito binario que representa la unidad de información más pequeña en un sistema de cómputo. Puede tener sólo dos estados, representados por 0 o 1. Byte: una cadena de bits, en general ocho, que se emplea para representar un número o carácter almacenado en el sistema de cómputo. Al utilizar un sistema de números binarios, una computadora puede expresar todos los números como grupos de unos y ceros. El verdadero binario no puede ser usado en una computadora porque, además de representar números, una computadora debe poder permitir la representación de caracteres alfabéticos y otros muchos símbolos. Este requerimiento condujo a los fabricantes de hardware de computadora a desarrollar los códigos binarios estándar. Existen dos códigos comunes: EBCDIC y ASCII. EBCDIC: Extended Binary Coded Decimal Interchange Code: este código binario, desarrollado por IBM en los ´50, representa a todo número, carácter alfabético o carácter especial con 8 bits; puede ser empleado para codificar hasta 256 diferentes caracteres en un byte (28 = 256) ASCII: son las siglas de American Standard code for Information Interchange: fue desarrollado por el American National Satandards Institute (ANSI) para proporcionar un código estándar que pudiera ser empleado por muchos fabricantes diferentes con objeto de hacer compatibles las máquinas. Fue originalmente diseñado como un código de 7 bits, pero la mayoría de las computadoras emplea la versión de 8 bits. En su uso real, EBCDIC y el ASCII también contienen un noveno bit suplementario de paridad o verificación. Los bits pueden ser cambiados por accidente o error de on a off, cuando los datos son transferidos de un dispositivo de hardware a otro y al momento ocurren perturbaciones ambientales. Los bits de paridad se emplean para ayudar a detectar estos errores. Todo el hardware de la computadora contiene una verificación automática de la paridad para asegurar la estabilidad de los datos en el tiempo. Tiempo y tamaño en el mundo de las computadoras

20

TIEMPO TAMAÑO Segundo 1 Byte Cadena de 8 bits Milisegundo 1/1.000 Kilobyte 1.000 bytes Microsegundo 1/1.000.000 Megabyte 1.000.000 bytes Nanosegundo 1/1.000.000.000 Gigabyte 1.000.000.000 bytes Picosegundo 1/1.000.000.000.000 Terabyte 1.000.000.000.000 bytes Los dispositivos de almacenamiento en general operan a velocidades de milisegundo. Una computadora de nivel medio puede ejecutar 10 millones de instrucciones de programa por segundo, o sea 0.1 microsegundos por instrucción. La unidad central de proceso en las macrocomputadoras actuales puede ejecutar más de 200 millones de instrucciones por segundo (200 MIPS). A esta velocidad, el procesador central opera a velocidades de nanosegundos (mil millonésimas de segundo) o sea una instrucción por cada 15 nanosegundos. Problemas de coordinación en el software de computadora: Las enormes diferencias en el tamaño de los elementos principales de los sistemas de cómputo ocasionan problemas de coordinación. Por ejemplo, mientras que las unidades centrales de proceso operan al nivel de microsegundos, y en algunos casos de nanosegundos, las impresoras normales operan al nivel de unos cuantos cientos a miles de caracteres por segundo, esto significa que la unidad central de proceso puede procesar información infinitamente más rápido que el tiempo que se tarda la impresora en imprimirlo. Por esta razón, es necesario colocar memorias adicionales y dispositivos de almacenamiento entre la unidad central de proceso y la impresora, de manera que la unidad central de proceso detenga el procesamiento de más información a medida que espera a que la impresora opere. El CPU y el almacenamiento primario La CPU es parte del procesador central: es el área del sistema de cómputo en donde se lleva a cabo el manejo de símbolos, números y letras. También controla a las otras partes del sistema de cómputo. Está integrado por una unidad de control y una unidad aritmética-lógica. Fuertemente enlazado con el CPU, en el procesador central se encuentra el almacenamiento primario (memoria primaria), en donde se almacenan de manera temporal los datos y las instrucciones de programación durante el procesamiento. Las características del CPU son muy importantes en la determinación de la velocidad y de las capacidades de una computadora. Almacenamiento primario: Tiene 3 funciones:

1. Almacena todo o parte del programa que está siendo ejecutado. 2. También se almacenan los programas del sistema operativo que administran la operación de la

computadora. 3. Finalmente, el área de almacenamiento primario guarda datos que están siendo usados por el

programa. Al almacenamiento primario interno se lo conoce como RAM (random acces memory). Se llama RAM porque puede acceder directamente cualquier punto aleatoriamente seleccionado en la misma cantidad de tiempo. La memoria primaria se divide en celdas de memoria, cada uno de los cuales puede almacenar una letra, un dígito o un símbolo. Cada celda de memoria tiene una dirección individuales que indica su localización en el RAM. La computadora puede recordar en dónde se almacenan todos los bytes de datos sencillamente sabiendo sus direcciones. La mayor parte de la información empleada por una aplicación de computadora se almacena en dispositivos de almacenamiento secundario como discos y cintas localizados fuera del área de almacenamiento primario. Con el objeto de que la computadora haga el trabajo sobre información, ésta debe ser transferida a la memoria primaria para su procesamiento. Tipos de memorias de semiconductores: el almacenamiento primario está constituido en realidad por semiconductores. Un semiconductor es un circuito integrado hecho al imprimir miles o aun millones de

21

pequeños transistores en una pequeña placa o chip de silicón. Existen diversos tipos de memorias de semiconductores empleados en el almacenamiento primario. RAM se emplea para almacenamiento a corto plazo de datos o instrucciones de programación. El RAM es volátil: su contenido se perderá cuando la computadora se apague. El ROM (read only memory), puede únicamente leerse; no puede registrarse. Los chips de ROM vienen directamente del fabricante con programas ya “fundidos” en el interior, o almacenados. El ROM se emplea para almacenar programas importantes o usados con frecuencia. Existen otras 2 subclases de chips ROM: PROM (memoria programable únicamente leída): estos chips son usados por los fabricantes como dispositivos de control de sus productos. Sólo pueden ser programados una vez. EPROM (memoria borrable programable únicamente leída) son usados por los fabricantes para hacer el programa específico para su producto; los chips PROM, por tanto, pueden ser fabricados universalmente para muchos fabricantes en grandes lotes de producción. Con los chips EPROM, el programa puede ser borrado y reprogramado. Unidad aritmética-lógica (UAL): Realiza las principales operaciones de lógica y aritmética de la computadora. Sólo requiere de sumar y restar números para hacer multiplicaciones y divisiones; además debe ser capaz de determinar cuándo una cantidad es mayor o menor que otra y cuándo dos cantidades son iguales. UNIDAD DE CONTROL: Coordina y controla las otras partes del sistema de computadora. Lee un programa almacenado, una instrucción a la vez y dirige a otros componentes del sistema de cómputo para realizar las tareas que se requieren en el programa. Este conjunto de operaciones requeridas para procesar una sola instrucción de la máquina se llama ciclo de la máquina; el mismo tiene dos partes: el ciclo de instrucción y el de ejecución. Ciclo de instrucción: la unidad de control captura una instrucción de programación del almacenamiento primario y la decodifica. Coloca la parte de la instrucción, que le dice a la UAL qué es lo que sigue en un registro especial y coloca la parte que especifica la dirección de los datos a ser usados en la operación en un registro de direcciones (un registro es una posición temporal de almacenamiento en la UAL o unidad de control que actúa como un área de alta velocidad, de ruptura en pasos, para las instrucciones de programación o para los datos que han de ser transferidos del almacenamiento primario al CPU para ser procesados). Ciclo de ejecución: la unidad de control localiza los datos que se requieren en la memoria primaria, los coloca en un registro de almacenamiento, da instrucciones a la UAL para que realice la operación deseada, almacena temporalmente el resultado de la operación en un acumulador y finalmente coloca el resultado en la memoria primaria. Cuando se completa la ejecución de cada instrucción, la unidad de control avanza y lee la siguiente instrucción. 6.3 La evolución del hardware de la computadora Han ocurrido cuatro etapas muy importante o generaciones de computadoras, en la evolución del hardware de computadora; en cada una de ellas, se ha extendido de manera dramática el poder de procesamiento y almacenamiento de una computadora al mismo tiempo que hay una reducción en los costos. Estos cambios en el hardware han sido acompañados de cambios en el software de cómputo que han hecho que las computadoras sean más poderosas, baratas y fáciles de usar. Generaciones del hardware de la computadora La primera y segunda generaciones de hardware de computadora se basaban en la tecnología del bulbo y el transistor, mientras que la tercera y cuarta generaciones se basaron en la tecnología de los semiconductores. 1° GENERACIÓN: (Tecnología del bulbo, 1946-1956) La 1° generación descansaba sobre bulbos para almacenar y procesar la información. Estos tubos consumían una gran cantidad de energía, eran de corta vida y generaban una gran cantidad de calor. Colosales de tamaño, las computadoras de la 1° generación tenían una capacidad extremadamente limitada en cuanto a memoria y procesamiento, y se empleaban para trabajo muy limitado, científico y de ingeniería. La dimensión máxima del tamaño de la memoria era de casi

22

2K, con una velocidad de 10 kiloinstrucciones por segundo. Para la memoria se empleaban tambores magnéticos giratorios y tarjetas perforadas para el almacenamiento externo. Trabajos como el de correr programas o impresión de la salida debían ser coordinados manualmente. 2° GENERACIÓN: (Los transistores, 1957-1963) Los transistores reemplazaron a los bulbos como dispositivos para almacenar y procesar información. Los transistores eran mucho más estables y confiables que los bulbos, generaban menos calor y consumían menos energía. Sin embargo, cada transistor debía fabricarse individualmente y montarse en una tarjeta de circuito, lo que resultaba un trabajo lento y tedioso. La memoria de núcleos magnéticos fue la tecnología del almacenamiento primario. Se componía de pequeñas donas magnéticas (de cerca de 1 mm de diámetro) que podían polarizarse en una de dos direcciones para representar un bit de datos. El sistema debía ser ensamblado a mano y por tanto resultaba muy caro. Tenían una memoria RAM de hasta 32K y velocidades que alcanzaban entre 200.000 y 300.000 instrucciones por segundo. El mayor poder de procesamiento y memoria permitió que fueran usadas más ampliamente para trabajo científico y para aquellas tareas de negocios como tener la nómina y la facturación. 3° GENERACIÓN: (Circuitos integrados, 1964-1979) Estas computadoras descansaban sobre circuitos integrados que se fabricaban al imprimir primero cientos y después miles de pequeños transistores en pequeñas placas de silicón. Estos dispositivos se denominaron semiconductores. Las memorias de las computadoras se expandieron hasta 2 megabytes en RAM, y las velocidades se aceleraron hasta 3 MIPS (millones de instrucciones por segundo). Esta ascensión en cuanto a poder de procesamiento hizo posible el desarrollo de software especiales llamados SO que automatizaban la operación de los programas y las comunicaciones entre el CPU, las impresoras y otros dispositivos. La 3° generación de la tecnología de cómputo introdujo un software que podía ser usado por personas sin necesidad de entrenamiento técnico intensivo, haciendo posible que las computadoras aumentaran su función en los negocios. 4° GENERACIÓN (Circuitos integrados a muy grande escala, 1980-época actual) Las computadoras emplean circuitos integrados a muy gran escala (VLSIC), en donde se concentraban los circuitos desde 200.000 hasta 3 millones por cada chip. Los costos se han abatido. Los tamaños de las memorias de las computadoras han llegado hasta un gigabyte en las grandes máquinas comerciales; las velocidades de procesamiento ya han excedido los 200 MIPS. La tecnología VLSIC ha desencadenado un movimiento creciente hacia la microminiaturización, la proliferación de computadoras tan pequeñas, rápidas y baratas que han adquirido el don de la ubicuidad. ¿Qué es un microprocesador? ¿Qué es un chip? La tecnología de los circuitos integrados a gran escala, con cientos de miles (o aun millones) de transistores en un solo chip permiten integrar la memoria, la lógica y el control de la computadora en un solo chip; de ahí el nombre de microprocesador. Un microprocesador poderoso ahora ampliamente usado en las computadoras personales es el chip de 32 bits y 50 megahertz, como el Intel 80486. Los chips se miden de diversas maneras. En general, se pueden ver chips con etiquetas para dispositivos de 8 bits, 16 bits y 32 bits. Estas etiquetas se refieren a la longitud de la palabra, o sea el número de bits que pueden ser procesados a al vez por la máquina. Un chip de 8 bits puede procesar 8 bits o un byte de información en un solo ciclo de la máquina; un chip de 32 bits puede procesar 32 bits o 4 bytes en un solo ciclo de la máquina. Mientras más larga es la longitud de la palabra, mayor será la velocidad de la computadora. Un segundo factor que afecta la velocidad del chip es la velocidad del ciclo. Todo suceso en una computadora debe ser secuenciado de manera que un paso esté en secuencia lógica con el anterior. La unidad de control establece un ritmo para el chip. Este ritmo queda establecido por un reloj interno y se mide en megahertz (MHz significa un millón de ciclos por segundo). Un tercer factor que afecta la velocidad es el ancho de vía o bus de datos. El bus de datos actúa como una carretera o vía entre el CPU, el almacenamiento primario y otros dispositivos determinando cuántos datos pueden moverse a la vez. Ejemplo: el chip 8088 usado en la computadora personal original de IBM, por ejemplo, tenía una longitud de palabra de 16 bits pero sólo un ancho de bus de 8 bits. Esto significaba que los datos se procesaban dentro del chip mismo del CPU en porciones de 16 bits, pero sólo se podían mover 8 bits a la vez entre el CPU, el almacenamiento primario y los dispositivos externos.

23

Evidentemente, para tener una computadora que ejecute más instrucciones por segundo y trabaje por medio de programa o palabra en el procesador, el ancho del bus de datos o la velocidad del ciclo, o las tres. Cómputo por conjunto reducido de instrucciones (RISC): tecnología empleada para incrementar la velocidad de los microprocesadores al incluir sólo las instrucciones más utilizadas en un chip. 6.4 Macrocomputadoras, minicomputadoras, microcomputadoras, estaciones de trabajo y supercomputadoras SUPERCOMPUTADORA: es la computadora más grande que existe, una estación de energía con una enorme memoria y un poder de procesamiento muy rápido. Se emplea para aplicaciones de gran tamaño de carácter comercial, científico o militar, en donde la computadora debe manejar grandes cantidades de datos o muchos procesos complicados. MINICOMPUTADORA: es una computadora de nivel mediano, como del tamaño de un escritorio, que a menudo se emplea en las universidades, fábricas o en laboratorios de investigación. MICROCOMPUTADORA: es aquella que puede colocarse en un escritorio o ser llevada de una habitación a otra. Se emplean como máquinas personales y en los negocios. ESTACIÓN DE TRABAJO: también cabe en un escritorio, pero tiene más capacidad de procesamiento para operaciones matemáticas y para gráficas que las microcomputadoras, y puede realizar tareas más complicadas y al mismo tiempo que la microcomputadora. Se emplean para trabajo científico, de ingeniería y de diseño que requieren de capacidades especiales para gráficas o computacionales. SUPERCOMPUTADORA: es una máquina altamente sofisticada que se emplea para tareas que implican operaciones muy rápidas y complejas con cientos de miles de factores variables. Tradicionalmente se han utilizado en trabajo de carácter científico y militar, pero ya empiezan también a ser utilizadas en negocios. Procesamiento distribuido: es el uso de varias computadoras enlazadas por una red de comunicaciones para el procesamiento. Procesamiento centralizado: es aquél en donde todo el procesamiento se lleva a cabo en una computadora central más grande; el procesamiento distribuido reparte el trabajo de procesamiento entre diversas microcomputadoras, minicomputadoras y macrocomputadoras enlazadas. TIPO MEMORIA DESEMPEÑO LONG. PALABRA Macrocomputadora 1 gigabyte 240 MIPS 32 Minicomputadora 64 megas a 2,35 gigas 124 a 508 MIPS 32 Estación de Trabajo 32 a 512 megas 109,5 MIPS 32 Microcomputadora 4 a 32 megas 10,8 MIPS 32 Supercomputadoras 256 megas a 8 gigas 1 a 16 gigaflops 64 Reducción de tamaño y procesamiento cooperativo Reducción de tamaño: el proceso de transferir aplicaciones de las computadoras más grandes a las más pequeñas se llama reducción. La reducción tiene muchas ventajas. El costo por MIPS en una macro comp. Es de casi 100 veces mayor que en una micro; un megabyte de memoria de macro cuesta casi 10 veces más que la misma cantidad de memoria en una micro Procesamiento cooperativo: es un tipo de procesamiento que divide el trabajo de procesamiento por aplicaciones y tipo de operaciones entre las macro y microcomputadoras, asignándole a cada tipo las funciones que mejor realiza. El procesamiento cooperativo no siempre es fácil de instrumentar. Puede requerir de software especial para comunicaciones y aplicaciones y comprender cuáles funciones pueden ser mejor manejadas por micros y cuáles deben permanecer las máquinas mayores. Microcomputadoras y estaciones de trabajo Las estaciones de trabajo son de especial utilidad en el diseño apoyado por computadora (CAD) y para simulaciones y modelos complejos. Las diferencias entre estaciones de trabajo y las microcomputadoras comienzan a desaparecer Las supercomputadoras y el procesamiento en paralelo

24

Las supercomputadoras no procesan una instrucción a la vez sino que realizan un procesamiento en paralelo. Las unidades de procesamiento múltiple (CPU) hacen particiones del problema en segmentos pequeños y los trabajan de manera simultánea, para ello requieren de un software especial que pueda dividir los problemas entre los distintos procesadores de la manera más eficiente posible, proporcionar la información que se requiere y acumular muchas subtareas para llegar a la solución adecuada. La mayor parte del software actualmente disponible está elaborado para máquinas de procesamiento secuencial. 6.5 Almacenamiento secundario Los sistemas de información necesitan almacenar información fuera de la computadora en un estado no transitorio y almacenar volúmenes de datos demasiado largos para tener cabida en computadoras de cualquier tamaño. El almacenamiento para un tiempo relativamente grande de datos fuera del CPU y del almacenamiento primario se llama el almacenamiento secundario. El almacenamiento primario es donde se emplea la tecnología más rápida y más cara. Existen en realidad tres tipos diferentes de memoria primaria: el registro, el caché y el RAM. Registro: es la memoria más rápida y más cara, en donde pequeñas cantidades de datos e instrucciones se localizan durante milésimas de segundos justo antes de usarlas; Memoria caché: (oculta) es para almacenamiento a alta velocidad de instrucciones y datos de uso frecuente; Memoria RAM: para grandes cantidades de datos. El acceso a la información almacenada en la memoria primaria es algo electrónico y ocurre casi a velocidad de la luz. La memoria secundaria es no volátil y retiene la información aun cuando la computadora se encuentre apagada. Existen muchos tipos de memoria secundaria; los más comunes son la cinta magnética, el disco magnético y el óptico. Estos medios pueden transferir grandes masas de datos rápidamente al CPU. Pero como el almacenamiento secundario requiere de movimiento mecánico para tener acceso a los datos, en contraste con el almacenamiento primario es relativamente lenta. Cinta magnética: es un dispositivo antiguo que aún es importante como almacenamiento secundario de grandes volúmenes de información. Es muy semejante a una cinta casera para grabar, pero de mejor cualidad. La información puede almacenarse en cinta magnética a densidades diferentes. Ventajas: son baratas, muy estables y pueden almacenar grandes volúmenes de información. Además puede ser usada una y otra vez, aunque se deteriora con el tiempo y los usuarios de computadora deben manejarlas con cuidado. Desventajas: se tiene que almacenar la información de manera secuencial y es relativamente lenta comparada con la velocidad de otros medios secundarios. Con el objeto de encontrar un registro individual almacenado en una cinta magnética, la cinta debe ser leída desde el principio hasta la posición del registro deseado. Por tanto la cinta no es un buen medio cuando es necesario encontrar rápidamente la información. Además el medio ambiente en el que se almacena debe de ser cuidadosamente controlado. Discos magnéticos: es el medio de almacenamiento más utilizado en la actualidad. Existen dos tipos de discos magnéticos: los disquetes y los discos duros. Discos duros: son placas circulares delgadas de acero cubiertas de óxido de fierro. En los sistemas mayores, múltiples discos duros se montan conjuntamente en un eje vertical. La información se registra sobre o se lee del disco mediante cabezas de lectura/registro, las cuales literalmente vuelan sobre los discos que giran. A diferencia de un estéreo doméstico, las cabezas en realidad nunca tocan al disco, sino que se deslizan a unas cuantas milésimas de cm sobre él. Las cabezas de lectura/registro se mueven horizontalmente (de izquierda a derecha) hacia cualquiera de las 200 posiciones llamadas cilindros. En cualquiera de estos cilindros, las cabezas de lectura/registro pueden leer o registrar información a cualquiera de los 20 distintos círculos concéntricos sobre el área de la superficie del disco llamadas pistas. La velocidad de acceso a los datos es función de la velocidad de rotación del disco y de la velocidad de los brazos de acceso. Disquete: son discos de 5.25 o 3.5 pulgadas de una película de poliéster con un recubrimiento magnético. En estos discos la velocidad de acceso es mucho más lenta que la de los discos duros. Emplean un método

25

sectorial para almacenar datos. La superficie del disco se divide en rebanadas de tipo pastel. A cada sector se le asigna un número único; los datos pueden localizarse usando una dirección que consiste en el número del sector y el número de registro del dato individual. Los discos magnéticos, al permitir el acceso directo a los registros individuales, tienen la ventaja de que el sistema de cómputo no tiene que buscar en todo el archivo, como en el archivo de cinta. El almacenamiento en disco se conoce como dispositivo de almacenamiento de acceso directo (DASD). El DASD es relativamente caro comparado con la cinta magnética; además, al actualizar la información almacenada en un disco se destruye la información anterior ya que los datos anteriores en el disco se vuelven a escribir si se realizan cambios (en contraste, los cambios a los datos registrados en una cinta magnética se hacen en una parte distinta de la cinta de manera que la versión anterior de la cinta se conserve y pueda recuperarse). Discos ópticos: también llamados discos compactos, almacenan datos a densidades mucho mayores que las de los discos magnéticos. Los datos se registran en discos ópticos cuando un dispositivo láser quema pequeñísimos agujeros en la capa reflectora de una pista en espiral. La información binaria se codifica en base a la longitud de estos huecos y el espacio entre ellos. El disco óptico se lee mediante un rayo láser de bajo poder emitido por una cabeza óptica que lee la película. Un CD-ROM de 4.75 pulgadas (12 cm) puede almacenar casi 300 veces más que un disquete de alta densidad; el CD-ROM es también menos vulnerable a la magnetización, al polvo o manejo brusco que los disquetes. El CD-ROM significa almacenamiento únicamente leído; no pueden registrarse en él nuevos datos. 6.6 Dispositivos de entrada y salida

Dispositivos de entrada El método tradicional de alimentación de datos ha sido a través del teclado. Otros dispositivos de entrada son:

1. Mouse: dispositivo manual que normalmente está conectado a la computadora por medio de un cable 2. Pantallas sensibles al tacto: 3. Automatización de datos fuente: captura la información en forma legible para la computadora en el

momento y lugar en que se genera; son ejemplos: los sistemas punto de venta, las lectoras ópticas de código de barras, etc.

4. tecnología de reconocimiento de caracteres de tinta magnética (MICR) 5. reconocimiento óptico de caracteres (ROC) 6. lectoras ópticas digitales o escáner 7. dispositivos de alimentación de voz

Dispositivos de salida

Los principales dispositivos de salida son: 1. la terminal de tubo de rayos catódicos (TRC), algunas veces llamadas terminales de pantalla de

video 2. las impresoras 3. dispositivos de salida de voz: transforma la salida de datos digitales en palabras habladas

6.7 Tendencias en la tecnología de información A lo largo de los últimos 30 años, los costos de la computación han caído y la capacidad se ha incrementado. Multimedia Se define como las tecnologías que facilitan la integración de dos o más tipos de medios, como textos, gráficas, sonido, voz, video de movimiento total, video fijo o animación en una aplicación basada en la

26

computadora. En los sistemas de multimedia se combinan los elementos de las computadoras personales actuales con los nuevos elementos como radio y video. La mezcla de datos de texto, gráficas, sonido y video en una sola aplicación ha sido posible gracias a los avances en la tecnología de los microprocesadores y almacenamiento que se describieron en este capitulo. Un sistema simple de multimedia consiste en una computadora personal con un microprocesador de 32 bits y un disco de CD-ROM. El elemento más difícil de incorporar en los sistemas de información por multimedia es el video de movimiento total, porque es necesario alimentar muchos datos al control digital de la computadora. Superchips Los investigadores de semiconductores han seguido hallando medios para comprimir los circuitos más densamente, de manera que millones de transistores puedan ser empacados en una oblea de silicón del tamaño de una uña. La manera principal como los microprocesadores se han fabricado para tener un desempeño más rápido es reducir la distancia entre os transistores. Este proceso da a la corriente eléctrica una menor distancia que recorrer; mientras más estrechas sean las líneas que forman los transistores, mayor será el número de transistores que puedan ser empaquetados en un solo chip y más rápido operarán. Computadoras de la 5° generación Teraflop: billón de operaciones matemáticas por segundo Retos de la administración

1. mantenerse a la par con el cambio tecnológico 2. tomar decisiones sabias de compra 3. capacitar al personal de sistemas de información y a todos los empleados

27

CAPÍTULO VII 7.1 ¿Qué es el software? Es el conjunto de instrucciones detalladas que controlan la operación de un sistema de cómputo. Sus funciones son:

4. Administrar los recursos de cómputo de la institución 5. Proporcionar las herramientas a los seres humanos para que aprovechen estos

recursos 6. Actuar como intermediario entre las instituciones y la información

almacenada Programas de software Un programa de software es un conjunto de argumentos o instrucciones para la computadora. El proceso de escribir o codificar programas se denomina programación y a las personas que se especializan en esta tareas se las llama programadores. Concepto de programa almacenado: la idea de que el programa no puede ser ejecutado a menos que se almacene en la memoria primaria de la computadora junto con los datos requeridos. Principales tipos de software Existen tres tipos diferentes:

1. software del sistema: es un conjunto de programas generalizados que administran os recursos de la computadora, como la unidad central de proceso, los dispositivos, etc.. los programadores que escriben el software del sistema se llaman programadores de sistemas. Incluye traducción de lenguajes y utilitarios (o utilerías).

2. Software de aplicaciones: se refiere a los programas que son escritos para o por usuarios para aplicar la computadora a una tarea específica. Los programadores que escriben el software de aplicaciones son llamados programadores de aplicaciones.

3. Software de usuario: es un tipo especial de software de aplicación que apareció a principios de los ´80; consiste en herramientas de software que permiten el desarrollo de algunas aplicaciones directamente por los usuarios finales y sin los programadores profesionales

7.2 El software del sistema Coordina las distintas partes del sistema de cómputo y sirve como mediación entre el software de aplicación y el hardware de la computadora. El software del sistema que administra y controla las actividades y recursos de la computadora se llama el sistema operativo. Funciones del sistema operativo Una manera de ver al sistema operativo es como el administrador en jefe del sistema. El software del sistema operativo decide qué recursos de la computadora habrán de ser usados, cuáles programas se ejecutarán y el orden en el que las actividades han de ocurrir. Un sistema operativo realiza tres funciones:

1. define y asigna los recursos del sistema 2. programa el uso de recursos y trabajos de cómputo 3. hace el seguimiento de las actividades del sistema de cómputo

1. Asignación y designación: el SO asigna recursos a los trabajos de aplicaciones que se encuentran en la cola de ejecución. Proporciona ubicaciones en la memoria primaria para los datos y programas y controla los dispositivos de entrada y salida.

2. Programación: el SO decide cuándo programar los trabajos que se presentan y cuándo coordinar la programación en distintas áreas de la computadora, de manera que partes diferentes de los distintos trabajos puedan ser procesadas al mismo tiempo. Por ej: mientras que un programa está en ejecución, el

28

SO está programando el uso de los dispositivos de entrada y salida.. No todos los trabajos son llevados a cabo en el orden en que se presentan; el SO debe programarlos de acuerdo con las prioridades de la institución.

3. Seguimiento: el SO da seguimiento de las actividades del sistema de cómputo. Da seguimiento de cada trabajo de cómputo y también puede dar seguimiento de quién usa el sistema, qué programas se han ejecutado y cualquier intento no autorizado para tener acceso al sistema. La mayor parte del SO se almacena en una copia sobre un disco, al cual la memoria primaria tiene muy rápido acceso. Cuando partes del sistema operativo se requieren para una determinada aplicación, son transferidas desde el disco y cargadas en la memoria primaria. El dispositivo en el que todo un SO completo se almacena se llama dispositivo de residencia del sistema.

Multiprogramación, tiempo compartido, almacenamiento virtual y multiprocesamiento Las computadoras tienen una serie de capacidades especiales en el sistema operativo:

Multiprogramación: es la capacidad más importante del SO para compartir los recursos de la computadora. Permite que programas múltiples compartan los recursos del sistema de cómputo mediante el uso concurrente de un CPU. Por uso concurrente se entiende que, en cualquier momento, sólo un programa emplea en realidad el CPU, pero las necesidades de entrada y salida de otro programas pueden ser atendidas al mismo tiempo. Dos o más programas están activos al mismo tiempo, pero no usan los mismos recursos de la computadora simultáneamente. Con la multiprogramación, un grupo de programas tomará su turno para el uso del procesador.

Multitareas: se refieren a la multiprogramación en los sistemas operativos individuales, como los que se usan en las microcomputadoras. Una persona puede ejecutar dos o más programas de manera concurrente en una sola computadora. En vez de terminar la sesión con el programa procesador de palabra, se regresa al sistema operativo y luego se inicia una sesión con el programa de base de datos. Las multitareas ayudan a desplegar ambos programas en la pantalla de la computadora y trabajar al mismo tiempo.

Almacenamiento virtual: se desarrolló luego de que algunos problemas de multiprogramación se hicieron evidentes. El almacenamiento virtual maneja los programas más eficientemente porque la computadora los divide en pequeñas porciones de longitud fija o variable, almacenando sólo una pequeña porción del programa en la memoria primaria a la vez. Primero, aún cuando dos o tres programas grandes puedan ser leídos en la memoria, una cierta parte de la memoria principal permanece subutilizada porque los programas suman menos que el espacio de la memoria primaria disponible. Segundo, dado el tamaño limitado de la memoria primaria, sólo un número pequeño de programas puede requerir de hasta 200 kbytes de memoria, y la computadora puede tener solamente un megabyte de memoria primaria. Por lo tanto, sólo unos cuantos programas pueden residir en la memoria en un momento dado. El almacenamiento virtual rompe un programa en un número de porciones de longitud fija llamadas páginas, o en porciones de longitud variable llamadas segmentos. El punto de ruptura real entre segmentos puede ser determinado por el programador o por el SO . En el almacenamiento virtual, cada una de estas porciones es relativamente pequeña, esto permite que un gran número de programas resida en la memoria primaria, ya que sólo una página o segmento de cada programa se localiza en realidad en ella. El resto de las páginas de los programas se almacenan en una unidad periférica de disco hasta que están listas para ser procesadas. El almacenamiento virtual proporciona un gran número de ventajas: 1.-la memoria primaria se utiliza a mayor capacidad; 2.- los programadores ya no tienen que preocupares acerca del tamaño del área de la memoria primaria. Con el almacenamiento virtual no existe un límite para los requerimientos de almacenamiento del programa.

Tiempo compartido: es una capacidad de un SO que permite que muchos usuarios compartan simultáneamente los recursos de procesamiento de la computadora. Se diferencia de la multiprogramación en que el CPU emplea una cantidad fija de tiempo en un programa antes de moverse al siguiente. En un ambiente de tiempo compartido, miles de usuarios tienen asignado un período de tiempo de computadora muy pequeño (2 milisegundos), pero como el CPU opera al nivel de nanosegundos, un CPU puede llevar a cabo una gran cantidad de trabajo en 2 milisegundos.

29

Multiproceso: es un SO capaz de unir 2 o más CPU para que trabajen en paralelo en un solo sistema de computación, el cual puede asignar múltiples CPU para ejecutar diferentes instrucciones a partir del mismo programa o de diferentes programas en forma simultánea, dividiendo el trabajo entre los CPU. Mientras que la multiprogramación utiliza un procesamiento concurrente con una CPU, el multiproceso utiliza procesamientos simultáneos con múltiples CPU.

Traducción de lenguaje y software de utilerías Cuando las computadoras ejecutan programas escritos en lenguajes como COBOL, FORTRAN o C, deben convertir estas instrucciones ilegibles para los seres humanos en una forma que puedan entender. El software del sistema incluye programas especiales de traducción de lenguajes que traducen programas de lenguaje de más alto nivel, escritos en lenguajes de programación como BASIC, COBOL y FORTRAN, a un lenguaje de máquina que ésta puede ejecutar. Este tipo de software del sistema se llama compilador o intérprete. El programa en el lenguaje de alto nivel antes de su traducción en lenguaje de máquina se llama código fuente. Un compilador traduce el código fuente en un código de máquina llamado código objeto. Algunos lenguajes de programación, como BASIC, no usan un compilador sino un intérprete, que traduce cada instrucción en código fuente, una a la vez, en código de máquina y lo ejecuta; su ejecución es muy lenta porque sólo se traduce una instrucción a la vez. Un ensamblador es semejante a un compilador, pero se usa para traducir sólo el lenguaje ensamblador al código de máquina. En el software de sistema se incluyen los programas de utilería para rutinas, tareas repetitivas como copiar, limpiar la memoria primaria, etc.. si se ha trabajado en una computadora y se han realizado funciones como establecer archivos nuevos, eliminar viejos o formateo de disquetes, se ha trabajado con programas de utilería. Los programas de utilería son programas para tareas repetitivas escritos previamente, que se almacenan para que puedan ser compartidos por todos los usuarios de un sistema de cómputo y puedan ser rápidamente usados en muchas aplicaciones diferentes de sistemas de información cuando se requiere. Sistemas operativos para microcomputadoras Todo software se basa en SO específicos y en el hardware de la computadora. Un paquete de software escrito para un SO de microcomputadora puede no correr en otra. Los SO de las microcomputadoras en sí tienen características distintivas (como soporte a las multitareas o al trabajo gráfico) que determinan los tipos de aplicaciones para las que son ideales. Las multitareas son una de las fuerzas principales de los sistemas operativos como el IBM OS/2 o el UNIX. El PC-DOS y el MS-DOS, es SO más antiguo para las PC de IBM y sus clones no realizan las multitareas, aunque la Microsoft Corporation comercializa el software Windows para crear un entorno de multitareas para los programas DOS; el DOS en sí no soporta las multitareas y limita el tamaño de un programa en memoria a 640 K.

Sistemas operativos

Características

OS/2 (Sistema Operativo/2)

SO para la línea de estaciones de trabajo a base de microcomputadoras IBM personal System/2. Puede sacar ventaja del microprocesador de 32 bits. Permite multitareas y trabajo en redes y puede ejecutar programas largos que requieren más de 640 K de memoria.

Windows NT SO de 32 bits para microcomputadoras y estaciones de trabajo no limitado a microprocesadores Intel. Permite multitareas, multiprocesamiento y trabajo en redes y puede ejecutar programas que requieren más de 640 K de mem.

UNIX-(XENIX) Usado para poderosas microcomputadoras, estaciones de trabajo y minicomputadoras. Permite multitareas, procesamiento multiusuario y trabajo en redes; puede llevarse a diferentes modelos de hardware de computadoras.

System 7 SO para la computadora Macintosh. Permita multitareas y tiene capacidades poderosas de gráficas y multimedia.

PC-DOS SO para la IBM Personal Computer. Limita el uso de memoria por el programa en 640 K.

30

MS-DOS Contiene características semejantes al PC-DOS, pero es el SO para los clones de IBM-PC.

Interfases gráficas de usuario Cuando los usuarios interactúan con una computadora, la interacción es controlada por un SO. La interfase con el usuario es la parte del sistema de información con la que los usuarios interactúan. Los usuarios se comunican con un SO mediante la interfase con el usuario de ese SO. Los primeros SO de microcomputadora se operaban con comandos, pero la interfase gráfica con el usuario, primero popularizada por el SO de Macintosh, hace uso extensivo de los íconos, botones, barras y cajas para realizar la misma tarea. Se está convirtiendo en el modelo dominante par la interfase con el usuario de los SO. Los antiguos SO como el PC-DOS o el MS-DOS, son operados por comandos. Los proponentes de la interfase gráfica con el usuario afirman que esta interfase ahorra tiempo de aprendizaje porque los novatos en cómputo no tienen que aprender distintos comandos fuera de uso para cada aplicación. Windows de Microsoft es una cobertura o shell de interfase gráfica con el usuario muy popular, que opera en conjunción con el DOS. Windows permite multitareas y algunas formas de trabajo en red, pero comparte las limitaciones de memoria del DOS. Se considera que no corre de manera muy eficiente en un ambiente de multitareas. El OS/2 tiene su propia interfase gráfica con el usuario llamada Workplace Shell, que se parece a la interfase gráfica con el usuario de la Macitosh. Selección del SO para una microcomputadora Por empezar el SO seleccionado debe ser compatible con el software requerido por las aplicaciones a utilizar; debe ser fácil de instalar y operar, y las características de la interfase con el usuario del SO deben ser fáciles de aprender. 7.3 Software de aplicaciones El software de aplicaciones está principalmente relacionado con el cumplimiento de las tareas de los usuarios finales. Muchos diferentes lenguajes de programación pueden usarse para desarrollar software de aplicaciones. Cada uno de ellos tiene fuerzas y debilidades. Generaciones de lenguajes de programación PRIMERA GENERACIÓN: Para comunicarse con la primera generación de computadoras, los programadores tenían que escribir los programas en lenguaje de máquina: los 0s y 1s del código binario, esto hacía de la programación primitiva un proceso lento y de intenso trabajo. A medida que mejoró el hardware de las computadoras y la velocidad de procesamiento y el tamaño de la memoria crecieron, los lenguajes de computadora cambiaron de lenguajes de máquina a lenguajes que fueran más fáciles de entender por las personas. SEGUNDA GENERACIÓN: ocurrió a principios de los ´50, con el desarrollo de lenguaje ensamblador. En vez de emplear 1s y 0s, los programadores podían sustituir acrónimos tipo lenguaje y palabras como add (suma), sub (resta) y load (carga) en oraciones de programación. Un traductor de lenguaje llamado compilador transformaba las frases en un lenguaje tipo inglés en lenguaje de máquina. TERCERA GENERACIÓN: desde mediados de los ´50 hasta los ´70, surgieron los primeros lenguajes de alto nivel. Estos lenguajes permitieron a los matemáticos trabajar por primera vez con las computadoras mediante el uso de lenguajes tales como el FORTRAN (FORmula TRANslator program). . COBOL (Common Business Oriented Language) permitió el uso de expresiones en inglés como print y sort por los programadores, que ya no tenían que pensar en términos de ceros y unos. Se llaman lenguajes de alto nivel porque cada expresión en COBOL o FORTRAN genera múltiples expresiones en el nivel de lenguaje de máquina. El uso de estos lenguajes requiere de compiladores mucho más rápidos y eficientes para traducir los lenguajes de alto nivel en códigos de máquina. CUARTA GENERACIÓN: estos lenguajes surgieron a finales de los ´70 y su desarrollo aún continúa. En estos lenguajes, se reduce dramáticamente el tiempo de programación y las tareas de software son muy fáciles.

31

Cada nueva generación de software requiere más y más área de almacenamiento primario, compiladores más rápidos y mayor almacenamiento secundario. Lenguajes de programación populares LENGUAJE ENSAMBLADOR: lenguaje de programación desarrollado en los ´50 que se parece al lenguaje de máquina, pero sustituye los códigos numéricos por expresiones mnemotécnicas. da un gran control a los programadores, es costoso en términos de tiempo del programador, difícil de leer, rastrear y aprender. Se emplea hoy día principalmente en software de sistemas. FORTRAN: fue desarrollado en 1956 para proporcionar una manera más fácil de escribir las aplicaciones científicas y de ingeniería. Es de especial utilidad en el procesamiento de datos numéricos; es relativamente fácil de aprender y las versiones actuales proporcionan estructuras sofisticadas para el control de la lógica del programa. COBOL: se empezó a utilizar a principios de los ´60. Fue diseñado para realizar tareas repetitivas como la de las nóminas. Sus estructuras principales de datos son registros, archivos, tablas y listas. Es fácilmente aprendido por los analistas de negocios. Es pobre en cuanto a operaciones matemáticas de cierta complejidad. BASIC (Beginners All-puspose Symbolic Instruction Code) fue desarrollado en 1964 para enseñar a los estudiantes cómo usar las computadoras. Hoy día es el más popular en las escuelas superiores y para las microcomputadoras. Puede hacer casi todas las tareas de procesamiento de la computadora desde operaciones de inventarios hasta cálculos matemáticos. Es fácil de usar; su debilidad es que hace pocas tareas bien, aunque las hace todas. LP/1 (Programming Language ): fue desarrollado por IBM en 1964. Es el lenguaje de programación de propósito general más poderoso, y es algo difícil de aprender. PASCAL: lamado en honor de Blas Pascal. ADA: C: fue desarrollado a principios de los ´70, y es el lenguaje en que mucho del SO UNIX ha sido escrito. En C se combinan algunas de las características de control rígido y eficiencia de ejecución del lenguaje ensamblador, con la flexibilidad de su uso en máquinas. En otras palabras, puede trabajar en una diversidad de computadoras en vez de una sola. LISIP Y PROLOG: 7.4 Nuevas herramientas y enfoques de software Los lenguajes de cuarta generación consisten en una variedad de herramientas de software que permite a los usuarios finales desarrollar aplicaciones de software con una mínima (si no es ninguna) asistencia técnica o que estimulan la productividad de los programadores profesionales. Lenguajes de cuarta generación Existen siete categorías de cuarta generación:

1. LENGUAJE DE INTERROGACIÓN (SOL): es un lenguaje de computadora de alto nivel que se emplea para recuperar información específica de las bases de datos o archivos.

2. GENRADORES DE REPORTES: son programas que extraen datos de los archivos o de las bases de datos y crean reportes sobre diseño de acuerdo con muchos formatos que no son rutinariamente producidos por un sistema de información.

3. LENGUAJES DE GRÁFICAS: son lenguajes de cómputo que despliega datos de archivos o de bases de datos de forma gráfica.

4. GENERADORES DE APLICACIONES: es un software que contienen módulos preprogramados que pueden generar aplicaciones enteras, con un desarrollo a gran velocidad. Un usuario puede especificar lo que se requiere hacer y el generador de aplicación creará el código apropiado para la entrada, validación, actualización, procesamiento e informes.

32

5. LENGUAJES DE PROGRAMACIÓN DE MUY ALTO NIVEL: están diseñados para generar códigos de programas con menos instrucciones que los lenguajes convencionales como el COBOL o el FORTRAN. Se usan principalmente como herramienta de productividad por los programadores profesionales.

6. PAQUETES DE SOFTWARE DE APLICACIONES: es un conjunto preescrito, precodificado y comercialmente disponible de programas que elimina la necesidad de escribir programas de software para ciertas funciones.

7. HERRAMIENTAS DE MICROCOMPUTADORA: algunas de las herramientas más populares y promotoras de la productividad de la cuarta generación son los paquetes de aplicaciones de propósito general, que han sido desarrollados para las microcomputadoras, en especial los procesadores de palabra, las hojas de cálculo, administración de datos, gráficas y software de edición de escritorio.

Programación orientada a objetos Un registro creciente de proyectos de software y la necesidad de los negocios de poner de moda sistemas que sean flexibles y rápidos de hacer, ha lanzado un nuevo enfoque para el desarrollo de software con las herramientas de programación “orientada a objetos”. Los métodos tradicionales de desarrollo de software han tratado a los datos y procedimientos como componentes independientes. Un procedimiento de programación por separado debe ser escrito cada vez que alguien desea actuar sobre un elemento de datos en particular. Los procedimientos actúan sobre los datos que el programa les envía. La programación orientada a objetos combina los datos y los procedimientos específicos que operan en aquellos datos en un “objeto”: en el objeto se combinan los datos y el código de programa. En vez de pasar datos a los procedimientos, los programas envían un mensaje a un objeto para que realice un procedimiento que ya tiene integrado a los procedimientos se les llama “métodos” en los lenguajes orientados a objetos). El mismo mensaje puede ser enviado a muchos objetos diferentes, pero cada uno de ellos implantará el mensaje de forma diferente. Ejemplo: una aplicación financiera orientada a objetos puede tener que los objetos Cliente envíen mensajes de debe y haber a los objetos Cuentas. Los objetos Cuentas, a su vez, pueden mantener a los objetos Efectivo, Cuentas por pagar y Cuentas por Cobrar. Los datos de un objeto están ocultos en otras partes del programa y sólo pueden ser manejados desde dentro del objeto. El método para manejar los datos del objeto puede ser cambiado internamente sin afectar a las otras partes del programa. Los programadores pueden enfocarse sobre lo que quieren que el objeto haga, y el objeto decide cómo hacerlo. (...) Primero pedir al profesor que explique el tema Tendencias en las capacidades del software La tendencia principal es incrementar la facilidad con la que los usuarios pueden interactuar con el hardware y el software. El software se hace cada vez más interactivo mediante el uso de dispositivos de señalamiento como el mouse. Una segunda tendencia importante es el acceso de datos para los usuarios finales. Una tercera tendencia se refleja en la comercialización del software directamente a los propios usuarios finales. Una cuarta tendencia muy importante en cuanto al software es el desarrollo de programas integrados que soportan necesidades institucionales para la comunicación y el control. 7.5 Cómo seleccionar el software y los lenguajes de programación Si bien los administradores no necesitan ser especialistas en programación, deben conocer las diferencias entre los lenguajes de programación y ser capaces de emplear criterios claros para decidir qué lenguaje usar. Los criterios más importantes son: ADAPTABILIDAD: algunos lenguajes son de propósito general y pueden ser usados en una diversidad de problemas, mientras que otros son lenguajes de propósito específico adecuados sólo para tareas limitadas. La selección de lenguaje implica la identificación del uso y de los usuarios.

33

SOFISTICACIÓN: los lenguajes de alto nivel deben tener estructuras de control y estructuras de datos sofisticadas. Las primeras definen la forma de los programas haciéndolos claros, lógicos y estructurados, fáciles de leer y mantener. Los lenguajes deben seleccionarse de manera que puedan soportar muchas estructuras de datos diferentes. CONSIDERACIONES DE TIPO ORGANIZACIONAL: con el objeto de ser eficaces, el lenguaje debe ser aprendido fácilmente por el personal de programación de la empresa, de ser fácil de mantener y cambiar y lo suficientemente flexible, de manera que pueda crecer dentro de la institución. Estas consideraciones organizacionales tienen implicaciones a largo plazo en los costos. SOPORTE: es importante adquirir software que sea de un uso extensivo en otras instituciones y que pueda recibir soporte muchas empresas y despachos de consultoría y servicios. A menudo es menos caro adquirir software escrito en algún lado, o hacer que una empresa de servicios lo escriba, que desarrollar internamente el software. En estas situaciones resulta determinante tener software de amplio uso. Otra opción es si el software es reutilizable. Sólo una pequeña porción del software escrito es única, nueva y específica para las aplicaciones individuales. EFICIENCIA: la eficiencia con la cual un lenguaje compila y ejecuta permanece como consideración al adquirir software. Los lenguajes con compiladores o intérpretes lentos como el BASIC pueden ser caros en su operación y mantenimiento. En general los lenguajes de la 4° generación son muy lentos y caros en términos de tiempo de máquina Retos de administración

1. incremento de la complejidad y de los errores de software 2. el registro de aplicaciones pendientes.

34

UNIDAD VIII 8.1 Organización de los datos en un ambiente tradicional de archivos Un sistema de información eficaz proporciona a los usuarios información oportuna, precisa e importante. Esta información se almacena en archivos de computadora. Cuando los archivos están adecuadamente ordenados y mantenidos, los usuarios pueden acceder y recuperar fácilmente la información que requieren. La misma necesidad de organización de archivos se aplica a las empresas. Los archivos bien administrados y cuidadosamente ordenados facilitan la obtención de datos para la toma de las decisiones, mientras que los archivos pobremente administrados llevan a un caos en el procesamiento de la información, con altos costos, un desempeño pobre y muy poca, si es que alguna, flexibilidad. A pesar del uso de hardware y software excelentes, muchas instituciones cuentan con sistemas de información ineficientes a causa de una pobre administración de archivos. Términos y conceptos de la administración de archivos Un sistema de cómputo organiza los datos con una jerarquía que se inicia con los bits y los bytes y avanza hacia los campos, registros, archivos y las bases de datos. BIT: representa la unidad más pequeña de datos que la computadora puede manejar. BYTE: un grupo de bits, llamado byte, representa un carácter individual, que puede ser una letra, un número o cualquier otro símbolo. CAMPO: un agrupamiento de caracteres en una palabra un grupo de palabras o un número completo (como el nombre o la edad de las personas) se llama campo. REGISTRO: un grupo de campos relacionados, como el nombre de un estudiante, el curso tomado, la fecha y el grado forman todos un registro. ARCHIVO: un grupo de registros del mismo tipo se denomina archivo. Ejemplo: todos los registros de los estudiantes podrían constituir el archivo de un curso. Un grupo de archivos relacionados pueden constituir una base de datos. El archivo de cursos de estudiantes se podría agrupar con los archivos de las historias personales de los estudiantes y sus antecedentes financieros para crear una base de datos de estudiantes. ENTIDAD: un registro describe una entidad. Una entidad es una persona, lugar, cosa o hecho sobre el que se conserva información. Un pedido es una entidad típica que se encuentra en un archivo de pedidos de ventas, que mantiene información sobre los pedidos de ventas, que mantiene información sobre los pedidos de ventas de una empresa. ATRIBUTO: cada característica o cualidad que describe a una entidad en particular se llama atributo. Ejemplo: el número de pedido, la fecha del pedido, el volumen del pedido, el número de artículo y la cantidad de artículos podrían ser cada uno un atributo de la entidad “pedido”. Los valores específicos que tales atributos pueden tener pueden encontrarse en los campos del registro que describe a la entidad “pedido”. CAMPO LLAVE: todo registro en un archivo debe al menos contener un campo que únicamente identifique ese registro de manera que éste pueda ser recuperado, actualizado o sacado. Este campo identificador se llama campo llave. Acceso de registros de los archivos de la computadora Los sistemas de cómputo almacenan archivos en dispositivos de almacenamiento secundario. Los registros pueden ser ordenados de diversas maneras en los medios de almacenamiento, y la disposición determina la manera según la cual los registros individuales pueden ser accedidos o recuperados. Maneras de organizar los registros:

Organización secuencial de archivos: los registros de datos deben ser recuperados en la misma secuencia física en la cual se almacenan. Es el único método de organización de archivos que puede ser usado en la cinta magnética. Este método no es muy utilizado, pero algunas instituciones aún lo usan para aplicaciones de procesamiento por lotes en donde se acceden y procesan secuencialmente cada registro.

Organización directa o aleatoria de archivos: permite que los usuarios accedan a los registros en cualquier secuencia que deseen, independientemente del orden físico real en los medios de

35

almacenamiento. Este método se utiliza con la tecnología de los discos magnéticos (aún cuando los registros en el disco se pueden almacenar si se desea en orden secuencial). La mayor parte de las aplicaciones en la computadora hoy en día utilizan algún método de organización directa de archivos.

Acceso secuencial indexado (MASI): aún cuando los registro puedan ser almacenados secuencialmente en dispositivos de acceso directo, a los registros individuales se puede acceder directamente mediante este método, que descansa en un índice de campos claves para localizar los registros individuales. Un índice a un archivo es semejante al índice de un libro, ya que enlista el campo clave de cada registro y donde se ubica físicamente tal registro en el almacenamiento para facilitar su localización. Cualquier registro específico puede ser localizado directamente usando el campo llave para encontrar la dirección de su almacenamiento en el índice. Este método se utiliza en aplicaciones que requieren de un procesamiento secuencial de gran número de registros, pero que ocasionalmente necesitan acceso directo de los registros individuales.

Método de acceso directo a archivos: se usa con la organización de archivos directos. Este método emplea un campo llave para localizar la dirección física de un registro. Sin embargo, el proceso se lleva a cabo sin un índice. En vez de ello, una expresión matemática llamada algoritmo de transformación ( ejecuta algún cálculo matemático en la clave del registro y el resultado de esa operación es la dirección física del registro) se emplea para traducir el campo clave directamente en la ubicación en el almacenamiento físico del registro en el disco. Este método de acceso es el más adecuado para aplicaciones en donde los registros individuales deben ser localizados directa y rápidamente para su procesamiento inmediato. Un ejemplo de ello podría ser un sistema en línea para reservaciones en hoteles.

Problemas con el ambiente tradicional de archivos En muchas instituciones, el procesamiento de la información se inició a escala muy pequeña, automatizando una operación a la vez. Los sistemas tienden a crecer de manera independiente y no de acuerdo con un gran plan. De manera típica, cada división de una empresa desarrolló sus propias aplicaciones. Dentro de cada división, cada área funcional tendió a desarrollar sistemas aisladamente de otras áreas funcionales. Cada aplicación, requirió de sus propios archivos y su propio programa de computadora para operar. En general, los archivos usados en una aplicación fueron alguna versión del archivo maestro del área funcional. En la empresa como un todo, este proceso condujo a la creación, mantenimiento y operación de muchos archivos maestros por parte de divisiones o departamentos independientes. La creación de un informe sencillo requería de un programa complejo de conciliación que leyera cada uno de los archivos, copiara los registros pertinentes y los recombinara en un archivo intermedio. Este archivo intermedio debía ser separado en la secuencia deseada antes de que un informe final pudiera imprimirse. Por supuesto, todo elemento de datos en los distintos archivos requería de un conjunto de documentos para apoyar al archivo y ayudar a recopilar información. A menudo el mismo elemento de dato, como clave del producto, se recopilaba en diversos documentos por diferentes divisiones y departamentos. Con el tiempo, la estructura de archivos de la institución llegó a ser tan compleja que los programadores desarrollaron especialidades para enfocarse a subconjuntos de archivos y programas. Si estos programadores dejaban la empresa, las aplicaciones clave fallaban. Existen nombres para esta situación: ambiente tradicional de archivos, organización de archivos planos (porque la mayor parte de la información se almacena en archivos planos) y el enfoque de archivos de datos (porque los datos y la lógica de los negocios están atados a archivos específicos y a programas relacionados). Cualquiera que sea el nombre, la situación tiene un resultado de ineficiencia y complejidad crecientes. A medida que este proceso prosigue, la empresa queda atada por nudos de su propia creación. La institución queda amarrada en cientos de programas y aplicaciones, en donde nadie sabe qué hacen, qué datos usan, ni quién los usa. No existe un listado central de los archivos de datos, elementos de datos o definiciones de los datos. La institución obtiene la misma información en diferentes documentos. Los problemas resultantes son:

36

REDUNDANCIA DE DATOS: es la presencia de datos duplicados en diversos archivos de datos. Ocurre cuando diferentes divisiones, áreas funcionales y grupos de la institución captan de manera independiente el mismo elemento de información. DEPENDENCIA DE LOS DATOS DEL PROGRAMA: es la relación estrecha entre los datos almacenados en los archivos y los programas específicos que se requieren para actualizar y mantener a tales archivos. Todo programa de computadora debe describir la localización y naturaleza de los datos con los que opera. Estas declaraciones sobre los datos pueden ser más largas que la parte sustantiva del programa. En un ambiente tradicional de datos, cualquier cambio en los datos requiere de un cambio en todos los programas con los que se accede a los datos. Cambios por ej., en las tasas de impuestos, requieren de cambios en los programas y esto puede costar millones de dólares en cada programa que necesite los datos ajustados. Una gran parte del esfuerzo de programación de la institución consiste en la actualización de los elementos de datos que están dispersos por cientos de archivos. En muchas ocasiones, las aplicaciones operan con datos no actualizados a causa de la dificultad de actualizarlos. FALTA DE FLEXIBILIDAD: un sistema tradicional de archivos puede dar informes programados de rutina luego de grandes esfuerzos de programación, o puede proporcionar informes adecuados o responder a requerimientos no previstos de información de manera oportuna. La información requerida por las solicitudes ad hoc está “en alguna parte del sistema” pero es demasiado caro recuperarla. Diversos programadores tendrían que trabajar durante semanas para juntar los elementos de datos que se requieren en un nuevo archivo. Los usuarios empiezan a pensar en ese momento para qué quieren en realidad a las computadoras. SEGURIDAD POBRE: como existe poco control o administración de datos, el acceso a ellos y la diseminación de la información quedan fuera de control. Aquellas limitaciones al acceso tienden a ser el resultado de la costumbre y la tradición, así como de la fuerte dificultad para encontrar información. IMPOSIBILIDAD DE COMPARTIR LOS DATOS Y DE SU DISPONIBILIDAD: la falta de control sobre el acceso a los datos en este ambiente de confusión no facilita que la personas obtengan la información. Como los elementos de información se encuentran en diferentes archivos y en diferentes partes de la institución no pueden relacionarse entre sí, y es virtualmente imposible que la información pueda ser compartida de manera oportuna. 8.2 Un ambiente moderno de bases de datos La tecnología de las bases de datos puede eliminar de un tajo muchos de los problemas creados por al organización tradicional de archivos. BASE DE DATOS: es una colección de datos organizada para dar servicio eficientemente a muchas aplicaciones al centralizar los datos y minimizar aquellos que son redundantes. En vez de separar los datos en archivos separados para cada aplicación, los datos son almacenados físicamente para aparecer a los usuarios como almacenados en una sola ubicación: una sola base de datos sirve a muchas aplicaciones. Sistemas de administración de bases de datos (SABD) Un SABD es sencillamente el software que permite que una institución centralice sus datos, los administre eficientemente y proporcione acceso a los datos almacenados mediante programas de aplicación. El SABD actúa como una interfase entre los programas de aplicación y los archivos físicos de datos. Usando los archivos de datos tradicionales, el programador tendría que definir los datos y luego decirle a la computadora dónde se encuentran. Un SABD elimina la mayoría de los argumentos para las definiciones de los datos que se encuentran en los programas tradicionales. El SABD tiene 3 elementos: 1. lenguaje de definición de datos: es el lenguaje formal empleado por los programadores para especificar el contenido y la estructura de la base de datos. El lenguaje de definición de datos define cada elemento de datos como aparece en la base de datos antes que este elemento sea traducido en las formas requeridas por los programas de aplicación.

37

2. lenguaje de manejo de datos: la mayoría de los SABD tienen un lenguaje especial llamado lenguaje de manejo de datos, que se usa en conjunción con algún lenguaje de programación de tercera o cuartea generación para manejar los datos en la base de datos. Este lenguaje contiene comandos que permiten a los usuarios finales y a los especialistas en programación extraer datos de la base de datos para satisfacer solicitudes de información o para desarrollar aplicaciones. El lenguaje más importante de manejo de datos en la actualidad es el SQL o Structured Query Language Lenguaje de Interrogación Estructurado: las tareas complejas de programación no pueden ser llevadas a cabo eficientemente con los lenguajes típicos de manejo de datos. Sin embargo, la mayoría de los SABD son compatibles con el COBOL y el FORTRAN y otros lenguajes de programación de tercera generación, permitiendo una mayor eficiencia y flexibilidad en el procesamiento. 3. diccionario de datos: es un archivo automatizado o manual que almacena definiciones de los elementos de datos y características de los mismos, como su uso, representación física, propiedad (quién en la institución es el responsable de dar mantenimiento a los datos), autorización y seguridad. Un elemento de dato representa un campo. Además de enlistar el nombre normal (AMT-PAY-BASE), en el diccionario aparecen los nombres que referencian a este elemento en sistemas específicos, e identifica a las personas, funciones de negocios, programas e informes que emplean a estos elementos de datos. Al crear un inventario de todos los elementos de datos contenidos en la base de datos, el diccionario de datos sirve como una importante herramienta de administración de datos. Por ejemplo, los usuarios del negocio podrían consultar el diccionario para saber exactamente qué elementos de datos se conservan para las funciones de ventas y mercadotecnia o aun determinar toda la información mantenida en toda la empresa. La mayoría de los diccionarios de datos son totalmente pasivos, ya que sólo informan. Los tipos más avanzados pueden ser automáticamente usados por los programas que están en relación. Por ejemplo, para cambiar los códigos postales de 5 a 9 dígitos, sencillamente se podría alimentar el cambio en el diccionario sin tener que modificar y recopilar todos los programas de usuarios que usan códigos postales. Imágenes lógicas y físicas de los datos Probablemente la mayor diferencia entre un SABD y la organización tradicional de archivos es que el primero separa las imágenes lógicas y físicas de los datos relevando al programador o usuario final de la tarea de entender dónde y cómo se almacenan en realidad los datos. El concepto de base de datos distingue entre las imágenes lógicas y físicas de los datos. IMAGEN LÓGICA: presenta los datos tal como podrían ser contemplados por los usuarios finales; IMAGEN FÍSICA: muestra cómo en realidad los datos quedan organizados y estructurados en los medio físicos de almacenamiento. ESQUEMA: se llama así a la descripción lógica de toda la base de datos, enlistando todos los elementos de datos y la relación entre ellos. SUBESQUEMA: se llama así al conjunto específico de datos de la base de datos que se requiere en cada programa de aplicación. Ventajas de los sistemas de administración de bases de datos

1. La complejidad del ambiente de sistemas de información de las instituciones puede reducirse mediante la administración centralizada de los datos, los accesos, el uso y la seguridad.

2. La redundancia e inconsistencia en los datos puede reducirse al eliminar todos los archivos aislados; 3. Las confusiones en los datos pueden eliminarse al proporcionar un control central de la creación y

definición de los datos; 4. La dependencia en los datos del programa puede reducirse al separar la imagen física de los datos de

su ordenamiento físico. 5. El desarrollo del programa y los costos de mantenimiento pueden reducirse de una manera radical; 6. La flexibilidad de los sistemas de información puede verse enormemente estimulada al permitir

consultar rápidas y baratas; 7. El acceso y la disponibilidad de la información pueden incrementarse.

8.3 Diseño de las bases de datos

38

Existen distintos modos de organizar la información y representar las relaciones entre los datos en una base de datos. Los SABD convencionales usan uno de los 3 modelos lógicos de bases de datos para hacer el seguimiento de las entidades, atributos y relaciones. Modelo jerárquico de datos Los primeros SABD eran jerárquicos. Este modelo presenta los datos a los usuarios en una estructura arborescente. El SABD más común de tipo jerárquico es el IMS de IBM (Information Management System). Dentro de cada registro, los elementos de datos quedan organizados en partes llamados segmentos. Para el usuario cada segmento se ve como un organigrama con el segmento de nivel superior llamado raíz. Un segmento superior se conecta de manera lógica con un segmento inferior en una relación de tipo padre-hijo. Un segmento padre puede tener más de un hijo, pero un hijo sólo puede tener un padre. Detrás de la imagen lógica de los datos hay una cantidad de enlaces físicos y dispositivos para ligar la información en un todo lógico. En los SABD lógicos, los datos están enlazados físicamente mediante una serie de señaladores que forman cadenas de segmentos de datos relacionados. Los señaladores son elementos de datos asociados a los extremos de los segmentos de los registros sobre el disco que dirige el sistema hacia los registros relacionados. Señalador: tipo especial de elemento de dato asociado a un registro que muestra la dirección absoluta o relativa de otro registro. Sería conveniente que el sistema pueda encontrar rápidamente el segmento raíz adecuado. Mejor que leer cada segmento de dato (de los cuales hay millones) uno a la vez hasta que el adecuado se encuentre, todos los segmentos raíces pueden ser sacados en un índice que contenga una lista y su localización precisa en un disco. Una vez que el segmento raíz es identificado, los señaladores tomarán el mando para guiar la búsqueda de la base de dato. Modelo de datos en red Es una variación del modelo de datos jerárquico. Mientras que las estructuras jerárquicas describen relaciones de uno a muchos, las estructuras en redes describen datos lógicamente en relaciones de muchos a muchos. En una relación de muchos a muchos en la que los SABD en redes tienen un desempeño excelente es la relación entre estudiantes y cursos; existen muchos cursos en una universidad y muchos estudiantes se inscriben en muchos cursos. Podrían ser jerárquicamente estructurados, pero esto significaría una gran redundancia y se haría más lenta la respuesta a ciertos tipos de solicitudes de información; el mismo estudiante aparecería en el disco de cada curso que tomara en vez de en uno solo. Las estructuras en red reducen las redundancias y, en ciertas situaciones (en las que existen relaciones muchos a muchos), responden de manera más rápida. Sin embargo, existe un precio por esta reducción en cuanto a redundancia e incremento de velocidad. El número de señaladores en las estructuras de la red se incrementa rápidamente, haciendo el mantenimiento y la operación más caros. Modelo relacional de datos Es el modelo más reciente; supera algunas de las limitaciones de los otros dos. Representa todos los datos en la base de datos como sencillas tablas de dos dimensiones llamadas relaciones. Las tablas son semejantes a los archivos planos, pero la información en más de un archivo puede ser fácilmente extraída y combinada. Algunas veces se llama archivos a las tablas. En cada tabla, los renglones (también llamados tuplos) son registro únicos y las columnas son los campos. Con frecuencia, un usuario requiere información de un número de relaciones para producir un reporte. Aquí se encuentra la fuerza del modelo relacional: puede relacionar datos en cualquier archivo o tabla con datos de otro archivo o tabla, siempre y cuando ambos compartan el mismo elemento. En una base de datos relacional. Se usan tres operaciones básicas para desarrollar conjuntos útiles de datos, seleccionar, proyectar y unir. La operación seleccionar crea un subconjunto que contiene todos los registros en el archivo que cumplen con un determinado criterio. “Seleccionar” crea, en otras palabras, un subconjunto de renglones que cumplen con determinados criterios. La operación unir combina las tablas relacionales para proporcionar al usuario más información que la que se encuentra disponible en las tablas individuales.

39

La operación proyecto crea un conjunto que consiste en columnas en una tabla, que permiten al usuario crear nuevas tablas que contengan nada más la información que se requiera. Entre los principales sistemas de administración de bases de datos relacionales para las macrocomputadoras se incluyen el DB-2 de IBM y el Oracle de la Oracle Corporation, el FoxBse Plus de la Fox Software Inc., y el Dbase IV Plus y Paradox de la Borland International Inc. Ventajas y desventajas de los tres modelos de base de datos Modelo jerárquico y de red Modelo relacional Ventajas Eficiencia en el procesamiento. Gran flexibilidad en cuanto a las consultas

ad hoc, el poder de mezclar la información de fuentes distintas, sencillez en el diseño y mantenimiento y capacidad de añadir nuevos datos a registros sin necesidad de perturbar los programas y las aplicaciones existentes

Desventajas Estos diseños tienen poca flexibilidad: todas las rutas de acceso, directorios e índices deben ser especificados por adelantado. Una vez especificados, no se pueden cambiar fácilmente sin un esfuerzo importante de programación.

Requieren de una programación intensiva, consumidora de tiempo, difícil de instalar y más difícil de corregir si ocurrieran errores de diseño.

No soportan consultas ad hoc en inglés para información.

Baja eficiencia relativa en el procesamiento. Estos sistemas son algo más lentos porque

en general requieren de muchos accesos a los datos almacenados en disco para llevar a cabo los comandos de selección, fusión y proyección.

No tienen el gran número de señaladores que tienen los sistemas jerárquicos.

El mismo elemento de datos puede almacenarse en distintas tablas. La actualización de los elementos redundantes de datos no es una actividad automática en muchos SABD relacionales.

Tipo de base de dato Eficiencia de

procesamiento Flexibilidad Amigabilidad para

usuarios finales Complejidad en la programación

Jerárquica Alta Baja Baja Alta En redes Media-alta Baja-media Baja moderada Alta relacional Baja pero mejorando Alta alta Baja Creación de una base de datos Para crear una base de datos se deben realizar dos ejercicios de diseño: un diseño lógico y uno físico. DISEÑO LÓGICO: es un modelo abstracto de la base de datos desde una perspectiva de negocios. Requiere de una descripción detallada de las necesidades de información del negocio de los actuales usuarios finales de la base. Describe cómo los elementos en la base de datos han de quedar agrupados. El proceso de diseño identifica las relaciones entre los elementos de datos y la manera más eficiente de agruparlos para cumplir con los requerimientos de información. El proceso también identifica elementos redundantes y los agrupamientos de elementos de datos que se requieren para programas de aplicaciones específicos. Los grupos de datos son organizados, refinados y agilizados hasta que una imagen lógica general de las relaciones entre todos los elementos en la base de datos surja. Los diseñadores de bases de datos documentan el modelo lógico de datos mediante un diagrama de relaciones entre entidades (ver fig. 8.15). Los cuadros representan entidades y los diamantes relaciones. El 1 o la M en cualquier lado del diamante representa la relación entre entidades, ya sea como uno-a-uno, uno-a-muchos o muchos-a-muchos. Los atributos para cada entidad se enlistan a continuación y el campo clave queda subrayado. Una manera más eficiente de ordenar los datos es fraccionar una entidad (PEDIDO) en relaciones más pequeñas, cada una de las cuales describe a una sola entidad. El proceso de creación de estructuras de datos pequeñas y estables se llama normalización.

40

DISEÑO FÍSICO: muestra cómo la base de datos se ordena en realidad en los dispositivos de almacenamiento de acceso directo. Es llevado a cabo por los especialistas en bases de datos. 8.4 Tendencias en las bases de datos Entre las recientes tendencias en las bases de datos se incluye el crecimiento de las bases de datos distribuidas y el surgimiento de las bases de datos orientadas a objetos e hipermedia. Procesamiento distribuido y bases de datos distribuidas PROCESAMIENTO DISTRIBUIDO: se llama así a la dispersión y el uso de computadoras entre diversas localidades geográfica o funcionalmente separadas de tal manera que las computadoras locales manejen las necesidades locales de procesamiento. En vez de confiar en una macrocomputadora única centralizada para proporcionar servicio a terminales remotas, las instituciones iniciaron la instalación de macro y microcomputadoras en sitios remotos. Estos procesadores distribuidos sirven directamente a sucursales y fábricas locales y regionales, y generalmente están enlazados por redes. BASES DE DATOS DISTRIBUIDAS: existe sólo un paso muy pequeño del procesamiento distribuido a las bases de datos distribuidas. Una base de datos distribuida es aquella que se almacena en más de un lugar físico. Partes de la base de datos se almacenan físicamente un lugar y otras partes se almacenan y mantienen en otros lugares. Existen dos maneras de distribuir una base de datos:

1. la base de datos central pude ser particionada de manera que cada procesador remoto tenga los datos necesarios sobre los clientes para servir a su área local. Los cambios en los archivos locales pueden ser justificados con la base de datos central sobre la base de lotes, en general por la noche

2. otra estrategia es duplicar la base de datos central en todas las localidades remotas. Esta estrategia también requiere de la actualización de la base central de datos en horas no laborables.

3. Aun otra posibilidad (una que se emplea en las bases de datos muy grandes) es mantener sólo un índice central de nombres y almacenar localmente registros completos. Una consulta al índice central de nombres identifica la dirección donde se puede encontrar el expediente completo. En este caso no existe una base de datos central y ningún costo de actualización.

4. Otra variante es la del esquema preguntarle-a-la-red. No existe un índice central de nombres en este diseño. En vez de ello, todos los procesadores remotos son llamados a encontrar un registro completo, luego, éste se transfiere a cualquiera de los procesadores que lo solicite.

Ventajas y desventajas de los sistemas distribuidos:

VENTAJAS: Reducen la vulnerabilidad de un lugar único central y voluminoso. Permiten incremento en la potencia de los sistemas al adquirir minicomputadoras que son más pequeñas

y baratas. Incrementan el servicio y la posibilidad de respuesta a los usuarios locales.

DESVENTAJAS: Dependen de la alta calidad de las líneas de telecomunicaciones, las cuales a su vez son vulnerables. Las bases de datos locales pueden algunas veces alejarse de las normas y las definiciones de los datos

centrales y hacen surgir problemas de seguridad al distribuir ampliamente el acceso a datos de alta sensibilidad.

A pesar de estos inconvenientes, el procesamiento distribuido crece aceleradamente; la cuestión no es ya si se distribuye, sino cómo se distribuye de manera que los costos se minimicen y la capacidad de respuesta mejore sin sacrificar la integridad de los datos o del sistema. Bases de datos orientadas a objetos e hipermedia Los sistemas convencionales de administración de bases de datos fueron diseñados para datos homogéneos que pueden ser fácilmente estructurados en campos de datos y registros predefinidos. Pero en muchas aplicaciones se requerirán de bases de datos que puedan almacenar y recuperar no solamente números y

41

caracteres estructurados sino también dibujos, imágenes, fotografías, voz y video de movimiento total. Los SABD no son muy apropiados para manejar aplicaciones basadas en gráficas o multimedia. El manejo de este tipo de datos en un sistema relacional requiere de una gran cantidad de programación para traducir estas complejas estructuras de datos en tablas y renglones. BASE DE DATOS ORIENTADA A OBJETOS: enfoque a la administración de datos por el cual se almacenan los datos y los procedimientos que actúan sobre los datos como objetos que pueden ser recuperados y compartidos de manera automática. BASE DE DATOS EN HIPERMEDIA: enfoque de administración de datos que organiza los datos como una red de nodos ligados entre sí establecidos por el usuario. Los nodos pueden contener texto, gráficas, sonido, video de movimiento total o programas de computadora ejecutables. La búsqueda de información no tiene que seguir un patrón determinado de organización. En vez de ello, uno se puede enlazar directamente a la información relacionada en cualquier tipo de relación establecida por el autor. La relación entre los registros es menos estructurada que en un SABD tradicional. En la mayor parte de los sistemas, cada nodo puede ser desplegado en una pantalla. En la pantalla también se despliegan los lazos entre el nodo descrito y los demás nodos de la base de datos. 8.5 Requerimientos administrativos para los sistemas de base de datos Se requiere mucho más para el desarrollo de sistemas de base de datos que únicamente seleccionar un modelo lógico de base de datos. De hecho, esta selección puede estar entre las últimas decisiones. La base de datos en una disciplina organizacional, un método más que una herramienta o una tecnología. Requiere de un cambio conceptual y organizacional. Sin el apoyo de la administración, los esfuerzos en pro de las bases de datos fallan. Los elementos críticos en un ambiente de base de datos son:

1. Administración de datos; 2. Metodología para la planeación y el modelaje de datos; 3. Tecnología y administración de las bases de datos; 4. Usuarios.

Administración de los datos La institución debe desarrollar la función de administración de datos con el poder de definir los requerimientos de la información para toda la empresa y con acceso directo a la alta dirección. El director de información (DI) es el primero que aboga en la institución por los sistemas de base de datos. La administración de la información es responsable de las políticas y procedimientos específicos mediante los cuales los datos pueden ser administrados como un recurso institucional. El principio fundamental de la administración de datos es que son propiedad de la institución como un todo. Los datos no pueden pertenecer en exclusiva a ninguna de las áreas de negocios o unidades organizacionales. Una institución debe formular una política de información que especifique sus reglas para compartir, distribuir, adquirir, clasificar, estandarizar e inventariar la información en la institución. Metodología para la planeación y el modelaje de datos La empresa requiere de una planeación en todo su ámbito para los datos. El análisis a nivel de empresa, que trata sobre los requerimientos de toda la institución, es necesario para el desarrollo de bases de datos. El fin del análisis de la empresa es identificar las entidades, atributos y relaciones claves que conforman los datos de la institución. Tecnología y administración de las bases de datos Las bases de datos requieren de nuevo software y de un nuevo personal capacitado especialmente en las técnicas de los SABD, así como en las nuevas estructuras administrativas. En la mayoría de las corporaciones se desarrolla un grupo de diseño y administración de bases de datos dentro de la división de sistemas de información, que es responsable por los aspectos más técnicos y operativos de la administración de los datos. Las funciones que realiza se denominan administración de base de datos. Este grupo realiza lo siguiente:

42

1. Define y organiza la estructura y el contenido de la base de datos. 2. Desarrolla procedimientos de seguridad para la salvaguarda de la base de datos. 3. Desarrolla la documentación de la base de datos. 4. Da mantenimiento al software de administración de la base de datos.

Usuarios Una base de datos sirve a una comunidad más amplia de usuarios que los sistemas tradicionales. Los sistemas relacionales con lenguajes de consulta de cuarta generación permiten que los empleados no especialistas en cómputo tengan acceso a las grandes bases de datos. Con el objeto de optimizar el acceso para los no especialistas, es necesario destinar más recursos para capacitar a los usuarios finales (entre los que se incluye a los especialistas entrenados en el cómputo). Retos de la administración 1. Obstáculos insititucionales para un ambiente de base de datos; 2. Consideraciones de costo/beneficio; 3. Ubicación en la institución de la función de administración de información.

43

UNIDAD IX 9.1 La revolución de las telecomunicaciones TELECOMUNICACIONES: comunicación de información por medios electrónicos, normalmente a cierta distancia. La revolución de las comunicaciones tiene dos componentes: cambios rápidos en la tecnología de las comunicaciones y cambios igualmente rápidos en la propiedad, control y mercadotecnia de los servicios de telecomunicaciones. El matrimonio entre las computadoras y las comunicaciones Durante casi todos los últimos años desde que Alexander Bell inventó el primer “telégrafo cantante” en 1876, las telecomunicaciones han sido monopolio del estado o de una empresa privada regulada. El fin del monopolio amplió el mercado para nuevas tecnologías y dispositivos de telecomunicaciones. Los cambios en la industria de las telecomunicaciones se vieron acompañados de la tecnología de las telecomunicaciones. Anteriormente, las telecomunicaciones significaban transmisión de voz mediante líneas telefónicas. En la actualidad muchas de las transmisiones de telecomunicaciones son de información digital, usando las computadoras para la transmisión de los datos de un lugar a otro. La desregulación y el matrimonio entre las computadoras y las comunicaciones también han hecho posible para las compañías telefónicas expandirse de las tradicionales comunicaciones de voz den nuevos servicios de información. Qué es lo que los administradores deben conocer y por qué Los administradores de hoy deben conocer las diferentes tecnologías y sistemas disponibles para sus instituciones, los costos y beneficios de cada uno, las capacidades de las diversas tecnologías y un método para determinar los requerimientos de telecomunicaciones de la institución. 9.2 Componentes y funciones de un sistema de telecomunicaciones SISTEMA DE TELECOMUNICACIONES: es un conjunto de softwares y hardwares compatibles ordenados para comunicar información de un lugar a otro. Estos sistemas de información pueden transmitir información de textos, gráficas, imágenes, voz o video. Los componentes de los sistemas de telecomunicaciones Los componentes esenciales de un sistema de telecomunicaciones son los siguientes:

1. Computadoras para procesar la información. 2. Terminales o cualesquiera dispositivos de entrada y salida que envíen o

reciban datos. 3. Canales de comunicaciones, los enlaces mediante los cuales los datos o la voz

son transmitidos entre los dispositivos de emisión y recepción en una red. Los canales de comunicación emplean diversos medios de comunicaciones, como líneas de teléfonos, cables de fibra óptica, cables coaxiales y transmisión inalámbrica.

4. Procesadores de comunicaciones, como módems, multiplexores y procesadores frontales que proporcionan las funciones de soporte para la transmisión y la recepción de los datos.

5. Software de comunicaciones, que controla las actividades de entrada y salida y maneja otras funciones de la red de comunicaciones.

FUNCIONES DE LOS SITEMAS DE TELECOMUNICACIONES: Con el objeto de enviar y recibir información de un lugar a otro, el sistema de telecomunicaciones debe realizar un número de funciones independientes:

1. transmitir información 2. establecer la interfase entre el emisor y el receptor 3. enviar los mensajes a través de los caminos más eficaces

44

4. realizar el procesamiento preliminar de la información para asegurar que el mensaje correcto llegue al receptor adecuado

5. realizar trabajos editoriales con los datos (como verificar los errores y reordenar el formato) 6. convertir los mensajes de una velocidad a otra o de un formato a otro 7. controlar el flujo de información

Muchas de estas tareas son llevadas a cabo por la computadora PROTOCOLOS Una red típica de telecomunicaciones en general contiene diversos componentes de hardware y software que deben trabajar en conjunto para transmitir información. Diferentes componentes en una red pueden comunicarse al adherirse a un conjunto común de reglas que permiten que hablen el uno con los demás. Este conjunto de reglas y procedimientos que gobiernan la transmisión entre dos puntos de una red se llama protocolo. Cada uno de los dispositivos de una red debe ser capaz de interpretar los protocolos de otros nodos. La función principal de los protocolos en una red es

1. identificar cada dispositivo en la ruta de las comunicaciones para asegurar la atención del otro dispositivo

2. verificar la correcta recepción del mensaje transmitido 3. verificar que el mensaje requiere retransmisión porque no puede ser

correctamente interpretado 4. realizar la recuperación cuando se tengan errores

Tipos de señales: analógicas y digitales La información viaja a lo largo de un sistema de telecomunicaciones en forma de señales electormagnéticas. Las señales se presentan de dos modos, hay señales: ANALÓGICAS: se representa por una onda continua que pasa por un medio de comunicación. Se usan para manejar comunicaciones de voz y para reflejar variaciones en el tono. DIGITALES: es una forma de onda, más bien discreta que continua, que transmite datos codificados en dos estados discretos (1 bit y 0 bit) que se representan como pulsos eléctricos de encendido (on) y apagado (off). La mayoría de las computadoras se comunican con señales digitales, como lo hacen muchas de las compañías locales de teléfonos y algunas grandes redes. Pero si un sistema de telecomunicaciones, como una red tradicional de teléfonos, se instala para procesar señales analógicas (receptores, transmisores, amplificadores y otros), una señal digital no puede ser procesada sin algunas alteraciones. Todas las señales digitales deben ser traducidas a señales analógicas antes de transmitirlas en un sistema analógico. MODEM: es el dispositivo que realiza esta traducción. Módem es una abreviatura de MODulation/DEModulation; traduce las señales digitales de una computadora a la forma analógica para la transmisión en líneas ordinarias de teléfono, o traduce las señales analógicas a la forma digital para su recepción mediante una computadora. Tipos de canales de comunicaciones CANALES: los canales de comunicación son los medios mediante los cuales los datos se transmiten de un dispositivo en una red a otros. Un canal pude utilizar diferentes tipos de medios de transmisión de telecomunicaciones: alambre torcido, cable coaxial, fibra óptica, microondas terrestres, satélite y transmisión inalámbrica. Los medios de transmisión de alta velocidad son más caros en general, pero pueden manejar mayores volúmenes (lo que reduce el costo por bit).

Alambre torcido: consiste en hilos de alambre de cobre torcidos en pares, y es el medio de transmisión más antiguo. La mayoría de los sistemas telefónicos en un edificio se apoyan en alambre torcido instalado para comunicación analógica. Aunque es de bajo costo y ya está en su lugar, es relativamente lento para transmitir datos, y las transmisiones a lata velocidad causan interferencia llamada diafonía (Crostalk). Por otra parte, el nuevo software y hardware han elevado la capacidad de los cables torcidos hasta 10 megabits por segundo, lo cual a menudo es adecuado para conectar microcomputadoras y otros dispositivos de oficina.

45

Cable coaxial: como el que se usa en la televisión por cable, consiste en un alambre de cobre con un gran espesor de aislamiento, que puede transmitir un mayor volumen de datos que el alambre torcido. Es un medio más rápido, más libre de interferencia y con velocidades hasta de 200 megabits por segundo. Sin embargo, es grueso, difícil de instalar en muchos edificios y no puede soportar conversaciones analógicas de teléfonos.

Cable de fibra óptica: consiste en haces de fibra de vidrio transparente, delgados como un cabello humano, que se unen en cables. Los datos se transmiten en pulsos de luz, los que se llevan a través del cable de fibra óptica por un dispositivo láser a razón de 500 kilobits a diversos millones de bits por segundo. Es considerablemente más rápido, ligero y más durable que los medios de alambre, y es muy apropiado para los sistemas en donde se requieren transferencias de grandes volúmenes de datos. Además, la fibra óptica es más difícil de trabajar, es más cara y más difícil de instalar. Se usa mejor como el centro de una red y no para conectar dispositivos aislados con el centro.

Transmisión inalámbrica: envía señales a través del aire o del espacio sin ninguna conexión física, y puede acompañarse de microondas terrestres, satélites, telefonía celular o rayos de luz infrarroja. Los sistemas de microondas terrestres transmiten señales de radio de alta frecuencia a través de la atmósfera, y son ampliamente usadas para comunicaciones de alto volumen de largas distancias de punto a punto. Como la señal de microonda sigue una línea recta y no se curva con la superficie de la tierra, las estaciones de transmisión deben colocarse entre 40 y 50 km de distancia, lo que se añade al costo de la microonda. Este problema puede ser resuelto al usar comunicaciones de microondas con satélites. Los satélites se usan en general para las comunicaciones en instituciones muy grandes y geográficamente dispersas, que sería difícil enlazarlas mediante algún medio de cableado o microondas terrestres. Los satélites se mueven en órbitas estacionarias aproximadamente a 35 km. sobre la superficie de la Tierra. Los satélites pueden servir como estaciones de enlaces para señales de microondas transmitidas desde estaciones terrestres.

Características de los canales de comunicación Las características de los canales de comunicación ayudan a determinar la eficiencia y capacidades de un sistema de telecomunicaciones. entre esas características se incluyen: velocidad de transmisión, la distancia dentro de la que las señales viajan y el modo de transmisión. VELOCIDAD DE TRANSMISIÓN: la cantidad total de información que puede ser transmitida a través de cualquier canal de comunicación se mide en bits por segundo (BPS). Algunas veces esto se conoce como la tasa en bauds. Un baud es un hecho binario que representa un cambio de señal de positivo a negativo o viceversa. La tasa en bauds no siempre es la misma que la tasa en bits. A velocidades mayores, un cambio único de señal pude transmitir más de un bit a la vez, de manera que la tasa en bits generalmente será mayor que la tasa en bauds. Como se requiere de un cambio de señal o ciclo para transmitir uno o varios bits por segundo, la capacidad de transmisión de cada uno de los medios de telecomunicaciones es una función de su frecuencia, el número de ciclos por segundo que pueden ser enviados a través de ese medio medidos en hertz. El margen de frecuencias que pueden ser acomodadas en un canal de telecomunicaciones en particular se llama amplitud de banda. La amplitud de banda es la diferencia entre la más alta y la más baja frecuencia que pueden ser acomodadas en un solo canal. Mientras mayor sea el margen de frecuencias, mayor será la amplitud de banda y mayor la capacidad de transmisión del canal de telecomunicaciones. MODOS DE TRANSMISIÓN: existen diversas convenciones para la transmisión de señales; estos métodos son necesarios para que los dispositivos puedan comunicar cuándo empieza o termina un carácter. La transmisión asíncrona (normalmente conocida como transmisión inicio-alto) transmite un carácter a la vez sobre una línea, cada carácter limitado por bits de control, un bit de arranque, uno o dos bits de alto y un bit de paridad. La transmisión asíncrona se emplea para transmisión de baja velocidad. La transmisión síncrona transmite simultáneamente grupos de caracteres, con el principio y fin de un bloque de caracteres determinados por el circuito de tiempo de los dispositivos emisores y receptores. Se usa para la transmisión de grandes volúmenes de datos a altas velocidades.

46

DIRECCIÓN DE TRANSMISIÓN: la transmisión debe considerar también la dirección del flujo de información a través de una red de Telecomunicaciones. En la transmisión simplex, los datos pueden viajar sólo en una dirección todo el tiempo. En la transmisión half-duplex, los datos pueden fluir en 2 sentidos pero sólo en una dirección a la vez. En la transmisión full-duplex, los datos pueden enviarse en ambas direcciones en forma simultánea. Procesadores de comunicaciones Los procesadores de comunicaciones, como los procesadores frontales, los concentradores, los controladores, los multiplexores y los módems, permiten la transmisión y recepción de datos en una red de telecomunicaciones. PROCESADOR FRONTAL: es una pequeña computadora dedicada a la administración de las comunicaciones y asociada con la computadora principal o anfitriona en un sistema de cómputo. El procesador frontal realiza procesamientos especiales relacionados con las comunicaciones, como el control de errores, el formateo, edición, direccionamiento y conversión de velocidad y de señal. Toma parte del trabajo de la computadora anfitriona. Es en gran medida responsable de la recolección y el procesamiento de los datos de entrada y salida desde y hacia las terminales y del agrupamiento de caracteres en mensajes completos para someterlos al CPU de la computadora anfitriona. CONCENTRADOR: es una computadora programable de telecomunicaciones que captura y almacena temporalmente mensajes desde las terminales hasta que suficientes mensajes puedan ser enviados económicamente. Luego, el concentrador “dispara” señales a la computadora anfitriona. CONTROLADOR: es a menudo una minicomputadora especializada; supervisa el tráfico de comunicaciones entre el CPU y los dispositivos periféricos como las terminales e impresoras. Administra mensajes desde estos dispositivos y los comunica al CPU. También dirige la salida desde el CPU hacia el dispositivo periférico apropiado. MULTIPLEXOR: es un dispositivo que permite un solo canal de comunicaciones para llevar a cabo la transmisión de datos desde diversas fuentes de manera simultánea. Divide al canal de comunicaciones de manera que pueda ser compartido por diversos dispositivos de transmisión. Puede dividir un canal de altra velocidad en diversas velocidades menores o puede asignar a cada fuente de transmisión una pequeña fracción de tiempo para el uso del canal de alta velocidad. Software de telecomunicaciones Se requiere de software de telecomunicaciones especial para controlar y sustentar las actividades de una red de telecomunicaciones. este software reside en la computadora anfitriona en el procesador frontal y en otros procesadores de la red. Las funciones principales son:

1. control de la red 2. control del acceso 3. control de la transmisión 4. detección/corrección de errores 5. seguridad

9.3 Tipos de redes de telecomunicaciones Hay muchas diferentes maneras de organizar los componentes de telecomunicaciones para formar una red y, por tanto, hay múltiples maneras de clasificar las redes. Las redes pueden ser clasificadas de acuerdo con:

1. su forma o topología; 2. su ámbito geográfico 3. el tipo de servicios proporcionados

Tipologías de las redes REDES ESTRELLA: consiste en una computadora central o anfitriona conectada a un conjunto de computadoras más pequeñas o terminales. La topología es útil para aplicaciones donde algunos procesamientos deben ser centralizados y otros pueden ser realizados localmente. Un problema sobre las redes en estrella es su vulnerabilidad. Todas las comunicaciones entre los puntos de la red deben pasar por la computadora central; si ésta deja de funcionar, las comunicaciones en la red se detendrán.

47

RED DE BUS: enlaza a un gran número de computadoras mediante un circuito único hecho de alambre torcido, cable coaxial o cable de fibra óptica. Todas las señales son transmitidas en ambas direcciones a toda la red, con software especial par identificar cuáles componentes reciben qué mensajes; no hay una computadora central o anfitriona para controlar la red; si una de las computadoras de la red falla, no se afecta ninguno de los otros componentes. Esta topología se usa comúnmente en las redes de áreas locales (LAN). RED EN FORMA DE ANILLO: al igual que en la red de bus, la red en forma de anillo no descansa en una computadora anfitriona central y no será necesario parar si una de las computadoras componentes funciona mal. Cada una de las computadoras en la red se puede comunicar con cualquier otra y cada una procesa sus propias aplicaciones de manera independiente. Sin embargo, en la tipología de anillo el alambre, cable o fibra óptica que la conecta forma un bucle o circuito cerrado. Los datos pasan a lo largo del anillo de una computadora a la otra y siempre fluyen en una sola dirección. La red de señal circular es una variable de la red en anillo. En la red de señal en forma de anillo, todos los dispositivos en la red se comunican usando una señal o “seña”. Cada uno de los dispositivos en la red se llama nodo. La señal es un paquete pequeño y predefinido de datos, en donde se incluyen los que indican al emisor, el receptor y si el paquete está en uso. Las señales pueden contener un mensaje o estar vacías. En la red de señal circular, todo el cableado converge hacia un lugar, llamado cubo, y que es el que contiene el anillo de la red. Las señales de mensajes se mueven entre los nodos de la red mediante reguladores que se encuentran en el cubo y en el siguiente nodo activo. Sólo una computadora puede transmitir un mensaje a la vez. La configuración de anillo con señal es de gran utilidad en la transmisión de mayores volúmenes de datos entre las PC. Intercambios privados de rama y redes de área locales Las redes pueden clasificarse por su impacto geográfico hacia las redes locales y las redes de área extensa. Las redes locales consisten en intercambios privados entre ramas y redes de áreas locales. INTERCAMBIOS PRIVADOS ENTRE RAMAS: un intercambio privado de rama (PBX) es una computadora de propósito especial diseñada para manejar e intercambiar llamadas telefónicas de oficina en el lugar en el que se encuentra una compañía. Los PBX actuales pueden llevar voz y datos para crear redes locales; ahora pueden almacenar, transferir y marcar de nuevo llamadas telefónicas. También puede utilizarse para intercambiar información digital entre las computadoras y los dispositivos de oficina. (PBX digital que conecta máquinas “inteligentes). Ventajas: utiliza las líneas telefónicas existentes y no requiere de cableado especial. Reciben soporte de proveedores comerciales, como la compañía local de teléfonos, de manera que la institución no requiera de habilidades especiales para manejarlos. Desventajas: el ámbito geográfico es limitado, normalmente a unos cuantos cientos de metros. Otra desventaja es que queda limitado a líneas telefónicas y no puede manejar fácilmente muy grandes volúmenes de datos. RED DE ÁREA LOCALES: una red de área local (LAN) abarca una distancia limitada, en general un edificio o varios próximos. La mayoría de las LAN conectan dispositivos localizados dentro de un radio de 670 m. Requieren de sus propios canales de comunicaciones. En general tienen capacidades de transmisión más altas que los PBX, ya sea que usen tipologías de bus o de anillo, y una alta amplitud de banda. Una BPX muy rápida puede tener una capacidad máxima de transmisión de más de 2 megabits por segundo. Las LAN en general transmiten a razón de 256 kilobits hasta más de 100 megabits por segundo. Se recomiendan para aplicaciones que requieren grandes volúmenes de datos a altas velocidades de transmisión (como transmisiones de video y gráficas). El servidor de archivos actúa como bibliotecario almacenando diversos programas y archivos de datos para los usuarios de las redes. El servidos determina quién tiene acceso a qué y en qué secuencia. Los servidores pueden ser poderosas microcomputadoras con grandes capacidades de disco duro, estaciones de trabajo, minicomputadoras o macrocomputadoras. El servidor contiene en general al sistema operativo de la red para la LAN que administra al servidor y direcciones y administra las comunicaciones en la red.

48

El portal de la red conecta la LAN a las redes públicas como la red telefónica o a otras redes corporativas de manera que la LAN pueda intercambiar información con redes externas a ella. Un portal es en general un procesador de comunicaciones que puede enlazar redes diferentes al traducir de un conjunto de protocolos a otro. La tecnología LAN consiste en cableado o tecnología inalámbrica que enlaza los dispositivos individuales de cómputo, tarjetas de interfase de redes (que son adaptadores especiales que sirven como interfases al cable) y software para controlar las actividades de la LAN. La tarjeta de interfase de redes LAN especifica la tasa de transmisión de datos, el tamaño de unidades de mensaje, la información direccionada asociada a cada mensaje y la topología de la red. Existen cuatro tecnologías principales de LAN para conectar físicamente los dispositivos:

la Etherner, desrrollada por Xerox, Digital Equipment Corporation e Intel; Appleatalk de la Apple computer Incorporated; Anillo de señales, desarrollada por IBM y Texas Instruments; ARCnet desarrollada por Datapoint.

Estas utilizan una tecnología de canal de banda base o de banda amplia. Los productos baseband proporcionan una sola trayectoria para la transmisión de texto, gráficas, voz o videodatos y sólo un tipo de dato puede ser transmitido a la vez. Los productos broadband proporcionan diversas rutas de manera que diferentes tipos de datos puedan ser transmitidos de manera simultánea. Las capacidades del LAN también quedan definidas por el sistema operativo de la red. Este sistema puede residir en cada una de las computadoras de la red o en un servidor único de archivos designado para todas las aplicaciones de la red. Ventajas: están totalmente controladas, mantenidas y operadas por los usuarios finales. Estos es una ventaja, pero también significa que el usuario debe saber mucho sobre aplicaciones y redes de telecomunicaciones. Permiten que las instituciones compartan hardware y software caros. Desventajas: mayor costo de instalación que las PBX y que son menos flexibles, requiriéndose cablear de nuevo cada vez que el LAN se mueve. Además requieren de personal especialmente capacitado para administrarlas y operarlas. Redes de área amplia (WAN) Las redes de área amplia (WAN) salvan grandes distancias geográficas desde algunos cuantos kilómetros hasta continentes enteros. Pueden consistir en una combinación de líneas intercambiadas y exclusivas, comunicaciones por microondas o por satélite. LINEAS INTERCAMBIADAS: (¿es la conmutada?) son líneas telefónicas a las que una persona puede tener acceso desde su terminal para transmitir datos a otra computadora; la llamada es direccionada o cambiada a través de rutas hacia los destinos señalados. LINEAS EXCLUSIVAS: (¿es la punto a punto?) o no cambiadas, están permanentemente disponibles para la transmisión, y el arrendatario paga una cantidad fija para tener acceso total a la línea. Las líneas pueden ser rentadas o compradas de las comunicadoras normales o de proveedores privados de medios de comunicación. Las líneas exclusivas en general quedan condicionadas a la transmisión de datos a mayores velocidades que las líneas intercambiadas, y son más apropiadas para la transmisión de grandes volúmenes. Las líneas intercambiadas, por otra parte, son más baratas y más adecuadas para aplicaciones de bajos volúmenes que requieran sólo de una transmisión ocasional. Está surgiendo la red virtual privada como una alternativa menos cara para enlazar instalaciones corporativas ampliamente dispersas. Esta red proporciona telecomunicaciones baratas sobre líneas públicas de teléfonos con computadoras y software, que crean una ilusión de una red privada para la empresa. Redes de valor agregado Son una alternativa para las personas que diseñan y operan sus propias redes. Las VAN son redes privadas, de rutas múltiples, sólo de datos y administradas por terceros, que proporcionan economía en los costos de los servicios y en la administración de las redes porque son utilizadas por diversas instituciones. La VAN es establecida por una empresa que está a cargo de la administración de la red. Los suscriptores pagan sólo por

49

el monto de los datos que transmiten más una cuota de suscripción. La red puede utilizar líneas de pares torcidos de alambre, enlaces de satélite y otros canales de comunicaciones rentados por quien da el valor agregado. El término “valor agregado” se refiere al “valor” extra añadido por las telecomunicaciones y los servicios de cómputo que estas redes proporcionan a los clientes. Los clientes no tienen que invertir en el equipo de la red ni en el software o realizar su propia verificación de errores, su edición, direccionamiento y conversiones a través de protocolos. Los suscriptores pueden hacer economías en costos por líneas y de transmisiones, porque los costos de uso de la red son compartidos entre muchos usuarios. Los costos resultantes pueden ser mucho más bajos que si los clientes hubieran rentado sus propias líneas o servicios de satélite. El mantenimiento de una red privada puede ser muy atractivo para instituciones que tienen un alto volumen de comunicaciones. CAMBIO DE PAQUETES: es otra manera como las redes de valor agregado proporcionan economías. El cambio de paquetes rompe un largo bloque de texto en grupos pequeños y fijos de datos llamados paquetes. El VAN obtiene información de muchos usuarios, la divide en pequeños paquetes y de manera continua usa diversos canales de comunicación para enviarlos. Cada paquete viaja de manera independiente a lo largo de la red. El cambio de paquetes permite que las instalaciones de comunicaciones sean utilizadas más intensamente por más usuarios. REGULADOR LIMITADO: es una opción más rápida y barata que la de cambio de paquetes. El regulador enmarcado es un servicio de red compartida que empaca los datos en “marcos” semejantes a los paquetes. El regulador enmarcado, sin embargo, no realiza corrección de errores. Puede comunicar a velocidades de transmisión de hasta 1.544 megabits por segundo. El regulador enmarcado sólo trabaja exitosamente sobre líneas confiables que no requieren de retransmisión frecuente a causa de errores. Conclusión: evidentemente, los VSAN no son ideales para todas las situaciones. Son lo mejor en las comunicaciones a velocidad moderada, de alto volumen, con largas distancias frecuentes y cuando las instituciones no necesitan administrar sus propias telecomunicaciones. ciertamente hacen surgir problemas de seguridad, porque los datos de la empresa pueden mezclarse con los de otras aún cuando muy pocos problemas de este tipo se han reportado hasta hoy. 9.4 Cómo usan las instituciones las telecomunicaciones para obtener ventajas competitivas Las telecomunicaciones han ayudado a eliminar los obstáculos geográficos y de tiempo, y se han establecido organizaciones para acelerar el paso de producción y la toma de decisiones. Aplicaciones facilitadoras Algunas de las aplicaciones más importantes de las telecomunicaciones para la comunicación y para acelerar el flujo de las operaciones y mensajes a través de las empresas de negocios son: CORREO ELECTRÓNICO: es el intercambio de mensajes de computadora a computadora. Elimina el recibo de teléfono y cargos onerosos por concepto de largas distancias, acelerando la comunicación entre diferentes partes de la institución. CORREO DE VOZ: digitaliza el mensaje hablado del emisor, lo transmite mediante una red y almacena el mensaje en disco para su posterior recuperación. Cuando el receptor está listo para oírlos, los mensajes se convierten a la forma de audio. FASCÍMIL (FAX): las máquinas de fax pueden transmitir documentos con textos y gráficas por líneas telefónicas. La máquina de fax emisora barre y digitaliza la imagen del documento que, una vez procesado, es transmitido por una red y reproducido en forma fija por una máquina de fax receptora. El resultado es una copia o fascímil del original. TELECONFERENCIAS Y VIDEOCONFERENCIAS: las personas pueden reunirse electrónicamente mediante el uso de teleconferencias y videoconferencias. Las teleconferencias permiten que un grupo de personas “conferencien” simultáneamente por medio del teléfono o de software de comunicaciones en grupo

50

vía correo electrónico. Las teleconferencias que tienen la capacidad de dejar que los participantes puedan verse unos a otros mediante pantallas de video se conocen como videoteleconferencias o videoconferencias. Las videoconferencias en general requieren de salas especiales de conferencias para video, cámaras de video, micrófonos, monitores de televisión y una computadora equipada con un dispositivo códec que convierte la imagen de video y las ondas analógicas de sonido en señales digitales y las comprimen para que puedan ser transferidas por los canales de comunicaciones. Otro códec en el extremo receptor reconvierte las señales digitales de nuevo en analógicas, para que puedan aparecer en el monitor que las recibe. Intercambio electrónico de datos (EDI) Es el intercambio directo de computadora a computadora entre dos instituciones de documentos estándar, como facturas, documentos de embarque u órdenes de compra en operaciones de negocios. El EDI ahorra dinero y tiempo porque las operaciones pueden transmitirse desde un sistema de información a otro a través de una red de telecomunicaciones, eliminando la impresión y el manejo de papel en un extremo y el llenado de los datos en el otro. También puede proporcionar beneficios estratégicos al ayudar a una empresa a “capturar” a los clientes, facilitando a los clientes o distribuidores que les hagan pedidos en vez de hacerlos a la competencia. Diferencia con el correo electrónico: el EDI transmite una operación realmente estructurada con campos específicos como la fecha de la operación, el volumen de la operación, el nombre del emisor y el del receptor, a diferencia de un mensaje de texto no estructurado, como el de las cartas. El EDI permite bajar los costos de procesamiento de las operaciones de rutina porque se tiene una necesidad menor de transferir los datos de las formas en copia dura a operaciones listas en la computadora. El EDI reduce los errores transcripción y los costos asociados que ocurren cuando se accede muchas veces a los datos y se los imprime muchas veces. Para que el EDI trabaje de manera adecuada es necesario que se cumplan cuatro requisitos:

1. estandarización de las operaciones: las empresas participantes deben estar de acuerdo con la forma del mensaje a ser intercambiado. Los formatos de las operaciones y los datos deben ser estandarizados.

2. Software de traducción: es necesario desarrollar un software especial para convertir los mensajes que vienen y van en una forma comprensible para otras empresas.

3. Instalaciones adecuadas de “buzón”: las empresas que usan EDI deben tomar una red de valor agregado de un tercero con instalaciones de buzón que permitan que los mensajes sean enviados, separados y detenidos hasta que la computadora receptora los necesite.

4. Restricciones legales: para cumplir con los requisitos legales, ciertas operaciones requieren de “escribir una firma” o el “documento original” en forma de copia dura.

9.5 Cuestiones de administración y decisiones El plan de las telecomunicaciones Las telecomunicaciones tienen un potencial enorme para estimular la posición estratégica de la empresa, pero los administradores deben preguntar cómo las telecomunicaciones pueden reducir costos al incrementar la escala y alcance las operaciones sin costos adicionales de administración; deben determinar si la tecnología de las telecomunicaciones puede ayudarles a diferenciar productos y servicios, o si esta tecnología puede mejorar la estructura de costos de la empresa al eliminar intermediarios como los distribuidores o acelerar los procesos de negocios. Existen pasos para implantar un plan estratégico de comunicaciones: 1°: es necesario empezar con una auditoría de las funciones de comunicaciones en la empresa. Es necesario determinar las fuerzas, debilidades, amenazas y peligros para cada área: voz, datos, video, equipo, personal y administración. Mediante éstas se identifican las prioridades para las mejoras. 2°: es necesario conocer el plan de negocios a largo plazo de la empresa. El plan debe incluir un análisis de la forma precisa como las telecomunicaciones contribuirán a las metas específicas a 5 años de la empresa y sus estrategias a largo plazo.

51

3°: identificar cómo las telecomunicaciones apoyan las operaciones diarias de la empresa. Se debe tratar de identificar las áreas críticas en donde las telecomunicaciones en general tienen o pueden ser sistemas que den a los representantes de campo acceso rápido a una póliza e información estadística. 4°: desarrollar indicadores de qué tan bien se está cumpliendo con el plan para estimular las telecomunicaciones. Implantación del plan Una vez que la institución ha desarrollado un plan de telecomunicaciones, debe ahora determinar el alcance inicial del proyecto de telecomunicaciones. decidir qué tecnología de telecomunicaciones debe adoptarse y bajo qué circunstancias puede ser muy difícil, dada la rapidez de los cambios en la tecnología y en los costos. Los administradores deberían tomar en cuenta ocho factores al escoger una red de telecomunicaciones:

1. la distancia 2. margen de servicios que al red debe de soportar 3. la seguridad 4. si se requiere acceso múltiple en toda la institución o si puede ser limitado a

uno o dos nodos dentro de ella 5. el uso en dos aspectos: la frecuencia y el volumen de telecomunicaciones 6. el costo 7. considerar las dificultades de la instalación del sistema de telecomunicaciones 8. considerar qué tanta conectividad se requiere para hacer que todos los

componentes de la red se comuniquen entre sí o para amarrar redes múltiples. Retos de administración

1. administración de una LAN 2. compatibilidad y normas

52

UNIDAD X 10.1 ¿Qué es la nueva arquitectura de la información? La arquitectura de la información es la forma particular que toma la tecnología de información en una institución para alcanzar las metas seleccionadas. Consiste en el hardware y software de cómputo de la institución, los enlaces de telecomunicaciones y los archivos de datos. En la nueva arquitectura de la información, estos componentes se ordenan de manera diferente para situar más del poder de cómputo de la institución sobre el escritorio y crear redes que liguen a las empresas en su totalidad. La clave para crear redes en donde los usuarios puedan compartir datos en toda la institución es la conectividad. En este capítulo se describen los modelos de conectividad que usan las instituciones par enlazar sus sistemas y las normas que hacen posibles tales enlaces. Características de la nueva arquitectura de la información En los anteriores sistemas de información, bajo la anterior arquitectura, las macro y las minicomputadoras del mismo fabricante de computadoras eran responsables de la mayor parte del procesamiento de información de la empresa. Las microcomputadoras y las estaciones de trabajo eran utilizadas por usuarios independientes o estaban enlazadas en pequeñas redes locales. Al adoptar la nueva arquitectura de información, se utiliza una mezcla de hardware de computadora que consiste en estaciones de trabajo, microcomputadoras, minicomputadoras y macrocomputadoras vendidas por distintos proveedores de hardware. Las bases de datos grandes y complejas que requieren de almacenamiento centralizado se encuentran en las macrocomputadoras y en las minis, mientras que las bases de datos más pequeñas y partes de las bases de datos mayores se cargan en microcomputadoras y estaciones de trabajo. Probablemente el cambio más importante con respecto al pasado es que con la nueva arquitectura casi todo el mundo en la institución puede hacer labores de cómputo de manera simultánea, sin importar qué tan grande sea. Bajo la antigua arquitectura, una macrocomputadora grande centralizada podía albergar hasta 2.000 usuarios de manera simultánea. Con la adición de más usuarios, el sistema operativo de la macrocomputadora se hacía mucho más lento, el retraso en el tiempo de respuesta aumentaba de segundos a minutos y los principales trabajos de producción debían ser cancelados por el insuficiente poder de cómputo. Con las microcomputadoras, todo el mundo en la institución, independientemente de la dimensión, puede utilizar las instalaciones de cómputo. El uso extensivo de las microcomputadoras por un gran número de personas no hace al sistema más lento ni evita que otras personas hagan trabajo de cómputo. Modelos cliente/servidor vs. Modelos terminales X En la nueva arquitectura de la información existen distintas maneras de entregar el poder de cómputo al escritorio. Los dos patrones que han surgido son el de cliente/servidor y el de terminal X MODELO CLIENTE/SERVIDOR: en este modelo el procesamiento de la computadora se divide entre los “clientes” en una red y los “servidores”, con cada función asignada a la máquina más capacitada para llevarla a cabo. La parte del cliente en una aplicación corre en el sistema de clientes; la parte de la aplicación del servidor corre en el servidor de archivos. El usuario generalmente interactúa sólo con la porción del cliente en la aplicación, que en general consiste en la interfase del usuario, el proceso de captura de datos, la consulta a la base de datos y la obtención de informes. El servidor realiza las funciones de fondo no visibles por los usuarios, como la administración de los dispositivos periféricos y el control del acceso a las bases de datos compartidas. La división exacta de las tareas depende de los requerimientos de las aplicaciones. Limitaciones: es difícil escribir software que divida el procesamiento de la información entre clientes y servidores. El servidor puede verse saturado rápidamente cuando demasiados usuarios deseen el servicio, y las microcomputadoras con poder independiente de procesamiento son más difíciles de coordinar y administra en una red. MODELO DE TERMINAL X: en este modelo, máquinas locales de escritorio no son computadoras con capacidades individuales de procesamiento, sino simplemente terminales que pueden acceder a las operaciones de diversas computadoras remotas a la vez. Como no tienen impulsores de disco, las terminales

53

X cuestan la mitad de lo que cuestan las microcomputadoras. Como es tan barato, se emplea en muchas redes. Pero tiene muchas limitaciones: El modelo terminal X requiere de un sistema operativo Unix y no existe tanto software de negocios disponible para el sistema operativo UNIX; cuando se usan muchas terminales, la respuesta del sistema baja, además el modelo de terminal X centraliza el control de las máquinas de escritorio, lo que potencialmente limita las posibilidades de elección de software. Fuerzas que conforman la nueva arquitectura de la información En las empresas se ha adoptado una nueva arquitectura de la información por muchas razones: 1. mejoramiento en las capacidades de hardware, software y telecomunicaciones 2. crecimiento de nuevos servicios de información 3. transformación hacia una economía basada en el conocimiento RELACIONES PRECIO-PODER: el poder de cómputo estimulado, amén de los precios decrecientes, es un factor de importancia para promover la nueva arquitectura de información. Las cambiantes relaciones precio-poder son responsables de la proliferación de las microcomputadoras y las estaciones de trabajo de escritorio, que son los pilares gemelos de la nueva arquitectura de la información. El trabajo humano en las computadoras se ha llevado cada vez más en microcomputadoras y estaciones de trabajo y no en macrocomputadoras. Esto fue de hecho, un cambio profundo en la arquitectura de la información y de la organización del trabajo. SOFTWARE PARA USUARIO FINAL: las ventas de las microcomputadoras crecieron rápidamente a principios de los ochentas porque la memoria interna creció lo suficiente para operar programas de software promotor de la productividad, como las hojas de cálculo y procesadores de palabras; mientras que el software de los ochentas se enfocaba en alcanzar tareas mundanas de oficina y de contabilidad, en los noventas se trata de una década de cómputo visual altamente interactivo que involucra múltiples medios. SERVICIOS ELECTRÓNICOS: otra razón del rápido desarrollo de la nueva arquitectura de la información es la aparición de servicios electrónicos digitales poderosos y de largo alcance que apoyen a los usuarios de microcomputadoras y estaciones de trabajo en sus escritorios. Los precios de las acciones, catálogos de bienes industriales e información sobre viajes son ejemplos de algunas de las bases de datos a las que se puede acceder. CRECIMIENTO DEL CONOCIMIENTO Y TRABAJO DE INFORMACIÓN: durante gran parte de este siglo, USA, Canadá y Europa Occ. han desplazado sus actividades de la producción agrícola e industrial a economías basadas en el conocimiento; más trabajadores crean o trabajan con información que con sus manos. REDES DE TELECOMUNICACIONES: la nueva arquitectura de la información sería imposible de sostener sin mejoras en las telecomunicaciones que puedan entregar la información a las máquinas de escritorio en las empresa y en casa. Videotexto: es la distribución de imágenes de texto y video en líneas telefónicas a receptores de negocios y domésticos en donde microcomputadoras de escritorio u otros dispositivos se usan para leer la información. Tres enfoques sobre la nueva arquitectura de la información No hay una única arquitectura de sistemas de información que trabaje bien para todas las instituciones. Hay más de una manera de ordenar el hardware, el software, los datos y las redes para implantar la nueva arquitectura de información. Las organizaciones que la mayoría d e las empresas usan se pueden clasificar en tres principales enfoques: 1. Punto de vista de procesamiento de la información: desde este punto de vista, las microcomputadoras y

estaciones de trabajo se consideran como dependientes y estrechamente ligadas al ambiente de computación de las macrocomputadoras; las computadoras de escritorio se conceptúan principalmente como apéndices de la macrocomputadora central de la institución. El problema con esta imagen ha sido cómo integrar significativamente a las microcomputadoras y estaciones de trabajo dentro de un ambiente de macrocomputadoras para aprovechar los recursos de una macrocomputadora sin destruir las características personales, flexibles, autónomas y amigables de una microcomputadora. La integración de las macrocomputadoras y las microcomputadoras ha sido siempre problemática porque

54

macrocomputadoras y minicomputadoras utilizan un formato de archivo de datos diferente del formato de archivo de las microcomputadoras y las estaciones de trabajo. La organización de terminal X refleja el punto de vista del procesamiento de datos. Existen diversas maneras de integrar a las microcomputadoras con capacidad de procesamiento independiente en el ambiente de procesamiento de las macrocomputadoras. La visión de procesamiento de la información de las microcomputadoras es promovida por los fabricantes de las grandes macrocomputadoras y las minicomputadoras, pues tienen un interés encubierto en que se considere a sus máquinas de gran escala y centralizadas como una inversión valiosa. Instituciones como bancos y las corredurías, con fuertes inversiones en macrocomputadoras o requerimientos de procesar grandes volúmenes de operaciones en un punto central, comparten este punto de vista.

2. Enfoque de la oficina lógica: una imagen radicalmente distinta del papel de las microcomputadoras en la institución proviene de la nueva relación entre las personas y el trabajo que las microcomputadoras han hecho posible, relación que ha sido plasmada en la oficina lógica. Una oficina lógica es “donde tu cabeza está cuando piensas en los negocios”; en esta imagen, el trabajo se realiza en un tren, un avión o en la playa. Con las computadoras laptop las personas pueden trabajar en muchos lugares, y el trabajo ya no está relacionado con una sola ubicación. Quienes proponen esta imagen argumentan que la única razón por la que el trabajo se lleva a cabo en las oficinas es porque los teléfonos, las secretarias y los archiveros se encuentran ahí. Ahora el trabajo puede ser distribuido más uniformemente en el espacio y el tiempo. No hay ya necesidades de oficinas centrales o de un trabajo de nueve a cinco. Los proveedores de microcomputadoras laptop y negocios con personal móvil son los más interesados en la visión de la computación portátil.

3. Enfoque del lugar de trabajo automatizado: las microcomputadoras de escritorio y las estaciones de trabajo son el punto central del sitio de trabajo del futuro. En esta imagen las macro y minicomputadoras son dispositivos periféricos que realizan funciones de almacenamiento y de informes preliminares, y la verdadera computadora es aquella que está en el escritorio, con la que el profesional opera y controla directamente. En el lugar de trabajo automatizado, la estación de trabajo de microcomputadora es el servidor de archivos, el controlador de comunicaciones y la estación de trabajo del conocimiento de la institución. Otra maquinaria digital de oficina está bajo el control de estaciones de trabajo de escritorio. Las copiadoras, impresoras y los teléfonos están enlazados a una única red de área local de la oficina. Los proveedores de equipo para automatización de la oficina y las empresa especializadas en trabajo de conocimiento favorecerían esta imagen de la nueva arquitectura de la información.

10.2 Conectividad La meta última de la nueva arquitectura de la información son las redes a nivel de toda la empresa; esta meta ha sido difícil de alcanzar porque muchos diferentes tipos de hardware, software y sistemas de comunicaciones deben ser capaces de trabajar juntos. Las instituciones que tratan de implantar la nueva arquitectura de información pierden una importante cantidad de productividad a causa de su falta de conectividad. La conectividad es la capacidad de las computadoras para comunicarse entre sí y “compartir” información de una manera significativa sin la intervención del hombre. Problemas derivados de la conectividad Los siguientes son algunos ejemplos comunes de la ausencia de conectividad:

Las microcomputadoras no pueden usar datos de la macrocomputadora corporativa, no pueden compartir información entre las diferentes marcas de microcomputadoras y muchas veces no pueden compartri información de manera significativa entre los distintos elementos de software que operan en la misma microcomputadora.

Algunas corporaciones no pueden establecer comunicación confiable y compartir información entre sus mismas minicomputadoras y sus macrocomputadoras.

Un gran número de programas importantes de software no pueden compartir información entre sí.

55

Algunas corporaciones tienen diferentes sistemas de correo electrónico dentro de sus propias empresas que no se pueden comunicar entre sí. La comunicación entre las empresas se complica por la falta de productos que den soporte al as normas de correo E.

La IBM, así como otros proveedores de hardware, vende máquinas y software que no pueden comunicar entre sí a causa de diferencias en el diseño del hardware y sistemas operativos.

Las empresas que operan en el extranjero tienen enormes dificultades para construir redes totales que puedan enlazar sin “costuras” sus operaciones. Diferentes países tienen distintas infraestructuras de comunicaciones que utilizan normas diversa de integración de redes.

Un jardín de palabras raras: aspectos de la conectividad La conectividad abarca algo más que las redes y existen muchas cualidades distintas en un sistema de información que tienen que ver con la conectividad. Aspectos diferentes de la conectividad: La portabilidad de las aplicaciones o transportabilidad de las aplicaciones es la capacidad de operar el mismo elemento de software en diferentes tipos de hardware de computadora. La migración es la capacidad de mover el software de una generación de hardware a otra generación más poderosa. La mayoría del software de microcomputadora ofrece compatibilidad ascendente. La compatibilidad hacia abajo es más problemática. El procesamiento cooperativo divide las tareas de cómputo entre las macrocomputadoras, minicomputadoras, microcomputadoras o estaciones de trabajo para resolver un problema único. El procesamiento cooperativo es una cuestión de conectividad porque es necesario alcanzar en redes distintas máquinas que deben ser programadas de manera que pueden trabajar juntas en una sola aplicación. La transportabilidad o portabilidad de la información consiste en compartir archivos de computadora entre diferentes tipos de hardware y diferentes aplicaciones de software. Esta transferencia puede tener lugar sólo sobre la misma plataforma de hardware o clase de máquina. A causa de que las diferentes máquinas y clases de máquinas usan diferentes esquemas de codificación, la portabilidad de la información puede ser difícil. La interoperabilidad es la capacidad de que un elemento único de software opere en dos clases diferentes de hardware de computadora, muestre a los usuarios una interfase idéntica y realice las mismas tareas. La interoperabilidad, así como la portabilidad de la información y las aplicaciones, requiere de sistemas abiertos. Los sistemas abiertos son construidos con base en sistemas operativos, interfases con el usuario, normas de aplicación y protocolos de redes públicas no propietarias. En los sistemas abiertos, el software puede operar en diferentes plataformas de hardware, y en ese sentido pude ser “portable”. La mayoría de las macro y minicomputadoras tienen sistemas operativos propietarios (sólo sirven para esa máquina) que no pueden ser usados por diferentes tipos de maquinas y cuyos principios de operación están ocultos al público. Probablemente la clave para sistemas verdaderamente abiertos es el sistema operativo llamado UNIX, diseñado con la finalidad de que fuera un sistema operativo poderoso de tiempo compartido que pudiera operar en diferentes tipos de hardware. Sin embargo existen diferentes versiones de UNIX y ninguna de ellas ha sido aceptada como norma de sistemas abiertos. Entonces, la verdadera conectividad requiere de mucho más que alambrar conjuntamente diferentes máquinas o proporcionar acceso limitado a muchas computadoras diferentes. La conectividad implica sistemas operativos comunes, normas comunes de telecomunicaciones (y aún normas comunes para interfase de usuarios), que la pantalla se vea semejante y poder atravesar las diferentes aplicaciones de software. 10.3 Normas para alcanzar la conectividad Alcanzar la conectividad requiere de normas para establecer las redes, sistemas operativos e interfases con el usuario. ¿Quién establece las normas?

56

El proceso de establecimiento de normas es en gran medida político e involucra a muchos poderosos grupos de interés. Las grandes asociaciones de los sectores industriales de fabricantes de equipos han dado recursos financieros a grupos profesionales y de la industria para el desarrollo de normas. El gobierno federal de USA establece las normas de dos maneras: como el mayo comprador de equipo de cómputo del mundo, usa sus políticas de abastecimiento y sus leyes para establecer lo que serán, en la práctica, las normas sectoriales; y también establece normas a través del National Institute for Standards and Technology (NIST). Con la globalización de los negocios, las normas internacionales son críticas. La International Organization for Standardisation (ISO) y el International Telephone and Telegraph Consultative Committee (CCITT) han ayudado a legitimar uno de los más poderosos modelos conectivos, el OSI (Open Systems Interconnect Reference Model). NORMAS PARA ALCANZAR LA CONECTIVIDAD AREA NORMA O MODELO DE REFERENCIA Redes OSI, TCP/IP, SNA Transmisión por fibra óptica FDDI Transmisión intercambiada en red pública digital ISDN Correo electrónico X.400 Intercambio de paquetes X.25 XDI X.12 Interfase gráfica con el usuario X Windows Sistema operativo UNIX Aplicación de software APP Modelos de conectividad para redes Existen diferentes modelos para alcanzar la conectividad en las redes de telecomunicaciones. un modelo de referencia es un marco genérico para pensar sobre un problema; es una partición lógica de alguna actividad (como las comunicaciones) en distintos pasos o partes. Se requiere de protocolos específicos para implantar un modelo de referencia; un protocolo es un enunciado que establece cómo una tarea específica, como la transferencia de datos, debe realizarse. Los modelos de referencia y los protocolos se convierten en estándar o normas cuando son aprobados por grupos importantes organizados para tal fin o cuando la industria construye o adquiere productos que se sustentan en los modelos y protocolos. La conectividad en las redes también puede alcanzarse sin modelos de referencia ni protocolos mediante el uso de portales. Los portales son dispositivos ad hoc de fin único de software y hardware, que permiten la traducción de información digital de un protocolo a otro. Los modelos más importantes de conectividad en redes son: 1. la interconexxión de sistemas abiertos (OSI): es un modelo de referencia internacional desarrollado para enlazar diferentes tipos de computadoras y redes. Fue diseñado para permitir redes globales con grandes volúmenes de procesamiento de operaciones. El OSI permite que una computadora conectada a una red se comunique con otra en la misma red o en una diferente, independientemente de quien sea el fabricante. Para establecer esta conectividad, el modelo OSI divide el proceso de telecomunicaciones en siete niveles que definen las funciones de comunicación para el flujo de información de una red ISA : Nivel de aplicaciones: es el responsable de las actividades de aplicación; establece y mantiene asociaciones entre los programas de aplicaciones en comunicación. Permite funciones de comunicaciones como transferencia de archivos, manejo de mensajes terminales virtuales, procesamiento de operaciones y procesamiento distribuido. Nivel de presentación: traduce el mensaje al formato que se usa en la red de forma comprensible para los programas de emisión y recepción en el nivel siete (de aplicaciones) y viceversa. Este nivel permite, negociar, seleccionar y mantener la sintaxis de la información que está siendo transferida entre los procesos de aplicación.

57

Nivel de sesión: aquí se establece y controla el diálogo entre las dos aplicaciones que se comunican; en coordinación con el nivel de aplicación, ayuda a seleccionar el turno para enviar y recibir información, recuperación de la sincronización y una terminación ordenada de la comunicación. Actúa como el moderador del diálogo que tiene lugar en la red, prohibiendo y permitiendo interrupciones cuando sea necesario y estableciendo puntos de revisión para que se mantenga la secuencia lógica. Nivel de transporte: aquí se controla la calidad de la transmisión y se asegura que las redes se usen adecuadamente. Este nivel asegura la integridad de todo el mensaje desde su origen hasta su destino. Nivel de re; determina la ruta adecuada para los datos a través de la red. Proporciona las funciones de direccionamiento e intercambio que seleccionan los caminos por la red y por los circuitos, intercambio de paquetes y recolección de los recursos que están dentro de la red. Nivel de enlace de los datos: aquí los datos se “empacan” para su transmisión, se “desempacan” al recibirlos y se efectúa la detección de errores durante la transmisión. Su función principal es la corrección de errores. Nivel físico: aquí se establece la conexión física entre el equipo de cómputo y la red. Ejemplo: si un funcionario del banco local requiriera información sobre la cuenta de cheques de un cliente en particular que estuviera almacenada en la computadora anfitriona central del banco, podría ingresar las instrucciones para recuperar la cuenta del cliente y registrarlos en su terminal, bajo el control del nivel 7, Nivel 6: cambiaría estos datos a un formato idóneo para la transmisión; Nivel 5: inicia la sesión; Nivel 4: verifica la calidad de la información que viaja del nodo del usuario al del huésped; Niveles 3 y 2: transmiten los datos a través del Nivel 1 Cada nivel en el modelo OSI tiene uno o varios protocolos asociados. Un protocolo multiniveles tiene la ventaja de que cada nivel es independiente de los otros, de manera que puede ser cambiado sin afectar a los otros niveles. 2. Modelo TCP/IP: EL Departamento de la Defensa de los Estados Unidos desarrolló su propio modelo competitivo de referencia, llamado Protocolo de Control de Transmisión/Protocolo Internet, que fue lanzado en 1972 para ayudar a los científicos a enlazar computadoras diferentes. Como es uno de los modelos de referencia en comunicaciones, y la norma usada por la mayoría de los productos comercialmente disponibles, el TCP/IP sigue siendo ampliamente utilizado. El TCP/IP tiene un modelo de referencia de cinco niveles: Nivel de red física; define la característica básica de la transmisión eléctrica generada durante las comunicaciones. Nivel interfase de red: maneja cuestiones de direccionamiento, en general en el sistema operativo así como en la interfase entre la computadora inicial y la red. Nivel Internet; maneja la comunicación sistema a sistema. Este nivel es un proceso de entrega autocontenido sin conexiones y datagramado, que no depende de la red para la autorización de los mensajes. El datagrama es una unidad de información consistente en un segmento de encabezado y un segmento de texto. El protocolo de Internet recibe los datagramas del TCP y los transmite por Internet. Protocolo de Control de Transmisión (TCP): realiza transporte. El TCP permite la comunicación programa a programa al nivel de usuario final. El Protocolo de Control de Transmisión permite la transferencia confiable de información independientemente de la categoría del tipo de trabajo de cómputo en el nivel más alto (como el correo electrónico o el log-on). Aplicación: proporciona al usuario final la funcionalidad al traducir los mensajes al software usuario/anfitriona para presentación en pantalla. 3. Enfoques propietarios: SNA: La IBM desarrolló el primer modelo comercial de comunicaciones entre computadoras y el primer protocolo, llamado Systems Network Architecture (SNA), en 1974. El SNA es semejante al OSI en que toma un enfoque de niveles al problema de comunicaciones entre usuarios, pero no es totalmente compatible con el OSI, aun cuando la IBM ha tratado de hacer compatibles ciertos aspectos del SNA y OSI. Como el OSI, el modelo SNA puede ser visto como un modelo de referencia de siete niveles. El SNA divide al mundo en unidades lógicas (personas, aplicaciones o programas) y unidades físicas (terminales, grupos de controladores, procesadores frontales y computadoras anfitrionas). Las unidades lógicas requieren diferentes tipos de sesiones o servicios de la anfitriona. Cada unidad lógica y

58

física tiene una dirección única en la red. La meta del SNA es separar al usuario de los detalles de las telecomunicaciones. Con el SNA, un cambio total en la tecnología de transmisión y en el software no afectará al nivel de aplicación, o sea a los usuarios. Si bien el SNA es una poderosa red de comunicaciones, no es la solución total para los problemas de conectividad. Otras normas sobre instalación de redes Además de los modelos de referencia para la conectividad, se han desarrollado normas para la transmisión de datos digitales en redes sobre líneas públicas, para la transmisión sobre cable de fibra óptica y para correo electrónico, EDI e intercambio de paquetes. NORMAS DE REDES DIGITALES SOBRE LÍNEAS PÚBLICAS: la Red Digital de Servicios Integrados (ISDN) es una norma internacional para la transmisión de voz, video y datos sobre líneas de teléfonos. Se trata de un plan auspiciado internacionalmente para que la red pública de teléfonos se reoriente hacia el uso obligatorio de tecnología digital. El CCITT (Comité Consultivo Internacional de Teléfonos y Telégrafos) la define como una red en general, que proporciona conectividad digital de extremo a extremo y que permite un gran margen de servicios de voz y de no voz, a los que los usuarios tienen acceso mediante un conjunto limitado de interfases de clientes multipropósito estándar. En muchos aspectos, el ISDN es una extensión natural del equipo digital y de capacidad, desde las oficinas centrales de las Bell regionales hasta el escritorio. Consideremos las limitaciones de las LAN y de las PBX. Ya no se puede hacer una llamada telefónica en la red de área local; ya no se pude enviar un FAX o imagen de video de manera muy conveniente en la LAN. Si se adquirió una PBX para mejorar el servicio telefónico y la conectividad de la computadora en la empresa, se debe seleccionar y mantener el equipo, y el servicio termina tan pronto como se abandona el edificio. Por el contrario, la ISDN combina en un solo servicio las siguientes características:

Conexión completa de voz, datos y video con cualquier parte del mundo. Conexión digital completa con cualquier otro dispositivo digital en el mundo, desde el que está junto a

nuestra casa hasta uno que se encuentre del otro lado del mundo. Uso simultáneo de voz, video y dispositivos digitales. Libertad total para mover dispositivos y personas sin recableado de edificios ni cables especiales, y

únicamente con una norma física. Definición de video, digital y líneas de datos controladas por los usuarios. Se puede usar una línea para

servicio personal digital ahora, reconfigurar la misma línea de teléfono como una línea de entrada de 800 wats en la siguiente hora, y en la siguiente redefinir la línea como una línea de video que traiga imágenes de una sesión de videoconferencias en grupo.

A diferencia de lo que ocurre con un PBX, sólo se cobrará el tiempo de servicio conectado, y no los costos totales de administración. La empresa de teléfonos asume los costos y la responsabilidad de instalar y mantener el equipo.

En pocas palabras, el ISDN es la red para todo. La meta y promesa del ISDN es proporcionar una red más funcional para transportar todo tipo de información digital, independientemente de su origen o destino. Es la imagen de la red de línea pública de teléfonos convertida en una gran supercarretera digital. El ISDN, además de permitir los servicios tradicionales como el intercambio de voz y líneas privadas, permite nuevos tipos de servicios, como mayores cargas de transmisiones y un servicio de tiempo parcial de líneas privadas. Ofrece conectividad universal para los datos en forma digital directa. Los módems no se usan con el ISDN, a excepción de cuando se requiere enlazarse con un no usuario de ISDN. El ISDN usa alambre de cobre de pares torcidos para conectar los dispositivos de escritorio con concentradores a nivel de edificios. Un dispositivo interruptor a nivel de oficina central hace todas las conexiones con el mundo exterior y controla las características de la línea. Se ofrecen dos servicios: renta básica de ISDN y renta principal de ISDN. Los LAN son más adecuados para las aplicaciones de cómputo intensivo .

59

NORMA DE TRANSMISIÓN DE FIBRA ÓPTICA FDDI: la interfase de Datos Distribuidos mediante Fibra (FDDI) es una norma para la transmisión de datos a 100 MBPS sobre cable de fibra óptica en una configuración anular. Los LAN de FDDI usan la misma tecnología de paso de señal que las redes de anillo de señal, pero tienen una configuración dual de anillo óptico de fibra. El uso de dos anillos en vez de uno aumenta la confiabilidad. NORMAS DE CORREO ELECTRÓNICO, EDI E INTERCAMBIO DE PAQUETES: LA X.400 es una norma de un sistema de correo e de la IEEE y CCITT que, si se adopta, permitiría a los sistemas de correo electrónico operar en diferentes tipos de hardware para comunicarse entre sí. La X.25 es un protocolo de redes de intercambio de paquetes de la IEEE y CCITT, que permite a distintas redes internacionales y nacionales comunicarse entre sí. La X.12 es un formato de operaciones estandarizadas para intercambio electrónico de datos en USA. Normas de software Están surgiendo para las interfases gráficas con el usuario, sistemas operativos y herramientas que se requieren para el desarrollo de aplicaciones de software. NORMAS PARA INTERFASES GRÁFICAS: El X Windows es una norma de facto para la descripción de gráficas de alto nivel necesarias para una administración estandarizada de window; puede ser independiente de los sistemas operativos, aun cuando se usa normalmente con los sistemas operativos UNIX y DEC VAX/VMS. La X Windows permite el despliegue de múltiples aplicaciones en la misma pantalla y deja que una aplicación use varias ventanas, despliegue diferentes tipos de letra en la pantalla y dibuje figuras en dos dimensiones. Proporciona todas las herramientas necesarias para construir una interfase gráfica con el usuario de múltiples ventanas, operada mediante íconos. NORMAS PARA SISTEMAS OPERATIVOS: EL MOVIMIENTO DE LOS SISTEMAS ABIERTOS Y LA BATALLA SOBRE UNIX: el único sistema no propietario que puede operar en todas las computadoras es UNIX. Sin embargo, el esfuerzo por hacer de UNIX la norma en sistemas operativos ha encontrado una oposición considerable. El UNIX representa una amenaza importante a los sistemas operativos propietarios existentes y su software de servicio es normalmente caro. Si el UNIX se convirtiera en la norma en sistemas operativos, el mercado del software sería mucho más competitivo. Los intereses son grandes. Los sistemas operativos estandarizados y los enlaces de comunicación entre las computadoras eliminarían la dependencia de las empresas de cualquier proveedor propietario de hardware, como IBM. Además, el UNIX va a contracorriente con los planes de mercadotecnia de muchos grandes proveedores. El UNIX puede dar tiempo compartido, transportabilidad de aplicaciones, transferencia de datos casi perfecta e interfases con el usuario compartidas. EL PERFIL DE PORTABILIDAD DE APLICACIONES : el National Institute for Standards and Technology (NIST) desarrolló un Perfil de Portabilidad de Aplicaciones (APP). Los componentes de la APP constituyen una caja de herramientas para el desarrollo y mantenimiento de aplicaciones portables. Incluye normas para la operación de sistemas, administración de bases de datos, intercambio de datos, servicios en redes, interfases de usuarios y lenguajes de programación. 10.4 Implantación de la nueva arquitectura de la información La implantación de la nueva arquitectura de información ha creado problemas así como oportunidades para las instituciones. Problemas que surgen de la nueva arquitectura El rápido desarrollo de las redes, micros y estaciones de trabajo, ha creado problemas. Ya se han descrito los problemas de conectividad producidos por componentes y por normas incompatibles de redes. Hay cuatro problemas adicionales:

1. el control de la independencia de los usuarios finales; 2. aseguramiento de la seguridad y confiabilidad de la red; 3. pérdida de control administrativo sobre los sistemas de información; 4. costo oculto del cómputo cliente/servidor

INDEPENDENCIA DE LOS USUARIOS FINALES: con herramientas de cómputo de escritorio los usuarios finales pueden crear fácilmente sus propias aplicaciones y archivos, pero las aplicaciones de

60

desarrolladas por el usuario pueden combinar elementos de software y hardware incompatible, lo cual ha tenido como resultado un caos completo y un alto costo para las empresas. Los observadores se preocupan porque la visión de procesamiento de datos, con su énfasis en la compatibilidad de las macrocomputadoras y los enlaces de telecomunicaciones que se requieren, golpeará la independencia y la creatividad de los usuarios finales y disminuirá su capacidad para definir su propias necesidades de información. GARANTIZAR LA SEGURIDAD Y CONFIABILIDAD DE LA RED: la seguridad es de importancia capital en instituciones en donde los sistemas de información hacen un uso intensivo de las redes. ¿cómo puede una institución confiar en los datos si no se puede probar de dónde proceden y quién los modificó en el camino?. Las herramientas para hacer el seguimiento de las redes cliente/servidor aún no han sido bien desarrolladas como las herramientas actualmente disponibles en las macrocomputadoras o en las minis. Las instituciones necesitan establecer procedimientos especiales, de manera que los usuarios no borren de forma accidental información corporativa. PÉRDIDA DE CONTROL ADMINISTRATIVO: la nueva arquitectura de la información tiene el potencial para cambiar la distribución del poder, condiciones, ventajas y recursos en las instituciones. En tanto que la información da poder, independencia y ventajas, la computación de escritorio cambia el ordenamiento de poder existente. Antes, el procesamiento de la información y los recursos humanos y tecnológicos estaban cuidadosamente balanceados, pesados y medidos. En el futuro, como los datos y el software no estarán confinados a la macrocomputadora bajo la administración del departamento de sistemas tradicional, es difícil asegurar que cualquier cambio en las reglas de los negocios, como verificar un número de cuenta, sea llevado a cabo en todas las aplicaciones en todos los sistemas de escritorio. COSTOS OCULTOS DE LA ARQUITECTURA CLIENTE/SERVIDOR: muchas empresas que han cambiado a la arquitectura cliente/servidor han encontrado que los ahorros que esperaban tener no se materializan a causa de costos inesperados; los ahorros en el hardware resultantes de los costos mucho menores de los MIP en las microcomputadoras se ven opacados por el costo elevado de mano de obra y el tiempo necesario para la administración de la red y del sistema. El cambio a sistemas de información que usan procesamiento tipo cliente/servidor en general incrementa los costos de capacitación para los especialistas en los sistemas de información, así como en los usuarios finales. Es difícil determinar qué elementos de una aplicación deben ser dados al cliente y cuáles son para el servidor. CONECTIVIDAD Y COORDINACIÓN: la nueva arquitectura de la información es altamente sensible a distintas versiones de sistemas operativos y software de administración de redes. Algunas aplicaciones requieren de versiones específicas de sistemas operativos y de software de administración de redes. Algunas soluciones Algunas instituciones pueden contraatacar los problemas creados por la nueva arquitectura de la información incrementando la capacitación de los usuarios finales, asegurando las disciplinas de administración de datos y considerando la conectividad al planear su arquitectura. EDUCACIÓN: un programa de capacitación bien desarrollado puede ayudar en los problemas futuros resultantes de la falta de apoyo y comprensión corporativos. DISCIPLINAS DE LA ADMINISTRACIÓN DE DATOS: el papel de la administración de datos (cap. 8) se hace aún más importante cuando redes enlazan muchas diferentes aplicaciones y áreas de negocios. Las instituciones necesitan desarrollar políticas específicas y procedimientos para asegurar que sus datos sean precisos y estén disponibles únicamente para los usuarios autorizados. PLANEACIÓN PARA LA CONECTIVIDAD: en la mayoría de las instituciones no se tiene una idea de qué tanta conectividad tienen o cuánta falta. El primer paso es realizar una auditoría de conectividad, que examina cinco áreas de conectividad en la institución:

1. redes 2. administración de redes y soporte a usuarios 3. servicios de redes 4. aplicaciones 5. interfases con el usuario

61

Una matriz de conectividad, compuesta de las redes principales a lo largo del eje superior y los principales grupos usuarios corporativos a lo largo del eje vertical, puede ayudar a identificar cómo se usan las redes y or quién. Si se documenta adecuadamente, la matriz de conectividad deberá identificar muchas áreas en donde las redes actuales fallan en el suministro de conectividad. Una vez que la administración ha detectado áreas específicas en donde la conectividad se requiera, se encuentra en la posición de medir cuánto cuestan las soluciones. Retos de administración

1. la nueva arquitectura de la información requiere de un cambio completo de mentalidad. 2. La conectividad y las normas son difíciles de hacerse cumplir, aun cuando se entiendan bien las

necesidades de conectividad de la empresa 3. Resolver el debate de la centralización vs. La descentralización.

62

CAPÍTULO XI 11.1 Los sistemas como cambio organizacional planeado SISTEMA DE INFORMACIÓN: es una entidad sociotecnológica, un ordenamiento de elementos sociales y técnicos. La introducción de un nuevo sistema de información implica mucho más que nuevo hardware y software. También comprende cambios en los puestos, habilidades, administración y organización. Cuando se diseña un nuevo sistema de información, se está rediseñando a la institución. Este proceso es un tipo de cambio organizacional planeado La perspectiva sociotecnológica significa que los desarrolladores de sistemas tienen en general responsabilidades organizacionales así como técnicas. Existen cuatro áreas en las que los desarrolladores de sistemas son considerados como responsables por la alta dirección:

1. los desarrolladores son responsables de la calidad técnica de los sistemas de información, aseguran que los procesos que son automatizados sean oportunos, eficientes y altamente precisos. El sistema computarizado debe proporcionar el filtrado adecuado de los datos para evitar sobrecargar a los trabajadores y administradores con demasiada información.

2. los desarrolladores de sistemas son responsables de la interfase con el usuario. La interfase con el usuario, es la parte de un sistema de información con la que a menudo los trabajadores no capacitados, tienen que interactuar directamente. La interfase con el usuario debe diseñarse de manera flexible, para permitir cambios con el tiempo; debe abarcar considerable reeducación y capacitación de la fuerza de trabajo e incluir el desarrollo de software y mecanismos comprensibles para la corrección de errores.

3. los desarrolladores de sistemas deben considerar el impacto global en la institución; deben tomar en cuenta cómo el sistema afectará a la institución como un todo.

4. los desarrolladores de sistemas de información tienen la responsabilidad administrativa general para el proceso de diseño e implantación. Los sistemas pueden ser un éxito tecnológico pero un fracaso administrativo a causa del fracaso en el proceso social y político del desarrollo del sistema. Los analistas y diseñadores son responsables de asegurar que los miembros claves de la institución participen en el proceso de diseño y les sea permitido influir en el diseño final de los sistemas.

Rediseño de los procesos de negocios PROCESO DE NEGOCIOS: es un conjunto de tareas lógicamente relacionadas que se llevan a cabo para alcanzar un resultado definido de negocios. Por ej: el desarrollo de un nuevo producto, el hacer pedidos de un proveedor o procesar y pagar una reclamación de seguros. Un nuevo sistema de información puede rediseñar de manera radical los procesos de negocios para mejorar la velocidad, el servicio y la calidad. El rediseño de los procesos de negocios sirve para reorganizar los flujos de trabajo, combinar pasos para reducir desperdicios y eliminar tareas repetitivas de documentación intensivas; otro nombre para el rediseño de procesos de negocios es la reingeniería de negocios. ¿Quién está involucrado en la construcción de los sistemas? Una cantidad de grupos dentro y fuera del área de sistemas de información, están involucrados en la construcción de los sistemas. Grupos institucionales La alta dirección es un actor importante en el desarrollo de los grandes sistemas; proporciona la dirección estratégica de carácter general y proporciona los fondos y el soporte de fuerza. Una cantidad de expertos profesionales participa en el desarrollo de los sistemas. Éstos requieren contratos con proveedores externos y a veces implican asegurar derechos de registro; por tanto, pueden necesitarse abogados. Los contratos ponen en juego a especialistas en abastecimientos dentro de la institución y ambos grupos son jugadores claves en el proceso de construcción de los sistemas. Dos grupos de gerencia media son importantes para la construcción de los sistemas: la gerencia media y el nivel de supervisión. En general, los sistemas se construyen en el nivel de oficina o de división

63

En el piso de la planta o en la oficina local los supervisores juegan un papel crítico e importante al proporcionar puntos de vista sobre cómo funciona el sistema ahora y cómo puede ser estimulado Área de sistemas de información Los directivos de administración de sistemas de información coordinan todo el esfuerzo de desarrollo y planeación de sistemas en la institución. Su responsabilidad es establecer prioridades de sistemas en colaboración con la alta dirección no encargada de sistemas de información y asegurar una presupuestación y administración adecuada para tener los proyectos a tiempo. Los gerentes de proyecto tienen la responsabilidad más directa en cualquier esfuerzo de sistemas, porque son ellos quienes administran los proyectos. Tres grupos técnicos quedan involucrados en la construcción de los sistemas: analistas en jefe: son analistas de sistemas con muchos años de experiencia, que coordinan los esfuerzos de los analistas de sistemas en la construcción de los grandes sistemas; analistas de sistemas: son principalmente responsables del desarrollo de los nuevos requerimientos de los sistemas y del diseño real o realización técnica del sistema. Programadores: son personal técnico que tiene la responsabilidad última de escribir el código del software y enlazar los elementos técnicos del sistemas para hacerlo totalmente operativo. ¿Cómo se administra el desarrollo de sistemas? En la figura 11.2 (pag. 386) se muestran los elementos de una estructura administrativa para el desarrollo de nuevos sistemas.

En la parte superior se encuentran: El grupo corporativo de planeación estratégica: es responsable del desarrollo del plan estratégico de la institución. Este plan puede requerir del desarrollo de nuevos sistemas. Entonces, una función importante de este comité es dar un direccionamiento estratégico general al área de sistemas de información. La segunda función es capacitar a la alta dirección sobre el área de sistemas para que entienda qué tan dependiente es la institución de los sistemas. El comité de orientación de sistemas de información: es el grupo de dirección general con responsabilidad directa en el desarrollo y operación de sistemas. Está compuesto por los directores divisionales de las áreas de usuarios finales y de sistemas de información. Este comité revisa y aprueba los planes de sistemas para todas las divisiones; busca desarrollar sistemas comunes que puedan ser compartidos, coordina e integra sistemas, algunas veces resulta involucrado en la selección de ciertas alternativas de proyectos y aprueba la capacitación para los nuevos sistemas. Cada vez más este comité se transforma en un guardián del desarrollo del sistema.

Luego están: Equipo de administración de proyectos: tiene injerencia en la administración de proyectos específicos. En general es un pequeño grupo de administradores en jefe de SI y administradores de usuarios con la responsabilidad de un proyecto único. Equipo de proyecto de SI: se compone de los profesionales de sistemas quienes son directamente responsables de la construcción del sistema. Consta de analistas de sistemas, analistas de funciones (especialistas de las áreas importantes del negocio), programadores de aplicaciones y probablemente especialistas de bases de datos. Este equipo es responsable de la mayor parte de las actividades de desarrollo. La mezcla de habilidades y tamaño del equipo del proyecto varía de una aplicación a otra; evidentemente, las aplicaciones complejas y de gran alcance, requerirá de un equipo de proyectos mucho mayor que el de un sistema pequeño. Sin embargo existe un límite para el número de personas que pueden trabajar eficazmente en un proyecto en cualquier instante. ¿De dónde provienen las ideas para los sistemas? Los sistemas se originan en distintos puntos de la institución. En general existen tres fuentes: los usuarios finales, el departamento de sistemas de información y la alta dirección. Usuarios finales: son la fuente de la mayor parte de los proyectos de sistemas. Departamento de sistemas de información: las nuevas tecnologías pueden representar nuevas oportunidades para la institución para reducir costos o seguir nuevas líneas de negocios. Una de las responsabilidades del

64

departamento de sistemas de información es rastrear la tecnología de información e introducir tecnologías adecuadas para la empresa. Alta dirección: al desarrollar planes estratégicos, la alta dirección puede concluir que nuevos tipos de sistemas de información serán necesarios para dar apoyo a las nuevas actividades de negocios. O puede ser obvio que la competencia ha tomado ventaja estratégica de la nueva tecnología de información y amenaza a la institución. Una respuesta tecnológica de dimensiones semejantes es lo que se requiere a menudo. 11.2 Panorama del desarrollo de los sistemas Un nuevo sistema de información se construye como solución para algún tipo de problema o conjunto de problemas que la institución percibe que está enfrentando. El sistema de información resultante es producto de una serie de actos llamada desarrollo de sistemas. El desarrollo de sistemas se refiere a todas las actividades que entran en la producción de una solución de sistemas de información para un problema o una oportunidad institucional. El desarrollo de sistemas es una forma estructurada de solución de problemas con actividades diferentes. Estas actividades consisten en el análisis de sistemas, diseño de sistemas, programación, pruebas conversión, producción y mantenimiento; dichas actividades deben ser repetidas o pueden ocurrir de manera simultánea, dependiendo del enfoque del desarrollo de sistemas que se emplee (ver cap. 12). Nótese también que cada actividad implica interacción con la institución. Los miembros de la institución participan en estas actividades y el proceso de desarrollo de sistemas crea cambios organizacionales (cap. 14 reto de administrar estos cambios). Análisis de sistemas El ANÁLISIS DE SISTEMAS es el análisis de un problema que la institución tratará de resolver mediante un sistema de información. Consiste en definir el problema de identificar sus causas, especificar la solución e identificar los requerimientos de información que deben ser cumplidos por una solución de sistemas. La clave par la construcción de un buen sistema de información es una comprensión profunda de la organización y el sistema existentes. Con el análisis organizacional, el analista de sistemas detalla los problemas de los sistemas actuales. Al examinar documentos, papeles de trabajo y procedimiento, observar las operaciones de los sistemas y entrevistar a los usuarios clave de los sistemas, el analista puede identificar las áreas de problemas y los objetivos a ser alcanzados por una solución. Con frecuencia, la solución implica desarrollar un nuevo sistema de información o mejorar el ya existente. FACTIBILIDAD: además de recomendar una solución, el análisis de sistemas implica un estudio de factibilidad para determinar que una solución sea posible o alcanzable dados los recursos y restricciones de la institución. Se deben estudiar tres áreas principales de la factibilidad:

1. factibilidad técnica: si la solución propuesta puede ser implantada con el software, hardware y recursos técnicos disponibles.

2. Factibilidad económica: si los beneficios de la solución propuesta son mayores que los costos (ver 11.3)

3. Factibilidad operativa: si la solución propuesta es deseable con el marco administrativo y la organización existente.

Normalmente, el proceso de análisis de sistemas identificará ciertas soluciones que pueden ser adoptadas por la institución y evaluará la factibilidad de cada una de ellas. Existen tres alternativas básicas de solución para todo problema de sistemas:

1. No hacer nada, dejando la situación existente sin cambios. 2. Modificar o estimular los sistemas existentes. 3. Desarrollar un nuevo sistema.

Queda a criterio de la administración qué mezcla de costos, beneficios, características técnicas e impactos organizacionales representan la alternativa más deseable. ESTABLECIMIENTO DE REQUERIMIENTOS DE INFORMACIÓN: Probablemente es la tarea más difícil para un analista de sistemas. Al nivel más básico, los requerimientos de información de un nuevo sistema implican la identificación de quién necesita qué información, dónde, cómo y cuándo. El análisis de

65

requerimientos define escrupulosamente los objetivos del sistema nuevo o modificado y desarrolla una descripción detallada de las funciones que debe llevar a cabo el nuevo sistema. Los requerimientos deben considerar las restricciones de carácter económico, técnico y de tiempo, así como las metas, procedimientos y los procesos de decisiones en la institución. Un mal análisis de requerimientos es una de las causas principales de la falla de los sistemas y de los costos elevados de desarrollo. Algunos problemas no requieren de solución de sistemas de información. En vez de esto, requieren un ajuste en la administración, capacitación adicional o refinamiento de los procedimientos existentes en la institución. Si el problema se relaciona con la información, el análisis de sistemas puede todavía ser necesario para diagnosticar el problema y llegar a la solución adecuada. Diseño de sistemas Mientras que el análisis de sistema describe lo que un sistema debe hacer para satisfacer los requerimientos de información, el diseño de sistemas muestra cómo el sistema debe de satisfacer este objetivo. El diseño del sistema de información es el plan general o modelo para ese sistema, tiene todas las especificaciones que dan al sistema su forma y estructura. El diseño de los sistemas de información es una tarea exacta y creativa que requiere de imaginación, sensibilidad detalles y habilidades de experto. El diseño de sistemas tiene tres objetivos:

1. El diseñador de sistemas es responsable de la consideración de otras configuraciones de tecnología para llevar a cabo y desarrollar el sistema tal y como fue descrito por el analista.

2. Los diseñadores son responsables por la administración y el control de la realización técnica de los sistemas. Las especificaciones detalladas de programación, la codificación de los datos, la documentación, pruebas y la capacitación son todos responsabilidad del equipo de diseño.

3. El diseño de un sistema de información puede descomponerse en especificaciones físicas y lógicas. El diseño lógico representa los componentes del sistema y sus relaciones mutuas, como aparecerían ante los usuarios. El diseño físico es el proceso de traducción del modelo lógico abstracto a un diseño técnico específico para el nuevo sistema. Produce las especificaciones reales para el hardware, software y bases de datos físicas, medios de entrada/salida, procedimientos manuales y controles específicos.

ALTERNATIVAS DE DISEÑO: los sistemas de información pueden tener muchos diseños. Pueden ser centralizados o distribuidos, en línea o por lotes, parcialmente manuales o fuertemente automatizados. Lo que hace que un diseño sea superior a los demás es la facilidad y eficiencia con que satisface las necesidades de los usuarios con un determinado conjunto de restricciones técnicas, institucionales, financieras y de tiempo. Antes de terminar el diseño de un sistema de información, los analistas evaluarán diversas alternativas de diseño. En el ejemplo de pag. 393/394, se ilustran dos alternativas de diseño de un sistema de costos corporativo: el sistema por lotes maximiza la eficiencia y economía del procesamiento por computadora pero requiere de una gran preparación manual de los datos. Existe también retraso de tiempo entre la preparación de las hojas de costos de las unidades operativas y el momento en que esta información se refleja en la base de datos del producto. La segunda alternativa de diseño es un sistema en línea que da una información más oportuna y disminuye el esfuerzo manual, pero a un mayor costo para el procesamiento computacional, software, seguridad y procedimientos de recuperación que se requieren para mantener la integridad de la base de datos de los productos. Esta alternativa reduce las actividades manuales y proporciona información al minuto a contabilidad de costos corporativa así como a las unidades operativas. EL PAPEL DE LOS USUARIOS FINALES: el diseño de los sistemas de información requiere de un muy alt nivel de participación y control de parte de los usuarios finales. Los requerimientos de información por parte de los usuarios presionan al proceso de diseño para asegurarse de que el sistema refleje sus prioridades de negocios y sus necesidades de información y no los sesgos del personal técnico. La naturaleza y el nivel de la participación de los usuarios en el diseño varía de un sistema a otro. Acabado del proceso de desarrollo de sistemas

66

Los pasos restantes en el proceso de desarrollo de sistemas traducen las especificaciones de la solución establecidas durante el análisis y diseño de sistemas en un sistema de información totalmente operativo. PROGRAMACIÓN: es el proceso que consiste en traducir las especificaciones del sistema preparadas durante la etapa de diseño en código de programa. En algunos proyectos de desarrollo de sistemas se asignan las tareas de programación a especialistas cuyo trabajo consiste en codificar únicamente los programas. En otros proyectos se prefieren analistas programadores que diseñan y programan las funciones. Como los grandes sistemas implican muchos programas con miles o cientos de miles de líneas de código, se emplean con frecuencia equipos de programadores. Además, si todo un sistema puede ser programado por una sola persona, la calidad del software será mayor si se somete a la revisión de un grupo. PRUEBAS: es necesario llevar a cabo pruebas exhaustivas y a profundidad para certificar si el sistema produce los resultados correctos. Las pruebas de un sistema de información pueden descomponerse en tres actividades:

1. Pruebas por unidades: consisten en probar cada programa por separado en el sistema. Las pruebas deben verse como un medio para localizar errores en los programas, para luego corregirlos.

2. Pruebas al sistema: prueban el funcionamiento del sistema de información como un todo. Tratan de determinar si módulos discretos pueden funcionar conjuntamente tal como se planeó y si existen discrepancias entre las maneras como el sistema trabaja en la actualidad y cómo se diseñó. Entre las áreas examinadas se tienen el tiempo de proceso, la capacidad para almacenamiento de archivo y el manejo de las cargas pico, las capacidades de recuperación y de arranque y los procedimientos manuales.

3. Pruebas de adaptación: proporcionan la certificación final de que el sistema está listo para ser usado en un escenario de producción. Las pruebas de sistemas son evaluadas por usuarios y revisadas por la administración. Cuando todas las partes están satisfechas de que el nuevo sistema cumple con sus normas, el sistema queda formalmente aceptado para su instalación.

Plan de prueba: en él se incluyen todos los preparativos para las series de pruebas previamente descriptas. Los usuarios juegan un papel crítico en el proceso de prueba. CONVERSIÓN: es el proceso de cambiar el viejo sistema por el nuevo. Da respuesta a la pregunta: ¿trabajará el nuevo sistema bajo condiciones reales?. Se pueden usar cuatro principales estrategias de conversión: en paralelo, de cambio directo, de estudio piloto y del enfoque por fases.

1. En una estrategia en paralelo, el sistema viejo y su reemplazo potencial son operados conjuntamente durante un tiempo, hasta que todos se aseguran de que el nuevo funciona correctamente. Este es el enfoque más seguro de conversión, sin embargo es muy caro y puede necesitar personal y recursos adicionales para operar el sistema redundante.

2. La estrategia de cambio directo reemplaza al sistema viejo por completo en un día determinado. A primera vista, esta estrategia parece menos costosa que la de conversión en paralelo; sin embargo, es muy riesgosa ya que puede ser más cara si se presentan serios problemas con el nuevo sistema.

3. La estrategia de estudio piloto implanta el nuevo sistema sólo en un área limitada de la institución, como un solo departamento o unidad operativa. Cuando esta versión piloto quede completa y trabaje fluidamente, se instala el sistema en el resto de la institución, ya sea simultáneamente o por etapas.

4. La estrategia del enfoque por fases introduce el nuevo sistema por etapas, ya sea por funciones o por unidades organizacionales de la institución.

Un Plan de conversión formal provee de un programa para todas las actividades requeridas para la instalación de un nuevo sistema. La actividad que más consume tiempo es normalmente la conversión de datos. Los datos del viejo sistema deben ser transferidos al nuevo, ya sea en forma manual o mediante programas especiales de software de conversión. Los datos convertidos deben ser verificados cuidadosamente para precisión e integridad. Pasar de un viejo sistema a uno nuevo requiere que los usuarios finales sean capacitados para usarlo. Documentación detallada que muestre cómo trabaja el sistema desde el punto de vista técnico y desde el punto de vista del usuario se termina durante el tiempo de conversión para usarse en la capacitación y en las operaciones diarias. La falta de adecuada capacitación y documentación contribuye al fracaso del sistema.

67

PRODUCCIÓN Y MANTENIMIENTO: después de que el sistema nuevo se ha instalado y la conversión está completa, se dice que el sistema está en producción. Durante esta etapa, el sistema será revisado por los usuarios y por especialistas técnicos para determinar qué tan bien ha cumplido con sus objetivos originales y para decidir si se deben hacer revisiones o modificaciones. Los cambios en hardware, software, documentación o procedimientos a un sistema de producción para corregir errores, cumplir con nuevos requerimientos o mejorar la eficiencia de procesamiento se denominan mantenimiento. Actividad modular Descripción Análisis de sistemas Identificar problemas

Especifica solución Establece requerimientos de información

Diseño de sistemas Crear especificaciones lógicas de diseño Crear especificaciones físicas de diseño Administrar realización técnica del sistema

Programación Traducir especificaciones de diseño en código de programa Pruebas Prueba de unidades

Prueba de diseño Pruebas de aceptación

Conversión Planear conversión Preparar documentación Capacitar usuarios y personal técnico

Producción y mantenimiento Operar el sistema Evaluar el sistema Modificar el sistema

11.3 Entender el valor en negocios de los sistemas de información Los sistemas de información pueden tener diversos valores para las empresas de negocios; en muchos casos pueden simplemente permitir a las empresas que sobrevivan. Modelos de presupuestación de capital Los modelos de presupuestación de capital son una de las diversas técnicas que se usan para medir el valor de la inversión en proyectos de inversión de capital a largo plazo. La presupuestación de capital es el proceso de analizar y escoger diversas propuestas para gastos de capital. Las empresa invierten en proyectos de capital con el propósito de expandir su producción para satisfacer la demanda anticipada o para modernizar su equipo de producción con el objeto de reducir los costos. También invierten en proyectos de capital por muchas razones no económicas, como la instalación de un equipo anticontaminante por ejemplo. Se considera que los sistemas de información son proyectos de inversiones de capital a largo plazo. Se utilizan seis modelos de presupuestación de capital para evaluar proyectos de capital:

El método de pago La tasa contable de recuperación sobre la inversión La relación costos/beneficios El valor presente neto El índice de rentabilidad La tasa interna de retorno (TIR)

FLUJOS DE EFECTIVO: todos los métodos de presupuestación de capital descansan sobre los flujos de efectivo desde y hacia la empresa. El costo de inversión es un flujo inmediato de salida ocasionado por la compra del bien de capital (equipo). En los años siguientes, la inversión puede ocasionar flujos adicionales de salida que pueden equilibrarse con los flujos de entrada de efectivo que resultan de la inversión. Los flujos de entrada toman la forma de mayores ventas de más productos o la disminución en los costos de producción u operación. La diferencia entre los flujos de salida y los de entrada se emplea para calcular el

68

valor financiero de una inversión. Una vez que los flujos efectivo se han establecido, diversos métodos se encuentran disponibles para comprar los distintos proyectos y tomar decisiones sobre la inversión. LIMITACIONES DE LOS MODELOS FINANCIEROS: los modelos financieros se emplean en muchas situaciones: para justificar nuevos sistemas, explicar viejos sistemas post hoc y para desarrollar apoyo cuantitativo para una posición política. Las decisiones políticas tomadas por razones institucionales no tienen nada que ver con los costos y beneficios de un sistema. Los modelos financieros suponen que todas las alternativas importantes han siso examinadas, que todos los costos y beneficios se conocen, y que estos costos y beneficios pueden ser expresados en una unidad común, en especial en dinero. Estas suposiciones raramente se cumplen en el mundo real, aunque pueden ser aproximadas. Beneficios tangibles: pueden ser cuantificados y se les puede asignar un valor monetario. Beneficios intangibles: no se pueden cuantificar de inmediato, pero a la larga pueden llevar a ganancias cuantificables. LOS SISTEMAS DE INFORMACIÓN COMO UN PROYECTO DE CAPITAL: muchos problemas surgen cuando se aplica el análisis financiero a los sistemas de información. Los modelos financieros pueden no expresar los riesgos y la incertidumbre a partir de sus propios estimados de costos y beneficios. Los costos y beneficios no ocurren dentro del mismo marco de tiempo; los costos tienden a ser en efectivo y tangibles, mientras que algunos beneficios pueden ser a posteriori e intangibles. La inflación puede afectar los costos y algunos beneficios de maneras diferentes. La tecnología, especialmente la tecnología de información, puede cambiar durante el curso del proyecto ocasionando que los estimados varíen fuertemente. Los beneficios intangibles son difíciles de cuantificar. Estos factores afectan a los modelos financieros. La inversión en tecnología de información requiere de consideraciones especiales en la simulación financiera. La elevada tasa de obsolescencia tecnológica en la presupuestación de sistemas significa sencillamente que el período de pago tiene que ser más corto y las tasas de recuperación mas latas que en los típicos proyectos de capital que tienen vidas útiles mucho más largas. Examinaremos un ejemplo para ver cómo surgen y pueden ser solucionados los problemas: Caso de ejemplo: Primrose, Mendel and Hansen Páginas 402-405 MÉTODO DE PAGO (O REPAGO): es una medida de tiempo que se requiere para pagar la inversión inicial en un proyecto. Este método se calcula así:

Inversión original Número de años para pagar Flujo de efectivo anual neto de entrada

Debilidad del modelo: ignora el valor del dinero en el tiempo, el monto del flujo de efectivo después del período de pago, el valor de reventa (en gral., cero con los sistemas de cómputos) y la rentabilidad de la inversión. TASA CONTABLE DE RECUPERACIÓN SOBRE LA INVERSION (ROI): las empresas realizan inversiones de capital con el objeto de obtener una tasa de recuperación satisfactoria. La determinación de la tasa depende del costo de pedir dinero, pero también otros factores entran en juego, como las tasas históricas de recuperación esperadas por la empresa. En el largo plazo, la tasa deseada de recuperación debe ser igual o mayor que el costo del capital en el mercado, de lo contrario, nadie prestaría dinero a la empresa. La tasa contable de recuperación sobre la inversión (ROI) calcula la tasa de recuperación de una inversión al ajustar los flujos de efectivo hacia la empresa producidos por la inversión con la depreciación. Da una aproximación del ingreso contable obtenido por el proyecto. Para encontrar el ROI, primero se calcula el beneficio neto promedio:

(Beneficios totales-costos totales-Depreciación) Beneficio neto Vida útil

Este beneficio neto se divide entre la inversión total para llegar al ROI:

69

Beneficios netos ROI

Inversión total inicial Debilidad del modelo: ignora el valor del dinero en el tiempo. Los ahorros futuros no valen tanto en moneda actual como los ahorros actuales. Por otra parte, el ROI puede ser modificado (y en general lo es), de manera que los beneficios y los costos futuros se calculan en moneda actual. VALOR PRESENTE NETO: la evaluación de un proyecto de capital requiere que el costo de una inversión se compare con los flujos de entrada de efectivo neto que tiene lugar muchos años después. Pero estos dos tipos de flujo no son directamente comparables debido a la influencia del costo del capital. El valor presente es el valor en moneda actual de un pago o corriente de pagos que se recibirán en el futuro.

Pago x 1 – (1 + tasa de interés)-n 1 valor presente tasa de interés

Con el objeto de comparar la inversión hecha (en moneda actual) con los futuros ahorros o ingresos, es necesario descontar los ingresos a su valor presente y luego calcular el valor presente neto de la inversión. El valor presente neto es la cantidad de dinero que vale una inversión tomando en cuenta su costo, ingreso y el valor del dinero en el tiempo. La expresión que da el valor presente es: Valor presente de los flujos de efectivo esperados – costo inicial de la inversión = Valor presente neto RELACIÓN COSTO/BENEFICIO: es un método sencillo para calcular la recuperación de los costos de capital. Es el cociente de beneficios entre costos. La expresión es:

Beneficios totales Relación costo-beneficio Costos totales

INDICE DE RENTABILIDAD: sirve para comparar la rentabilidad de diferentes inversiones potenciales. El índice de rentabilidad se calcula dividiendo el valor presente del flujo total hacia la empresa de una inversión entre la inversión inicial:

Valor presente de los flujos hacia la empresa Índice de rentabilidad Inversión

TASA INTERNA DE RETORNO (TIR): es una variante del método del valor presente neto. Toma en cuenta el valor del dinero en el tiempo. Se define como la tasa de recuperación o utilidad que una inversión debe dar. El TIR es la tasa de descuento que iguala al valor presente de los futuros flujos de efectivo con el costo inicial del proyecto. En otras palabras, el valor de R (tasa de descuento) es tal que Valor presente – Costo Inicial = 0. Consideraciones estratégicas y no financieras Otros métodos de seleccionar y evaluar inversiones en sistemas de información implican consideraciones estratégicas y no financieras. Cuando la empresa tiene diversas alternativas de inversión de dónde escoger, puede emplear el análisis de cartera y dar puntuación a los modelos. Algunos de estos métodos pueden ser usados en combinación. ANÁLISIS DE CARTERA (PORTAFOLIO): en vez de usar presupuestación de capital, una segunda manera de seleccionar entre alternativas de proyectos es considerar a la empresa como una cartera de aplicaciones potenciales. Cada aplicación implica riesgos y beneficios. Como no existe un perfil ideal para

70

todas las empresas, las de información intensiva (por ejemplo las financieras) deben tener proyectos de bajo riesgo y elevados beneficios para asegurar que están al corriente con la tecnología. Las empresas en sectores no intensivos de información deben enfocarse en proyectos de altos beneficios y bajos riesgos. En general, los riesgos son los siguientes: ⇒ ⇒ ⇒ ⇒ ⇒

Los beneficios no se obtienen. Los costos de implantación pueden exceder a los presupuestos. Se exceden los marcos de tiempo para la implantación. El desempeño técnico resulta menor del esperado. El sistema resulta incompatible con el software y el hardware existentes.

Los riesgos no son necesariamente malos. Son tolerables en tanto los beneficios sean medibles. En general, existen tres factores que incrementan el riesgo de los proyectos: tamaño del proyecto, experiencia organizacional y complejidad de las tareas del proyecto. Una vez que los análisis estratégicos han determinado la dirección general del desarrollo del sistema, se puede usar un análisis de cartera (portafolio) para seleccionar alternativas. Evidentemente, se puede empezar por enfocarse en sistemas de altos beneficios y bajos riesgos. Estos prometen recuperaciones tempranas y bajos riesgos. Segundo, los sistemas de altos beneficios-altos riesgos deben examinarse. Los sistemas de bajos beneficios-altos riesgos deben ser totalmente evitados, y los sistemas de bajos beneficios-bajos riesgos deben ser reexaminados por la posibilidad de reconstruirlos y reemplazarlos por sistemas deseables que tengan mayores beneficios. MODELO DE PUNTUACIÓN: es un método rápido para decidir entre diversos sistemas basado en un sistema de calificaciones para objetivos seleccionados. Los modelos de puntuación dan a los diversos sistemas una única puntuación basada en el grado con el que cumplen los objetivos señalados. A menudo, el resultado más importante de un modelo de puntuación no es el puntaje sino sencillamente los criterios para juzgar un sistema. Como todas las técnicas “objetivas”, existen muchos juicios cualitativos involucrados en el uso del modelo de puntuación. Este modelo requiere de expertos que entiendan las cuestiones y la tecnología. Es adecuado hacer ciclos varias veces en el modelo de puntuación, cambiando los criterios y los pesos, para ver que tan sensible es el resultado a los cambios razonables de criterios. Los modelos de puntuación se usan más comúnmente para confirmar, racionalizar y apoyar las decisiones, en vez de ser los árbitros finales de la elección de los sistemas. 11.4 Enlazando los sistemas de información con el plan de negocio La decisión sobre qué nuevos sistemas desarrollar debe ser un componente esencial del proceso de planeación de la institución. Las instituciones necesitan desarrollar planes de sistemas de información que apoyen a su plan general de negocios. El plan de sistemas de información Una vez que se han seleccionado proyectos específicos dentro del contexto general del plan estratégico par a el negocio y para el área de sistemas, se puede proceder a desarrollar un plan de sistemas de información. El plan hace las veces de mapa de carreteras que indica la dirección del desarrollo de los sistemas, los aspectos conceptuales, la situación actual, la estrategia de administración, el plan de implantación el presupuesto. El plan contiene un enunciado de las metas corporativas y establece cómo la tecnología de la información da el apoyo para que las metas sean alcanzadas; también muestra cómo las metas generales serán alcanzadas por los proyectos específicos de sistemas; establece ciertas fechas objeto y hechos que pueden ser usados más tarde para juzgar el progreso del plan en términos de cuántos objetivos fueron realmente alcanzados dentro del marco de tiempo especificado en el plan. Una parte importante del plan es la estrategia de administración para pasar de la situación actual hacia el futuro. En general, éste indicará las decisiones claves tomadas por los administradores en relación con la adquisición de hardware, telecomunicaciones, centralización/descentralización de la autoridad, datos y el hardware y el cambio organizacional que se requiere.

71

Establecimiento de los requerimientos institucionales de información Con el objeto de desarrollar un plan efectivo de sistemas de información, en la institución debe haber un entendimiento claro de sus requerimientos de información a corto y largo plazo. Las dos principales metodologías para establecer los requerimientos esenciales de información para la institución como un todo son: el análisis de la empresa y los factores críticos de éxito. ANÁLISIS DE LA EMPRESA (PLANEACIÓN DE SISTEMAS DE NEGOCIOS): el análisis de la empresa argumenta que los requerimientos de información de una empresa sólo pueden ser comprendidos viendo a toda la institución en términos de unidades organizacionales, funciones, procesos y elementos de datos. El análisis de la empresa puede ayudar a identificar las entidades y atributos claves de los datos de la institución. El método central usado en este enfoque es tomar una muestra grande de administradores y preguntarles cómo usan la información, de dónde la obtienen, cómo es su ambiente, cuáles son sus objetivos, cómo toman las decisiones y cuáles son sus necesidades de datos. Los resultados de esta gran encuesta entre administradores se vacían en matrices de subunidades, funciones, procesos y datos. Uno de los puntos fuertes de l análisis de empresa es que proporciona una vista comprensible de la organización y de los empleos de sistemas/datos y brechas. Es especialmente adecuado para situaciones de arranque o de cambios masivos. Otra fuerza del análisis de empresa es que ayuda a que se produzca un consenso institucional al involucrar a un gran número de administradores y usuarios de los datos. La debilidad del análisis de empresa es que produce una enorme cantidad de datos caros de recopilar y difíciles de analizar. Es una técnica muy cara con un sesgo hacia la alta dirección y el procesamiento de los datos. ANÁLISIS ESTRATÉGICO: FACTORES CRÍTICOS DEL ÉXITO: presupone que los requerimientos de información de una institución quedan determinados por un número pequeño de factores críticos del éxito (FCE) de los administradores. Los FCE son metas operativas. Si esas metas pueden ser alcanzadas, el éxito de la empresa o institución está asegurado. Los FCE están conformados por el sector, la empresa, el administrador o el ambiente amplio. El principal método que se utiliza en el análisis de los FCE es el de entrevistas personales (tres o cuatro) con un número de directores para identificar sus metas y los FCE que resulten. Los sistemas entonces se construyen para dar información sobre estos FCE. La fuerza del método de los CE es que produce un conjunto de datos más pequeño a ser analizados que los del análisis de la empresa. Sólo los altos dirigentes son entrevistados, y las preguntas se enfocan hacia un número pequeño de FCE en vez de una amplia consulta sobre qué información se usa o se necesita. Una fuerza única del método de FCE es que toma en cuenta el cambio del ambiente con el que las instituciones y los administradores deben enfrentarse. Es especialmente adecuado para la alta dirección y para el desarrollo de SSD y SSE. Por último este método produce consenso entre los altos directivos sobre lo que es importante medir con el objeto de calificar el éxito de la institución. Como el análisis de la empresa, el método de los FCE enfoca la atención institucional en cómo debe manejarse la información. La debilidad de este método es que el proceso de registro y análisis de los datos son formas de arte. No existe un método riguroso en particular por el que FCE particulares puedan acopiarse para dar un patrón claro de la empresa. Segundo, a menudo hay confusión de los entrevistados, entre los FCE individuales y de la institución: no son necesariamente los mismos. Además, este método está totalmente sesgado hacia los altos directivos porque son ellos los entrevistados. De hecho el método parece ser sólo adecuado para los sistemas de soporte o dependencia en administración, SSD y SSE. Supone que los SPO de éxito ya existen. Retos de la administración

1. principales riesgos e incertidumbres en desarrollo de sistemas 2. determinar los beneficios de un sistema cuando son en gran medida

intangibles 3. desarrollo de un plan efectivo de sistemas de información 4. administración del cambio

72

CAPÍTULO XII 12.1 El ciclo de la vida tradicional de los sistemas El ciclo de vida de los sistemas es el método más antiguo para el desarrollo de sistemas de información. Esta metodología supone que un sistema de información tiene un ciclo de vida semejante al de todo organismo vivo, con un comienzo, una vida media y un final. El ciclo de vida de un sistema de información tiene seis fases:

1. Definición del proyecto; 2. Estudio de sistemas; 3. Diseño; 4. Programación; 5. Instalación 6. Postimplantación

Cada fase consta de actividades básicas que deben ser realizadas antes de que la siguiente fase pueda iniciarse. La metodología del ciclo de vida es un enfoque muy formal para el desarrollo de sistemas. Hace una partición del proceso de desarrollo de los sistemas en distintas fases y desarrolla un sistema de información de manera secuencial, fase por fase. También implica una división del trabajo muy formal entre usuarios finales y especialistas en sistemas de información. Etapas del ciclo de vida de los sistemas DEFINICIÓN DEL PROYECTO: en esta etapa se determina si la institución tiene o no un problema y si puede o no ser resuelto con un proyecto de sistemas; si se opta por un proyecto de sistemas, en esta etapa se identifican los objetivos generales, se especifica el alcance del proyecto y se desarrolla un plan del proyecto que pueda ser presentado a la dirección. ANÁLISIS DE SISTEMAS: en esta etapa se estudian los problemas de los sistemas existentes (manuales o automatizados) en detalle, se identifican los objetivos a ser alcanzados por una solución y se describen las diversas soluciones, las cuales se analiza su factibilidad. Toda la información recopilada durante esta fase será usada para determinar los requerimientos del sistema de información. Finalmente, se describe en detalle las actividades restantes del ciclo de vida y las tareas en cada fase. DISEÑO: en esta etapa se producen las especificaciones de diseño lógicas y físicas para la solución. PROGRAMACIÓN: en esta etapa se traducen las especificaciones de diseño en código de programación. Estas especificaciones describen lo que cada programa debe hacer, el tipo de lenguaje de programación a ser usado, entradas y salidas, lógica de procesamiento, calendarios de procesamiento y enunciados de control. Los programadores escriben un código de programa adaptado en general usando un lenguaje convencional de tercera generación como FORTRAN y COBOL o un lenguaje de alta productividad de cuarta generación. INSTALACIÓN: esta etapa consiste en los pasos finales para poner al sistema nuevo o modificado en operación: pruebas, capacitación y conversión. POSIMPLANTACIÓN: consiste en el uso y evaluación del sistema luego de que se ha instalado y se encuentra en producción. También incluye actualizar al sistema para hacer mejoras. Luego de que el sistema se ha puesto a punto, es necesario darle mantenimiento mientras esté en producción para corregir errores, cumplir con los requerimientos o mejorar la eficiencia de procesamiento. Con el tiempo el sistema puede necesitar de tanto mantenimiento para permanecer eficiente que llegará al final de su vida útil. Una vez que el ciclo de vida del sistema llega a su fin, un sistema completamente nuevo se necesita y el ciclo se inicia de nuevo. ETAPAS PRODUCTOS FINALES Definición del proyecto Informe de propuesta definitiva Estadio de sistemas Informe de propuesta de sistema Diseño Especificaciones de diseño Programación Código de especificaciones de programa

73

Instalación Pruebas de desempeño de sistemas Posimplantación Auditoría luego de la implantación Limitaciones del enfoque del ciclo de vida El ciclo de vida de los sistemas se emplea aún para desarrollar sistemas con un gran procesamiento de operaciones (SPO) y sistemas de información para administración (SIA), en donde los requerimientos son altamente estructurados y bien definidos. También permanece como adecuado para sistemas técnicos complejos. Tales aplicaciones implican un análisis riguroso y formal de requerimientos, especificaciones predefinidas y férreos controles sobre el proceso de desarrollo de sistemas. Sin embargo, la metodología del ciclo de vida de los sistemas tiene serias limitaciones y no es muy adecuada para los pequeños sistemas de escritorio. El enfoque del ciclo de vida es muy costoso y consumidor de tiempo. Una gran cantidad de tiempo se emplea en la recopilación de la información. Pueden pasar años antes de que un sistema quede finalmente instalado. Si el tiempo de desarrollo es demasiado prolongado, los requerimientos de información pueden cambiar antes de que el sistema esté en condiciones de operar. El sistema que toma para su desarrollo muchos años y dinero puede quedar obsoleto cuando aún se encuentra en la mesa de diseño. El enfoque del ciclo de vida es inflexible y desmotiva el cambio. Este enfoque permite revisiones al sistema para asegurarse de que los requerimientos sean satisfechos. Cuando los requerimientos son incorrectos o se encuentra un error, la secuencia de las actividades del ciclo de vida debe repetirse. Pero los nuevos volúmenes de documentos deben generarse otra vez, incrementando sustancialmente el tiempo y costo de desarrollo; esto estimula el congelamiento de las especificaciones temprano durante el proceso de desarrollo, lo que significa que los cambios no pueden ser realizados. Las especificaciones adecuadas no siempre pueden ser captadas desde la primera vez cuando, temprano en el ciclo de vida, son fáciles de cambiar. El método del ciclo de vida es poco apropiado para las aplicaciones orientadas a la toma de decisiones. La toma de decisiones puede ser más bien poco estructurada y fluida. Los requerimientos cambian constantemente o las decisiones pueden no tener modelos o procedimientos bien definidos. 12.2 Elaboración de prototipos La elaboración de prototipos consiste en el desarrollo de un sistema no funcional rápido y barato para que los usuarios finales lo evalúen. Al interactuar con el prototipo, los usuarios pueden tener una mejor idea de sus requerimientos de información. El prototipo avalado por los usuarios puede ser usado como marco de referencia para crear el sistema definitivo. El prototipo es una versión operativa de un sistema de información o parte del sistema, pero se trata sólo de un modelo preliminar. Una vez que opera, el prototipo será luego mejorado hasta que se apegue exactamente a los requerimientos de los usuarios. Para muchas aplicaciones, un prototipo puede ser extendido y mejorado una y otra ve antes de aceptar el diseño final. Una vez que el diseño se haya terminado, el prototipo puede convertirse en un sistema pulido de información. Proceso iterativo es el proceso de desarrollo de un diseño preliminar, de probarlo, afinarlo y probarlo de nuevo, una y otra vez. El ciclo de vida tradicional implica alguna medida de reproceso y afinación; sin embargo, la elaboración de prototipos es más explícitamente iterativa que el ciclo de vida convencional. El método de prototipos es menos formal que el del ciclo de vida. En vez de generar especificaciones detalladas y documentos de autorizaciones, el prototipo genera rápidamente un modelo operativo del sistema. Los requerimientos se determinan dinámicamente a medida que el prototipo se construye. El análisis del sistema, el diseño y la implantación ocurren al mismo tiempo. Etapas en la construcción de prototipos Son 4, a saber:

1. Identificar los requerimientos básicos del usuario. El diseñador del sistema trabaja con el usuario sólo lo suficiente para obtener sus necesidades básicas de información.

74

2. Desarrollar un prototipo inicial. El diseñador del sistema crea rápidamente un prototipo operativo, muy probablemente usando las herramientas de software de cuarta generación, las que aceleran el desarrollo de aplicaciones. El prototipo puede llevar a cabo sólo las funciones mas importantes del sistema propuesto o puede ser todo el sistema con un archivo restringido.

3. Uso del prototipo. Se estimula al usuario a que trabaje con el sistema con el objeto de determinar qué tan bien satisface sus necesidades y para hacer recomendaciones para mejorarlo.

4. Revisión y mejora del prototipo. El desarrollador del sistema anota todos los cambios solicitados por el usuario y afina el prototipo de acuerdo con ellos. Luego de que el prototipo ha sido revisado, el ciclo regresa alas etapas 3 y 4, que ser repiten hasta que el usuario quede satisfecho.

Cuando ya no se requieren más iteraciones, el prototipo aprobado se transforma en un prototipo operativo que proporciona las especificaciones finales para la aplicación. Hacer prototipos es más rápido, iterativo e informal de lo que ha demostrado ser el método del ciclo de vida. Ventajas y desventajas de la elaboración de los prototipos Los prototipos son de mayor utilidad cuando existe alguna incertidumbre sobre los requerimientos o soluciones de diseño. Puede ser difícil señalar por adelantado los requerimientos o pueden cambiar sustancialmente a medida que progresa la implantación. Esto es particularmente cierto en el caso de las aplicaciones orientadas a las decisiones. Los prototipos son especialmente útiles para el diseño de la interfase con el usuario final de un sistema de información (la parte del sistema con la que el usuario interactúa, como las pantallas en línea y las pantallas o informes de acceso de datos). Sin embargo, los prototipos pueden no ser adecuados para todas las aplicaciones. Tampoco deben ser sustitutos para el caso de que ser requiera un análisis cuidadoso de los requerimientos, de metodologías de análisis estructurado o una documentación muy profunda; tampoco pueden sustituir a los métodos y herramientas tradicionales de desarrollo. Las aplicaciones que están orientadas hacia el manejo sencillo de datos y administración de registros son buenos candidatos para los prototipos. Sin embargo, sistemas basados en procesamientos por lotes o que descansan en operaciones complejas de cálculos y en una lógica de procedimientos compleja son en general inadecuados para el proceso de prototipos. Los prototipos están mejor adaptados para las aplicaciones más pequeñas. Hacer un prototipo muy rápido puede soslayar pasos esenciales en el desarrollo de sistemas. 12.3 Desarrollo de sistemas con paquetes de software de aplicaciones Una estrategia diferente es desarrollar un sistema de información comprando un paquete de software de aplicaciones. Los paquetes de software de aplicaciones son conjuntos de programas precodificados y preescritos que están disponibles para ser adquiridos o rentados. Los paquetes pueden seleccionarse como una estrategia de desarrollo bajo las siguientes circunstancias:

1. Donde las funciones son comunes para muchas empresas. Por ejemplo, toda empresa tiene un sistema de nóminas.

2. En donde los recursos para el desarrollo interno de sistemas de información son escasos. 3. Cuando las aplicaciones para microcomputadoras se desarrollan para usuarios finales.

Ventajas y desventajas de los paquetes de software VENTAJAS: la mayor parte del trabajo de diseño ya ha sido desarrollado por el proveedor del paquete; los principales problemas técnicos ya han sido eliminados; el proveedor proporciona herramientas y asistencia en la instalación de los principales sistemas y mucho del mantenimiento corriente y soporte al sistema. El proveedor permanece como una fuente de conocimiento y ayuda. Un beneficio adicional es como pueden reducir algunos de los cuellos de botella de la institución en el proceso de diseño de sistemas. La necesidad de trabajar una y otra vez las especificaciones de diseño se reduce porque las especificaciones del paquete ya están fijas; los usuarios deben aceptarlas tal y como están. Los problemas con el sistema pueden ser atribuidos a las limitaciones del paquete en vez de a las fuentes internas, por lo tanto, la principal

75

contribución de los paquetes puede ser su capacidad para terminar con las mayores fuentes de resistencia organizacional en el esfuerzo de desarrollo de sistemas. DEVENTAJAS: los paquetes pueden no cumplir con todos los requerimientos de las instituciones. Pero, en diversos grados, los diseñadores de paquetes de software se anticipan a este problema proporcionando características de adaptación que no alteren al software básico. Las características de adaptabilidad permiten que un paquete de software sea modificado para cumplir con los requerimientos únicos de una institución sin destruir la integridad del paquete de software. El precio de compra del paquete puede ser una decepción a causa de ciertas modificaciones y programaciones adicionales que pueden ser necesarias para adaptar un paquete. Selección de paquetes de software Los criterios más importantes de evaluación son las funciones proporcionadas por el paquete, flexibilidad, amistad con el usuario, hardware, recursos de software, requerimientos de base de datos, esfuerzo de instalación y mantenimiento, documentación, calidad del proveedor y costo. El proceso de evaluación del paquete se basa con frecuencia en una requisición de propuesta (RP), que es una lista detallada de preguntas que se remite a los proveedores de software. Los paquetes y el proceso de desarrollo de sistemas E análisis de sistemas incluirá un esfuerzo de evaluación del paquete que normalmente se lleva a cabo al enviar RP a diversos proveedores de paquetería. Las respuestas a las RP serán comparadas con los requerimientos de los sistemas generados durante esta fase, y el paquete de software que mejor lo satisfaga será el elegido. El esfuerzo de diseño consistirá en tratar de moldear los requerimientos de los usuarios para apegarse a las características del paquete. 12.4 Desarrollo por usuarios finales El desarrollo por usuarios finales ha sido posible gracias a las herramientas de software de cuarta generación. Herramientas de cómputo del usuario final: fuerza y limitaciones Las herramientas de cómputo del usuario final han aumentado la velocidad y facilidad con las que cierta clase de aplicaciones suelen ser creadas. Muchas herramientas de a cuarta generación incluyen conocimientos de diseño de aplicaciones interconstruidos. Las herramientas de cuarta generación tiene nuevas capacidades, como gráficas, hojas de cálculo, modelaje y recuperación de información que satisfacen importantes necesidades de negocios. Desafortunadamente, las herramientas de cuarta generación aún no pueden sustituir herramientas convencionales para algunas aplicaciones de negocios, porque sus habilidades permanecen limitadas. El procesamiento de cuarta generación es relativamente ineficiente y los lenguajes consumen grandes cantidades de recursos de la computadora. La mayor parte de las herramientas de cuarta generación están más fuera de procedimientos que los lenguajes tradicionales de programación. Por lo tanto, no pueden manejar fácilmente aplicaciones con una extensa lógica de procedimientos y requerimientos de actualización. Las herramientas de cuarta generación hacen su contribución más importante en los aspectos de programación y de diseño en detalle del proceso de desarrollo de sistemas, pero tienen muy poco impacto en otras actividades de construcción de sistemas. Los lenguajes de cuarta generación por sí solos no pueden superar los problemas tradicionales de carácter organizacional y de infraestructura, como la falta de bases de datos bien definidas y mejor integradas de comunicaciones que en general obstruyen las implantaciones de los sistemas de información. Beneficios y problemas de administración Como los usuarios finales pueden crear muchas aplicaciones totalmente propias o con una asistencia mínima de los especialistas en sistemas de información, los sistemas de informacio´n desarrollados por usuarios finales pueden ser creados de manera mucho más rápida e informal que los sistemas tradicionales.

76

Esta situación ha generado beneficios y problemas para las instituciones porque estos sistemas quedan fuera de las restricciones del ambiente formal de sistemas de información. BENEFICIOS: 1. Mejora en la definición de requerimientos. Existe una menor necesidad de apoyarse en especialistas de

sistemas de información para el análisis de requerimientos y menor posibilidad de que los requerimientos de los usuarios puedan ser mal interpretados por los especialistas.

2. Involucramiento y satisfacción de los usuarios. 3. Control del proceso de desarrollo de sistemas por los usuarios. Las herramientas de cuarta generación

permiten a los usuarios finales desempeñar un papel más activo en el proceso de desarrollo de sistemas. Pueden crear ellos mismos o con mínima ayuda aplicaciones totales.

4. Disminuir rezago en cuanto al desarrollo de aplicaciones. Los sistemas desarrollados por usuarios pueden ayudar con el retraso en la elaboración de aplicaciones al transferir la responsabilidad del desarrollo del personal de sistemas de información a los usuarios finales.

DESVENTAJAS: La computación de usuarios finales presenta riesgos institucionales porque ocurre fuera de los mecanismos tradicionales de administración y control de sistemas de información. La mayoría de las instituciones aún no han desarrollado estrategias para asegurarse de que las aplicaciones de los usuarios finales cumplan con los objetivos institucionales o con las normas de aseguramiento de la calidad apropiada para su función. Los retos más críticos que trae consigo la computación de usuarios finales son: 1. Revisión y análisis insuficiente cuando las funciones de analistas y usuarios ya no están separadas. Sin

analistas formales de sistemas de información, las aplicaciones desarrolladas por usuarios no tienen una revisión externa independiente. También puede ser difícil para los usuarios especificar requerimientos completos y comprensibles.

2. Falta de normas adecuadas y controles para el aseguramiento de la calidad. Los sistemas desarrollados por usuarios con frecuencia son creados rápidamente, sin una metodología formal de desarrollo. Si bien resultan ventajas en productividad, a menudo adolecen de la falta de normas, controles y procedimientos de aseguramiento de la calidad adecuados.

3. Datos no controlados. Sin disciplinas formales de administración de datos, será cada vez más difícil determinar dónde se localizan los datos y asegurar que la misma pieza de información sea usado de manera consistente a lo largo de toda la institución.

4. Proliferación de los sistemas “privados” de información. Los usuarios pueden crear sus propios sistemas de información “privados”, que queden ocultos del resto de la institución. Tales sistemas pueden ocultar información a los otros grupos. Un sistema privado no documentado no puede ser fácilmente encargado a otra persona cuando el creador de tal sistema deja su trabajo.

Administración del desarrollo de usuario final ¿Cómo pueden las instituciones maximizar los beneficios del desarrollo de las aplicaciones de los usuarios finales al tiempo que las mantienen bajo control? CENTROS DE INFORMACIÓN: es una instalación especial que proporciona capacitación y soporte para el cómputo de los usuarios finales. Allí se encuentran especialistas en software, hardware y técnicos que proporcionan a los usuarios finales herramientas, capacitación y consejos expertos de manera que puedan crear sus propias aplicaciones de sistemas de información. Es una manera de facilitar y administrar el desarrollo de las aplicaciones por usuarios finales. Los consultores de los centros de información están disponibles para instruir a los usuarios y ayudarles en el desarrollo de aplicaciones más complejas. Los centros de información pueden proporcionar muchos beneficios administrativos: 1. Pueden ayudar a los usuarios finales a encontrar herramientas y aplicaciones que los hagan más

productivos. 2. Evitan la creación de aplicaciones redundantes. 3. Promueven el compartir los datos y minimizan los problemas de integralidad. 4. Aseguran que las aplicaciones desarrolladas por los usuarios finales cumplan con las normas de

auditoría, calidad y seguridad.

77

5. Pueden ayudar al establecimiento y cumplimiento de las normas para el hardware y el software de manera que los usuarios finales no introduzcan muchas tecnologías diferentes e incompatibles a la empresa.

POLÍTICAS Y PROCEDIMIENTOS PARA ADMINISTRA LA COMPUTACIÓN DE LOS USUARIOS FINALES: los administradores pueden complementar a los centros de información central con centros más pequeños y distribuidos que proporciones capacitación y herramientas de cómputo a la medida para las diferentes unidades operativas y unidades de área funcionales. También pueden asegurarse de que el soporte proporcionado se adecua a las necesidades de los diferentes tipos de diseñadores de aplicaciones para el usuario final. La administración no debe permitir que las aplicaciones de usuarios finales sean desarrolladas al azar. La institución debe incorporar los sistemas de usuario final dentro de su plan estratégico de sistemas. La administración debe también desarrollar controles sobre el cómputo de usuarios finales. Entre éstos pueden incluirse los siguientes: 1. Justificación de los costos de los proyectos de sistemas de información de usuarios finales. 2. Normas de software y hardware par las aplicaciones de los usuarios finales. 3. Normas a nivel de empresa para las microcomputadoras, software de procesamiento de palabras,

sistemas de administración de bases de datos, softwares de gráficas y herramientas de consulta e información.

4. Revisiones de aseguramiento de la calidad. 5. Controles para aplicaciones desarrolladas para usuarios finales que cubran pruebas, documentación,

precisión e integridad de entrada y actualizaciones, respaldo, recuperación y supervisión. 12.5 Fuentes externas en los sistemas de información Si la empresa no desea usar sus recursos internos para desarrollar y operar los sistemas de información, puede contratar a una institución externa que se especialice en proporcionar estos servicios. Este proceso se llama acudir a fuentes externas. Como los sistemas de información juegan un papel tan importante en las instituciones actuales, la tecnología de la información ahora es responsable de casi la mitad de los gastos de capital de la empresa. Una opción para controlar los costos es acudir a fuentes externas. Ventajas y desventajas de acudir a fuentes externas Algunas empresas acuden al exterior porque su personal interno de sistemas de información no puede mantener el paso con los cambios tecnológicos. Pero no todas las instituciones se benefician de las fuentes externas y las desventajas de esta práctica pueden crear ciertos problemas a las instituciones si no las entienden y manejan adecuadamente. VENTAJAS: las explicaciones más comunes para acudir a fuentes externas son: 1. Economía: los proveedores de servicios externos son especialistas en los servicios y tecnologías de

sistemas de información que venden. Mediante especialización y economías de escala, pueden proporcionar el mismo servicio y valor por menos dinero de los que le cuesta a la institución.

2. Calidad en el servicio: como los proveedores de servicios externos perderán sus clientes si el servicio no es satisfactorio, las empresas en general tienen mayor apalancamientos sobre los proveedores que sobre sus propios empleados.

3. Predecibilidad: un contrato con el exterior a precio fijo par aun nivel específico de servicios reduce los costos de incertidumbre.

4. Flexibilidad: el crecimiento de los negocios puede integrarse sin hacer cambios importantes en la infraestructura de los sistemas de información de la institución.

5. Hacer de los costos fijos, costos variables: sólo se debe pagar por el volumen de servicios que se consumen en lugar de pagar un costo fijo de mantenimiento de los sistemas internos que no son utilizados en su totalidad.

6. Liberación de recursos humanos para otros proyectos

78

7. Liberación de capital financiero: algunos acuerdos con fuentes externas incluyen la venta en efectivo de la tecnología y otros activos de capital de la empresa al proveedor mismo.

DESVENTAJAS: no todas las instituciones obtienen las ventajas mencionadas. Existen peligros. Recurrir a fuentes externas, puede crear serios problemas tales como la pérdida de control, vulnerabilidad en la información estratégica y dependencia en la suerte de la empresa externa. 1. Pérdida de control: recurrir a fuentes externas coloca al proveedor en posición de ventaja respecto al

cliente, pues este debe aceptar lo que haga el proveedor y lo que le quiera cobrar. 2. Vulnerabilidad de la información estratégica: los secretos comerciales o información privada pueden

filtrarse hasta los competidores por el hecho de que los sistemas de información de la empresa están siendo operados por externos.

3. Dependencia: la empresa se hace dependiente de la viabilidad del proveedor. Cuándo utilizar a los proveedores externos Existe una cantidad de circunstancias dentro de las cuales acudir a proveedores externos tiene gran sentido: 1. Cuando existe una oportunidad limitada de la empresa para distinguirse ante la competencia a causa de

una aplicación o una serie de aplicaciones en particular de un sistema de información. Por ejemplo, el desarrollo y la operación de un sistema de nóminas con frecuencia se dan al exterior para liberar al personal de sistemas de información que se concentre en actividades de mayor utilidad profesional, tales como los sistemas de servicios o manufactura.

2. Cuando la predecibilidad de la interrupción de los sistemas de información no es muy importante. Por ejemplo, las reservaciones en líneas aéreas o los sistemas de ventas por catálogo son demasiado “críticas” para ser confiadas al exterior.

3. Cuando concesionar servicios al exterior no aleja a la empresa del know how técnico para innovaciones futuras en los sistemas de información. Si una empresa da al exterior algunos de sus sistemas pero conserva su propio personal de sistemas de información, podría asegurar que se mantenga actualizado y cuente con los conocimientos para desarrollar futuras aplicaciones.

4. Cuando las capacidades de sistemas de información de la empresa son limitadas, ineficaces o técnicamente inferiores. Algunas instituciones acuden a proveedores externos como una manera fácil de mejorar su tecnología de sistemas de información.

Administración de la concesión a fuentes externas Para obtener utilidad de las fuentes externas, las instituciones deben asegurarse de que el proceso está adecuadamente administrado. Con un buen análisis y sana comprensión de las fuerzas y limitaciones de las fuentes externas, los administradores pueden identificar las aplicaciones más adecuadas para ser desarrolladas y controladas por fuentes externas y desarrollar un plan viable de uso de estas fuentes. Las aplicaciones no críticas son con frecuencia las candidatas adecuadas para las fuentes externas. El establecimiento de la estrategia tecnológica es una de las áreas en las que las empresas no deberían ceder a las fuentes externas. La tarea estratégica debe permanecer en casa. COMPARACIÓN DE ENFOQUES DE DESARROLLO DE SISTEMAS Enfoque Características Ventajas Desventajas Ciclo de vida de sistemas Secuencial.

Proceso formal paso a paso. Especificaciones y aprobaciones por escrito Papel limitado de usuarios

Necesario para sistemas y proyectos complejos y muy grandes

Lento y costoso Desestimula cambios Mucha documentación a ser manejada

Elaboración de prototipos Requerimientos específicados dinámicamente con sistema experimental Proceso rápido, informal e iterativo Los usuarios interactúan rápido con el proyecto

Rápido y barato Útil cuando los requerimientos inciertos o cuando la interfase con usuarios finales son importantes

Inadecuado para sistemas grandes y complejos Puede ser muy superficial y obviar pasos importantes en el análisis, documentación y pruebas.

Paquete de software para El software comercial evita Se reduce diseño, programación, Puede no satisfacer los

79

la aplicación necesidad de programas de software desarrolladas internamente

instalación y trabajo de mantenimiento Permite ahorrar tiempo y costo al desarrollar aplicaciones comunes de negocios Disminuye la necesidad de recursos internos de información de los sistemas

requerimientos excepcionales de la institución Puede no desempeñar bien muchas funciones de negocios Una excesiva adaptación incrementa los costos de desarrollo

Desarrollo de usuarios finales

Sistemas creados para usuarios finales usando herramientas de software de cuarta generación Rápido e informal Papel mínimo de los especialistas en sistemas de información

Los usuarios controlan la construcción de los sistemas Ahorra costo y tiempo de desarrollo Disminuye el trabajo pendiente de aplicaciones

Puede conducir a una proliferación de sistemas de información sin control Los sistemas no siempre cumplen con las normas de aseguramiento de la calidad

Fuentes externas Sistemas construidos y algunas veces operados por proveedor externo

Permiten reducir o controlar costos Permiten producir sistemas cuando los recursos internos no están disponibles o son técnicamente deficientes

Pérdida de control sobre la función (área) de sistemas de información Dependencia de la dirección de la técnica y la prosperidad de proveedores externos

Retos de administración 1. Determinación de la estrategia adecuada para el desarrollo de sistemas. 2. Controlar el desarrollo de los sistemas de información fuera del departamento de sistemas de

información. 3. Seleccionar una estrategia de desarrollo de sistemas que se adapte a la arquitectura de la información y

el plan estratégico de la empresa.

80

UNIDAD XIII 13.1 ¿Qué es la calidad en los sistemas? La administración de calidad total (TQM), es un concepto que hace de la calidad una responsabilidad total a ser compartida por todas las personas dentro de una institución, con el alcance del control de calidad considerado como un fin en sí mismo. Abarca todas las funciones de la institución. Cómo contribuyen los sistemas de información a la administración de calidad total Los programas de calidad difieren en gran medida de una empresa a otra. Mientras más trata una empresa de llevar a cabo su programa, más los sistemas de información pueden contribuir a su éxito en toda la empresa. Los sistemas de información pueden desempeñar un papel especial en los programas corporativos de calidad porque están profundamente involucrados con el trabajo diario de otros departamentos a lo largo de toda la institución. El personal de los buenos SI tiene tres habilidades críticas para el éxito de cualquier programa de calidad: 1. Se supone que los analistas de los SI son especialistas en el análisis y rediseño de los procesos de

negocios. Por ejemplo, los programas de calidad con frecuencia tienen la filosofía de: “mientras menos, mejor”; mientras menos pasos en un proceso, hay menos oportunidades de cometer un error. Los buenos analistas de sistemas adquieren entrenamiento y experiencia en la simplificación y el rediseño de sistemas de negocios.

2. Muchos técnicos en SI tienen experiencia en la medición y cuantificación de procedimientos y actividades críticas en cualquier proceso. En general, los departamentos de SI desde hace mucho tiempo se han involucrado en mediciones de su propio servicio.

3. Los administradores de proyectos de SI tienen habilidades en la administración de tareas y proyectos. Estas habilidades pueden contribuir en gran medida en cualquier programa serio de calidad, que debería ser organizado como un proyecto y que normalmente estará fuertemente orientado hacia las tareas.

Cualquier estudio de los programas de calidad muestra que la información es una fuente prioritaria de preocupación para quienes están involucrados. En general SI es la clave para hacer la información disponible de manera oportuna y en un formato útil para quienes la necesitan para fines de calidad. El personal de sistemas de información es la fuente de ideas sobre la aplicación de la tecnología en cuestiones de calidad; a menudo también son las personas que pueden hacer que esa tecnología quede disponible para el proyecto de calidad. Los efectos de los proyectos de sistemas de información de calidad pueden verse y sentirse a todo lo largo de la institución. Tal proyecto puede ser un estímulo para que otros departamentos lleven a cabo sus propios proyectos de calidad, y con frecuencia puede ser un modelo para los otros departamentos a medida que inician sus propios proyectos. Así, el papel de los sistemas de información en los programas corporativos de calidad ha sido causa de gran controversia. SI ha sido criticado por su reticencia a involucrarse en los programas de calidad que abarcan toda la institución. A menudo SI se enfocará exclusivamente en mejorar su propia producción de aplicaciones de software sin salir a ayudar al resto de la empresa. Mucho del trabajo de sistemas de información es muy técnico, lo que lleva a otro problema: los profesionales de sistemas de información pueden voltear fácilmente hacia la tecnología como la respuesta a todos los problemas de calidad. Así como la tecnología tiene mucho que dar, la calidad a menudo significa un cambio de enfoque desde las cuestiones de tecnología hasta las de negocios. Muchas personas ven las mejoras tecnológicas como las metas reales del proyecto, un enfoque que ciertamente impedirá que un programa de calidad alcance el éxito. La tecnología, después de todo, es sólo una herramienta que, si se usa adecuadamente, sostiene a las metas de negocios del departamento de la empresa. Una preocupación final es que en algunas instituciones SI termina guiando un proyecto a nivel de toda la empresa. El resto de la empresa busca al departamento de SI para el liderazgo en vez de sólo por inspiración y apoyo. Sin embargo, los proyectos de calidad exitosos deben enfocarse hacia las metas de negocios y el rediseño de los procesos de negocios. La experiencia a demostrado que los proyectos exitosos son guiados por la cúpula de la institución en vez de solamente un departamento.

81

La necesidad de aseguramiento de la calidad en software La cuestión subyacente de calidad para los departamentos de sistemas de información es el aseguramiento de la calidad en el software. La producción de software de alta calidad es crítico para la mayoría de las grandes instituciones a causa de la función central que tiene en tantos departamentos. Un error oculto en el software de crédito de una empresa o en el de control de procesos puede resultar en una pérdida de millones de dólares. Para más y más empresas, el software ha llegado a ser una parte integrante de los productos que se venden. Como otros tipos de producción, la producción de software es única y presenta su propio conjunto de problemas. Una característica especial del desarrollo de software es que su meta normal es construir sólo un ejemplar del producto final (excepto las empresas que construyen software para ventas al público). Con el software, los problemas de calidad deben resolverse desde la primera vez; el diseño debe ser de la más alta calidad a la primera. El cumplir con las necesidades del usuario puede ser difícil en un proceso en donde el usuario final se compromete con el producto antes de que éste se haya construido. Definir las necesidades del usuario y juzgar la calidad del sistema terminado han demostrado ser los retos principales. La mayor parte de los proyectos de desarrollo de sistemas se inicia en la definición de los requerimientos de información del usuario y en las especificaciones en la forma de análisis de sistemas y documentos de diseño. El problema es que cumplir con las especificaciones no necesariamente garantiza la calidad. El sistema terminado puede de hecho satisfacer las especificaciones, pero no las necesidades del usuario. Las especificaciones a menudo fallan en la consideración del sistema desde el punto de vista de los usuarios. Mientras que los diseñadores se concentrarán en la funcionalidad, con frecuencia soslayan la facilidad de aprendizaje y uso, precisión y confiabilidad incuestionables o la velocidad de respuesta. Todos estos factores son importantes para el éxito de un sistema. LA PESADILLA DEL MANETNIMIENTO: el mantenimiento, el proceso de modificación de un sistema en uso productivo, es la fase más cara del proceso de desarrollo de sistemas. Si los errores se detectan desde temprano, durante el análisis y el diseño, los costos del esfuerzo de desarrollo de sistemas son pequeños. Pero si se descubren después de la programación, pruebas o de que la conversión se haya terminado, los costos pueden subir de manera estratosférica. Para ser capaz de manejar el mantenimiento rápida y económicamente, un sistema de software debe ser flexible. MONSERGAS Y DEFECTOS: un problema importante con el software es la presencia de monsergas ocultas (monserga: bug: defectos o errores en la codificación de los programas) o defectos en el código de programas. Los estudios han demostrado que es virtualmente imposible eliminar a todas las monsergas de los grandes programas. La fuente principal de monsergas es la complejidad del código de toma de decisiones. Tal complejidad es difícil de documentar y diseñar, los diseñadores documentan erróneamente algunas reacciones o no consideran algunas posibilidades. Cero defectos, una meta del movimiento administrativo hacia la calidad total no puede alcanzarse en los programas más grandes. Sencillamente no es posible realizar la prueba total. Probar totalmente programas que contienen miles de elecciones y millones de trayectorias requeriría miles de años. La experiencia ha demostrado que arreglar las monsergas a menudo no funciona. En muchos casos el esfuerzo para arreglar una monserga introducirá otra completamente nueva o una serie de ellas. Para alcanzar la calidad en el desarrollo de software, una institución debe primeramente alcanzar un acuerdo sobre qué es la calidad. Algunos desarrolladores ven la calidad como la ausencia de defectos de programación. Un sistema de calidad debe hacer lo siguiente: 1. Alcanzar las metas de negocios articuladas por el departamento de usuarios. 2. Operar a un costo aceptable, dimensionalmente congruente con el valor producido para la empresa. 3. Cumplir escrupulosamente con las normas de desempeño definidas (como tiempo de respuesta y

disponibilidad de sistemas) 4. Producir un resultado preciso y confiable. 5. Ser fácil de aprender y utilizar.

82

6. Ser flexible. Algunas soluciones a problemas de calidad en sistemas de información Áreas más críticas hacia las que los desarrolladores deben enfocarse: EL PAPEL DE LAS METODOLOGÍAS: para limitar los problemas e incrementar la calidad al construir sistemas, los desarrolladores deben empezar con una metodología disciplinada que establezca normas para todas las fases del proyecto. Una metodología de desarrollo es en realidad sólo una colección de métodos uno o más para cada actividad dentro de cada fase de un proyecto de desarrollo. Numerosas metodologías de desarrollo útiles existen en la actualidad, algunas apropiadas para tecnologías específicas, otras que reflejan filosofías diferentes de desarrollo. Los departamentos de SI, junto con la administración de otros departamentos, seleccionan la metodología que creen que se adapta mejor a las necesidades de su empresa. (se expondrán diversas metodologías específicas en las secciones 13.2 y 13.3). ASIGNACIÓN DE RECURSOS DURANTE EL DESARROLLO DE LOS SISTEMAS: la asignación de recursos determina la manera como los costos, el tiempo y el personal son asignados a las distintas fases de un proyecto. Los recursos del proyecto están siendo desplazados hacia atrás en el ciclo del proyecto. Más tiempo se está dando a las especificaciones y al análisis de sistemas, disminuyendo el tiempo de programación y reduciendo la necesidad de tanto tiempo de mantenimiento. Métrica del software consiste en evaluaciones objetivas de los sistemas en la forma de mediciones cuantificadas. Puede jugar un papel en el incremento de la calidad del proyecto. El uso continuo de métricas permite que el departamento de SI y el usuario midan conjuntamente el desempeño del sistema e identifiquen problemas tan pronto como ocurran. La métrica del software incluye métrica de entrada, de salida, de capacidad, de desempeño (calidad) y de valor. Una métrica de salida ampliamente usada son los puntos de función que pueden ayudar a medir la productividad de los desarrolladores de software y la eficiencia del mismo, independientemente del lenguaje de programación que se use. El análisis del punto de función mide el número de entradas, salidas, consultas, archivos e interfases externas usadas para otro software empleado en una aplicación. Los resultados pueden ser utilizados para calcular el costo por punto de función de escribir un elemento de software y el número de puntos de función escritos por programador en una unidad específica de tiempo. Desafortunadamente, muchas manifestaciones de calidad no son tan fáciles de definir en términos de métricas. En esos casos los desarrolladores deben encontrar mediciones indirectas. Por ejemplo, una medida objetiva de la facilidad para el uso de un sistema de nuevo desarrollo puede ser el tiempo promedio en que los operadores aprenden a usarlo. Para que las métricas tengan éxito deben diseñarse cuidadosamente, ser formales y objetivas. Deben medir aspectos significativos del sistema. PRUEBAS: realizar pruebas temprano, de manera regular y profunda, contribuirá significativamente con la calidad de los sistemas. Se sabe que todo software de grandes dimensiones contiene numerosos errores; la razón por la que se hacen las pruebas es descubrirlos. La realización de pruebas se inicia en la etapa de diseño. Como aún no existe ninguna codificación, la prueba que normalmente se utiliza es un tránsito, que es la revisión de un documento de especificaciones o de diseño por un grupo de personas cuidadosamente seleccionado según las habilidades necesarias para los objetivos particulares que serán probados. Cuando se descubren los errores, la fuente se encuentra y elimina mediante un proceso llamado depuración. HERRAMIENTAS DE CALIDAD: finalmente la calidad del sistema puede ser significativamente mejorada mediante el uso de herramientas de calidad. Entre las herramientas de programación se incluyen diccionarios de datos, librerías para administrar módulos de programas y herramientas que de hecho crean códigos de programas. Hay muchos tipos de herramientas para ayudar en el proceso de depuración. (en 13.2 y 13.3 se exponen distintos tipos de herramientas). 13.2 Herramientas y metodologías tradicionales En los primeros días de la programación existían pocas metodologías. La programación era un arte. Los programas eran no estructurados, escritos en códigos complejos y confusos:

83

Código espagueti: código de programa no estructurado y confuso con lógica rebuscada que metafóricamente se parece a una olla de espaguetis. Los sistemas eran inflexibles a un punto tal que el mantenimiento se hacía imposible. Como reacción a tales problemas, nuevas metodologías surgieron en los ´70. Éstas incorporaban una gama de métodos o técnicas para llevar a cabo las principales funciones de un proyecto de desarrollo. Las metodologías y los métodos que incluían normalmente son descritos mediante los términos estructurados y descendentes. Estructurado: se refiere al hecho de que las técnicas son instrucciones cuidadosamente escritas, con frecuencia paso a paso, donde cada paso se desprende del anterior. Descendente: se refiere a un enfoque que avanza desde el nivel de la más alta abstracción hasta el más bajo de detalle; desde lo general a lo específico. El proceso descendente se usa para el análisis, diseño y programación. Las metodologías tradicionales de estructuración están orientadas hacia el proceso, en vez de orientadas hacia los datos. Mientras que las descripciones de los datos son parte de los métodos, las metodologías se enfocan en cómo se transforman los datos en vez de sobre los datos en sí. Estas metodologías son en gran medida lineales: cada fase debe quedar terminada antes que la siguiente pueda empezar. Las metodologías descendentes, estructuradas permanecen como el enfoque dominante de metodología en nuestros días. Las metodologías que se exponen en esta sección incluyen el análisis estructurado, diseño estructurado, programación estructurada, tablas de decisión, árboles de decisiones, pseudocódigos y diagramas de flujo. Mediante el uso de tales metodologías se promueve la calidad al suscitar la comunicación, reducir los errores ocasionados por la lógica defectuosa en los programas o especificaciones poco claras y creando software que sea más fácil de entender y mantener. Análisis estructurado Es un método que se utiliza ampliamente para definir las entradas de sistemas, procesos y salidas, así como para dividir los sistemas en subsistemas. Ofrece un modelo gráfico lógico de flujo de información, que divide a un sistema en módulos que muestran niveles manejables de detalles. El enfoque estructurado permite lo siguiente: ⇒ ⇒ ⇒

Tener vistas de un sistema de arriba hacia abajo. Especificar las interfases que existen entre modelos. Especificar rigurosamente los procesos o las transformaciones que ocurren dentro de cada modelo.

El análisis estructurado puede aplicarse a los análisis de sistemas, especificación de requerimientos y diseño. Y sirve también como el punto de partida para el diseño de software estructurado que se describe: DIAGRAMA DE FLUJO DE DATOS: en análisis estructurado es altamente gráfico, descansa más bien en diagramas que en un texto narrativo. Su herramienta primaria es el diagrama de flujo de datos (DFD), que es una representación gráfica de los procesos que componen el sistema y de las interfases entre ellos. Muestran cómo los datos fluyen desde, hacia y dentro de un sistema de información y los procesos en donde los datos se transforman. También muestran dónde se almacenan los datos. Los DFD se construyen utilizando cuatro símbolos básicos, a saber: 1. El símbolo de flujo de datos, una flecha que muestra el flujo de los datos. 2. El símbolo del proceso, cuadros redondeados o burbujas que describen procesos que transforman los

datos. 3. El símbolo de almacenamiento de datos, un rectángulo abierto que indica dónde se almacenan los datos. 4. El símbolo de entidad externa, ya sea un rectángulo o un cuadrado que indica las fuentes o los destinos

de los datos. Flujo de datos: muestran el movimiento de los datos entre los procesos, entidades externas y almacenamientos de datos. Consisten en documentos, informes, datos de un archivo de computadora o datos de transmisiones en telecomunicaciones, que pueden ser entradas o salidas. Siempre contienen paquetes de datos, con el nombre o contenido de cada flujo listado a un lado de la flecha, la cual representa datos en forma manual o automatizada.

84

Flujo de datos Procesos: implican la transformación de los flujos de datos de entrada a flujo de datos de salida, por ejemplo un proceso que transforme un pedido en una factura. La convención para dar nombre a un proceso consiste en unir un verbo con un objeto, por ejemplo se pude llamar al proceso que calcula el ingreso bruto, Calcular el ingreso bruto. Cada proceso tiene un número único de referencia de manera que pueda ser distinguido fácilmente de otros procesos en el diagrama de flujo de datos.

1.0

Calcular el ingreso bruto Proceso

Almacenamientos de datos: pueden ser inventarios manuales o automatizados de datos. Consisten en archivos de computadora o base de datos, archiveros, tajeteros, microfichas o una carpeta con informes en papel. El nombre del almacenamiento de datos se escribe dentro del símbolo.

Archivo de cursos

Entidades externas: son originadores o receptores de información. Están formadas por clientes, proveedores o dependencias gubernamentales externas a la institución, o empleados o departamentos dentro de ella. Las entidades externas algunas veces reciben el nombre de interfases externas porque se encuentran fuera de las fronteras o alcances del sistema estudiado por el diagrama de flujo.

Departamento de Nóminas

85

Los diagramas pueden ser usados para describir procesos de alto nivel así como detalles a bajo nivel. A través de los diagramas de flujo de datos un proceso complejo se puede fraccionar a diversos niveles de detalles. Todo un sistema puede ser dividido en subsistemas; cada subsistema, a su vez, puede ser dividido en subsistemas adicionales con diagramas de flujo de datos de menor nivel. Diagrama de contexto: diagrama de flujo de datos general que describe a todo un sistema como un proceso sencillo con sus principales entradas y salidas. OTRAS HERRAMIENTAS DEL ANÁLISIS ESTRUCTURADO: entre otras herramientas para el análisis estructurado se incluye el diccionario de datos (descripto en el cap. 8). En el análisis estructurado, el diccionario de datos contiene información acerca de los elementos individuales de datos y de agrupamientos de datos dentro de un sistema. El diccionario de datos define los contenidos de los flujos de datos y el almacenamiento de datos de manera que los desarrolladores de sistemas comprendan exactamente qué elementos de datos contienen. El diccionario también proporciona información sobre el significado y formato de cada elemento de datos y los flujos y los almacenamientos de datos en donde se utiliza. Algunas veces también proporcio0na información sobre frecuencia, volumen, valores, usuarios, seguridad y procesos. El diccionario de datos usado en el análisis estructurado puede ser expandido y usados en todo el proceso de desarrollo de sistemas para ayudar a los constructores de sistemas a hacer el seguimiento de todos los detalles de datos, funciones y procesos que se acumulan en cada sistema. Las especificaciones del proceso describen las transformaciones que ocurren dentro de las burbujas de más bajo nivel en los diagramas de flujo de datos. Expresa la lógica para cada proceso usando uno de los tres métodos para documentar las reglas de decisión que se describen posteriormente: ⇒ ⇒ ⇒

Seudocódigo o inglés estructurado Tablas de decisión Árboles de decisión

El resultado del análisis estructurado es un documento de especificaciones estructuradas que incluye los diagramas de flujo de datos para las funciones del sistema, las descripciones del diccionario de los flujos de datos y los almacenamientos de datos, especificaciones del proceso y documentos de entrada o salida más los requerimientos de seguridad, control, conversión y desempeño. Documentación de las reglas de decisión Diversos conjuntos de herramientas se usan para la documentación de las reglas de decisiones y para definir la lógica de procesamiento en la fase de diseño. La documentación será entonces usada como especificaciones para programas de computadora. Estas herramientas son las tablas de decisiones, los árboles de decisiones y el pseudocódigo. TABLAS DE DECISIONES: se consideran como muy útiles para documentar situaciones en las que el proceso de decisiones es altamente estructurado y claramente entendido. Las decisiones se representan de manera gráfica en una tabla en la que se expresan una serie de condiciones. Cuando ciertas condiciones se cumplen las decisiones se toman de acuerdo con reglas especificadas. La tabla debe especificar todas las posibles condiciones que afectan la decisión. Ejemplo: 1. Un encabezado que identifica a la tabla 2. Puntos de condiciones con acceso para cada posible condición. 3. Enunciados de acción con accesos para cada posible acción que pudiera tomarse. Tales acciones

serán determinadas por las condiciones presentes y por las reglas de decisión que gobiernan el proceso decisional. En la figura se ilustra la lógica a seguir para enviar estados de cuentas del mercado de dinero. El fondo del mercado de dinero enviará balances mensuales del estado del saldo de la cuanta a todos los inversionistas, ya sea que las cuentas hayan o no tenido actividad. Sin embargo, a los inversionistas con saldos inferiores a 500 dólares se les enviarán advertencias de saldos bajos junto con los reportes mensuales, a menos que sus cuentas hubieran tenido actividad durante el mes anterior.

86

ENCABEZADOS REGLAS Enviar estado mensual 1 2 3

CONDICIONES 1. Saldo >= $ 500 S N N

2. Actividades de la cuenta durante el mes pasado S N

DATOS DE CONDICIONES

3. Enviar sólo estado mensual de

cuenta X X

DECLARACIONES DE ACCIÓN

4. Enviar estado de cuenta con advertencia X

DATOS DE ACCIÓN

ARBOLES DE DECISIONES: proporcionan otro método gráfico para documentar las reglas de decisiones. Presentan condiciones y acciones de manera secuencial, mostrando los caminos de decisión que pudieran ser tomados. El diagrama se parece a las ramas de un árbol. Diferentes alternativas se representan a partir de un punto inicial de decisiones. La decisión inicial es la raíz del árbol. Las ramas se desarrollan de izquierda a derecha. Los nodos del árbol muestran condiciones. La siguiente trayectoria a seguir depende del resultado de una determinación acerca de la condición. A la derecha del árboles encuentran las acciones que pueden ser tomadas, dependiendo de la secuencia de condiciones y alternativas que sigan. Son especialmente útiles para destacar caminos de decisiones y secuencias de decisiones en vez de los criterios para seleccionar un determinado camino. Sin embargo, si un sistema es muy complejo, los árboles de decisiones pueden ensombrecer el análisis. En tales casos, las tablas de decisión son preferibles

Saldo >= $ 500

Saldo < $ 500

Sólo enviar estado mensual

Actividad de la cuenta del mes anterior

No hubo actividad de la cuenta el mes anterior

Estado mensual Sólo enviar

estado mensual

Enviar estado mensual + advertencia

87

SEUDOCÓDIGO: es un método para expresar la lógica de programas utilizando inglés común y corriente en vez de un lenguaje de programación. Emplea frases narrativas en vez de símbolos gráficos tales como árboles o tablas para describir un procedimiento. Ventaja: los desarrolladores de sistemas pueden concentrarse en desarrollar la lógica de manera independiente de los lineamientos de la sintaxis de cualquier lenguaje de programación. Si la lógica es firme, el seudocódigo puede ser fácilmente traducible a un lenguaje de programación. El inglés estructurado es semejante al seudocódigo en el sentido de que usa las construcciones lógicas de éste, pero su terminología es más fácilmente entendida por los usuarios finales que el seudocódigo. El seudocódigo usa los mismos patrones lógicos como estructuras básicas de control de la programación estructurada. Éstos son:

1. la estructura de la secuencia: se trata de pasos o acciones individuales que se siguen sin interrupción. La serie de acciones no depende de la existencia de ninguna condición. El seudocódigo de la secuencia es:

HACER 1 HACER 2 2. la estructura de la selección, en donde se pueden tomar dos o más acciones dependiendo de cuál

satisface una condición establecida. El formato para el seudocódigo de la selección es: SI (la condición 1 es cierta) Hacer X CONTRARIO Hacer Y FINSI 3. la estructura de la iteración, en donde ciertas acciones se repiten una y otra vez mientras cierta

condición ocurre o hasta que tal condición se satisfaga. El formato de seudocódigo para la estructura de iteración es:

HACER MIENTRAS (la condición 2 sea cierta) Acción Z FINHACER

Diseño estructurado El diseño estructurado es una disciplina de diseño de software que abarca un conjunto de reglas y técnicas de diseño para elaborar en forma descendente a un sistema de forma jerárquica. Promueve la claridad y la simplicidad en los programas y por tanto reduce tiempo y esfuerzo requerido para codificación, depuración y mantenimiento. También se lo conoce como diseño descendente o diseño compuesto. El principio fundamental del diseño estructurado es que un sistema debe ser diseñado desde arriba hasta debajo de manera jerárquica, y que debe refinarse a mayores niveles de detalle. El diseño debe primero considerar la funciónprincipál de un programa o un sistema, luego romper esta funcionen subfunciones y descomponer cada subfunción hasta que se alcance el nivel más bajo de detalle. De esta manera, toda la lógica de alto nivel y el modelo de diseño se desarrollan antes que el código detallado del programa haya sido escrito. Si se lleva a cabo es análisis estructurado, el documento de especificaciones estructurado puede servircomo insumo para el proceso de diseño. A medida que se formula el diseño, se documenta en un diagrama estructurado. El diagrama estructurado es una gráfica descendente, que muestra cada nivel de diseño, su relación con otros niveles y su lugar en toda la estructura de diseño. Un diagrama estructurado puede documentar un programa, un sistema (un conjunto de programas) o parte de un programa. (es como un árbol genealógico al revés; ver pág. 491) Programación estructurada La programación estructurada expande los principios que gobiernan al diseño estructurado para escribir los programas. También se basa en el principio de modularización que se deriva del desarrollo descendente. Es un método para organizar y codificar programas que simplifica las rutas de control de manera que los programas puedan comprenderse y modificarse fácilmente. Reduce la complejidad que se crea cuando las instrucciones de programación brincan hacia delante y hacia atrás a otras partes del programa.

88

Cada una de las cajas del diagrama estructurado representa un componente modular o módulo. Los programas pueden ser particionados en módulos, cada uno de los cuales constituye una unidad lógica que lleva a cabo una o un número pequeño de funciones. Idealmente, los módulos deben ser independientes unos de otros. Deben estar interconectados de manera que tengan una entrada y una salida de sus módulos padres. Deben compartir datos con los menos módulos posibles. Al reducir las conexiones entre los módulos o los acoplamientos, se minimizan las vías por las cuales los errores pueden difundirse a otras partes del mismo sistema. Cada módulo debe también conservar una dimensión manejable. Cualquier programa puede escribirse usando las tres construcciones básicas de control o los patrones de instrucción el seudocódigo: 1) secuencia sencilla, 2) selección y 3) iteración. Existe un solo punto de entrada y uno de salida para cada estructura. Las estructuras de control pueden enlazarse una luego de la otra o pueden anidarse. Las estructuras de control de la programación estructurada pueden usarse en cualquier lenguaje de programación. Diagramas de flujo Los diagramas de flujo son una vieja herramienta de diseño que aún se emplea. Detallan el flujo de datos a lo largo de todo el sistema de información. Los diagramas de flujo de programas describen los procesos que ocurren dentro de un programa individual en el sistema y la secuencia en la que deben ejecutarse. La construcción de diagramas de flujo ya no se recomienda para el diseño de programa porque no produce una estructura descendente y modular de manera tan eficiente como otras técnicas; sin embargo, pueden ser usados para documentar especificaciones físicas de diseño porque pueden mostrar todas las salidas, los principales archivos, el procesamiento y las salidas para un sistema y permiten documentar procedimientos manuales. DIAGRAMAS DE FLUJO DE SISTEMAS (FLUJOGRAMAS): es una manera gráfica de describir todos los procedimientos que toman datos de entrada y los transforman a su forma final de salida. Usando símbolos y líneas de flujo especializadas, el flujograma del sistema muestra todos los procesos que ocurren, los datos manejados en cada paso y la relación entre los procesos. Características: 1. Muestra la estructura global del sistema 2. Traza el flujo de información y trabajo 3. Muestra los medios físicos en los cuales se alimentan los datos, salen y se almacenan 4. Destaca los puntos clave de procesamiento y decisión La fig. 13.14 de pág. 495 muestra los símbolos básicos para hacer los flujogramas de sistemas. Los flujogramas de los sistemas pueden abarcar distintos niveles de detalle. Limitaciones de los métodos tradicionales La mayoría de los críticos considera que las metodologías estructuradas son lentas y no tienen respuestas en el mundo de cambios tan rápidos de los noventas. El proceso es demasiado lineal. Se requiere que el análisis estructurado se haya terminado antes de iniciar el diseño estructurado, y la programación estructurada debe esperar los productos terminado del diseño estructurado. La lentitud también se traduce en un mayor costo. Un enfoque lineal también hace que las metodologías estructuradas sean más bien inflexibles. Un gran proyecto de desarrollo de sistemas puede durar de uno a dos años. Las especificaciones elaboradas al principio están sujetas a modificaciones a medida que el negocio requiere de cambios. Sin embargo, un cambio en las especificaciones requiere que los documentos de análisis y luego los de diseño sean modificados antes de que los programas sean cambiados para reflejar el nuevo requerimiento. A menudo se lleva a cabo una guerra con la administración del proyecto por parte de SI, que trata de congelar los requerimientos hasta que éste se haya terminado y los usuarios que encuentran inaceptable esta aparente inflexibilidad. Las metodologías estructuradas están orientadas a las funciones. Se enfocan en los procesos que transforman los datos. El almacenamiento de los datos se describe como un apéndice para estos procesos. Pero la administración de los negocios ha llegado a ver a la mayoría de los sistemas de información como orientados a los datos. Los datos generados por un departamento pueden ser usados por muchos otros departamentos. Ha quedado claro que los datos son más permanentes que los procesos que los usan o

89

transforman. Los sistemas que se enfocan a los procesos son a menudo largos e inflexibles. Los sistemas que se enfocan hacia los datos pueden ser más cortos y mucho más flexibles, lo que los hace más fáciles de modificar y de mayor respuesta a las necesidades cambiantes de los negocios. La profesión de SI ha deseado desde hace mucho encontrar medios para reutilizar el código como una manera para reducir costos. A pesar del hecho de que grupos específicos de datos en general se procesan de la misma manera en distintos programas, un procedimiento de programación por separado debe de escribirse cada vez que alguien desea actuar sobre un elemento particular de datos. Las esperanzas en que la modularización de los programas pueda resolver este problema de reutilizabilidad no han sido cristalizadas. Los críticos piensan que es necesario ir más allá de los enfoques estructurados para encontrar soluciones a esta cuestión crítica de productivida. Una crítica final de importancia es que, como las técnicas utilizadas requieren de una gran cantidad de entrenamientos y experiencia, las metodologías estructuradas descansan fuertemente en los profesionales de sistemas de información. Las comunidades de usuarios están muy preocupadas por lo que ven como falta de comprensión por parte de los profesionales de SI de sus negocios y la lenta respuesta de los departamentos de SI a las necesidades cambiantes. Se han desarrollado nuevas técnicas estructuradas para atacar muchos de estos problemas. Por ejemplo, el diseño de aplicaciones conjuntas (JAD) que es un método de diseño que trae a los usuarios y a los profesionales de SI a una mesa de juntas para la realización de un diseño interactivo del sistema. Bien preparadas y facilitadas, las sesiones de JAD pueden acelerar significativamente la fase de diseño mientras que involucran a los usuarios en el diseño a un nivel que antes no era posible. La elaboración de prototipos también acelera el diseño mientras se involucra más a los usuarios y se incrementa la flexibilidad de todo el proceso. Sin embargo, la profesión de SI ha estado tratando de desarrollar otras metodologías en un esfuerzo por reemplazar a las metodologías estructuradas. 13.3 Nuevos enfoques hacia la calidad Además de las nuevas metodologías y herramientas tradicionales, los constructores e sistemas están inclinándose hacia el desarrollo orientado a objetos, a la ingeniería de software asistida por computadora (CASE) y a la reingeniería de software para ayudar a enfrentar a los problemas de calidad de los sistemas de información. Desarrollo de software orientado a sistemas La programación orientada a objetos es parte de un enfoque mayor hacia el desarrollo de sistemas llamado desarrollo de software orientado a objetos. El desarrollo de software orientado a objetos difiere de las metodologías tradicionales en la manera en que maneja la cuestión del proceso vs datos. Los tradicionales análisis y diseño estructurados ponen los procedimientos a la cabeza. Primero contemplan al sistema en términos de lo que se quiere que haga y luego se hacen los modelos de los procedimientos y de los datos. El desarrollo de software orientado a objetos niega los procesos. El enfoque se desplaza del modelaje de los procesos de negocios y de datos a la combinación de los datos y los procedimientos para crear objetos. El sistema se ve como una colección de objetos y relaciones entre ellos. Los objetos se definen, se programan, se documentan y se guardan para su uso en futuras aplicaciones. Los objetos modelan la manera como los usuarios trabajan en realidad. Por e BENEFICIOS DE UN ENFOQUE ORIENTADO A OBJETOS: como los objetos son reutilizables, el desarrollo de software orientado a objetos aborda directamente la cuestión de la reutilizabilidad y se espera que reduzca el tiempo y costo de escribir software. La experiencia en el desarrollo de software orientado a objetos es aún muy limitada; sin embargo, los primeros estudios son prometedores.. La experiencia ha demostrado que es posible programar ganancias en productividad; la EDS estudió los beneficios al construir dos veces un sistema de administración de mantenimiento, la primera usando técnicas estructuradas y la segunda con programación orientada a objetos; encontró una mejora en la productividad usando la programación orientada a objetos. Ejemplo: cuando el sistema postal de USA cambió el código postal de cinco a nueve dígitos, todo programa en cada empresa tuvo que ser modificado. Si los programas de una

90

empresa hubieran sido orientados a objetos, el programador sólo hubiera tenido que modificar el código dentro del objeto. El desarrollo del software orientado a objetos está llevando a otros cambios en métodos. Una vez que exista una biblioteca de objetos, el diseño y la programación a menudo podrán empezar sin tener que esperar a los documentos de análisis. Más bien, en teoría, el diseño y programación pueden llevarse a cabo de manera conjunta iniciándose tan pronto como se completen los requerimientos. Los desarrolladores (usuarios y profesionales de SI) usarán iteraciones de prototipos rápidos para diseñar el sistema. El prototipo, al quedar terminado, abarcará una gran cantidad de la programación necesaria para que el sistema quede terminado. Los metodos orientados a objetos deberán incrementar el involucramiento de los usuarios. Los usuarios encontrarán los objetos más fáciles de entender y más naturales de trabajar con ellos que en las herramientas estructuradas como gráficas de diseño y pseudocódigo. Además, la elaboración iterativa de prototipos descansa fuertemente en los usuarios, colocándolos en el centro del diseño y aun de la programación. OBSTÁCULOS EN EL USO DE TÉCNICAS ORIENTADAS A OBJETOS: el desarrollo de software orientado a objetos está aún en su infancia y todavía no está probado lo suficiente para que muchas empresas lo adopten. No existe aún una metodología universal orientada a objetos. Además, muchas empresas se muestran reticentes en intentarla porque requiere de una gran cantidad de capacitación del personal y una importante reorientación metodológica. La administración está también consciente de que un cambio completo al desarrollo orientado a objetos tomará mucho tiempo. Es necesario desarrollar nuevas tecnologías para los métodos orientados a objetos. Los diccionarios de datos para almacenamiento de definiciones no son adecuados para la programación orientada a objetos. Nuevos diccionarios de datos orientados a objetos deben ser desarrollados. Las herramientas CASE se han desarrollado para dar soporte a las metodologías estructuradas y necesitan ser rediseñadas para ser utilizadas con desarrollos orientados a objetos. Ingeniería de software apoyada por computadora (CASE) También llamada ingeniería de sistemas apoyada por computadora, es la automatización de metodologías paso a paso para el desarrollo de software y de sistemas para reducir la cantidad de trabajo repetitivo que el desarrollador debe hacer. También facilitan la creación de documentación más clara y de la coordinación de los esfuerzos de desarrollo de los equipos. Los sistemas desarrollados con CASE y las metodologías más nuevas han probado ser más confiables y requieren ser reparados con menor frecuencia. Muchas herramientas CASE tienen una base de microcomputadoras con poderosas capacidades gráficas. Las herramientas CASE proporcionan instalaciones automatizadas de gráficos para producir diagramas y figuras, generadores de pantallas e informes, diccionarios de datos, capacidades extensas para producir informes, herramientas de análisis y verificación, generadores de códigos y de documentación. La mayoría de las herramientas CASE se basan en una o más de las populares metodologías estructuradas. Algunas empiezan a dar apoyo al desarrollo orientado a objetos. En general las herramientas CASE tratan de incrementar la productividad y la calidad al hacer lo siguiente: 1. Respetar una metodología de desarrollo y una disciplina de diseño estándar. Los grandes equipos y

proyectos de software pueden ser coordinados de manera más efectiva. El esfuerzo de diseño y el de desarrollo en general tendrá una mayor integralidad.

2. Mejorar las comunicaciones entre los usuarios y especialistas técnicos. 3. Organizar y correlacionar las componentes de diseño y proporcionar rápido acceso a ellas mediante una

alacena de diseño. 4. Automatizar porciones tediosas y proclives a errores de análisis y diseño. 5. Automatizar la agenda de pruebas y controles. Elementos claves del CASE: Herramientas para diagramas: herramientas gráficas para dibujar símbolos para diagramas de flujo de datos, diagramas de estructura, diagramas entidades relaciones y otros tipos de diagramas asociados con una metodología particular.

91

Verificador de sintaxis: verifica la precisión e integralidad de la información alimentada al sistema en concordancia con las reglas de una metodología estructurada en particular. Herramientas para prototipos: generadores de pantallas, informes y menús que permiten al analista pintar la pantalla deseada y las distribuciones de los informes o caminos para los menús de un sistema sin especificaciones de formateo o programación compleja. Almacén de información: una base de datos central de información que sirve como mecanismo para almacenar todos los tipos de activos de software, distribuciones de pantallas y formatos de informes, diagramas, definiciones de datos, códigos de programa, programas de proyectos y otra documentación. El almacén coordina, integra y estandariza los diferentes elementos de información de manera que puedan ser fácilmente accedidos, compartidos por analistas y reutilizados en futuro trabajo de software. Generadores de código: pueden generar módulos de código ejecutable a partir de especificaciones de alto nivel. Algunas herramientas CASE usan iconos para indicar las diversas funciones de programas y traducir estos símbolos a programas. Metodología de desarrollo: algunos productos CASE contienen hojas de verificación o narrativas en donde se detalla toda la metodología de desarrollo que ayuda a hacer el seguimiento y el control del proyecto de desarrollo de sistemas. Herramientas de administración de proyectos: algunas herramientas CASE integran sus componentes con herramientas independientes conocidas para la programación del proyecto y la estimación de los recursos, mientras que otras incorporan software de administración de proyectos dentro del conjunto de herramientas CASE. EJEMPLOS DE HERRAMIENTAS CASE: las herramientas CASE se clasifican en términos de si dan apoyo a actividades en el frente o en la parte posterior del proceso de desarrollo de sistema. Para parte frontal: se enfocan en la captación del análisis y el diseño de información en las primeras etapas del desarrollo de sistemas. Automatizan el proceso de creación de diagramas de flujo de datos, diagramas estructurales, diagramas de entidad-relación y otras especificaciones, de manera que puedan ser fácilmente revisadas para mejorar el diseño antes de iniciar la codificación. También necesitan de su apego a las metodologías estructuradas. Para parte posterior: se enfocan en las actividad de codificación, pruebas y mantenimiento e incluyen editores de textos, formateadores, verificadores de sintaxis, compiladores, generadores de referencias horizontales, enlazadores, depuradores simbólicos, perfiladores de ejecución, generadores de códigos y generadores de aplicaciones. Ayudan a convertir automáticamente las especificaciones en códigos de programa. QUÉ ES LO QUE PUEDEN Y NO PUEDEN HACER LAS HERRAMIENTAS CASE LO QUE PUEDEN HACER LO QUE NO PUEDEN HACER Automatizar muchas tareas manuales de desarrollo de sistemas.

Proporcionar automáticamente un sistema funcional relevante. Es casi tan fácil producir un mal sistema como producir un buen sistema usando las herramientas CASE

Promover la estandarización basándose en una metodología única

Tener fácilmente interfases con las bases de datos y con los lenguajes de cuarta generación

Promover una mayor consistencia y coordinación durante el desarrollo de un proyecto

Forzar automáticamente a los analistas para que usen una metodología prescrita o crear una metodología cuando ésta no exista.

Generar gran parte de la documentación para un sistema, como diagramas de flujo de datos, modelos de datos, diagramas de estructura u otras especificaciones.

Transformar radicalmente el análisis de sistemas y el proceso de diseño.

Las herramientas CASE facilitan el trabajo directo de análisis y diseño de manera que se tengan menos errores para ser corregidos más tarde. Las herramientas CASE amarran automáticamente a los elementos de datos para los procesos en donde serán usados. Si un diagrama de flujo de datos se cambia de un proceso a otro, los elementos en el diccionario de datos se alterarán automáticamente para reflejar el cambio en el diagrama. Las herramientas CSE también contienen características para validar el diseño. Las herramientas CASE también apoyan al diseño interactivo al automatizar las revisiones y los cambios y al proporcionar infraestructura par elaborar prototipos.

92

Un elemento principal en la caja de herramientas CASE es la alacena de información, la cual almacena toda la información definida por los analistas durante el proyecto. La base de datos CASE puede ser compartida por miembros de un equipo de proyectos y contiene atributos para restringir cambios sólo a ciertos analistas previamente identificados. EL RETO DE USAR EL CASE: para ser utilizadas eficazmente, las herramientas CASE requieren de mayor disciplina organizacional que en el enfoque manual. Todo miembro del proyecto de desarrollo debe adherirse a un conjunto común de convenciones de nombres, normas y metodología de desarrollo. Las ganancias reales de productividad del CASE permanecen difíciles de definir. El CASE no es una cura mágica. Puede acelerar el análisis y el diseño y promover diseño iterativo, pero no permite que los sistemas sean diseñados automáticamente ni asegura que los requerimientos de los negocios se satisfagan. El análisis y diseño de sistemas dependen aún de las habilidades analíticas del analista diseñador. Reingeniería de software Es una metodología que ataca el problema del envejecimiento del software. Una gran cantidad del software que usan las instituciones fue escrito sin el beneficio del análisis, diseño y programación estructurados. El propósito de la reingeniería es salvar mucho del software, revaluarlo de manera que los usuarios puedan evitar un proyecto largo y caro de reemplazo. Esencialmente, los desarrolladores usan la reingeniería para extraer inteligencia de los sistemas existentes y por tanto crear nuevos sistemas sin empezar de cero. La reingeniería implica tres pasos:

1. Ingeniería reversiva o retrospectiva: implica la extracción de las especificaciones subyacentes del negocio de los sistemas existentes. Los sistemas antiguos, no estructurados, no tienen documentación estructurada para aclarar las funciones de negocios que el sistema debe apoyar. Tampoco cuentan con documentación adecuada del diseño del sistema o de los programas. Las herramientas de la ingeniería retrospectiva leen y analizan el código existente del programa, las descripciones de archivos y bases de datos y producen una documentación estructurada del sistema. La salida mostrará los componentes de alto nivel, como las entidades, atributos y procesos.

2. revisión del diseño y especificaciones de programas: con documentación estructurada de la cual partir, el equipo del proyecto puede revisar el diseño y especificaciones para cumplir con los requerimientos actuales del sistema.

3. ingeniería prospectiva: es el paso final en el que las especificaciones revisadas son usadas para generar un código nuevo y estructurado par aun sistema estructurado y mantenible.

Beneficios de la reingeniería: permite a una empresa desarrollar un sistema moderno a un costo mucho más bajo que el que se tendría si tuvieran que desarrollar un sistema enteramente nuevo. El sistema recién salido de la reingeniería reflejará los requerimientos actuales del negocio, y será capaz de ser modificado a medida que tales requerimientos cambien. Los programas no estructurados contienen una gran cantidad de código redundante. La reingeniería permite que los desarrolladores eliminen las redundancias reduciendo así el tamaño y complejidad de los programas. Retos de administración

1. la aplicación de normas de aseguramiento de calidad en los proyectos de grandes sistemas. 2. respetar una metodología estándar. 3. estar de acuerdo en lo que constituye la calidad en los sistemas de información.

93

UNIDAD XIV 14.1 El fracaso de los sistemas de información Muchas fallas de sistemas de información no están necesariamente cayéndose a pedazos, pero claramente no están siendo utilizados de la manera como se deseaba o no están siendo utilizados. Áreas de problemas en los sistemas de información Las principales áreas de problemas son: diseño, datos, costos y operaciones. Estos problemas pueden atribuirse no sólo a las características técnicas de los sistemas de información, sino que también se derivan de factores organizacionales. DISEÑO: el diseño real del sistema falla al no captar los requerimientos esenciales del negocio. La información:

1. puede no ser proporcionada lo suficientemente rápido para ser útil, 2. puede venir en un formato imposible de usar, o 3. puede representar los elementos equivocados de datos. 4. La manera en la cual usuarios no técnicos de negocios deben interactuar con el sistema puede

ser excesivamente complicada. Un sistema puede ser diseñado con una interfase con el usuario pobre. Interfase con el usuario: es la parte del sistema de información mediante la que el usuario final interactúa con el sistema; tipo de hardware y la serie de comandos y respuestas en pantalla que un usuario requiere para trabajar con el sistema.

Un sistema de información será juzgado como un fracaso si su diseño no es compatible con la estructura, cultura y metas de la institución. DATOS: los datos en el sistema tienen un alto grado de imprecisión o de inconsistencia. La información en ciertos campos puede ser errónea o ambigua; puede no ser fragmentada adecuadamente para fines de negocios. La información que se requiere para una función específica de negocios puede ser inaccesible porque los datos están incompletos. COSTO: algunos sistemas operan muy suavemente, pero el costo para implementarlos y operarlos en su fase de producción queda muy por encima del presupuesto. Estos gastos excesivos no pueden justificarse por el valor de negocios demostrado para la institución de la información que proporcionan. OPERACIONES: el sistema no opera bien. La información no se proporciona de manera oportuna y eficiente porque las operaciones de computadora que manejan el procesamiento de la información se caen. Las operaciones que abortan con mucha frecuencia conducen a reprocesos excesivos y programas con retraso o no cumplidos para la entrega de la información. Un sistema en línea puede ser operativamente inadecuado porque el tiempo de respuesta es demasiado largo. Medida del éxito del sistema La percepción y uso de los sistemas de información puede quedar fuertemente condicionado por variables personales y situacionales. Sin embargo, los investigadores de SIA han buscado un conjunto formal de parámetros del éxito del sistema. Se han desarrollado diversos criterios, pero las siguientes medidas del éxito de un sistema se consideran como las más importantes:

1. nivel elevado del uso del sistema; medidos por usuarios entrevistados o parámetros de seguimiento como el volumen de operaciones en línea.

2. satisfacción de los usuarios con el sistema: medida mediante cuestionarios o entrevistas. 3. actitudes favorables: de los usuarios hacia los sistemas de información y el personal de sistemas de

información. 4. objetivos alcanzados: el grado al que el sistema cumple con las metas establecidas, reflejadas por la

calidad de la toma de decisiones que resulta del uso del sistema. 5. recuperación financiera: para la institución, ya sea mediante la reducción de costos o al incrementar

las ventas y las utilidades. (Ésta se considera de valor limitado, los beneficios pueden no ser totalmente cuantificables).

94

14.2 Causas del éxito y el fracaso de los sistemas de información Muchos sistemas fallan debido a la oposición del entorno o del escenario interno. La introducción o alteración de un sistema de información transforma la manera como los diverso individuos y grupos operan e interactúan. Este cambio organizacional interno gesta resistencia y oposición. Pero existen otras razones por las que puede fallar el sistema. Una de ellas se enfoca a los distintos patrones de implantación. El concepto de implantación La implantación se refiere a todas las actividades institucionales que trabajan hacia la adopción, administración y rutinización de una innovación. Existen tres enfoques:

1. una se enfoca sobre los actores y sus papeles. Se cree que las instituciones deben escoger acores con características sociales apropiadas y desarrollar sistemáticamente papeles o roles institucionales, como “campeones de productos”. En general, esta literatura se enfoca a la adopción temprana y la administración de las innovaciones.

2. otra se enfoca en las estrategias de la innovación. Los dos extremos son la innovación descendente y la innovación hacia las raíces. Existen muchos ejemplos de instituciones en las que la ausencia de apoyo por parte de la lata dirección hacia la innovación hace fracasar el proyecto desde el principio. Al mismo tiempo sin raíces fuertes y firmes ni participación de usuarios finales, los proyectos de sistemas de información pueden también fracasar.

3. el último enfoque se dirige a los factores institucionales generales del cambio como decisivos para la rutinización a largo plazo de las innovaciones.

ETAPAS DE IMPLANTACIÓN ENFOQUES Adopción Administración Rutinización Papeles del actor X X Estrategia X Factores institucionales X X Dentro del contexto de la implantación, el analista es un agente de cambio. El analista no sólo desarrolla soluciones técnicas sino redefine las configuraciones, interacciones, actividades de los puestos y las relaciones de poder de diversos grupos institucionales. El analista es catalizador para todo el proceso de cambio y es responsable de asegurar que los cambios creados por un nuevo sistema sean aceptados por todas las partes involucradas. El agente de cambio se comunica con los usuarios, es un mediador entre los grupos de interés que compiten y asegura que el ajuste organizacional para tales cambios sea completo. Acciones e indicadores de una exitosa implantación de sistemas

1. soporte y apoyo de fondos locales 2. nuevos arreglos (ordenamiento) institucionales 3. abastecimiento y mantenimiento estables 4. nuevas clasificaciones del personal 5. cambios en la autoridad institucional 6. internalización en el programa de capacitación 7. adaptación constante del sistema 8. promoción del personal clave 9. sobrevivencia del sistema luego de la rotación de sus creadores 10. alcance del uso extensivo

Causas del éxito y fracaso de la implantación En la actualidad, la investigación sobre la implantación ha encontrado que no existe una explicación única para el éxito del sistema. Sin embargo, ha encontrado que el resultado de la implantación puede quedar determinado por los siguientes factores:

1. el papel de los usuarios en el proceso de implantación

95

2. el grado de apoyo directivo para el esfuerzo de implantación 3. el nivel de riesgo y complejidad del proyecto 4. la calidad de la administración en el proceso de implantación

INVOLUCRAMIENTO E INFLUENCIA DEL USUARIO: el involucramiento del usuario en el diseño y en la operación de los sistemas tienen diversos resultados positivos. Si los usuarios están fuertemente involucrados en el diseño de sistemas, tienen más oportunidades de moldear el sistema de acuerdo con sus prioridades y requerimientos de negocios. LA BRECHA DE COMUNICACIÓN ENTRE DISEÑADORES Y USUARIOS: siempre ha sido un área de problemas para los esfuerzos de implantación de sistemas de información. Los usuarios y los especialistas en sistemas de información suelen tener formaciones académicas, intereses y prioridades diferentes. Esto es lo que se conoce como brecha de comunicaciones entre diseñadores y usuarios. Los problemas de comunicación entre usuarios finales y diseñadores son una de las principales razones por las que los requerimientos de los usuarios en general no quedan incorporados en los sistemas de información y en general son sacados del proceso de implantación. Los sistemas de desarrollo de proyectos corren un grave riesgo de fracasar cuando se tienen una brecha muy pronunciada; bajo estas condiciones, en general los usuarios son retirados del proceso de implantación. APOYO DE LA ADMINISTRACIÓN: si un proyecto de sistemas de información tiene el apoyo y autorización de la administración a distintos niveles, es más probable que sea percibido positivamente por usuarios y personal técnico de servicios de información. NIVEL DE COMPLEJIDAD Y RIESGO: los sistemas difieren dramáticamente en sus dimensiones, alcance, niveles de complejidad y componentes institucionales y técnicos. Los investigadores han identificado tres dimensiones claves que influyen sobre el nivel de riesgo:

1. dimensiones del proyecto: mientras más grande sea un proyecto, mayor será el riesgo. 2. estructura del proyecto: algunos proyectos son mucho más estructurados que otros. Sus

requerimientos son claros y directos, de manera que los resultados y los procesos pueden definirse fácilmente. Los usuarios saben exactamente lo que desean y lo que el sistema puede hacer; casi no existe la posibilidad de que cambien de ideas. Tales proyectos operan a un riesgo mucho menor que aquellos cuyos requerimientos no están más que relativamente definidos, son fluidos y constantemente cambiantes.

3. la experiencia de la tecnología: el riesgo del proyecto crecerá si el equipo del proyecto y el personal de sistemas de información carecen de conocimientos técnicos.

ADMINISTRACIÓN DEL PROCESO DE IMPLANTACIÓN: el desarrollo de un nuevo sistema debe ser cuidadosamente administrado y coordinado. Cada proyecto implica investigación y desarrollo. Los conflictos e incertidumbres inherentes a cualquier esfuerzo de implantación se acrecentarán cuando un proyecto es pobremente administrado y organizado; seguramente sufrirá las siguientes consecuencias:

1. desfasamientos de costos, que exceden con mucho a los presupuestos. 2. pérdida de tiempo mucho mayor de lo esperado. 3. alcances técnicos cortos que dan como resultado que el desempeño quede muy por debajo del nivel

esperado. 4. fracaso en obtener los beneficios esperados.

IGNORANCIA Y OPTIMISMO: las técnicas para estimar la longitud de tiempo requerida para analizar y diseñar sistemas están muy poco desarrolladas. Mientras más grande es la escala de los sistemas, mayor será el papel de ignorancia y de optimismo. Los sistemas a muy grande escala adolecen de tasas demasiado altas de fracaso. EL MÍTICO MES-HOMBRE: la unidad tradicional usada por los diseñadores de sistemas para estimar la longitud de tiempo que demanda terminar un proyecto es el mes-hombre. Lo que ocurre es que añadir más trabajadores en los proyectos no necesariamente reduce el tiempo que se necesita para completar un proyecto de sistemas. El análisis y diseño de sistemas implica tareas que están ligadas de manera secuencial, no pueden ser llevadas a cabo aisladamente y requieren de extensas comunicaciones y capacitación. El proceso de implantación: ¿qué puede salir mal?

96

Problemas típicos de cada etapa de desarrollo de sistemas, cuando el proceso de implantación es administrado pobremente: ANÁLISIS:

1. no se han asignado tiempo, dinero y recursos para investigar el problema. Este problema permanece pobremente definido. Los objetivos del proyecto de implantación permanecerán vagos y ambiguos; los beneficios serán difíciles de medir.

2. muy poco o ningún tiempo se dedica a la planeación preliminar. No existen estándares para la estimación de costos preliminares o en la duración del proyecto.

3. el equipo del proyecto no está adecuadamente integrado. El personal se asigna sobre la base de disponibilidad y no puede dedicarse al proyecto. Los grupos de usuarios para el sistema no están representados en el equipo.

4. los requerimientos se derivan de documentación inadecuada de sistemas existentes o de hallazgos incompletos de sistemas y de actividades de estudio.

5. los usuarios se rehusan a emplear tiempo en ayudar al equipo del proyecto a captar la información que se necesita.

6. los analistas del proyecto no pueden entrevistar adecuadamente a los usuarios. No saben cómo hacer las preguntas adecuadas. No pueden llevar a cabo una conversación extensa con los usuarios porque carecen de habilidades adecuadas de comunicación.

DISEÑO 1. los usuarios no tienen responsabilidad o no tienen acceso a las actividades de diseño. Por lo

tanto el diseño refleja los sesgos del personal técnico. No se lleva bien con la estructura, actividades y cultura de la institución o las prioridades de la administración.

2. el sistema está diseñado para servir únicamente a las necesidades actuales. No se ha incorporado flexibilidad para anticipar las necesidades futuras de la institución.

3. cambios drásticos en los procedimientos de los empleados o de otro personal son planeados sin ningún tipo de análisis de impacto institucional.

4. las especificaciones funcionales no están adecuadamente documentadas. PROGRAMACIÓN

1. la cantidad de tiempo y dinero requerido para el desarrollo del software se ha subestimado. 2. los programadores han recibido especificaciones incompletas. 3. no se destina el tiempo suficiente para el desarrollo de la lógica de programas, se desperdicia

mucho tiempo en escribir el código. 4. los programadores no sacan todas las ventajas del diseño estructurado o de las técnicas

orientadas a objetos. Escriben los programas de manera que sean muy difíciles de modificar y de mantener.

5. los programas no están adecuadamente documentados. 6. no se programan los recursos indispensables (como el tiempo de cómputo)

PRUEBAS 1. la cantidad de tiempo y dinero que se requiere par hacer las pruebas adecuadamente se

subestima. 2. el equipo del proyecto no desarrolla un plan organizado de pruebas. 3. los usuarios no están lo suficientemente involucrados en las pruebas. No colaboran con la

creación de datos de muestra para pruebas ni revisan los resultados. Rehúsan dedicar mucho tiempo al esfuerzo de las pruebas.

4. el equipo de implantación no desarrolla pruebas adecuadas de aceptación para la revisión de la administración. La administración no revisa ni autoriza con su firma los resultados de las pruebas.

CONVERSIÓN 1. se presupuestan tiempo y dinero insuficientes para las actividades de conversión, en especial

para la conversión de los datos.

97

2. no todas las personas que utilizarán el sistema están involucradas hasta que da inicio la conversión. La capacitación se inicia solamente cuando el sistema está a punto de ser instalado.

3. el sistema entra en operación antes de que esté totalmente listo para compensar los sobrecostos y los retrasos.

4. la documentación del sistema, así como la de los usuarios, son inadecuadas. 5. las evaluaciones de desempeño no se efectúan. No se establecen estándares de desempeño y los

resultados del sistema no se sopesan contra los objetivos originales. 6. las provisiones para el mantenimiento del sistema son inadecuadas. Personal insuficiente de

sistemas de informaciones capacitado para dar soporte al sistema y hacer cambios en el mantenimiento.

14.3 Administración de la implantación No todos los aspectos del proceso de implantación pueden controlarse o planearse fácilmente, sin embargo se han desarrollado diversas metodologías para la administración, captación de requerimientos y de planeación para categorías específicas de problemas. El control de los factores de riesgo Una manera de mejorar la implantación es ajustar la estrategia de administración del proyecto al nivel de riesgo inherente en cada proyecto; de esta manera, los niveles de riesgo pueden predecirse con anticipación y se pueden desarrollar estrategias para contraatacar los factores de alto riesgo. Existen cuatro técnicas administrativas para proyectos: 1. herramientas externas de integración enlazan el trabajo del equipo de implantación con el de los usuarios

en todos los niveles institucionales. 2. Herramientas internas de integración aseguran que el equipo de implantación opera como una unidad de

cohesión. 3. Herramientas formales de planeación permiten estructurar y secuenciar las tareas proporcionando

estimadores de avances del tiempo, dinero y recursos técnicos que se requieren para ejecutarlos. 4. Las herramientas formales de control ayudan al seguimiento del progreso hacia las metas. El perfil de riesgo de cada proyecto determinará la técnica adecuada para la administración del proyecto que ha de aplicarse (tabla 14.4, pag. 538) HERRAMIENTAS EXTERNAS DE INTEGRACIÓN: los proyectos con relativamente poca estructura deben involucrar plenamente a los usuarios en todas las etapas. Éstos deben ser movilizados para apoyar una de las muchas opciones posibles de diseño y para permanecer comprometidos con un diseño único. Por lo tanto es necesario aplicar herramientas externas de integración: técnica de administración de proyectos que enlaza el trabajo del equipo implantador con el de los usuarios a todos los niveles de organización. HERRAMIENTAS INTERNAS DE INTEGRACIÓN: los proyectos con altos niveles de tecnología se benefician de las herramientas internas de integración: técnica de administración de proyectos que asegura que el equipo de implantación opera como una unidad. El éxito de tales proyectos depende de qué tan bien pueda ser administrada su complejidad técnica. Los líderes de proyecto necesitan de mucha experiencia técnica y administrativa. Deben ser capaces de anticiparse a los problemas y desarrollar trabajo suave de relaciones entre un equipo predominantemente técnico. HERRAMIENTAS FORMALES DE PLANEACIÓN Y CONTROL: los proyectos con una elevada estructura y baja tecnología presentan el riesgo más bajo. El diseño queda fijo y estable y el proyecto no presenta reto técnico alguno. Si tales proyectos son grandes pueden ser administrados exitosamente mediante: herramientas formales de planeación: técnica de administración de proyectos que estructura y secuencia las tareas, el tiempo de presupuestación y los recursos técnicos que se requieren para completar las tareas. herramientas formales de control: herramienta de administración de proyectos que ayuda al seguimiento del progreso hacia la terminación de una tarea y alcance de las metas.

98

Algunas técnicas de administración de proyectos que pueden ayudar a los administradores a identificar cuellos de botella y determinar el impacto que los problemas tendrán en los tiempos de terminación de los proyectos: PERT: (Program Evaluation and Review Techineque): se hace una lista de las actividades específicas que entran en el proyecto, su duración y las actividades que deben ser completadas antes de que una actividad específica dé inicio. Diagramas de GANTT: representa visualmente la secuencia y ocurrencia en el tiempo de las diferentes tareas en el proyecto de desarrollo, así como de sus requerimientos de recursos. Las tareas pueden ser definidas y los recursos presupuestados. SUPERACIÓN DE LA RESISTENCIA DE LOS USUARIOS: además de las estrategias para afinar bien la administración de los proyectos, se pueden reducir los riesgos de implantación al asegurar el apoyo de la administración y los usuarios en el esfuerzo de implantación. Por lo tanto, la estrategia de implantación debe no solamente estimular la participación e involucramiento de los usuarios sino también atacar la cuestión de la contraimplantación. La contraimplantación es una estrategia deliberada para coartar la implantación de un sistema de información o una innovación en una institución. Los investigadores han explicado la resistencia de los usuarios con una de tres teorías: 1. Teoría orientada hacia las personas. Factores internos de los usuarios como personas o como grupos

producen resistencia. Por ejemplo, los usuarios pueden resistirse a un nuevo sistema o a cualquier cambio en lo absoluto porque son flojos y no se desean aprender nuevas formas de hacer las cosas.

2. La teoría orientada hacia los sistemas. Factores inherentes al diseño crean resistencia de los usuarios a un sistema. Por ejemplo, los usuarios pueden resistirse a un sistema porque su interfase con el usuario es confusa y tiene problemas para aprender cómo trabaja el sistema.

3. Teoría de la interacción. La resistencia es ocasionada por la interacción de las personas y de los factores sistémicos. Por ejemplo, el sistema puede estar bien diseñado y ser bienvenido por algunos usuarios, pero es resistido por otros quienes temen que les quitará algo de su poder o que saturará a la institución.

Las estrategias apropiadas para la teoría de la interacción incorporan elementos de las estrategias orientadas a las personas y a los sistemas. Diseñando para la institución Todo el proceso de desarrollo de sistemas puede ser visto como un cambio organizacional planeado, ya que el propósito de un nuevo sistema es mejorar el desempeño de la institución. Un análisis de impacto organizacional explica cómo un sistema propuesto afectará a la estructura organizacional, a las actitudes, a la toma de decisiones y a las operaciones. Para integrar con éxito los sistemas de información dentro de la institución, es necesario dar más importancia a las evaluaciones profundas y completas del impacto organizacional plenamente documentadas durante el esfuerzo de desarrollo. DEJANDO UN ESPACIO PARA EL FACTOR HUMANO: la calidad de los sistemas de información debe ser evaluada en términos de criterios de usuarios en vez de los criterios del personal de sistemas de información. Las áreas en donde los usuarios tienen interfases con los sistemas deberían ser cuidadosamente diseñadas, con sensibilidad a las cuestiones ergonómicas. La ergonomía se refiere a la interacción entre las personas y las máquinas en un ambiente de trabajo, incluyendo el diseño de puestos, cuestiones de salud y la interfase con el usuario final en los sistemas de información. DISEÑO SOCIOTECNOLÓGICO: se trata de producir sistemas de información que combinen la eficiencia técnica con la sensibilidad hacia las necesidades institucionales y humanas, conduciendo a una elevada satisfacción en el puesto. Retos de administración

1. inercia institucional 2. manejar la complejidad de proyectos de sistemas a gran escala. 3. Estimación del tiempo y costo para implantar un sistema de información

grande y exitoso.

99

UNIDAD XV 15.1 El trabajo del conocimiento y la información La transformación de la economía Desde el inicio del siglo, USA, Canadá y Europa Occidental se han estado desplazando hacia una economía de servicios e información, y lejos de una economía basada en la agricultura y la manufactura. Entre los trabajadores de oficinas, llamados de cuello blanco, las actividades de mayor crecimiento han sido las de oficinas, profesionistas y trabajadores técnicos, y gerentes y administradores. Existen cuatro factores involucrados en este cambio:

1. Ha habido un cambio en todo el mundo en la producción de bienes de manufacturas en donde el tercer mundo y las sociedades en desarrollo se han convertido en centros de manufactura. Al mismo tiempo, las llamadas sociedades avanzadas se han desplazado hacia los servicios.

2. Se ha dado un rápido crecimiento en productos y servicios de conocimiento e información intensiva; los cuales requieren de una gran cantidad de aprendizaje y conocimientos para ser producidos. La intensificación del uso del conocimiento en la fabricación de productos tradicionales también se ha incrementado.

3. Ha habido una sustitución de trabajadores del conocimiento e información contra los trabajadores manuales de producción dentro de los sectores de bienes.

4. Nuevos tipos de instituciones orientadas hacia el conocimiento e información intensivos han aparecido y se dedican en su totalidad a la producción, procesamiento y distribución de información.

Como las economías avanzadas dependen del trabajo de conocimiento y de la información, cualquier avance general en la productividad y en la riqueza depende del incremento de la productividad de los trabajadores del conocimiento y de la información. ¿Qué es el trabajo de conocimiento e información? DIFERENCIAS ENTRE LOS TRABAJADORES DEL CONOCIMIENTO Y DE LOS DATOS Trabajadores de la información: todas aquellas personas en la fuerza de trabajo que principalmente crean, trabajan o diseminan información. Trabajo de la información: consiste principalmente en la creación o procesamiento de información. Existen dos tipos comúnmente aceptados de trabajadores de la información:

1. Trabajadores del conocimiento: son los que principalmente crean información y conocimientos nuevos. Se refiere al trabajo que principalmente implica el uso, manejo y diseminación de información. Deben ejercer un juicio independiente y creatividad basada en el dominio de una gran cantidad de conocimiento especializado, por lo tanto deben obtener un grado o certificación profesional antes de iniciar sus carreras. Ejemplos: ingenieros, jueces, científicos, escritores y arquitectos.

2. Trabajadores de los datos: principalmente usan, procesan o diseminan información. Implica el uso, manejo y diseminación de información. Procesan información y no la crean, por lo cual no se requiere de niveles académicos avanzados. Ejemplos: personal de ventas, contadores, agentes de bienes raíces y secretarias.

Trabajadores de servicios: son las personas que principalmente entregan un servicio; Trabajadores de bienes: son aquellos que trabajan principalmente con objetos físicos o transforman materiales físicos. El trabajo de información y la productividad Los cambios de productividad entre los trabajadores de la información son difíciles de medir a causa de los problemas para identificar medidas adecuadas para el resultado del trabajo de información. Aún cuando se esté de acuerdo con una medida de productividad, distintas instituciones pueden producir resultados diferentes. 15.2 El trabajo de la información y la automatización de la oficina

100

El trabajo de información se concentra en las oficinas, y los sistemas de automatización de oficinas se han desarrollado para facilitar el procesamiento, distribución y coordinación de información dentro de la empresa. Los tres papeles de la oficina dentro de la institución Las oficinas hoy son grupos compuestos de personas que trabajan conjuntamente en pos de metas compartidas. En este sentido el trabajo de oficina es complejo, cooperativo y altamente individualista. Las oficinas realizan tres papeles organizacionales críticos:

1. Coordinan y administran el trabajo de profesionales y trabajadores de la información dentro de la institución.

2. Enlazan el trabajo que se realiza en todos los niveles y funciones en la institución. 3. Acoplan la institución al medio ambiente externo, incluyendo a sus clientes y proveedores; cuando

se llama a una institución se llama a una oficina. Principales actividades de las oficinas Las oficinas en general llevan a cabo cinco actividades de oficina:

1. administración de documentos 2. programación de personas y grupos 3. comunicación con personas y grupos 4. administración de los datos en personas y grupos 5. proyectos de administración

Entre la tecnología de la información que se ha desarrollado para apoyar a cada una de estas actividades: 1. administración de documentos 2. agendas digitales, correo de voz groupware 3. comunicaciones PBX y equipo de telefonía digital 4. administración de datos 5. administración de proyectos

El movimiento hacia la automatización de la oficina Los sistemas de automatización de oficina (SAO) pueden definirse como cualquier aplicación de la tecnología de la información que trate de incrementar la productividad de los trabajadores de la información en la oficina. Como el trabajo de oficina involucra a muchas personas que están comprometidas en proyectos, los sistemas actuales de automatización de oficinas cuentan con poderosas herramientas de administración de proyectos y de herramientas de asistencia a grupos, como las agendas digitales en red. Tecnología y actividades de oficina En los ´90 las nuevas aplicaciones de oficina se basan en las nuevas tecnologías; tecnologías para administración de documentos, para trabajo de colaboración, administración de datos de escritorio y la administración de proyectos. ADMINISTRACIÓN DE DOCUMENTOS: son aquellas tecnologías que se utilizan para crear, procesar y administra documentos. Entre éstas se incluyen el procesamiento de palabras, las publicaciones de escritorio, imágenes de documentos y administración del flujo de trabajo. PROCESAMIENTO DE LA PALABRA Y EDICIÓN DE ESCRITORIO: ♦

Procesamiento de palabra: tecnología de automatización que es usada para crear, formatear, editar, almacenar e imprimir documentos. Edición de escritorio: tecnología que produce documentos de calidad profesional usando documentos creados mediante software de procesamiento de la palabra. se combinan salida de procesadores de palabra con diseño, gráficas y condiciones especiales de distribución física.

IMÁGENES DE DOCUMENTOS Y SISTEMAS DE FLUJO DE TRABAJO: mientras que el procesamiento de palabra y la edición de escritorio se orientan hacia la creación y presentación de documentos, sólo agravan la avalancha de papel ya existente. Sin embargo, la cuestión va mucho más allá de la simple cantidad. Los problemas de flujo de trabajo que surgen del manejo de papel son enormes.

101

En el capítulo 2 se presentó el concepto de procesamiento digital de imágenes, en donde documentos e imágenes son convertidos a forma digital de manera que pueden almacenarse y accederse mediante la computadora. Los sistemas de imágenes de documentos son sistemas que emplean procesamiento digital de imágenes para almacenar, recuperar y manejar una imagen digitalizada de un documento, permitiendo que el documento en sí sea descartado. El sistema debe contener un scanner que convierta la imagen del documento en una imagen de mapeo de bits, que almacena la imagen como un gráfico. Esta tecnología es diferente del reconocimiento óptico de caracteres (ROC) que “lee” un carácter óptico impreso, lo identifica determinando su patrón y luego lo almacena en la computadora en forma digital. Con el ROC, el documento tiene una base de caracteres y puede ser editado como cualquier otro documento creado en un procesador de palabra. sin embargo, con ls sistemas de imágenes lo que se guarda es una fotografía del documento. El documento será originalmente almacenado en un disco magnético, donde puede ser recuperado de manera instantánea. Cuando deja de estar activo, será transferido a un disco óptico en donde será almacenado durante el tiempo que se necesite. Con los discos ópticos mantenidos en línea en una rocola (dispositivo para almacenar y recuperar muchos discos ópticos; una rocola típica grande almacena más de 10.000.000 páginas) se requiere de un minuto para recuperar automáticamente un documento. Un sistema de imágenes también necesita de un servidor de índices que contenga todos los índices que permitirán a los usuarios identificar y recuperar el documento cuando se necesite. Una vez que el documento ha sido leído ópticamente, se introducen los datos del índice de manera que el documento pueda ser recuperado de diversas maneras, dependiendo de la aplicación. Finalmente, e sistema debe incluir equipo de recuperación, principalmente estaciones de trabajo capaces de manejar gráficas aún cuando las impresoras normalmente se incluyen. Para alcanzar las grandes ganancias en productividad prometidas por la tecnología de imágenes, las instituciones deben rediseñar su flujo de trabajo. En el pasado, la existencia de una sola copia del documento delineaba en mucho el flujo de trabajo; el trabajo debía ser desarrollado en serie; dos personas no podían trabajar con el mismo documento al mismo tiempo. Los documentos debían ser protegidos de manera que no se perdieran o destruyeran. Un enorme tiempo de personal debía dedicarse al archivo y recuperación de documentos. Una vez que un documento es almacenado electrónicamente, la administración del flujo de trabajo puede cambiar los métodos tradicionales de trabajar con documentos. La administración del flujo de trabajo es el proceso de agilización de procedimientos de negocios, de manera que los documentos puedan moverse de un lugar a otro de manera fácil y eficiente. La tecnología de imágenes automatiza procesos como la rutina de los documentos a lugares diferentes, el aseguramiento de las autorizaciones, la programación y la generación de informes. La integralidad de los documentos puede ser manejada mediante un respaldo de los datos y mediante seguridad en terminales y/o login ID, de la misma manera que como con otros datos de cómputo. Dos o más personas pueden trabajar simultáneamente sobre el mismo documento. Los sistemas de imágenes, combinados con la automatización del flujo de trabajo, pueden traer beneficios a la institución: 1. Los ahorros en costos pueden ser significativos; 2. La reducción en el uso de papel es evidente; 3. Ligada a la disminución en el uso del papel, está la reducción en el espacio de piso; 4. El ahorro de tiempo es otro de los beneficios; 5. La administración del trabajo se mejora; 6. El servicio al cliente puede mejorar dramáticamente. La tecnología de imágenes también es una fuente de genuina ventaja competitiva, sin embargo: 1. El uso de imágenes puede ser muy caro; 2. La compatibilidad en el software y el hardware es uno de los principales obstáculos; 3. Los requerimientos de energía para un sistema de imágenes pueden ser muy grandes; 4. Los principales beneficios no se reflejarán si el sistema de imágenes sólo se instala para incrementar la

automatización del flujo de trabajo actual;

102

5. Los principales cambios en el flujo de trabajo pueden tener como consecuencia distorsiones y desmotivación en los trabajadores.

Groupware: nueva tecnología para el trabajo en colaboración El groupware es un nuevo tipo de software que reconoce el significado de los grupos en las oficinas al proporcionarles funciones y servicios que dan soporte a las actividades de colaboración de los grupos de trabajo. Su meta es mejorar la eficacia del trabajo de grupo al proporcionar enlaces electrónicos entre sus miembros. El groupware incluye en general funciones como compartir información, reuniones electrónicas, programación y correo electrónico. Esta tecnología implica el uso de una red para enlazar a los miembros del grupo. La agenda electrónica es una tecnología ampliamente aceptada; es un software que hace el seguimiento de las citas y los programas en una oficina. El correo electrónico es software que permite el intercambio electrónico de mensajes. Este puede mejorar la productividad al acelerar el flujo de la información y reducir la necesidad de hacer llamadas telefónicas; por lo tanto disminuye los costos de coordinación de grupos. Los paquetes de software para juntas electrónicas están diseñados para incrementar la productividad de una reunión de grupo cara a cara o para hacer posible una reunión en donde los participantes se hallan en puntos dispersos. Algunos de estos tales paquete hacen ambas cosas, y algún software para juntas electrónicas utiliza videoconferencias. LOTUS NOTES: es el software líder en groupware. Es esencialmente una manera de compartir una base de datos en una red para crear aplicaciones de compartición de información. Pueden contener texto en forma libre, gráficas, enlaces de archivos, y (con software y hardware adicional) datos de sonido, imagen y video. Panorama tecnológico: puede operar en estaciones de trabajo de microcomputadoras compatibles con IBM que corren OS/2 o Windows, computadoras Macintosh, o en estaciones de trabajo que corren en UNIX. Los datos se almacenan en una base de datos distribuida, con servidores en puntos clave cuando se necesiten. El Lotus Notes corre en las LAN y en las WAN usando sistemas operativos de redes, como el Novell, el Banyan y el IBM. La interfase de usuarios es tipo Windows y a base de íconos. El software de soporte a documento compuesto (son documentos que consisten en diferentes tipos de información que vienen de fuentes diferentes; por ejemplo, un solo documento en donde se combinan las gráficas, datos de hojas de cálculo y texto a base de caracteres es un documento compuesto). Parece claro que el uso de esta tecnología puede mejorar el grupo de trabajo si las aplicaciones son adecuadamente diseñadas para satisfacer las necesidades y prácticas de trabajo de la institución. Administración de la información: bases de datos de escritorio Administrador de información personal: herramienta en paquete para bases de datos diseñadas para dar soporte a tareas de administración de datos específicas de la oficina para el trabajador de la información. Administración de proyectos: administradores de proyectos de escritorio Las oficinas son los puntos de control de las instituciones, en donde se coordina el flujo de los recursos para los proyectos. El software de administración de proyectos es un software que facilita el desarrollo, programación y administración de un proyecto al romper el proyecto complejo en subtareas más sencillas, cada una con su propio tiempo de terminación y sus requerimientos de recursos. Una vez que un usuario sabe lo que se refiere a cada subtarea, es posible establecer los programas de entregas y asignar los recursos. Dos técnicas tradicionales de administración de proyectos son el CPM (método del camino crítico) y el PERT (técnica de programación y evaluación de proyectos). 15.3 Sistemas de trabajo del conocimiento Como el trabajo de datos y de conocimiento son ambos de información, muchos usan los mismos sistemas de información. Aquí se describen las características del trabajo de conocimiento que puede recibir soporte de sistemas específicos de trabajo de conocimiento. El papel del trabajo del conocimiento en la institución

103

Se define el trabajo de conocimiento como aquel que tiene cuatro características: 1. Basado en un cuerpo codificado de conocimientos que en general es ampliamente aceptado como

válido; este cuerpo de conocimientos normalmente se encuentra en los libros almacenados en una biblioteca.

2. Este cuerpo de conocimientos debe poder ser enseñado en las universidades. 3. Los profesionales del cuerpo de conocimiento habitualmente deben demostrar su dominio de tales

conocimientos con un certificado, normalmente de la universidad. 4. Los profesionales son regidos por organizaciones profesionales independientes. Para comprender los sistemas de trabajo del conocimiento a profundidad, primero es necesario explorar las maneras como los trabajadores del conocimiento contribuyen con las empresas de negocios. Se destacan tres papeles de los trabajadores del conocimiento: 1. Interpretar las bases externas del conocimiento; 2. Son los únicos calificados para desempeñarse como consultores internos de su empresa. 3. Son agentes del cambio organizacional; basados en los desarrollos externos en la ciencia y en las artes,

se espera que evalúen e inicien los proyectos de cambio y luego los promuevan. Los trabajadores del conocimiento presentan otras dos características importantes que son únicas entre los trabajadores de la información. Su base de conocimientos y su comprensión de lo que hay que hacer con este conocimiento evitan que estén sujetos a la misma supervisión y autoridad a la que estarán sujetos otros trabajadores de la información. Con frecuencia saben más que sus jefes. Por lo tanto, en general son autónomos. Además, los trabajadores del conocimiento con frecuencia están separados físicamente en áreas de investigación. Los sistemas de información están específicamente diseñados para promover la creación de nuevos conocimientos y aseguran que este nuevo conocimiento y sabiduría técnica se integren adecuadamente a la empresa. Requerimientos de los sistemas de trabajo del conocimiento Los trabajadores del conocimiento se enfocan en la expansión de la base de conocimientos externa a su grupo de trabajo y a la institución que los emplea. Requieren de un acceso fácil a base externas de conocimientos almacenadas electrónicamente. En general requieren de enlaces de correo con otros profesionales que trabajan en universidades o en otros negocios. También con frecuencia necesitan enlaces de correo con otros trabajadores del conocimiento que laboran en la propia institución. En consecuencia, una de las características de los sistemas del trabajo de conocimientos es que incorporan más enlaces con datos externos e información de lo que es normal con otros sistemas corporativos. Una segunda característica es el software que requieren; es típico que su software contenga capacidades gráficas, analíticas de administración de documentos y de comunicaciones mucho más poderosas que otros sistemas corporativos. Tercero, requieren de un poder de cómputo considerablemente mayor que el necesario para otro trabajo de información. Una interfase con el usuario amigable es muy importante para el sistema de un trabajador del conocimiento. Finalmente, los sistemas de trabajo del conocimiento normalmente requieren del uso de estaciones de trabajo. Ejemplos de sistemas de trabajo del conocimiento Los sistemas de trabajo de conocimiento varían enormemente, dependiendo de la profesión y la aplicación específica que está siendo apoyada. No se pueden describir todos los tipos de sistemas de trabajo del conocimiento ni muchos sistemas de trabajos de conocimiento. En vez de ello, se seleccionaron tres de ellos muy diferentes como ejemplos para ayudar a la comprensión. DISEÑO AUXILIADO POR COMPUTADORA: DESARROLLO DE UN NUEVO PRODUCTO: el diseño auxiliado por computadora (CAD) automatiza la creación y revisión de diseños, empleando las computadoras y un software sofisticado de gráficas. Los beneficios de los sistemas CAD son evidentes. El diseñador tiene la capacidad de producir un diseño más sofisticado y funcional de lo que podría haber hecho manualmente. El diseño se hace correctamente antes de que la producción se inicie, reduciendo

104

significativamente el tiempo de diseño y los cambios en la ingeniería que son tan caros una vez que la producción ha empezado. REALIDAD VIRTUAL: INMERSIÓN EN LA FANTASÍA: los sistemas de realidad virtual tienen capacidades de visualización, de entrega y de simulación que van más allá de los sistemas convencionales CAD. El software de gráficas interactivo para crear simulaciones generadas por la computadora está tan cercano a la realidad que los usuarios creen que están participando en una situación del mundo “real”. La realidad virtual es interactiva, de manera que el usuario en realidad se siente inmerso dentro del “mundo” que la computadora crea. ESTACIONES DE TRABAJO PARA INVERSIÓN: APALANCANDO A LOS TRABAJADORES DEL CONOCIMIENTO EN EL SECTOR FINANCIERO: los activos claves de los trabajadores del conocimiento son su conocimiento y su tiempo. Retos de administración 1. Incremento en las demandas de los empleados para aprender y cambiar. 2. Integración del trabajo de conocimiento en la institución. 3. Diseñar sistemas de información que realmente mejoren la productividad.

105

UNIDAD XVI Definir un sistema de soporte de decisiones (SSD) y un sistema de soporte de decisiones en grupo (SSDG) SSD: es un sistema interactivo bajo el control del usuario que combina datos, modelos analíticos sofisticados y software amigable en un solo sistema poderoso que puede dar soporte a la toma de decisiones estructuradas y no estructuradas SSDG: es un sistema interactivo basado en computadora para facilitar la solución de los problemas no estructurados por un conjunto de personas que toma la decisión conjuntamente y no de manera individual. Describir los componentes de los sistemas de soporte de decisiones y sistema de soporte a decisiones en grupo Los componentes de un SSD son: 1. La base de datos del SSD es una colección de datos actuales o históricos de diversas aplicaciones o

grupos que pueden ser usados para el análisis. 2. La base de modelos es una colección de modelos matemáticos o analíticos que se emplean para analizar

los datos en la base de datos. 3. El sistema de software del SSD permite que los usuarios interactúen directamente con la base de datos

del SSD y la base de modelos. Los componentes de los SSDG son: 1. Componentes de hardware consisten en las instalaciones de la sala de conferencias, incluyendo

infraestructura para sentarse y computadoras y otro hardware electrónico. 2. Componentes de software, entre ellos se incluyen herramientas para organizar las ideas, recopilar

información, clasificar y establecer prioridades, y para documentar las sesiones de las juntas. 3. Componentes de personas, incluyen a los participantes, a un facilitador entrenado y a personal para dar

soporte al hardware y al software. Explicar cómo pueden mejorar la toma de decisiones los sistemas para soporte de decisiones y los sistemas de soporte de decisiones en grupo Los SSD y SSDG dan apoyo a los pasos necesarios en el proceso de llegar a las decisiones. El SSD proporciona resultados de un análisis basado en un modelo que ayuda a los administradores diseñar y evaluar las alternativas y hacer el seguimiento de los progresos de la solución que se haya adoptado. Los SSDG ayudan a quienes toman las decisiones a reunirse para llegar a una decisión de manera más eficiente y son especialmente útiles para incrementar la productividad de las juntas de más de cuatro o cinco personas. Sin embargo, la eficacia de los SSDG está sujeta a contingencias dependiendo de la naturaleza del grupo, la tarea y el contexto de la reunión. Describir las capacidades de los sistemas de soporte a ejecutivos (SSE) Los SSE ayudan a los administradores con los problemas no estructurados que ocurren al nivel estratégico de la administración. Los SSE proporcionan datos de fuentes externas e internas y proporcionan un entorno generalizado de computación y de comunicaciones que puede ser enfocado y aplicado a un conjunto cambiante de problemas. Los SSE ayudan a los directivos a detectar problemas, identificar oportunidades y hacer pronósticos de tendencias. Ellos pueden filtrar detalles extraños para panoramas de alto nivel o pueden profundizar para proporcionar a los directivos datos sobre operaciones detalladas si se desea. Describir los beneficios de los sistemas de soporte a ejecutivos Los SSE ayudan a los directivos a analizar, comparar y destacar las tendencias de manera que puedan hacer más fácil el seguimiento del desempeño organizacional o identificar problemas y oportunidades estratégicos. Los SSE pueden incrementar el tramo de control de la alta dirección y permitir que la toma de decisiones sea descentralizada y ocurra en los niveles operativo más bajos.

106

UNIDAD XVII Definir la inteligencia artificial La inteligencia artificial es el desarrollo de sistemas computarizados que se comportan como las personas. Existen cinco miembros en el árbol familiar de la inteligencia artificial: lenguaje natural, robótica, sistemas perceptivos, sistemas expertos y máquinas “inteligentes”. El campo de la inteligencia artificial es controvertido por las diferencias en cuanto a la teoría, el valor práctico y las consecuencias sociales. Describir cómo evolucionaron las técnicas de inteligencia artificial La inteligencia artificial tiene dos fuentes principales. El enfoque ascendente trata de imitar al cerebro humano al nivel de máquina. Las máquinas de “retroalimentación” y las computadoras neurales actuales se basan en este enfoque. El enfoque descendente trata de representar el conocimiento humano a través de la lógica. El Logic Theorist de Newell y Simon, el General Problem Solver y los sistemas expertos actuales son los ejemplos más importantes de esta escuela de pensamiento. Definir a un sistema experto y explicar cómo se construye Los sistemas expertos son programas de cómputo de conocimientos intensivos que resuelven problemas que anteriormente requerían del conocimiento experto de los seres humanos. Los sistemas implican el cnocimiento humano con el uso de reglas, marcos o conceptos. Los sistemas expertos tienen cuatro componentes: la tasa de conocimientos, el equipo de desarrollo, la cápsula de IA y el usuario. La base de conocimientos puede representarse como el uso de reglas, mallas semánticas o marcos. La estrategia para buscar en la base de conocimientos, llamada máquina de inferencia, puede servirse de encadenamientos prospectivos o retrospectivos. El desarrollo de los sistemas expertos requiere del uso de prototipos y de ingenieros de conocimientos para obtener conocimientos de los expertos de la institución. Definir a las redes neurales y mostrar cómo se usan en los negocios Las redes neurales consisten en software y hardware que tratan de imitar los procesos de pensamiento del cerebro humano. Las redes neurales son notables por su capacidad para “aprender” sin programación y para reconocer patrones que puedan ser fácilmente descritos por humanos. Ya se usan en la ciencia, medicina y negocios, principalmente para discriminar patrones en cantidades enormes de datos. Identificar otras técnicas inteligentes Otros ejemplos de inteligencia artificial son las máquinas de sensores paralelos, las máquinas inteligentes de búsqueda en bases de datos y la lógica difusa. La lógica difusa es una tecnología de software que expresa la lógica con una imprecisión cuidadosamente definida, de manera que se acerque a la manera como piensan las personas, distintas a la de las reglas tradicionales de SI-BAJAS. La lógica difusa se ha usado para controlar los dispositivos físicos y empieza a ser utilizada en las aplicaciones de toma de decisiones.

107

UNIDAD XVIII 18.1 Vulnerabilidad y abuso de los sistemas Los sistemas de información concentran los datos en archivos de computadora a los que pueden acceder más fácilmente mucha gente y grupos fuera de la institución; en consecuencia, los datos automatizados pueden ser más susceptibles de destrucción, fraude, error y mal uso. Algunas empresa que descansan en sus computadoras para el procesamiento de todas las operaciones críticas de negocios, pueden experimentar un quebranto total de la funcionalidad de negocios si pierden su capacidad de cómputo por más de unos cuantos días. Por qué los sistemas son vulnerables Cuando grandes cantidades de datos están almacenados electrónicamente, son más vulnerables que cuando se tienen en forma manual; por ejemplo, todo el sistema de mantenimiento de registros puede ser destruido por un mal funcionamiento del hardware de la computadora. Las amenazas para un sistema de información computarizado son: 1. Fallas de hardware 2. Fallas en el software 3. Acciones del personal 4. Penetración en terminal de acceso 5. Robo de datos, servicios, equipos Los sistemas computarizados son especialmente vulnerables a tales desafíos por las siguientes razones: 1. Un sistema de información complejo no puede ser duplicado a mano. 2. En general no quedan huellas visibles de cambios en los sistemas computarizados, porque los registros

de computadora sólo pueden ser leídos por la máquina. 3. Los procedimientos computarizados parecen ser invisibles y no son bien entendidos o auditados. 4. Los cambios en los sistemas automatizados son más costosos y con frecuencia más complejos que los

cambios en los sistemas manuales. 5. El desarrollo y operación de los sistemas automatizados requiere de conocimiento técnico experto y

especializado, que no puede ser comunicado fácilmente a los usuarios finales. Los sistemas están abiertos al abuso de miembros del personal altamente capacitados técnicamente que no estén bien integrados a la institución.

6. Se tienen menos documentos en papel para procesar y revisar cuando los sistemas están automatizados. Es posible tener menor inspección manual.

7. La mayor parte de los sistemas tienen información a la que pueden acceder muchas personas. La información es más fácil de recopilar pero más difícil de controlar.

8. Los datos en los sistemas de cómputo pasan por más pasos de procesamiento que en los sistemas manuales, cada uno de los cuales está abierto a errores o abusos.

9. Los sistemas de información en línea son aún más difíciles de controlar, porque los archivos de datos pueden ser accedidos de inmediato y directamente mediante las terminales de computadora. Los usuarios legítimos pueden ganar un acceso fácil a datos de cómputo que antes no estaban disponibles para ellos. Las posibilidades de acceso no autorizado o la manipulación de los datos en los sistemas en línea son muchos más altas que en el ambiente por lotes.

Nuevas vulnerabilidades Los avances en las telecomunicaciones y en el software de las computadoras han aumentado estas vulnerabilidades. A través de las redes de telecomunicaciones, los sistemas de información pueden ser interconectados en diferentes puntos. El potencial para acceso no autorizado, abuso o fraude no se limita a un solo lugar, sino que puede ocurrir en todo punto de acceso a la red, lo que crea nuevas oportunidades para penetración y manipulación. El desarrollo de un sistema operativo de controles de redes de telecomunicaciones es un problema complejo y difícil. El esfuerzo de los “hackers” de penetrar en las redes de cómputo ha sido ampliamente publicitado.

108

Hacker: es una persona con acceso no autorizado a una red de cómputo para lucrar, llevar a cabo acciones criminales o sencillamente por placer personal. La alarma ha aumentado por los “hackers” que propagan virus de computadora, programas dañinos de software que difunden de un sistema a otro, plagando la memoria de la computadora o destruyendo programas o datos. El software antivirus es un software especial diseñado para verificar los sistemas de cómputo de los discos para detectar la presencia de diversos virus de computadora. Con frecuencia puede eliminar al virus del área infectada. Preocupaciones para los desarrolladores y usuarios de sistemas Entre las preocupaciones se incluyen desastres, la seguridad y el error administrativo. DESASTRE: el hardware de cómputo, programas, archivos de datos y otros equipos pueden ser destruidos por incendios, fallas de energía y otros desastres. Ésta es la razón por la que Visa USA Inc., por ejemplo, usa elaboradas instalaciones de respaldo para emergencias. Visa USA Inc. cuenta con macrocomputadoras dobles, caminos duplicados en las redes, terminales duplicadas y fuentes de energía duplicadas. Los sistemas de cómputo con tolerancia a las fallas contienen hardware, software y componentes de abastecimiento de energía suplementarios que pueden dar respaldo al sistema y mantenerlo en operación para evitar una falla del sistema. Las computadoras con tolerancia a las fallas contienen chips de memoria, procesadores y dispositivos de almacenamiento en discos suplementarios. Pueden usar rutinas especiales de software o lógica para la autoverificación interconstruidas en los circuitos, para detectar fallas en el hardware y cambiar automáticamente a un dispositivo de respaldo. La tecnología con tolerancia a las fallas es usada por las empresas para aplicaciones con requerimientos críticos de procesamiento de operaciones en línea. En un procesamiento de operaciones en línea, las operaciones accedidas en línea son inmediatamente procesadas por la computadora. Cambios multitudinarios a las bases de datos, a los informes o a las solicitudes de información ocurren a cada instante.. SEGURIDAD: se refiere a las políticas, procedimientos y medidas técnicas usadas para evitar un acceso no autorizado, alteración, robo o daños físicos a los sistemas de registros. La seguridad puede promoverse mediante un conjunto de técnicas y herramientas para salvaguardar el hardware, software, las redes de telecomunicaciones y de datos. ERRORES: los errores en los sistemas automatizados pueden ocurrir en muchos puntos del ciclo de procesamiento: en los datos de entrada, errores en la programación, en las operaciones de cómputo y en el hardware. Aún los errores más pequeños en los sistemas automatizados pueden tener las repercusiones más desastrosas de carácter financiero u operativo. 18.2 Controles Para minimizar los errores, desastres, delitos por computadora y fallas en la seguridad, es necesario incorporar políticas y procedimientos especiales en el diseño e implantación de los sistemas de información. Los controles consisten en todos los métodos, políticas y procedimientos para asegurar la protección de los activos de la institución, la precisión y la confiabilidad de sus registro contables y la adherencia operativa a las normas de administración. El control de un sistema de información debe ser parte integral de su diseño. Los usuarios y los desarrolladores de sistemas deben poner mucha atención a los controles a lo largo de la vida del sistema. Los sistemas computarizados se controlan mediante una combinación de controles generales y controles de aplicación. Los controles generales son aquellos que controlan el diseño, seguridad y uso de los programas de cómputo y la seguridad de los archivos de datos en toda la institución. Los controles generales son para todas las aplicaciones computarizadas y consisten en una combinación de software de sistemas y procedimientos manuales que crean un ambiente global de control.

109

Los controles de aplicación son controles específicos únicos para cada aplicación computarizada, como nómina, cuentas por cobrar y procesamiento de pedidos. Consisten en controles aplicados desde el área funcional de usuarios de un sistema en particular o de procedimientos previamente programados. Controles generales Los controles generales globales que aseguran la operación eficaz de los procedimientos programados. Se usan en todas las áreas de aplicación. Los controles generales incluyen lo siguiente:

1. controles sobre el proceso de implantación del sistema 2. controles para el software 3. controles físicos para el hardware 4. controles de operaciones de cómputo 5. controles de seguridad de los datos 6. disciplinas, normas y procedimientos administrativos

CONTROLES DE IMPLANTACIÓN: auditan el proceso de desarrollo de sistemas en diversos puntos para asegurarse que esté adecuadamente controlado y administrado. La auditoría de desarrollo de sistemas debería buscar la presencia de puntos formales de revisión en las diversas etapas de desarrollo que permitan a los usuarios y a la administración aprobar o desaprobar la implantación. Esta auditoría debe también examinar el nivel de involucramiento del usuario en cada etapa de la implantación y verificar el uso de una metodología de costo/beneficio al determinar la factibilidad del sistema. Debería también cuidar lo relativo al uso de controles y de técnicas de aseguramiento de la calidad para el desarrollo, conversión y pruebas de los programas. Un requerimiento importante aunque con frecuencia descuidado en el desarrollo de los sistemas, es la documentación adecuada. Sin una buena documentación que muestre cómo opera un sistema desde el punto de vista técnico y del usuario, un sistema de información puede ser difícil, si no imposible, de operar, mantener y usar. CONTROLES PARA EL SOFTWARE: hacen el seguimiento del software del sistema y evitan el acceso no autorizado de programas a los software, de software del sistema y de programas de cómputo. Los controles del software del sistema gobiernan el software para el sistema operativo, que regula y administra los recursos de cómputo para facilitar la ejecución de programas de aplicación. También se usan para los compiladores, los programas de utilería, los informes de operaciones, el establecimiento y manejo de archivos y el control de los registros de librería. El software de sistema es una importante área de control porque realiza todas las funciones globales de control para los programas que procesan directamente datos y archivos de datos. Los controles de seguridad de los programas están diseñados para evitar cambios no autorizados a los programas y sistemas que ya se encuentran en producción. CONTROLES PARA EL HARDWARE: aseguran que el hardware de las computadoras esté físicamente seguro (de manera que sólo tengan acceso a él personas autorizadas) y verifican el mal funcionamiento del equipo. El equipo de cómputo debe protegerse especialmente contra incendios, temperaturas extremas y humedad. Muchas clases de hardware de computadora también contienen mecanismos que verifican las fallas de funcionamiento del equipo. Las verificaciones de paridad detectan el mal funcionamiento del equipo responsable de alterar bits dentro de bytes durante el procesamiento. Las verificaciones de validez hacen el seguimiento de la estructura de los bits de encendido y apagado dentro de los bytes para asegurar que es válida para el conjunto de caracteres de una computadora en particular. Las verificaciones de eco aseguran que un dispositivo de hardware esté listo para funcionar. CONTROLES DE OPERACIONES DE CÓMPUTO: se aplican al trabajo del departamento de cómputo para asegurar que los procedimientos programados son consistente y correctamente aplicados al almacenamiento y procesamiento de datos. Incluyen controles sobre el establecimiento de los puestos de procesamiento de cómputo, de software de operaciones, de operaciones de cómputo y de procedimientos de respaldo y recuperación para procesos que terminan de manera anormal. Las operaciones para operar puestos de cómputo deben quedar totalmente documentadas, revisadas y aprobadas por un funcionario responsable. Los controles sobre el software de operaciones incluyen procedimientos manuales diseñados

110

para prevenir y detectar errores. Entre éstos se incluyen instrucciones específicas de operación para el software del sistema, procedimientos de reinicio y de recuperación, procedimientos para el etiquetado y disposición de las cintas magnéticas de entrada y salida, y procedimientos para aplicaciones específicas. El software del sistema puede mantener un registro en donde se detallan todas las actividades durante el procesamiento. Este registro puede imprimirse para su revisión, de manera que el mal funcionamiento del hardware, los resultados anormales y las acciones del operador puedan ser investigadas. Se pueden desarrollar instrucciones específicas para respaldo y recuperación, de manera que en el caso de una falla de hardware de software el proceso de recuperación para los programas de producción, de software del sistema y los archivos de datos no creen cambios erróneos en el sistema. CONTROLES DE SEGURIDAD EN LOS DATOS: aseguran que los archivos de datos en disco o cinta no se expongan a acceso, cambios o destrucción no autorizados. Tales controles son necesarios cuando se encuentran en uso los archivos y cuando se mantienen para almacenamiento. Es más fácil controlar los archivos de datos en los sistemas por lotes, ya que el acceso está limitado a operadores que corren las tareas por lotes. Sin embargo, los sistemas en línea y en tiempo real son vulnerables en diversos puntos. Pueden accederse desde terminales así como por los operadores durante las corridas de producción. Cuando los datos pueden ser alimentados en línea mediante una terminal, el ingreso de datos no autorizados debe ser evitado; en tal situación, la seguridad puede desarrollarse a varios niveles:

1. las terminales pueden ser físicamente restringidas, de manera que estén disponibles sólo para las personas autorizadas.

2. el software del sistema puede incluir el uso de palabras de acceso asignadas solamente a personas autorizadas.

3. conjuntos adicionales de palabras de acceso y de restricciones de seguridad pueden ser desarrolladas para sistemas y aplicaciones específicas.

CONTROLES ADMINISTRATIVOS: son normas, reglas, procedimientos y disciplinas formales para asegurar que los controles de la institución se ejecuten y se respeten de manera adecuada. Los controles administrativos más importantes son:

1. segregación de funciones: es un principio fundamental de control interno en cualquier institución; significa que las funciones del puesto deben ser diseñadas para minimizar el riesgo de errores o manejo fraudulento de los activos de la institución. Las personas responsables de operar los sistemas no deben ser las mismas que pueden iniciar las operaciones que cambien los activos que están contenidos en tales sistemas. Las responsabilidades de la alimentación, procesamiento y salida, en general se dividen entre diferentes personas para restringir lo que cada una de ellas puede hacer con el sistema.

2. las políticas y procedimientos por escrito: establecen estándares formales para controlar las operaciones de los sistemas de información. Los procedimientos deben formalizarse por escrito y ser autorizados por el nivel administrativo adecuado.

3. la supervisión: del personal involucrado en los procedimientos de control asegura que los controles de los sistemas de información operan como se deseaba. Mediante la supervisión es posible detectar las debilidades, corregir los errores y las desviaciones de los procedimientos normales identificados.

Controles de aplicación Son controles específicos dentro de cada aplicación independiente de cómputo, como nóminas o procesamiento de pedidos. Incluyen procedimientos automatizados o manuales que aseguran que sólo los datos autorizados sean total y completamente procesados por la aplicación. Los controles para ada aplicación deben tomar en cuenta toda la secuencia del procesamiento, manual y computarizado, desde los primeros pasos qe se toman para preparar las operaciones hasta la producción y uso del resultado final. Blonda: ortega y gasset y arce El control de las aplicaciones se enfoca en los siguientes objetivos:

1. integridad del ingreso y la actualización 2. precisión en el ingreso y actualización 3. validez

111

4. mantenimiento los controles de aplicación pueden clasificarse en: controles de entrada o acceso, controles de procesamiento y controles de salida CONTROLES DE ENTRADA Controles de entrada: verifican los datos para fines de precisión e integridad cuando entren en el sistema. Existen controles específicos par ala autorización de la entrada, la conversión de los datos, la edición de los datos y el manejo de los errores. Autorización de entrada: la entrada debe quedar debidamente autorizada, registrada y monitoreada cuando los documentos fuente fluyen hacia la computadora. Conversión de los datos: la entrada debe quedar adecuadamente convertida para las operaciones de cómputo, sin errores, cuando se transcribe de una forma a otra. Los errores de transcripción pueden ser eliminados o reducidos tecleando las operaciones de entrada directamente en terminales de computadora de los documentos fuente. (Los sistemas punto de venta pueden capturar directamente las operaciones de ventas e inventarios leyendo ópticamente los códigos de barras de los productos. Los totales de control por lote constituyen una técnica absolutamente valiosa en esta área. Pueden ser establecidos de antemano para las operaciones agrupadas por lotes. Estos totales pueden ir desde el simple conteo de documentos a los totales para los campos de cantidades como el monto total de las ventas. Las verificaciones de edición. Diversas verificaciones pueden ser llevadas a cabo para editar los datos de entrada para depurar los errores antes de que sean procesados. Las operaciones que no cumplan con los criterios serán rechazadas. Las rutinas de edición pueden producir listados de errores a ser corregidos más tarde. Las técnicas más importantes de edición son:

1. verificación de razonabilidad: para ser aceptados los datos deben de caer dentro de ciertos límites establecidos previamente o serán rechazados.

2. verificación de formatos: características del contenido, longitud y signo de los campos individuales de datos son verificados por el sistema.

3. verificaciones de existencias: la computadora compara el dato de referencia de lo alimentado con tablas de archivos maestros, para asegurar que se están usando códigos válidos.

4. verificaciones de dependencias: la computadora verifica si una relación lógica se mantiene entre los datos para la misma operación. Cuando no se mantiene la operación, se rechaza.

5. verificación de dígitos: un número extra de referencia, llamado dígito verificador, va luego de un código de identificación y tiene una relación matemática con los demás dígitos. El dígito suplementario se alimenta con los datos, se recalcula mediante la computadora y el resultado se compara con el insumo uno.

CONTROLES DE PROCESAMIENTO Los controles de proceso establecen que los datos sean completos y precisos durante la actualización. Los principales controles de proceso son los totales de control de corridas, la compaginación por computadora y las verificaciones de edición programadas. Los totales de control de corridas concilian los totales de control de entradas con los totales de los rubros que han actualizado el archivo. La actualización puede controlarse generando totales de control durante el proceso. La compaginación por computadora compara los datos de entrada con la información que se guarda en los archivos maestros o en suspenso, y con los rubros no compaginados separados para su investigación. La mayor parte de la compaginación ocurre durante la entrada, pero en algunas circunstancias, puede requerirse la seguridad de que la actualización esté completa. La verificación de edición ven la razonabilidad o consistencia de los datos. La mayor parte de la verificación de edición ocurre en el momento en que los datos son alimentados. CONTROLES DE SALIDA Los controles de salida aseguran que los resultados del procesamiento de cómputo sean precisos, completos y adecuadamente distribuidos. Los controles típicos de salida incluyen lo siguiente:

1. equilibrio de los totales de salida con los totales de entrada y de procesamiento.

112

2. revisión de los registros de procesamiento de cómputo para determinar que todos los trabajos actuales de cómputo fueron procesados adecuadamente.

3. auditorías de informes de salida para asegurarse de que los totales, formatos y detalles críticos sean correctos y conciliables con las entradas.

4. procedimientos formales y documentación, en donde se especifiquen receptores adecuados de reportes de salida, cheques u otros documentos críticos.

Desarrollo de una estructura de control: costos y beneficios Algunos análisis costos/beneficios pueden ser llevados a cabo para determinar cuáles mecanismos de control proporcionan las salvaguardas más eficaces sin sacrificar la eficiencia operativa o los costos. Uno de los criterios que determina qué tanto control se construye en un sistema es la importancia de sus datos. Los datos permanentes, son los datos constantes y que afectan a las operaciones que fluyen hacia y desde el sistema y requieren de un seguimiento más de cerca que las operaciones individuales. Un solo error en los datos de las operaciones afectará sólo aquella operación, mientras que en el caso de los datos permanentes puede afectar muchas o todas las operaciones cada vez que se procesa el archivo. La eficacia en costo de los controles puede también verse influida por la eficiencia, la complejidad y el gasto de cada una de las técnicas de control. El tercer nivel de consideración es el nivel del riesgo, si una actividad o proceso no se controla adecuadamente. Los constructores de sistemas pueden llevar a cabo una evaluación del riesgo, determinando la probable frecuencia de un problema y el daño potencial si ocurriera. 18.3 Auditoría de los sistemas de información Una vez que se han establecido los controles para un sistema de información, para saber si son eficaces, las instituciones deben lleva a cabo auditoría amplias y sistemáticas. Las grandes instituciones tienen su propio grupo de auditoría interna que es el que tiene la responsabilidad. El papel de auditor dentro del proceso de control Una auditoría de SIA identifica todos los controles que gobiernan a un sistema de información en particular y evalúa su eficacia. Para esto, el auditor debe adquirir una comprensión profunda de las operaciones, instalaciones físicas, telecomunicaciones, sistemas de control, objetivos de seguridad en los datos, estructura organizacional, personal, procedimientos manuales y aplicaciones individuales. El auditor debe recolectar y analizar todo el material acerca del sistema de información en particular, como el de la documentación del usuario y del sistema, entradas y salidas de muestra,y documentación importante sobre controles de integridad. En la auditoría se hace un listado y clasificación de todas las debilidades en el control y se estima la probabilidad de su ocurrencia. Luego se evalúa el impacto financiero y organizacional de cada amenaza. Auditoría de calidad de datos Se llevan a cabo mediante los siguientes métodos:

1. encuestar a los usuarios finales para conocer su opinión de la calidad en los datos. 2. revisar la totalidad de los archivos de datos. 3. revisar muestras de los archivos de datos

a menos que se lleven a cabo regularmente auditorías en la calidad de los datos, las instituciones no tienen manera de saber hasta qué punto sus sistemas contienen información imprecisa, incompleta o ambigua. Retos de administración

1. el control de grandes redes multiusuario distribuidas 2. subjetividad del análisis del riesgo 3. diseño de sistemas que no estén ni sub ni sobrecontrolados

113

UNIDAD XX 20.1 Las cuestiones éticas y sociales relacionadas con los sistemas

114

115

Programa de la Asignatura Libro Laudon y Laudon Capítulo I Unidad Temática 1.1 Cap. 1 y 2 Unidad Temática 1.2 Cap. 3 y Cap. 4 apartados 4.1, 4.2 y 4.3 Capítulo 2 Unidad Temática 2.1 Cap. 6 apartados 6.1, 6.2, 6.3, 6.4 y 6.7 Unidad Temática 2.2 Cap. 6 apartado 6.6 Unidad Temática 2.3 Cap. 6 apartado 6.5 Unidad Temática 2.4 Cap. 9 y 10 Unidad Temática 2.5 Cap. 7 apartados 7.1 y 7.2 Unidad Temática 2.6 Cap. 7 apartados 7.3, 7.4 y 7.5 y Cap. 15 Capítulo 3 Capítulo 8 Capítulo 4 Unidades temáticas 4.1, 4.2 y 4.3 Cap. 11 apartados 11.1 y 11.2 y Cap. 12 Unidad temática 4.4 Cap. 13 Capítulo 5 Cap. 11 apartados 11.3 y 11.4 Capítulo 6 Cap. 18 Capítulo 7 Cap. 14 Capítulo 8 Resumen al final de los Cap. 16 y 17. Cap. 20