introduccion al procesamiento de datos e5 unesr

115
UNIDAD I (INTRODUCCION AL PROCESAMIENTO DE DATOS) DATOS: Una base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos. SISTEMA: Un sistema es un conjunto de partes o elementos organizados y relacionados que interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y proveen (salida) información, energía o materia. Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software) Cada sistema existe dentro de otro más grande, por lo tanto un sistema puede estar formado por subsistemas y partes, y a la vez puede ser parte de un supersistema. Los sistemas tienen límites o fronteras (Ver: frontera de un sistema), que los diferencian del ambiente. Ese límite puede ser físico (el gabinete de una computadora) o conceptual. Si hay algún intercambio entre el sistema y el ambiente a través de ese límite, el sistema es abierto, de lo contrario, el sistema es cerrado. INFORMACION: En sentido general, es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

Upload: teoperez1958

Post on 13-Jun-2015

8.093 views

Category:

Education


8 download

DESCRIPTION

Introduccion al procesamiento de datos e5 unesr

TRANSCRIPT

Page 1: Introduccion al procesamiento de datos e5 unesr

UNIDAD I (INTRODUCCION AL PROCESAMIENTO DE DATOS)

DATOS: Una base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.

SISTEMA: Un sistema es un conjunto de partes o elementos organizados y relacionados que interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y proveen (salida) información, energía o materia.

Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software)

Cada sistema existe dentro de otro más grande, por lo tanto un sistema puede estar formado por subsistemas y partes, y a la vez puede ser parte de un supersistema.

Los sistemas tienen límites o fronteras (Ver: frontera de un sistema), que los diferencian del ambiente. Ese límite puede ser físico (el gabinete de una computadora) o conceptual. Si hay algún intercambio entre el sistema y el ambiente a través de ese límite, el sistema es abierto, de lo contrario, el sistema es cerrado.

INFORMACION: En sentido general, es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

Para Gilles Deleuze, la información es el sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas trasmitidas.

PROCESAMIENTO DE DATOS: Es definido como la técnica que consiste en la recolección de los datos primarios de entrada, los cuales son evaluados y ordenados, para obtener información útil, que luego serán analizados por el usuario final, para que pueda tomar las decisiones o realizar las acciones que estime conveniente.

Page 2: Introduccion al procesamiento de datos e5 unesr

EVOLUCION DEL PROCESO DE DATOS: Desde épocas muy remotas el hombre procesa datos. Es muy probable que el hombre primitivo empleara los dedos de las manos para efectuar operaciones muy sencillas y almacenar toda la información posible en su memoria, por lo que fue necesario auxiliarse de todos los medios que permitieran resolver operaciones un poco más complicadas, tal es el caso del ábaco que, de hecho, fue uno de los primeros inventos (herramientas para el proceso de la información).

En su forma más sencilla, el ábaco consiste en una tabla con una serie de ranuras, en donde son colocadas tantas fichas (indicadores) como unidades, decenas o centenas haya que representar.

La Europa Medieval desarrolló dispositivos llamados contadores, que se usaban con este objetivo.

En 1642, Pascal inventó una máquina que utilizando una rueda con diez dientes y conectada a otra serie de ruedas podía sumar y restar. Fue la idea de la primera calculadora.

En 1671, Leibnitz extendió el concepto para incluir operaciones de multiplicación y división, a través de sumas y restas sucesivas.

Como antecedentes del proceso de datos, con el uso del registro unitario, y que precedieron a los actuales sistemas mencionaremos algunos, aún cuando no estén relacionados con el tratamiento de la información.

En 1887, el Dr. Herman Hollerith desarrolló el registro de información por tarjeta perforada. Previamente en 1812 Babbage introdujo el principio de memoria, a través de una máquina que calculaba y retenía la información para ser usada en repetidas veces, quedando en proyecto no concretado.

En esencia el procesamiento de datos con registro por unidad, siguió tres pasos fundamentales. El primero confronta tres tipos de máquinas perfectamente diferenciadas en sus funciones, pero éstos están controlados en su funcionamiento por el hombre. Es decir, que prácticamente la velocidad de funcionamiento del sistema está limitada por el control humano. La entrada por máquinas de tipo electromecánico, así como la salida, tienen una velocidad de funcionamiento superior a la convencional (hasta entonces lo conseguía la taqui-mecanografía).

Las máquinas encargadas del proceso realizaban esto en forma mecánica y por lo tanto, a velocidades semejantes e incluso inferiores a los dispositivos de entrada/salida.

Para obviar el inconveniente de la velocidad del control humano de los procesos el cálculo se realizaba por medio de paneles cableados que actuaban directamente sobre calculadoras, por la falta de flexibilidad del sistema.

Page 3: Introduccion al procesamiento de datos e5 unesr

Posteriormente se dio paso al control por tarjetas y el almacenamiento de datos en la memoria. Pese a que el control se realizaba externamente, se introdujo la modificación de que éste pudiera ser mediante paneles cableados o, como innovación importante, mediante la utilización de tarjetas perforadas para efectuar el control del proceso.

Entre 1939 y 1944 se desarrolló el computador Mark I, que contaba con aportes significativos sobre sistemas. El primero correspondía al diseño del circuito del procesador. El segundo, al método de control. Mark I utilizaba cintas perforadas que dirigían las máquinas para programar acciones. En esta época aparece el ENIAC, computadora totalmente electrónica. En 1945 hace su aparición el EDVAC.

A partir de la década del cincuenta, hacia adelante, se dispusieron una serie de herramientas del tipo, cada vez más sofisticados, que amoldaron mejor el concepto de Procesamiento Automático de Datos, suprimiendo totalmente la intervención humana en esta fase. En la década de los ochenta aparecen con fuerza las microcomputadoras y su uso, hoy en día, es común en las más diversas actividades del hombre.

PRIMEROS REGISTRADORES Y COMPUTADORAS: La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.

Características:

Estaban construidas con electrónica de válvulas.

Se programaban en lenguaje de máquina.

Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).

La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:

1. 1941 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas

Page 4: Introduccion al procesamiento de datos e5 unesr

toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos.

2. 1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.

3. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.

4. 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

5. 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.

La primera caja registradora fue inventada por James Ritty una vez concluida la Guerra Civil Estadounidense. Era el propietario de un saloon en Dayton, Ohio, Estados Unidos, y necesitaba evitar que sus empleados continuaran hurtando sus ganancias. Creó el modelo Ritty I en 1879, luego de observar una herramienta que contaba las revoluciones del propulsor de un barco a vapor.1 Con la ayuda de su hermano John, la patentó en 1883.2

Poco después resultó recargado con la necesidad de manejar dos comercios, por lo que vendió todos sus derechos sobre su invento a Jacob H. Eckert de Cincinnati, un vendedor de porcelana y cristalería, que formó la National Manufacturing Company. En 1884 este vendió a su vez la empresa a John H. Patterson, que la rebautizó National Cash Register (NCR) y mejoró la máquina incorporando un rollo de papel para registrar las transacciones, creando por tanto el ticket o recibo.

En 1906, mientras trabajaba en NCR Charles F. Kettering diseñó una caja registradora con motor eléctrico.

En el Reino Unido se utiliza el término till3 para referirse a las cajas registradoras, en alusión a su utilidad como «ordenador» de moneda.

Page 5: Introduccion al procesamiento de datos e5 unesr

DESCRIPCION FUNCIONAL DE UN SISTEMA INFORMATICO: Es un conjunto de partes (hardware y software), El usuario forma parte del Sistema Informático y objetivo que funcionan relacionándose entre sí.

REPRESENTACION INTERNA DE DATOS: Representación Alfanumérica:

La representación de la información de tipo texto escrito se hace codificando, en un octeto, cada uno de los caracteres que componen dicha información.

- Código Baudot: Data de finales del S. XIX. Lo desarrolló Jean-Maurice-Émile Baudot. Utilizaba 5 bits por carácter y se usaba en telegrafía.

- Alfabeto Internacional Nº 2: 1901. Donald Murray añadió nuevos caracteres y códigos de desplazamiento al anterior. Cada carácter 5 bits. Existen algunos caracteres de control. Inicialmente se utilizó en los teletipos. (Teleimpresores o TTY).

- Codificación FIELDATA: Proyecto de Estados Unidos a finales de los 50. Pretendía crear un estándar para recoger y distribución en el campo de batalla. Utiliza bloques de 6 dígitos para representar los caracteres. Sólo se pueden representar 26 datos, es decir 64 caracteres. Codificación EBCDIC (Extended Binary Coded Decimal Interchange Code): Usado en mainframes de IBM inicialmente. Utiliza 8 bits para cada carácter por lo que se pueden representar 256 caracteres. Cada octeto se divide en 2 partes (bits de zona, bits de dígito).

- Código ASCII (American Standard Code for Information Interchange). El más difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo utiliza los 7 primeros para el uso de letras, números y caracteres especiales. Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden representar todos los números, letras mayúsculas, minúsculas, caracteres especiales y de control. El resto de las combinaciones de la 128 a la 255 se usan para representar caracteres de tipo gráfico.

- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote (formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su objetivo es representar cualquier carácter jamás escrito. Windows NT y sus sucesores lo usan. También sistemas operativos como Linux, Mac OS X y lenguajes de programación como Java, Perl y C#.

Codificación EBCDIC (Extended Binary Coded Decimal Interchange Code): Usado en mainframes de IBM inicialmente. Utiliza 8 bits para cada carácter por lo que se pueden representar 256 caracteres. Cada octeto se divide en 2 partes (bits de zona, bits de dígito).

- Código ASCII (American Standard Code for Information Interchange). El más difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por

Page 6: Introduccion al procesamiento de datos e5 unesr

ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo utiliza los 7 primeros para el uso de letras, números y caracteres especiales. Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden representar todos los números, letras mayúsculas, minúsculas, caracteres especiales y de control. El resto de las combinaciones de la 128 a la 255 se usan para representar caracteres de tipo gráfico. Los 32 primeros caracteres son de control.

- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote (formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su objetivo es representar cualquier carácter jamás escrito. Windows NT y sus sucesores lo usan. También sistemas operativos como Linux, Mac OS X y lenguajes de programación como Java, Perl y C#. Y BYTE

CONCEPTO DE BIT Y BYTE: es el acrónimo Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:

Luz apagada o Luz encendida

Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes.

El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

Byte: Es una unidad de información compuesta por una secuencia de bits contiguos. El diccionario de la Real Academia Española señala que byte es sinónimo de octeto (una unidad de información de ocho bits); sin embargo, el tamaño del byte (que proviene del inglés bite, “mordisco”) depende del código de caracteres en el que ha sido definido.

El término fue propuesto por Werner Buchholz en 1957, en medio del desarrollo de la computadora IBM 7030 Stretch. En un principio, byte se utilizaba para mencionar las instrucciones de 4 bits, que permitían la inclusión de entre uno y dieciséis bits por byte. Sin embargo, el diseño de producción luego redujo el byte hasta campos de 3 bits, lo que permitió entre uno y ocho

Page 7: Introduccion al procesamiento de datos e5 unesr

bits en un byte. Con el tiempo, se fijo el tamaño de un byte en 8 bits y se declaró como un estándar a partir de IBM S/360.

SISTEMA BINARIO: es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

CONCEPTO DE HARDWARE: Son todos los dispositivos y componentes físicos que realizan las tareas de entrada y salida, también se conoce al hardware como la parte dura o física del computador. La mayoría de las computadoras están organizadas de la siguiente forma:

Los dispositivos de entrada (Teclados, Lectores de Tarjetas, Lápices Ópticos, Lectores de Códigos de Barra, Escáner, Mouse, etc.) y salida (Monitor, Impresoras, Plotters, Parlantes, etc.) y permiten la comunicación entre el computador y el usuario.

ESQUEMA DE UN COMPUTADOR:

COMPONENTE DE UN COMPUTADOR:

Hardware: Es el conjunto de componentes físicos que conforman el computador. Los computadores convencionales, también llamadas máquinas de Von Neumann tienen tres principales componentes: Memoria principal,

Page 8: Introduccion al procesamiento de datos e5 unesr

Unidad Central de proceso (CPU- Centra lProcessing Unit y Dispositivos periféricos).

Memoria Principal: Se encarga de almacenar temporalmente los programas y los datos necesarios para que un determinado programa pueda ser ejecutado. Está constituida por un conjunto de celdas (palabras) cada una de las cuales puede almacenar una porción de información. El tamaño de una palabra depende de la arquitectura del computador, existiendo palabras de 8, 16, 32 ó 64 bit. Un bit es la mínima información almacenable en un dígito binario (0 ó 1) A la agrupación de 8 bit, se le denomina byte. La capacidad de la memoria principal de un computador (Random Access Memory o RAM) se mide en Mb(1Megabyte = 1024 X 1024 Bytes) siendo tamaños comunes actualmente 64 Mb, 128 Mb,256 Mb ó 1Gb (1024 Mb).

Unidad Central de Proceso: Encargada de realizar los cálculos y transformaciones en los datos, además de coordinar, controlar y/o realizar todas las operaciones del sistema. Cada CPU esta formado por dos componentes principales.

Unidad de Control: Controla los componentes del computador para realizar las operaciones necesarias y ejecutar las instrucciones.

Unidad Aritmético-Lógica: Realiza todos los cálculos (suma, resta, multiplicación y división) y todas las operaciones lógicas (comparaciones numéricas o alfabéticas) sobre los datos.

CONCEPTO DE SOFWARE: Es un ingrediente indispensable para el funcionamiento del computador. Está formado por una serie de instrucciones y datos, que permiten aprovechar todos los recursos que el computador tiene, de manera que pueda resolver gran cantidad de problemas. Un computador en si, es sólo un conglomerado de componentes electrónicos; el software le da vida al computador, haciendo que sus componentes funcionen de forma ordenada.

El software es un conjunto de instrucciones detalladas que controlan la operación de un sistema computacional.

CLASIFICACION y DEFINICIONES DEL SOFWARE: a los fines prácticos se puede clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadar interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros:

Page 9: Introduccion al procesamiento de datos e5 unesr

Sistemas operativos Controladores de dispositivos Herramientas de diagnóstico Herramientas de Corrección y Optimización Servidores Utilidades

Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente:

Editores de texto Compiladores Intérpretes Enlazadores Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros:

Aplicaciones para Control de sistemas y automatización industrial Aplicaciones ofimáticas Software educativo Software empresarial Bases de datos Telecomunicaciones (por ejemplo Internet y toda su estructura lógica) Videojuegos Software médico Software de cálculo Numérico y simbólico. Software de diseño asistido (CAD) Software de control numérico (CAM)

COMPUTADORAS DE PROPOSITO GENERAL Y ESPECÍFICO: Las computadoras se pueden clasificar por tamaño, por propósito y por aplicación. A continuación mostramos las diferentes clasificaciones.

Las computadoras se clasifican por Tamaño en:

Page 10: Introduccion al procesamiento de datos e5 unesr

Microcomputadoras |Minicomputadoras | Macrocomputadoras | Supercomputadoras.

Microcomputadoras: Las microcomputadoras son las computadoras más accesibles para cualquier tipo de usuario, son máquinas personales de escritorio.

Pequeñas solo en tamaño físico y accesibles económicamente,este tipo de computadoras son tan dinámicas, que lo mismo las puede utilizar un experto en el trabajo como un niño en casa, por esta razón las microcomputadoras son las más conocidas, y ofrecen un sin número de aplicaciones.

En un principio solo era posible utilizarlas en ambiente monousuario, esto es un solo usuario a la vez, pero con los avances tecnológicos desde hace ya bastante tiempo este tipo de máquinas pueden ser utilizadas en ambientes multi incluso como servidores de una red de computadoras.

Pequeñas de bajo costo y para múltiples aplicaciones.

Minicomputadoras: Al inicio de la década de 1960 hicieron su aparición las minicomputadoras, fabricadas inicialmente por Digital Equipment Corporation (DEC).

Estas máquinas son más pequeñas que las macrocomputadoras pero también de un menor costo, son el punto intermedio entre una microcomputadora y una macrocomputadora, en cuanto a su forma de operar se asemeja más a una macrocomputadora ya que fueron diseñadas para:.

- Entornos de múltiples usuarios, apoyando multiples actividades de proceso al mismo tiempo.

- Ofrecer ciertos servicios más específicos

- Soportar un número limitado de dispositivos

- Pequeñas y de bajo costo

- Para múltiples aplicaciones

La macrocomputadora: es un sistema de aplicación general cuya característica principal es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento secundario.

Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes cantidades de información. El CPU actúa como arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o efímeras.

Page 11: Introduccion al procesamiento de datos e5 unesr

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.

- El CPU es el centro de procesamiento

- Diseñadas para sistemas multiusuario

La Supercomputadora: es un sistema de cómputo más grande, diseñadas para trabajar en tiempo real.

Estos sistemas son utilizados principalmente por la defensa de los Estados Unidos y por grandes Empresas multimillonarias, utilizan telecomunicaciones a grandes velocidades, para poner un ejemplo estas máquinas pueden ejecutar millones de instrucciones por segundo. Actúa como arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.

- El CPU es el centro de procesamiento

- Diseñadas para sistemas multiusuario>

Las computadoras se clasifican por Propósito en:

Analógicas |Digitales | Hibridas

Las computadoras analógicas: representan los números mediante una cantidad física, es decir, asignan valores numéricos por medio de la medición física de una propiedad real, como la longitud de un objeto, el ángulo entre dos líneas o la cantidad de voltaje que pasa a través de un punto en un circuito eléctrico.

Las computadoras analógicas obtienen todos sus datos a partir de alguna forma de medición.

Aun cuando es eficaz en algunas aplicaciones, este método de representar los datos es una limitación de las computadoras analógicas.

La precisión de los datos usados en una computadora analógica está intimamente ligada a la precisión con que pueden medirse.

Las computadoras digitales: representan los datos o unidades separadas. La forma más simple de computadora digital es contar con los dedos.

Cada dedo representa una unidad del artículo que se está contando. A diferencia de la computadora analógica, limitada por la precisión de las mediciones que pueden realizarse, la computadora digital puede representar

Page 12: Introduccion al procesamiento de datos e5 unesr

correctamente los datos con tantas posiciones y números que se requieran. Las sumadoras y las calculadoras de bolsillo son ejemplos comunes de dispositivos construídos según los principios de la Computadora Digital.

Para obtener resultados, las computadoras analógicas miden, mientras que las computadoras digitales cuentan.

Hibridas: Combinan las características más favorables de las computadoras digitales y analógicas tienen la velocidad de las analógicas y la precisión de las digitales.

Generalmente se usan en problemas especiales en los que los datos de entrada provienen de mediciones convertidas a dígitos y son procesados por una Computadora por ejemplo las Computadoras Híbridas controlan el radar de la defensa de Estados Unidos y de los vuelos comerciales.

Las computadoras se clasifican por Aplicación en:

Propósito General: Pueden procesar Información de negocios con la misma facilidad que procesan fórmulas matemáticas complejas.

Pueden almacenar grandes cantidades de información y los grandes programas necesarios para procesarla. Debido a que las computadoras de aplicación general son tan versátiles la mayor parte de las empresas actuales las utilizan.

Propósito Especial: Tienen muchas de las características de las Computadoras de uso general pero se dedican a tareas de procesamiento muy especializadas.

Se diseñan para manejar problemas específicos y no se aplican a otras actividades computarizadas. Por ejemplo, las computadoras de aplicación especial pueden diseñarse para procesar exclusivamente datos numéricos o para controlar comletamente procesos automatizados de fabricación.

Un simulador es un ejemplo de las computadoras de uso especifico y puede ser un simulador de vuelo, de entrenamiento y en otros campos como la enfermería, la tecnología del cuarto de operaciones, la administración de plantas nucleares, los vuelos espaciales, el atletismo , la exploración marina, etc.

DIFERENCIA DE TAMAÑO Y ARQUITECTURA: Un Sistema Operativo serio, capaz de competir en el mercado con otros como Unix que ya tienen una posición privilegiada, en cuanto a resultados, debe tener una serie de características que le permitan ganarse ese lugar. Algunas de estas son:

•Que corra sobre múltiples arquitecturas de hardware y plataformas.

Page 13: Introduccion al procesamiento de datos e5 unesr

•Que sea compatible con aplicaciones hechas en plataformas anteriores, es decir que corrieran la mayoría de las aplicaciones existentes hechas sobre versiones anteriores a la actual, nos referimos en este caso particular a las de 16-bit de MS-DOS y Microsoft Windows 3.1.

•Reúna los requisitos gubernamentales para POSIX (Portable Operating System Interface for Unix).

•Reúna los requisitos de la industria y del gobierno para la seguridad del Sistema Operativo.

•Sea fácilmente adaptable al mercado global soportando código Unicode.

•Sea un sistema que corra y balancee los procesos de forma paralela en varios procesadores a la vez.

•Sea un Sistema Operativo de memoria virtual.

Uno de los pasos más importantes que revolucionó los Sistemas Operativos de la Microsoft fue el diseño y creación de un Sistema Operativo extensible, portable, fiable, adaptable, robusto, seguro y compatible con sus versiones anteriores (Windows NT).

Y para ello crearon la siguiente arquitectura modular:

La cual está compuesta por una serie de componentes separados donde cada cual es responsable de sus funciones y brindan servicios a otros componentes. Esta arquitectura es del tipo cliente – servidor ya que los programas de aplicación son contemplados por el sistema operativo como si fueran clientes a los que hay que servir, y para lo cual viene equipado con distintas entidades servidoras.

Ya creado este diseño las demás versiones que le sucedieron a Windows NT fueron tomando esta arquitectura como base y le fueron adicionando nuevos componentes.

Uno de las características que Windows comparte con el resto de los Sistemas Operativos avanzados es la división de tareas del Sistema Operativo en múltiples categorías, las cuales están asociadas a los modos actuales soportados por los microprocesadores. Estos modos proporcionan a los programas que corren dentro de ellos diferentes niveles de privilegios para acceder al hardware o a otros programas que están corriendo en el sistema. Windows usa un modo privilegiado (Kernel) y un modo no privilegiado (Usuario).

Page 14: Introduccion al procesamiento de datos e5 unesr

Uno de los objetivos fundamentales del diseño fue el tener un núcleo tan pequeño como fuera posible, en el que estuvieran integrados módulos que dieran respuesta a aquellas llamadas al sistema que necesariamente se tuvieran que ejecutar en modo privilegiado (modo kernel). El resto de las llamadas se expulsarían del núcleo hacia otras entidades que se ejecutarían en modo no privilegiado (modo usuario), y de esta manera el núcleo resultaría una base compacta, robusta y estable.

El Modo Usuario es un modo menos privilegiado de funcionamiento, sin el acceso directo al hardware. El código que corre en este modo sólo actúa en su propio espacio de dirección. Este usa las APIs (System Application Program Interfaces) para pedir los servicios del sistema.

El Modo Kernel es un modo muy privilegiado de funcionamiento, donde el código tiene el acceso directo a todo el hardware y toda la memoria, incluso a los espacios de dirección de todos los procesos del modo usuario. La parte de WINDOWS que corre en el modo Kernel se llama Ejecutor de Windows, que no es más que un conjunto de servicios disponibles a todos los componentes del Sistema Operativo, donde cada grupo de servicios es manipulado por componentes que son totalmente independientes (entre ellos el Núcleo) entre sí y se comunican a través de interfaces bien definidas.

Todos los programas que no corren en Modo Kernel corren en Modo Usuario. La mayoría del código del Sistema Operativo corre en Modo Usuario, así como los subsistemas de ambiente (Win32 y POSIX que serán explicados en capítulos posteriores) y aplicaciones de usuario. Estos programas solamente acceden a su propio espacio de direcciones e interactúan con el resto del sistema a través de mensajes Cliente/Servidor.

CONFIGURACIONES EXISTENTES EN EL MERCADO: Básicamente existen tres tipos de configuraciones que engloban a todas las redes existentes en el mercado, independientemente del fabricante.

Peer to peer (Punto a punto): Cada estación de trabajo puede compartir sus recursos con otras estaciones de trabajo que están en la red.

Compartición de recursos: Con este método los recursos a compartir están centralizados en uno o más servidores. En estos servidores está toda la información. Las estaciones de trabajo no pueden compartir sus recursos.

Cliente/Servidor: En este tipo de redes, las aplicaciones se parten entre el servidor y las estaciones de trabajo. En el Front End, la parte cliente de la aplicación acepta las peticiones del usuario, las prepara para el servidor y

Page 15: Introduccion al procesamiento de datos e5 unesr

espera una respuesta del mismo. En el Back End, el servidor recibe la petición del cliente, la procesa y proporciona el servicio deseado por el cliente. El cliente ahora presenta los datos u otro resultado al usuario a través de su propia interfaz.

Los tipos más comunes de redes de área local son: Ethernet, Token Ring, ArcNet.

Ethernet: fue originalmente creado por Xerox, pero desarrollado conjuntamente como una norma en 1.980 por Digital, Intel y Xerox. La norma 802.3 de IEEE define una red similar, aunque ligeramente diferente que usa un formato alternativo de trama. Ethernet presenta un rendimiento de 10 Mbits/seg. y utiliza un método sensible a la señal portadora mediante el cual las estaciones de trabajo comparten un cable de red, pero sólo una de ellas puede utilizarlo en un momento dado. El método de acceso múltiple con detección de portadora y detección de colisiones se utiliza para arbitrar el acceso al cable.

Las redes Ethernet pueden ser cableadas con diferentes tipos de cable. Cada uno con sus ventajas e inconvenientes. Las tres especificaciones más populares para Ethernet son las siguientes:

Ethernet 10 Base-T: Ofrece la mayoría de las ventajas de Ethernet sin las restricciones que impone el cable coaxial. Parte de esta especificación es compatible con otras normas 802.3 del IEEE de modo que es sencillo realizar una transición de un medio a otro. Es posible mantener las mismas tarjetas Ethernet al pasar de un cable coaxial a cable de par trenzado. Además pueden añadirse líneas troncales de par trenzado a las ya existentes gracias a repetidores que admiten la conexión de líneas troncales de cable coaxial, fibra óptica y par trenzado. Muchos fabricantes presentan este tipo de dispositivos en su línea de productos Ethernet. La especificación 10 Base-T incluye una utilidad de verificación de cableado denominada Verificación de integridad del enlace.

Ethernet 10 Base-2: Se utiliza cable coaxial fino que se manipula más fácilmente que el grueso y no requiere transceptores en las estaciones. Este cable es más barato, aunque la longitud máxima de la línea troncal es menor.

Ethernet 100 Base-X: Con el crecimiento del uso de la multimedia y el vídeo de alta definición en tiempo real, además del correo electrónico que incorpora estos formatos, existe una necesidad creciente de obtención de mayores anchos de banda en los equipos. Los usuarios de aplicaciones de diseño asistidos por ordenador requieren siempre un alto ancho de banda. 100 BASE-X mantiene el método de acceso CSMA/CD sobre cable de par trenzado sin blindar de categoría 5. El comité 802.3.del IEEE es el responsable de este desarrollo.

Page 16: Introduccion al procesamiento de datos e5 unesr

Token Ring: El anillo con testigo es la norma 802.5 del IEEE. Una red en anillo con paso de testigo se puede configurar en una topología en estrella. IBM hizo posible la norma con la comercialización de la primera red Token Ring a 4 Mbit/seg. a mediados de los 80. Aunque la red físicamente aparece como una configuración en estrella, internamente, las señales viajan alrededor de la red de una estación a la siguiente. Por tanto, la configuración del cableado y la adición o supresión de un equipo debe asegurar que se mantiene el anillo lógico. Las estaciones de trabajo se conectan a los concentradores centrales llamados unidades de acceso multiestación (MAU). Para crear redes grandes se conectan múltiples concentradores juntos. Las tarjetas de Token Ring de IBM están disponibles en una versión a 4 Mbit/seg. y en otra a 16 Mbit/seg. Son comunes el cable de par trenzado no apantallado y las MAUS con 16 puertos.

La red de computación de recursos conectados ARCNET es un sistema de red banda base con paso de testigo que ofrece topologías flexibles de estrella y bus a un precio bajo. Las velocidades de transmisión son de 2,5 Mbit/seg. y en ARCNET Plus de 20 Mbit/seg.

Arcnet: proporciona una red robusta que no es tan susceptible a fallos como la Ethernet de cable coaxial si el cable se suelta o se desconecta. Esto se debe particularmente a su topología y a su baja velocidad de transferencia. Si el cable que une una estación de trabajo a un concentrador se desconecta o se suelta, sólo dicha estación de trabajo se va abajo, no la red entera. El protocolo de paso de testigo requiere que cada transacción sea reconocida, de este modo no hay cambios virtuales de errores aunque el rendimiento es mucho más bajo que en otros esquemas de conexión de red.

La topología de una red define únicamente la distribución del cable que interconecta los diferentes ordenadores.

A la hora de instalar una red, es importante seleccionar la topología más adecuada a las necesidades, teniendo en cuenta factores como la distribución de los equipos a interconectar, tipo de aplicaciones que se van a ejecutar, inversión que se quiere hacer, coste que se quiere dedicar al mantenimiento y actualización de la red, tráfico que debe soportar la red, capacidad de expansión, entre otros.

Las topologías puras son tres: topología en bus, en estrella y en anillo. A partir de estas tres se generan otras como son: anillo - estrella, bus - estrella, etc.

Topologias en BUS: Consiste en un cable al que se conectan todos los nodos de la red. Un nodo es cualquier estación de trabajo, terminal, impresora o cualquier otro dispositivo que pueda ser conectado a la red, ya sea de forma directa o indirecta (estando a disposición de la red al pertenecer a un dispositivo ya conectado a ella).

Page 17: Introduccion al procesamiento de datos e5 unesr

Cuando se utiliza cable coaxial, aparecen unos elementos en los extremos del cable denominados "terminadores", y cuyo aspecto es similar al de un tapón. Cada cual actúa como una resistencia que refleja las señales del cable. Su misión es indicar a la red cuáles son los extremos del bus.

La topología en bus resulta fácil de instalar y mantener, pero ofrece un problema bastante importante. Esta dificultad consiste en que cuando el bus se abre (el cable se rompe, se estropea una clavija, un mal contacto...), toda la red se cae y quedará completamente inoperativa. Si la distancia que cubre el cable es pequeña, encontrar la avería resulta relativamente fácil; sin embargo, si la distancia es grande y/o los nodos conectados a ella son elevado, encontrar la avería puede llevar mucho tiempo, durante el cual, todo el sistema quedará inutilizado.

Topología en Anillo: Consiste en un cable en el que se juntan el origen con el extremo, formando un anillo cerrado. A él se conectan los nodos de la red. No requiere de terminadores, ya que el cable se cierra en sí mismo.

Esta topología ofrece el mismo problema que la topología en bus, es decir, si se abre el anillo, la red queda inoperativa en su totalidad.

Topología en Estrella: En este caso, cada nodo de la red se conecta a un punto central, formando una especie de estrella. El punto es tan sólo un dispositivo de conexiones, o uno del mismo tipo más una estación de trabajo. Dependiendo de sí el dispositivo central es pasivo (únicamente serviría de centralizador de conexiones) o activo (centralizando las conexiones y regenerando la señal que le llega), se tratará de una estrella pasiva ó activa. Este dispositivo central se llama "concentrador" (o hub).

La principal ventaja que esta topología ofrece frente a las otras consiste en que cuando el cable de un nodo se desconecta o rompe, dicho nodo es el único que queda desconectado de la red, manteniéndose ésta operativa.

CARACTERISTICAS Y APLICACIONES DE LOS DISTINTOS TIPOS MAINFRAME, MINI, MICRO Y PC:

Mainframe: Una computadora mainframe es una computadora grande y poderosa que maneja el procesamiento para muchos usuarios simultáneamente (Hasta varios cientos de usuarios). El nombre mainframe se originó después de que las minicomputadoras aparecieron en los 1960's para distinguir los sistemas grandes de dichas minicomputadoras.

Los usuarios se conectan a la computadora mainframe utilizando terminales que someten sus tareas de procesamiento a la computadora central. Una terminal es un aparato que tiene pantalla y teclado para la entrada / salida, pero que no tiene capacidad de cómputo. También se conocen estas como terminales tontas.

Page 18: Introduccion al procesamiento de datos e5 unesr

La capacidad de procesamiento de la mainframe se comparte en tiempo entre todos los usuarios. Una computadora PC puede "emular" a una terminal tonta para conectarse a una minicomputadora o a una mainframe. Esto se logra mediante un software especial.

Las computadoras mainframe cuestan varios cientos de miles de dólares. Se usan en situaciones en que las empresas requieren tener centralizados en un lugar tanto el poder de cómputo como el almacenamiento de la información.

Las mainframe también se usan como servidores de alta capacidad para redes con muchas estaciones de trabajo clientes.

Mini: Una versión más pequeña de la macro computadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita una macro, y esto ayudo a reducir el precio y costo de mantenimiento.

En general, una mini computadora, es un sistema multiproceso (varios procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, y otras aplicaciones.

Micro: Las microcomputadoras o computadoras personales (PC) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es una computadora en un chip, o sea un circuito integrado independiente. Las PC son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

PC:

Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo.

Usuarios a la vez: hasta miles, en entorno de redes amplias. Tamaño: requieren instalaciones especiales y aire acondicionado

industrial. Dificultad de uso: solo para especialistas. Clientes usuales: grandes centros de investigación. Penetración social: prácticamente nula. Impacto social: muy importante en el ámbito de la investigación, ya que

provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Pi, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.

Parques instalados: menos de un millar en todo el mundo. Costo: hasta decenas de millones de dólares cada una de ellas.

UNIDAD II (SISTEMA OPERATIVO)

Page 19: Introduccion al procesamiento de datos e5 unesr

CONCEPTO: Conjunto de programas que se integran con el hardware para facilitar al usuario, el aprovechamiento de los recursos disponibles. Algunos de sus objetivos principales son:

Provee de un ambiente conveniente de trabajo. Hace uso eficiente del Hardware. Provee de una adecuada distribución de los recursos. Para un Sistema Operativo real deberá satisfacer las siguientes

funciones: Gobierna el Sistema. Asigna los recursos. Administra y controlar la ejecución de los programas.

Un sistema de cómputo en muchos casos cuenta con demasiados recursos para ser utilizados por un solo usuario, es en estos casos cuando se puede dar servicio a varios procesos.

FUNCIONES: Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux.

APLICACIONES: Programas externos al sistema, utilizados para realizar tareas específicas como simulación, creación y edición de gráficas e imágenes, etc...

DISTINTOS SISTEMAS OPERATIVOS DOS, UNIX, WINDOWS, VENTAJAS Y DIFERENCIAS:

Dos: es una familia de sistemas operativos para PC. El nombre son las siglas de disk operating system ("sistema operativo de disco"). Fue creado originalmente para computadoras de la familia IBM PC, que utilizaban los procesadores Intel 8086 y 8088, de 16 bits, siendo el primer sistema operativo popular para esta plataforma. Contaba con una interfaz de línea de comandos en modo texto o alfanumérico, vía su propio intérprete de órdenes, command.com. Probablemente la más popular de sus variantes sea la perteneciente a la familia MS-DOS, de Microsoft, suministrada con buena parte de los ordenadores compatibles con IBM PC, en especial aquellos de la familia Intel, como sistema operativo independiente o nativo, hasta la versión 6.22 (bien entrados los 90), frecuentemente adjunto a una versión de la interfaz gráfica Ms Windows de 16 bits, como las 3.1x.

Page 20: Introduccion al procesamiento de datos e5 unesr

En las versiones nativas de Microsoft Windows, basadas en NT (y éste a su vez en OS/2 2.x) (véase Windows NT, 2000, 2003, XP o Vista) MS-DOS desaparece como sistema operativo (propiamente dicho) y entorno base, desde el que se arrancaba el equipo y sus procesos básicos y se procedía a ejecutar y cargar la inferfaz gráfica o entorno operativo de Windows. Todo vestigio del mismo queda relegado, en tales versiones, a la existencia de un simple intérprete de comandos, denominado Símbolo del Sistema, ejecutado como aplicación mediante cmd.exe, a partir del propio entorno gráfico (elevado ahora a la categoría de sistema).

Esto no es así en las versiones no nativas de Windows, que sí están basadas en MS-DOS, cargándose a partir del mismo. Desde los 1.0x a las versiones 3.1(1), de 16 bits, Ms Windows tuvo el planteamiento de una simple aplicación de interfaz o entorno gráfico, complementaria al propio intérprete de comandos, desde el que era ejecutado. Fue a partir de las versiones de 32 bits, de nuevo diseño y mayor potencia, basadas en Windows 95 y 98, cuando el MS-DOS comienza a ser deliberadamente camuflado por el propio entorno gráfico de Windows, durante el proceso de arranque, dando paso, por defecto, a su automática ejecución, lo que acapara la atención del usuario medio y atribuye al antiguo sistema un papel más dependiente y secundario, llegando a ser por muchos olvidado y desconocido, y paulatinamente abandonado por los desarrolladores de software y hardware, empezando por la propia Microsoft (esta opción puede desactivarse alterando la entrada BootGUI=1 por BootGUI=0, del archivo de sistema, ahora de texto, MSDOS. SYS). Sin embargo, en tales versiones, Windows no funcionaba de forma autónoma, como sistema operativo. Tanto varias de las funciones primarias o básicas del sistema como su arranque se deben aún en las versiones de 32 bits, a los distintos módulos y archivos de sistema que componían el modesto armazón del DOS, requiriendo aquéllas un mínimo de los archivos básicos de este, para poder ejecutarse (tales como IO.SYS, DRVSPACE. BIN, EMM386.EXE e HIMEM. SYS).

Existen varias versiones de DOS. El más conocido de ellos es el MS-DOS, de Microsoft (de ahí las iniciales MS). Otros sistemas son el PC-DOS, de IBM, el DR-DOS, de Digital Research, que pasaría posteriormente a Novell (Novell DOS 7.0), luego a Caldera y finalmente a DeviceLogics y, más recientemente, el FreeDOS, de licencia libre y código abierto. Éste último, puede hacer las veces, en su versión para GNU/Linux y UNIX, de emulador del DOS bajo sistemas de este tipo.

Con la aparición de los sistemas operativos gráficos, del tipo Windows, en especial aquellos de 32 bits, del tipo Windows 95, el DOS ha ido quedando relegado a un segundo plano, hasta verse reducido al mero intérprete de órdenes, y a las líneas de comandos (en especial en ficheros de tipo .PIF y .BAT), como ocurre en los sistemas derivados de Windows NT.

Page 21: Introduccion al procesamiento de datos e5 unesr

El DOS carece por completo de interfaz gráfica, y no utiliza el ratón, aunque a partir de ciertas versiones solía incluir controladoras para detectarlo, inicializarlo y hacerlo funcionar bajo diversas aplicaciones de edición y de interfaz y entorno gráfico, además de diversos juegos que tendían a requerirlo (como juegos de estrategia, aventuras gráficas y Shoot 'em up subjetivos, entre otros). Por sí sólo es incapaz de detectar el hardware, a menos que las mencionadas controladoras incluyan en su núcleo de sistema, como residentes en memoria, el código, instrucciones y funciones necesarias. En cualquier caso, el intérprete de comandos y la mayoría de sus aplicaciones y mandatos de edición debían o podían ser fácilmente controlados manualmente, a través del teclado, ya fuera mediante comandos, o introduciendo teclas de acceso rápido para activar los distintos menúes y opciones desde el editor (un buen ejemplo de esto último son el editor de texto edit.com, el menú de ayuda help.exe, ó el intérprete de BASIC qbasic.exe, incluidos en las últimas versiones del MS-DOS). Tales opciones siguen, de hecho, encontrándose presentes en los Windows, en versiones muy posteriores.

El DOS no es ni multiusuario ni multitarea. No puede trabajar con más de un usuario ni en más de un proceso a la vez. En sus versiones nativas (hasta la 6.22 en el MS-DOS), no puede trabajar con particiones de disco demasiado grandes, superiores a los 2 GB, que requieren formatos y sistemas de archivos tales como el FAT32, propio de Windows de 32 bits (a partir del 95), ó el NTFS, propio de Windows de tipo NT. Originalmente, por limitaciones del software, no podía manejar más de 64KB de memoria RAM. En las versiones anteriores a la 4.0, el límite, a su vez, era de 32 MB por partición, al no soportar aún el formato FAT16 (desarrollado en 1987). Poco a poco, con las mejoras en la arquitectura de los PC, llegó primero a manejar hasta 640 KB de RAM (la llamada "memoria convencional", ó base), y luego hasta 1 megabyte (agregando a la memoria convencional la "memoria superior" o UMB). Más tarde, aparecieron mecanismos como la memoria expandida (EMS) y la memoria extendida (XMS), que permitían ya manejar varios megabytes.

Desde el punto de vista de los programadores, este sistema operativo permitía un control total de la computadora, libre de las capas de abstracción y medidas de seguridad a las que obligan los sistemas multiusuario y multitarea. Así, hasta la aparición del DirectX, y con el fin de aprovechar al máximo el hardware, la mayoría de videojuegos para PC funcionaban directamente bajo DOS.

La necesidad de mantener la compatibilidad con programas antiguos, hacía cada vez más difícil programar para DOS, debido a que la memoria estaba segmentada, es decir, la memoria apuntada por un puntero tenía como máximo el tamaño de un segmento de 64KB. Para superar estas limitaciones del modo real de los procesadores x86, se recurría al modo protegido de los

Page 22: Introduccion al procesamiento de datos e5 unesr

procesadores posteriores (80386, 80486...), utilizando programas extensores que hacían funcionar programas de 32 bits sobre DOS.

Aunque este sistema operativo sea uno de los más antiguos, aún los entornos operativos Windows de 32 bits, hasta el 98, tenían como plataforma base camuflada u oculta el DOS. Su intérprete de comandos, denominado, por lo general, Command Prompt o Símbolo del Sistema, puede invocarse desde la interfaz como command.com, ó, en versiones posteriores, basadas en NT, que ya no se basan ni parten de MS-DOS, mediante cmd.exe, esto pasa también en Windows ME a pesar de estar aún basado en la antigua arquitectura 9x. También existen, para sistemas actuales, emuladores como el DOSBox, o entornos de código abierto como el FreeDOS, comunes ambos en GNU/Linux; ello permite recuperar la compatibilidad perdida con ciertas aplicaciones nativas para este antiguo sistema, que ya no pueden funcionar desde los nuevos Windows, basados en NT, o bajo sistemas operativos de arquitectura dispar, como los UNIX y GNU/Linux.

DIR: Muestra un listado de archivos, que están contenidos en un directorio.

TYPE: Muestra el contenido de un archivo en pantalla.

COPY: Copia archivos en otro lugar.

REN o RENAME: Renombra archivos.

DEL o ERASE: Borra uno o varios archivos (con posibilidad de recuperarlos mediante la orden UNDELETE, presente en las últimas versiones nativas del DOS, salvo que el lugar del archivo o archivos borrados hubiese sido utilizado con posterioridad).

MD o MKDIR: Crea un nuevo directorio.

CD o CHDIR: Cambia el directorio actual por el especificado.

RD o RMDIR: Borra un directorio vacío.

ATTRIB: Permite asignar o quitar atributos de archivos (tales como +A: ya modificado, +H: oculto, +R: de sólo lectura, ó +S, archivo especial del sistema, o a la inversa)

TREE: Muestra gráficamente la estructura de directorios de una unidad o ruta de acceso

DELTREE: Borra un directorio con todo su contenido, incluidos subdirectorios (apareció en las últimas versiones)

CLS: limpia la pantalla.

DATE: Permite ver y cambiar la fecha.

Page 23: Introduccion al procesamiento de datos e5 unesr

TIME: Permite ver y cambiar la hora.

LABEL: Permite ver y cambiar la etiqueta de una unidad de disco ó volumen.

HELP: Ofrece ayuda sobre las distintas órdenes.

SORT: Ordena las entradas.

FC o COMP: Compara las diferencias entre el contenido de dos archivos.

FIND: Busca cadenas de texto dentro del contenido de un archivo.

TACS: Ordena todos los archivos del cp.

EDLIN o EDIT: Permite editar archivos, guardando los cambios efectuados en el sistema.

VOL: Muestra la etiqueta del volumen y el número de serie del disco.

VERIFY: Comunica a Windows si debe comprobar que los archivos se escriben de forma correcta en un disco.

CD..: retrocede a la rama anterior.

Unix: Unix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.1 2

Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc. Sólo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.

Familias UNIX más significativas

AT&T: la familia que tuvo su origen en el UNIX de AT&T. Considerada la familia UNIX "pura" y original. Sus sistemas operativos más significativos son UNIX System III y UNIX System V.

BSD: familia originada por el licenciamiento de UNIX a Berkely. BSD se reescribió para no incorporar propiedad intelectual originaria de AT&T en la versión 4. La primera implementación de los protocolos TCP/IP que dieron origen a Internet son la pila (stack) TCP/IP BSD.

Page 24: Introduccion al procesamiento de datos e5 unesr

AIX: Esta familia surge por el licenciamiento de UNIX System III a IBM.

Xenix: familia derivada de la adquisición de los derechos originales de AT&T primero por parte de Microsoft y de esta los vendió a SCO.

GNU: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso esfuerzo para crear un sistema similar a Unix, que pudiese ser distribuido libremente. El software desarrollado por este proyecto -por ejemplo, GNU Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX.

Linux: En 1991, cuando Linus Torvalds empezó a proponer el núcleo Linux y a reunir colaboradores, las herramientas GNU eran la elección perfecta. Al combinarse ambos elementos, conformaron la base del sistema operativo (basado en POSIX) que hoy se conoce como GNU/Linux. Las distribuciones basadas en el núcleo, el software GNU y otros agregados entre las que se pueden mencionar a Slackware Linux, Red Hat Linux y Debian GNU/Linux se han hecho populares tanto entre los aficionados a la computación como en el mundo empresarial. Obsérvese que Linux tiene un origen independiente, por lo que se considera un 'clónico' de UNIX y no un UNIX en el sentido histórico.

Las interrelaciones entre estas familias son las siguientes, aproximadamente en orden cronológico:

La familia BSD surge del licenciamiento del UNIX original de AT&T.

Xenix también surge por licenciamiento del UNIX original de AT&T, aunque aún no era propiedad de SCO.

AIX surge por licenciamiento de UNIX System III, pero también incorpora propiedad intelectual de BSD.

La familia original AT&T incorpora ilegalmente propiedad intelectual de BSD en UNIX System III r3.

La familia AIX vuelve a incorporar propiedad intelectual de la familia AT&T, esta vez procedente de UNIX System V.

Linux incorpora propiedad intelectual de BSD, gracias a que éste también se libera con una licencia de código abierto denominada Open-source BSD.

Según SCO Group, Linux incorpora propiedad intelectual procedente de AIX, gracias a la colaboración de IBM en la versión 2.4, mas aún no está demostrado, hay un proceso judicial al respecto: Disputas de SCO sobre Linux.

UNIX es una marca registrada de Novell, después de una disputa con The Open Group en Estados Unidos y otros países. Esta marca solo se puede

Page 25: Introduccion al procesamiento de datos e5 unesr

aplicar a los sistemas operativos que cumplen la "Single Unix Specification" de esta organización y han pagado las regalías establecidas.

En la práctica, el término UNIX se utiliza en su acepción de familia. Se aplica también a sistemas multiusuario basados en POSIX (tales como GNU/Linux, Mac OS X [el cual, en su versión 10.5 ya ha alcanzado la certificación UNIX], FreeBSD, NetBSD, OpenBSD), los cuales no buscan la certificación UNIX por resultar cara para productos destinados al consumidor final o que se distribuyen libremente en Internet. En estos casos, el término se suele escribir como "UN*X", "UNIX*", "*NIX", o "*N?X". Para referirse a ellos (tanto a Unix, como a los sistema basados en Unix/POSIX) también se utiliza "Unixes", pero "Unices" (que trata la palabra Unix como un nombre latino de la tercera declinación) es asimismo popular.

A lo largo de la historia ha surgido una gran multitud de implementaciones comerciales de UNIX. Sin embargo, un conjunto reducido de productos han consolidado el mercado y prevalecen gracias a un continuo esfuerzo de desarrollo por parte de sus fabricantes. Los más importantes son:

Solaris 10, un sistema operativo derivado de la rama System V Solaris de Sun Microsystems. Uno de los sistemas operativos Unix más difundidos en el entorno empresarial y conocido por su gran estabilidad. Parte del código fuente de Solaris se ha liberado con licencia de fuentes abiertas (OpenSolaris).

AIX de IBM. El UNIX "propietario" de IBM cumplió 20 años de vida en el 2006 y continúa en pleno desarrollo, con una perceptible herencia del mainframe en campos como la virtualización o la RAS de los servicios, heredada de sus "hermanos mayores".

HP-UX de Hewlett-Packard. Este sistema operativo también nació ligado a las computadoras departamentales de este fabricante. También es un sistema operativo estable que continua en desarrollo.

Mac OS X. Se trata de un UNIX completo, aprobado por The Open Group. Su diferencia marcada es que posee una interfaz gráfica propietaria llamada Aqua, y es principalmente desarrollada en Objective-C en lugar de C o C++.

Existen sistemas operativos basados en el núcleo Linux, y el conjunto de aplicaciones GNU (también denominado GNU/Linux), entre las más utilizadas encontramos:

Red Hat Enterprise Linux. Cuyo fabricante Red Hat es conocido por su amplia gama de soluciones y aportes al desarrollo de software libre. Apoya el proyecto Fedora del cual se beneficia y de ella se derivan distribuciones compatibles como Oracle Enterprise Linux y CentOS, también distribuciones como Mandriva Linux, se basó en una de sus primeras versiones.

Page 26: Introduccion al procesamiento de datos e5 unesr

SUSE Linux de Novell. Originalmente liberado por la compañía alemana SuSE. Es popular por sus herramientas de administración centralizada. De manera análoga a RedHat con Fedora, apoya el proyecto openSUSE.

Debian GNU/Linux. Con una de las comunidades más grandes y antiguas del movimiento de software libre, es base para distribuciones como Xandros, Mepis, Linspire y Ubuntu.

También son populares los sistemas operativos descendientes del 4.4BSD:

FreeBSD. Quizá el sistema operativo más popular de la familia, de propósito múltiple. Con una implementación SMP muy elaborada, es el sistema operativo utilizado por los servidores de Yahoo. Y base de muchos sistemas operativos

entre ellos Mac OS X de Apple.

OpenBSD. Ampliamente reconocida por su seguridad proactiva y auditoría permanente del código fuente. Es utilizada en ambientes donde la seguridad prima sobre todo, es usual encontrarlo instalado en servidores que actúan como Firewall, VPN o Proxy.

NetBSD. Se le conoce por su portabilidad, a octubre de 2008: 53 arquitecturas soportadas. La NASA lo ha utilizado para la investigación en redes TCP/IP satelitales, al igual que para reciclar computadoras viejas con software moderno.

Las siguientes implementaciones de UNIX tienen importancia desde el punto de vista histórico, no obstante, actualmente están en desuso:

Tru64 UNIX actualmente de Hewlett-Packard (antes de Compaq y originalmente de Digital Equipment Corporation).

UnixWare y SCO OpenServer anteriormente de Santa Cruz Operation y ahora de SCO Group.

UX/4800 de NEC.

IRIX de Silicon Graphics Inc..

Algunos comandos básicos de UNIX son:

Navegación/creación de directorios/archivos: ls cd pwd mkdir rm rmdir cp Edición/visión de archivos: touch more ed vi Procesamiento de textos: echo cat grep sort uniq sed awk tail head Comparación de archivos: comm cmp diff patch Administración del sistema: chmod chown ps find xargs sd w who Comunicación: mail telnet ssh ftp finger rlogin

Page 27: Introduccion al procesamiento de datos e5 unesr

Shells: sh csh ksh Documentación: man.

Esta es una lista de los sesenta comandos de usuario de la sección 1 de la Primera Edición:

ar as b bas bcd boot cat chdir check chmod chown cmp cp date db (Unix) dbppt dc df dsw dtf du ed find for form hup lbppt ld ln ls mail mesg mkdir mkfs mount mv nm od pr rew (Unix) rkd rkf rkl rm rmdir roff sdate sh stat strip (Unix) su sum tap (Unix) tm tty type un wc who write

Otros comandos

Tiempo: cal

Windows: es el nombre de una familia de sistemas operativos desarrollados por Microsoft desde 1981, año en que el proyecto se denominaba «Interface Manager».

Anunciado en 1983, Microsoft comercializó por primera vez el entorno operativo denominado Windows en noviembre de 1985 como complemento para MS-DOS, en respuesta al creciente interés del mercado en una interfaz gráfica de usuario (GUI) que fuera introducido por otros sistemas operativos como Mac OS y de otras compañías como Xerox.1 En esas fechas, Microsoft consiguió un contrato de arrendamiento de su sistema operativo con el gigante de la informática, IBM, por lo que fue preinstalado desde fábrica en la mayoría de ordenadores personales del mundo, lo que lo convirtió en el más usado y popular. En octubre de 2009, Windows tenía aproximadamente el 91% de la cuota de mercado de sistemas operativos en equipos cliente que acceden a Internet.2 3 4 Las versiones más recientes de Windows son Windows 7 para equipos de escritorio, Windows Server 2008 R2 para servidores y Windows Phone 7 para dispositivos móviles.

El término Windows describe colectivamente todas o parte de varias generaciones de productos de sistema operativo de Microsoft. Estos productos generalmente se clasifican como sigue:

Primeras versiones

Artículos principales: Windows 1.0 y Windows 2.0.

La historia de Windows se remonta a septiembre del año 1981, con el proyecto denominado «Interface Manager». Se anunció en noviembre de 1983 (después del Apple Lisa, pero antes de Macintosh) bajo el nombre «Windows», pero Windows 1.0 no se publicó hasta el mes de noviembre de 1985. El shell de Windows 1.0 es un programa conocido como MS-DOS Executive. Otros programas suministrados fueron la Calculadora, Calendario, Cardfile, Visor del

Page 28: Introduccion al procesamiento de datos e5 unesr

portapapeles, Reloj, Panel de control, el Bloc de notas, Paint, Reversi, Terminal y Write. Windows 1.0 no permite la superposición de ventanas, debido a que Apple Computer ya contaba con esta característica. En su lugar fueron mosaico en todas las ventanas. Solo los cuadros de diálogo podrían aparecer en otras ventanas.

Windows 2.0 fue lanzado en octubre de 1987 y presentó varias mejoras en la interfaz de usuario y en la gestión de memoria e introdujo nuevos métodos abreviados de teclado. También podría hacer uso de memoria expandida.

Windows 2.1 fue lanzado en dos diferentes versiones: Windows/386 empleando Modo 8086 virtual para realizar varias tareas de varios programas de DOS, y el modelo de memoria paginada para emular la memoria expandida utilizando la memoria extendida disponible. Windows/286 (que, a pesar de su nombre, se ejecutaría en el 8086) todavía se ejecutaba en modo real, pero podría hacer uso de la Área de memoria alta. Apple demandó a Microsoft por lo parecido del software a su sistema MacOS, Microsoft ganó la demanda.

Las primeras versiones de Windows se suele considerar como interfaz gráfica de usuario simple. Incluso las primeras versiones de Windows de 16 bits ya supone muchas de las funciones típicas de sistema operativo; en particular, tener su propio formato de archivo ejecutable y proporcionar sus propios Controladores de dispositivo (temporizador, gráficos, impresora, ratón, teclado y sonido) para aplicaciones. A diferencia de MS-DOS, Windows permite a los usuarios ejecutar las aplicaciones gráficas de múltiples al mismo tiempo, a través de la multitarea cooperativa. Windows implementa un esquema de software elaborada, basado en el segmento, memoria virtual, lo que le permitió ejecutar aplicaciones más grandes que la memoria disponible: segmentos de código y los recursos se intercambian y se tira cuando escaseaba la memoria, y segmentos de datos en la memoria cuando se trasladó una aplicación dada, había cedido el control del procesador, por lo general la espera de la entrada del usuario.

Windows 3.0 y 3.1

Artículo principal: Windows 3.x.

Windows 3.0 (1990) y Windows 3.1 (1992) mejoraron el diseño , principalmente debido a la memoria virtual y los controladores de dispositivo virtual deslastrables (VxD) que permitió compartir dispositivos arbitrarios entre DOS y Windows. Además, las aplicaciones de Windows ahora podrían ejecutar en modo protegido (cuando se ejecuta Windows en el modo estándar o 386 mejorado), que les da acceso a varios megabytes de memoria y se elimina la obligación de participar en el esquema de la memoria virtual de software.

Page 29: Introduccion al procesamiento de datos e5 unesr

Windows 95, 98, y Me

Artículos principales: Windows 95, Windows 98 y Windows Me.

Windows 95 fue lanzado en 1995, con una nueva interfaz de usuario, compatibilidad con nombres de archivo largos de hasta 250 caracteres, y la capacidad de detectar automáticamente y configurar el hardware instalado (plug and play). De forma nativa podrían ejecutar aplicaciones de 32-bits y presentó varias mejoras tecnológicas que aumentaron su estabilidad respecto a Windows 3.1. Hubo varios OEM Service Releases (OSR) de Windows 95, cada una de las cuales fue aproximadamente equivalente a un Service Pack.

El siguiente lanzamiento de Microsoft fue Windows 98 en 1998. Microsoft lanzó una segunda versión de Windows 98 en 1999, llamado Windows 98 Second Edition (a menudo acortado a Windows 98 SE).

En el 2000, Microsoft lanza Windows Millennium Edition (comúnmente llamado Windows Me), que actualiza el núcleo de Windows 98 pero que adopta algunos aspectos de Windows 2000 y elimina (más bien, oculta) la opción de «Arrancar en modo DOS». También añade una nueva característica denominada «Restaurar sistema», que permite al usuario guardar y restablecer la configuración del equipo en una fecha anterior.

Familia NT

Artículo principal: Windows NT.

La familia de sistemas Windows NT fue hecha y comercializada por un mayor uso de fiabilidad de negocios. El primer lanzamiento fue de MS Windows NT 3.1 (1993), el número «3.1» para que coincida con la versión para Windows, que fue seguido por NT 3.5 (1994), NT 3.51 (1995), NT 4.0 (1996), y Windows 2000 (2000). 2000 es la última versión de Windows NT, que no incluye la activación de productos de Microsoft. NT 4.0 fue el primero en esta línea para implementar la interfaz de usuario de Windows 95 (y el primero en incluir tiempos de ejecución de 32 bits integrada de Windows 95). Microsoft se trasladó a combinar sus negocios de consumo y sistemas operativos con Windows XP, viene tanto en las versiones Home y professional (y las versiones posteriores de mercado para tablet PC y centros multimedia), sino que también se separaron los calendarios de lanzamiento para los sistemas operativos de servidor. Windows Server 2003, lanzado un año y medio después de Windows XP, trajo Windows Server al día con MS Windows XP. Después de un proceso de desarrollo largo, Windows Vista fue lanzado hacia el final de 2006, y su homólogo de servidor, Windows Server 2008 fue lanzado a principios de 2008. El 22 de julio de 2009, Windows 7 y Windows Server 2008 R2 se publicaron como RTM (versión de disponibilidad general). Windows 7 fue lanzado el 22 de octubre de 2009.

Page 30: Introduccion al procesamiento de datos e5 unesr

Windows CE, la oferta de Microsoft en los mercados móviles e integrados, es también un verdadero sistema operativo 32 bits que ofrece diversos servicios para todas las subestaciones de trabajo de explotación.

Sistemas operativos de 64 bits

Windows NT incluye soporte para varias plataformas diferentes antes de x86 - basado en ordenador personal se convirtió en dominante en el mundo profesional. Versiones de NT desde 3.1 a 4.0 diversamente compatibles PowerPC, DEC Alpha y MIPS R4000, algunos de los cuales eran procesadores de 64 bits, aunque el sistema operativo trató procesadores como de 32 bits.

Con la introducción de la arquitectura Intel Itanium, que se conoce como IA-64, Microsoft lanzó nuevas versiones de Windows para apoyarlo. Las versiones Itanium de Windows XP y Windows Server 2003 fueron liberadas al mismo tiempo que con sus principales contrapartes x86 (32-bit). El 25 de Abril de 2005, Microsoft lanzó Windows XP Professional x64 Edition y x64 versión de Windows Server 2003 para el apoyo de x86-64 (o x64 en la terminología de Microsoft). Microsoft eliminó el soporte para la versión de Itanium de Windows XP en 2005. Windows Vista es la primera versión de usuario final de Windows que Microsoft ha publicado simultáneamente en las ediciones de x86 y x64. Windows Vista no es compatible con la arquitectura Itanium. La familia de Windows de 64 bits moderna comprende a AMD64/intel64 versiones de Windows Vista y Windows Server 2008 en tanto en Itanium y en ediciones x64. Windows Server 2008 R2 cae la versión de 32 bits, y Windows 7 que también está en versiones de 32 bits (para mantener la compatibilidad).

Windows CE

Artículo principal: Windows CE.

Windows CE (oficialmente conocido como Windows Embedded), es una edición de Windows que se ejecuta en equipos minimalistas, tales como sistemas de navegación por satélite y, excepcionalmente, los teléfonos móviles. Windows Embedded se ejecuta como CE, en lugar de NT, por lo que no debe confundirse con Windows XP Embedded, que es NT. Windows CE, que se utilizó en la Dreamcast junto con sistema operativo propietario de Sega para la consola. Windows CE es el núcleo del que deriva Windows Mobile.

Futuro de Windows

Windows 8, el sucesor de Windows 7, se encuentra actualmente en desarrollo. Microsoft ha publicado una entrada de blog en holandés el 22 de octubre de 2010 insinuando que Windows 8 será lanzado en 2 años.5 También, durante el discurso Electronics Show pre-Consumer, CEO de Microsoft anunció que Windows 8 también se ejecutará en procesadores Arquitectura ARM. Dado que las CPUs ARM son generalmente en forma de SOCs se encuentran en

Page 31: Introduccion al procesamiento de datos e5 unesr

dispositivos móviles, este nuevo anuncio implica que Windows 8 será más compatible con los dispositivos móviles, como netbooks, tablet PC y smartphones.6 También tendrá soporte para Live USB, con Windows To Go.

Historia

Árbol genealógico de Windows.

La primera versión de Microsoft Windows, versión 1.0, lanzada en noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema operativo completo; más bien era una extensión gráfica de MS-DOS. Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que su predecesor. Windows 2.03 (lanzado en enero de 1988) incluyó por primera vez ventanas que podían solaparse unas a otras. El resultado de este cambio llevó a Apple a presentar una demanda contra Microsoft, debido a que infringían derechos de autor.

Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de copias en los primeros seis meses. Presentaba mejoras en la interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El soporte de Windows 3.1 terminó el 31 de diciembre de 2001.

En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT era considerado como el sistema operativo profesional y fue la primera versión de Windows para utilizar la Multitarea apropiativa. Windows NT más tarde sería reestructurado también para funcionar como un sistema operativo para el hogar, con Windows XP.

El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para los consumidores, y grandes fueron los cambios que se realizaron a la interfaz de usuario, y también se utiliza multitarea apropiativa. Windows 95 fue diseñado para sustituir no solo a Windows 3.1, sino también de Windows para Workgroups y MS-DOS. También fue el primer sistema operativo Windows para utilizar las capacidades Plug and Play. Los cambios que trajo Windows 95 eran revolucionarios, a diferencia de los siguientes, como Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31 de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de diciembre de 2001.

El siguiente en la línea de consumidor fue lanzado el 25 de junio de 1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta de fiabilidad en comparación con Windows 95, pero muchos de sus problemas básicos fueron posteriormente rectificados con el lanzamiento de

Page 32: Introduccion al procesamiento de datos e5 unesr

Windows 98 Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de 2006.

Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me implementaba una serie de nuevas tecnologías para Microsoft: en particular fue el «Universal Plug and Play». Durante el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era malo para Microsoft porque el mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP.

En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó en el kernel de Windows NT que también conserva la usabilidad orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, «Home» y «Professional», el primero carece por mucho de la seguridad y características de red de la edición Professional. Además, la primera edición «Media Center» fue lanzada en 2002, con énfasis en el apoyo a la funcionalidad de DVD y TV, incluyendo grabación de TV y un control remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009. El soporte extendido continuará hasta el 8 de abril de 2014.

En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la línea de productos de servidor de Windows 2000 con un número de nuevas características y un fuerte enfoque en la seguridad; lo cual fue seguido en diciembre de 2005 por Windows Server 2003 R2.

El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de características nuevas, desde un shell rediseñado y la interfaz de usuario da importantes cambios técnicos, con especial atención a las características de seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de muy severas críticas debido a su patente inestabilidad, sobredemanda de recursos de hardware, alto costo, y muy alta incompatibilidad con sus predecesores, hecho que no ocurría con éstos.

El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su predecesor, Windows Vista, que introdujo a un gran número de nuevas características, Windows 7 pretendía ser una actualización incremental, enfocada a la línea de Windows, con el objetivo de ser compatible con aplicaciones y hardware que Windows Vista no era compatible. Windows 7 tiene soporte multi-touch, un shell de Windows rediseñado con una nueva barra de tareas, conocido como Superbar, un sistema red llamado HomeGroup, y mejoras en el rendimiento sobre todo en velocidad y en menor consumo de recursos.

Page 33: Introduccion al procesamiento de datos e5 unesr

MULTIPROGRAMACION: Es la técnica que permite que dos o mas programas ocupen la misma unidad de memoria principal y que sean ejecutados al mismo tiempo. Así por ejemplo mientras se ejecutan operaciones de entrada y salida de un programa, la unidad central de proceso puede ocuparse en realizar operaciones distintas de las de E/S pertenecientes a otros programas. La multiprogramación se refiere a dos o mas programas corriendo o procesándose al mismo tiempo; La multiprogramación se controla a través del sistema operativo, el cual observa los programas y los vigila hasta que estén concluidos. El numero de programas que pueden multiprogramarse en forma efectiva, depende de una combinación de la cantidad de memoria, de la velocidad de la CPU y del numero y velocidad de los recursos periféricos que tenga conectados, así como de la eficiencia del SISTEMA OPERATIVO.

MULTIPROCESAMIENTO: es tradicionalmente conocido como el uso de múltiples procesos concurrentes en un sistema en lugar de un único proceso en un instante determinado. Como la multitarea que permite a múltiples procesos compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar múltiples hilos dentro de un único proceso.

El multiproceso para tareas generales es, a menudo, bastante difícil de conseguir debido a que puede haber varios programas manejando datos internos (conocido como estado o contexto) a la vez. Los programas típicamente se escriben asumiendo que sus datos son incorruptibles. Sin embargo, si otra copia del programa se ejecuta en otro procesador, las dos copias pueden interferir entre sí intentando ambas leer o escribir su estado al mismo tiempo. Para evitar este problema se usa una variedad de técnicas de programación incluyendo semáforos y otras comprobaciones y bloqueos que permiten a una sola copia del programa cambiar de forma exclusiva ciertos valores.

MULTIUSUARIO: También llamado multipuesto. Es un tipo de configuración hard-soft que permite soportar a varios usuarios o puestos de trabajo al mismo tiempo, de forma que el sistema operativo gestiona la simultaneidad, otorgando a cada usuario todos los recursos necesarios.

MULTITAREAS: Es una característica de los sistemas operativos modernos. Permite que varios procesos sean ejecutados al mismo tiempo compartiendo uno o más procesadores.

TIPOS DE PROGRAMAS UTILITARIOS: ejecutan tareas relacionadas con el mantenimiento de la salud de su computadora - hardware o datos. Algunos se incluyen con el sistema operativo.

Page 34: Introduccion al procesamiento de datos e5 unesr

APLICACIONES:

Software de aplicación

Las funciones de una aplicación dependen de su propósito, según el cual pueden clasificarse en dos categorías:

Programas básicos (o utilitarios): Son aplicaciones cuyo propósito es mejorar, en alguna forma, el desempeño del ordenador.

Programas de productividad: Son aplicaciones cuyo propósito es facilitar, agilizar y mejorar para el usuario, la ejecución de ciertas tareas.

Algunos programas básicos o utilitarios

Antivirus: Prevención, detección y corrección de virus para ordenadores.

Compresor de archivos: Mejor aprovechamiento del espacio de almacenamiento disponible, reduciendo el que ocupa cada archivo.

Defragmentador: Mayor eficiencia en el uso del espacio de almacenamiento disponible y en el proceso de búsqueda, guardando la totalidad de cada archivo en ocupaciones contiguas.

Software para respaldo: Garantía de la disponibilidad de los datos, haciendo copias de ellos.

MANEJADORES DE BASE DE DATOS: IBM Informix® Dynamic Server (IDS) 9.30 proporciona fiabilidad superior, atendiendo las necesidades de las exigentes prácticas actuales del e-business-particularmente para aplicativos que requieran transacciones de alto desempeño.

Soporta requisitos de procesamiento de transacción online, complejos y rigurosos.

Optimiza capacidades de inteligencia del negocio competitivas Maximiza operaciones de datos para el grupo de trabajo y para la

empresa en total. Proporciona la firmeza de una administración de base de datos

comprobada, mejor de su especie.

Informix Dynamic Server con J/Foundation combina las características de IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS con J/Foundation permite que los desarrolladores de base de datos escriban lógica de negocio del lado-servidor usando el lenguaje Java!. Java User Defined Routines (UDRs) tienen completo acceso a las características de la base de datos extensible líder mundial, de la base de datos IDS. Haciendo del IDS la plataforma ideal para el desarrollo de base de datos Java.

Page 35: Introduccion al procesamiento de datos e5 unesr

Además de Java UDRs, el IDS está en conformidad con el estándar SQLJ para procedimientos almacenados en Java, permitiendo el uso de los paquetes Java estándar que se encuentran incluidos en el Java Development Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles que se pueden desarrollar más rápidamente que C, y más potentes y administrables que los lenguajes de procedimientos almacenados.

Una extensión adicional de escribir UDRs en Java es escribir módulos DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas funciones del lado-servidor y tipos de datos puestos en conjunto para extender el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El DataBlade Developer's Kit (DBDK) ahora soporta Java y permite el desarrollo, diseminación y depuración de UDRs en Java. La tecnología IBM Informix DataBlade es líder en la industria en extender el servidor para permitir tanto la administración de contenido rich, cuanto la lógica de negocio.

J/Foundation está provisto con IDS en muchas de las plataformas IDS 9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit, Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y Compaq Tru 64

IBM Informix® Dynamic Server (IDS) 9.30 proporciona fiabilidad superior, atendiendo las necesidades de las exigentes prácticas actuales del e-business-particularmente para aplicativos que requieran transacciones de alto desempeño.

Soporta requisitos de procesamiento de transacción online, complejos y rigurosos.

Optimiza capacidades de inteligencia del negocio competitivas Maximiza operaciones de datos para el grupo de trabajo y para la

empresa en total. Proporciona la firmeza de una administración de base de datos

comprobada, mejor de su especie.

Informix Dynamic Server con J/Foundation combina las características de IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS con J/Foundation permite que los desarrolladores de base de datos escriban lógica de negocio del lado-servidor usando el lenguaje Java!. Java User Defined Routines (UDRs) tienen completo acceso a las características de la base de datos extensible líder mundial, de la base de datos IDS. Haciendo del IDS la plataforma ideal para el desarrollo de base de datos Java.

Además de Java UDRs, el IDS está en conformidad con el estándar SQLJ para procedimientos almacenados en Java, permitiendo el uso de los paquetes Java estándar que se encuentran incluidos en el Java Development

Page 36: Introduccion al procesamiento de datos e5 unesr

Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles que se pueden desarrollar más rápidamente que C, y más potentes y administrables que los lenguajes de procedimientos almacenados.

Una extensión adicional de escribir UDRs en Java es escribir módulos DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas funciones del lado-servidor y tipos de datos puestos en conjunto para extender el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El DataBlade Developer's Kit (DBDK) ahora soporta Java y permite el desarrollo, diseminación y depuración de UDRs en Java. La tecnología IBM Informix DataBlade es líder en la industria en extender el servidor para permitir tanto la administración de contenido rich, cuanto la lógica de negocio.

J/Foundation está provisto con IDS en muchas de las plataformas IDS 9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit, Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y Compaq Tru 64.

PLANILLAS ELECTRONICAS: Es un programa de tipo de hoja de calculo y organizar datos. Luego analizarlos mediante la creación de gráficos para su mejor interpretación. Ejemplos de planilla electrónica:

1-microsoft exel(funciona en el entorno de trabajo windows)

2-calc (funciona en el entorno de trabajo linux).

PROCESADOR DE TEXTO: Un procesador de texto es una aplicación informática destinada a la creación o modificación de documentos escritos por medio de una computadora. Representa una alternativa moderna a la antigua máquina de escribir, siendo mucho más potente y versátil que ésta.

NAVEGADORES DE INTERNET: No cabe duda de que Internet es uno de los grandes inventos del último siglo. Desde su creación no ha dejado de crecer a un ritmo casi exponencial. Igual que para conducirnos por las carreteras necesitamos un buen vehículo, para navegar por Internet necesitamos un buen navegador.

Igual que con los buscadores, que salieron cientos y ahora quedan unos pocos, con los navegadores se reparten el mercado entre unos pocos.

El rey en número es el Internet Explorer, seguido de mozilla firefox que le va comiendo terrenos. Como no, Google tenía que sacar su propio navegador, Google Chrome, que la verdad sea dicha está muy completo. Mac también tiene su propio navegador que es Safari y por último están los noruegos de Opera, que no está nada mail.

Creo que Explorer, a pesar de las últimas mejoras, todavía tiene un poco que mejorar. El resto de los mencionados están muy bien. Elegir uno u otro es

Page 37: Introduccion al procesamiento de datos e5 unesr

más una cuestión de gustos, y de lo familiarizado que estés. Aunque si tuviera que elegir por solamente uno, creo que mozilla firefox de momento es el mejor.

GRAFICADORES: Los programas graficadores, como Corel, Photoshop, Photo Editor, Publisher trabajan con dibujos vectoriales o mapas de bits. Este tipo de programas facilitan la creación de ilustraciones profesionales: desde simples logotipos a complejas ilustraciones técnicas.

UNIDAD III (DATOS Y ESTRUCTURA DE DATOS)

DATOS: El dato es una representación simbólica (numérica, alfabética, algorítmica, entre otros.), un atributo o característica de una entidad. Los datos describen hechos empíricos, sucesos y entidades.

PROPIEDADES:

•Independencia lógica y física de los datos.

•Redundancia mínima.

•Acceso concurrente por parte de múltiples usuarios.

•Integridad de los datos.

•Consultas complejas optimizadas.

•Seguridad de acceso y auditoría.

•Respaldo y recuperación.

•Acceso a través de lenguajes de programación estándar.

ATRIBUTOS:

Page 38: Introduccion al procesamiento de datos e5 unesr

El programador de aplicaciones, quien crea programas de aplicación que utilizan la base de datos.

El usuario final, quien accesa la Base de Datos por medio de un lenguaje de consulta o de programas de aplicación.

El administrador de la Base de Datos (DBA: Data Base Administrator), quien se encarga del control general del Sistema de Base de Datos.

ARCHIVO: Un archivo o fichero informático es un conjunto de bits almacenado en un dispositivo.

Un archivo es identificado por un nombre y la descripción de la carpeta o directorio que lo contiene. Los archivos informáticos se llaman así porque son los equivalentes digitales de los archivos en tarjetas, papel o microfichas del entorno de oficina tradicional. Los archivos informáticos facilitan una manera de organizar los recursos usados para almacenar permanentemente datos en un sistema informático.

CARACTERISTICAS:

Nombre y extensión: Cada archivo es individual y es identificable por un nombre y una extensión opcional que suele identificar su formato. El formato suele servir para identificar el contenido del archivo.

Los nombres de archivos originalmente tenían un límite de ocho caracteres más tres caracteres de extensión, actualmente permiten muchos más caracteres dependiendo del sistema de archivos.

Datos sobre el archivo: Además para cada fichero, según el sistema de archivos que se utilice, se guarda la fecha de creación, modificación y de último acceso. También poseen propiedades como oculto, de sistema, de solo lectura, etc.

Tamaño: Los archivos tienen también un tamaño que se mide en bytes, kilobytes, megabytes, gigabytes y depende de la cantidad de caracteres que contienen.

Ubicación: Todo archivo pertenece a un directorio o subdirectorio. La ruta de acceso a un archivo suele comenzar con la unidad lógica que lo contiene y los sucesivos subdirectorios hasta llegar al directorio contenedor, por ejemplo: "C:Archivos de programaMicrosoftarchivo.txt".

Los archivos pueden separarse en dos grandes grupos, ejecutables y no ejecutables. Ver tipos de archivos.

DISEÑO DE DATOS: Un modelo de datos es básicamente una "descripción" de algo conocido como contenedor de datos (algo en donde se guarda la información), así como de los métodos para almacenar y recuperar información de esos contenedores. Los modelos de datos no son cosas físicas: son abstracciones que permiten la implementación de un sistema eficiente de base de datos; por lo general se refieren a algoritmos, y conceptos matemáticos.

Page 39: Introduccion al procesamiento de datos e5 unesr

CAMPO: Es un espacio de almacenamiento para un dato en particular. En las bases de datos, un campo es la mínima unidad de información a la que se puede acceder; un campo o un conjunto de ellos forman un registro, donde pueden existir campos en blanco, siendo éste un error del sistema operativo. En las hojas de cálculo(como los programas de excel) los campos son llamados celdas.

REGISTRO: un registro (también llamado fila o tupla) representa un objeto único de datos implícitamente estructurados en una tabla. En términos simples, una tabla de una base de datos puede imaginarse formada de filas y columnas o campos. Cada fila de una tabla representa un conjunto de datos relacionados, y todas las filas de la misma tabla tienen la misma estructura.

Un registro es un conjunto de campos que contienen los datos que pertenecen a una misma repetición de entidad. Se le asigna automáticamente un número consecutivo (número de registro) que en ocasiones es usado como índice aunque lo normal y práctico es asignarle a cada registro un campo clave para su búsqueda.

CLAVE: Conjunto finito de caracteres limitados que forman una palabra secreta que sirve a uno o más usuarios para acceder a un determinado recurso. Las claves suelen tener limitaciones en sus caracteres (no aceptan algunos) y su longitud. La Real Academia aconseja utilizar "clave" o "contraseña" en vez de su equivalente en inglés, "password".

INDICE: es como el índice de un libro donde tenemos los capítulos del libro y la página donde empieza cada capítulo. No vamos a entrar ahora en cómo se implementan los índices internamente ya que no entra en los objetivos del curso pero sí daremos unas breves nociones de cómo se definen, para qué sirven y cuándo hay que utilizarlos y cuando no.

Un índice es una estructura de datos que permite recuperar las filas de una tabla de forma más rápida además de proporcionar una ordenación distinta a la natural de la tabla. Un índice se define sobre una columna o sobre un grupo de columnas, y las filas se ordenarán según los valores contenidos en esas columnas. Por ejemplo, si definimos un índice sobre la columna poblacion de una tabla de clientes, el índice permitirá recuperar los clientes ordenados por orden alfabético de población.

TABLAS Y RELACIONES: una tabla hace referencia al modelado o recopilación de datos por parte de una aplicación de un programa que permite operar con los mismos organizándolos y poniéndolos en relación de diversas maneras.

Page 40: Introduccion al procesamiento de datos e5 unesr

Relaciones: se describen en la estructura de la base de datos empleando un modelo de datos. Las relaciones son muy empleadas en los modelos de bases de datos relacionales y afines.

TIPOS Y DISEÑO DE CONSULTA: Las consultas son los objetos de una base de datos que permiten recuperar datos de una tabla, modificarlos e incluso almacenar el resultado en otra tabla.

Existen varios tipos de consultas:

<!--[if !vml]--><!--[endif]-->Consultas de selección.

Son las consultas que extraen o nos muestran datos. Muestran aquellos datos de una tabla que cumplen los criterios especificados. Una vez obtenido el resultado podremos consultar los datos para modificarlos (esto se podrá hacer o no según la consulta). Una consulta de selección genera una tabla lógica (se llama lógica porque no está físicamente en el disco duro sino en la memoria del ordenador y cada vez que se abre se vuelve a calcular).

<!--[if !vml]--><!--[endif]-->Consultas de acción.

Son consultas que realizan cambios a los registros. Existen varios tipos de consultas de acción, de eliminación, de actualización, de datos anexados y de creación de tablas.

<!--[if !vml]--><!--[endif]-->Consultas específicas de SQL.

Son consultas que no se pueden definir desde la cuadrícula QBE de Access sino que se tienen que definir directamente en SQL. Estas consultas no se estudiarán en este curso ya que para definirlas hay que saber SQL, cosa que no es objeto de este curso.

BASE DE DATOS: es un conjunto de datos que pertenecen al mismo contexto almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. En la actualidad, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos tienen formato electrónico, que ofrece un amplio rango de soluciones al problema de almacenar datos.

TIPOS DE ARCHIVO: La forma más básica de identificar un archivo es por su nombre, que normalmente se corresponde con la información que contiene. Pero hay más datos que pueden resultarte útiles para trabajar con los archivos de un ordenador, como por ejemplo qué tipo de archivo (su extensión).

Extensión: son las abreviaturas que te indican qué tipo de archivo es y se corresponden con el programa usado para crearlo, abrirlo o modificarlo, qué dependerá de los programas que tengas instalados en tu ordenador.

Page 41: Introduccion al procesamiento de datos e5 unesr

Hay muchos tipos: jpeg, pdf, png, bmp,mpg, psd, gif, ico, flv, mp4, avi, 3gp, compresión: zip, rar, 7z y otros, sonidos: mp3, wma, mdi, nintendo DS: nds para los juegos, sav para las partidas guardadas y eso sin contar todos los tipos de programas, aplicaciones etc.

RESGUARDO DE ARCHIVOS: Dentro de los aspectos aplican a la seguridad de la información se encuentra la generación de resguardos o respaldos; y es que en la actualidad la importancia de la información es tal, que muchas organizaciones la guardan en verdaderas fortalezas, auténticamente como su tesoro más preciado.

El primer factor que se debe establecer para abordar el dilema de la información a resguardar, es clasificar el tipo de información o datos con los que el centro u organización opera y establecer un esquema por orden de importancia. Un ejemplo podría ser:

Archivos para la producción Archivos del sistema operativo en uso Archivos para el desarrollo de nuevos sistemas.

ALMACENAMIENTO DE DATOS: son componentes que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria o almacenamiento secundario de la computadora.

Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.

DISPOSITIVOS: Son estructuras sólidas, electrónicas y mecanicas las cuales son diseñadas para un uso especifico, estos se conectan entre sí para crear una conexión en común y obtener los resultados esperados siempre y cuando cumplan con las reglas de configuración.

SOPORTES Y TECNICAS: El disco rígido es el dispositivo donde se almacenan todos los datos de manera permanente, además de tener instalados el sistema operativo (DOS, WINDOWS, etc. ) y los programas que se utilizan habitualmente en el ordenador (procesador de textos, hoja de cálculo, base de datos, etc.).

Normalmente un archivo se almacena diseminado en pistas, sectores y cilindros o sea se graba en las caras de los distintos platos simultáneamente, porque la estructura que sostiene los brazos con sus cabezas de lecto-escritura mueve todo el conjunto de cabezas al mismo tiempo.

El trabajo del disco empieza cuando el programa de aplicación en coordinación con el Sistema operativo comienza a escribir sobre las superficies de los platos. Por cada grupo de datos escrito se crea una nueva entrada de

Page 42: Introduccion al procesamiento de datos e5 unesr

registro en un sector ( para ser mas exactos en la cara 0, pista 0, sector 1, en le borde del disco), creando un índice maestro de ubicación de los datos, que se conoce con el nombre de FAT = File Allocation Table (registro similar al índice de un libro). La información de lectura - escritura es dada a conocer a la CPU por la tarjeta electrónica propia del disco duro.

Técnicas: Consiste en una aplicación, USB Switchblade, guardada en USB, este USB se introduce en la maquina victima y se ejecuta mediante la reproducción automática de dispositivos. Esta aplicación recoge información de la maquina victima: secretos LSA, contraseñas de Windows, dirección IP, puertos abiertos, contraseñas de correo, historiales de navegación, contraseñas guardadas en el navegador, serials de aplicaciones instaladas… Además crea una cuenta con privilegios de administración y un servicio oculto VNC para poder controlar dicha maquina.

UNIDADES Y SOPORTES DE SALIDA: Estos dispositivos traducen los bits y bytes aun forma comprensible para el usuario.

Monitores: Una VDT (video display terminal, terminal de despliegue visual) sirve como dispositivo de salida para recibir mensajes del computador. Las imágenes de un monitor se componen de pequeños puntos llamados pixeles (picture elements) o elementos de imagen. La cantidad de ellos que hay por cada pulgada cuadrada determina la definición del monitor que se expresa en puntos por pulgada o dpi (dots per inch). Cuanto más alta es la definición, más cercanos están los puntos.

DISTRIBUCION DE SALIDA: Distribución es la acción y efecto de distribuir (dividir algo entre varias personas, dar a algo el destino conveniente, entregar una mercancía). El término, que procede del latín distributivo, es muy habitual en el comercio para nombrar al reparto de productos.

La distribución, en este caso, es el proceso que consiste en hacer llegar físicamente el producto al consumidor. Para que la distribución sea exitosa, el producto debe estar a disposición del potencial comprador en el momento y en el lugar indicado. Por ejemplo: la distribución de una bebida refrescante debe reforzarse durante el verano ya que aumenta su demanda. En dicha temporada, la bebida tiene que llegar a los centros turísticos y a los destinos de veraneo, entre otros lugares de concentración masiva de gente.

UNIDAD IV (TECNOLOGIA DE HARDWARE)

PROCESASOR: Es el microchip encargado de ejecutar las instrucciones y procesar los datos que son necesarios para todas las funciones del computador. Se puede decir que es el cerebro del computador.

TIPOS:

Page 43: Introduccion al procesamiento de datos e5 unesr

Procesadores dedicados: Para desarrollar una tarea muy especifica. Ejecutando un único algoritmo de forma óptima.

Procesadores de propósito general: Está capacitado para ejecutar una serie de instrucciones sean E/S (entrada/salida), lógicas, aritméticas, etc. Almacenando y listando una colección de instrucciones en una memoria secundaria (programa) de tal forma que el procesador de modo secuencial lleve a cabo cada una de ellas.

CISC: Complex Instruction Set Computing. Posee un número grande y longitud variable de instrucciones, alto porcentaje de ciclos por instrucción, operaciones de microcódigo, baja optimización en el uso de registros.

RISC: Reduced Instruction Set Computing. Posee un número bajo y longitud fija de instrucciones, bajo porcentaje de ciclos por instrucción, no tiene operaciones de microcódigo, muchos registros de propósito general, compilador optimizado. Su arquitectura permite un cierto grado de paralelismo en su ejecución.

Power PC: Diseñados para rendir al igual que los mejores CISC y RISC, pero mejorando sus errores. Tiene un conjunto de instrucciones distinto a estos procesadores, pero puede emular sus características para ejecutar los programas escritos para ellos. Usados en computadores tipo Estaciones de Trabajo y en equipos de medio rango.

SIMD: Single instruction, multiple data. Tiene una organización única de instrucción y datos múltiples. Manipula instrucciones de vector mediante múltiples unidades funcionales que responden a una instrucción común.

Microprocesadores: Son de uso general, requieren dispositivos externos de memoria y de comunicación con el exterior (E/S).

Microcontroladores: Integran memorias y elementos de entrada/salida junto al microprocesador.

ASIC: Application-Specific Integrates Circuits. Integra en un solo chip los elementos analógicos y digitales necesarios para efectuar una determinada función.

DSP: Digital Signal Processors. Procesadores de alta velocidad y poca memoria, muy eficientes para efectuar algoritmos de procesado de la señal.

Procesadores Neuronales, transputers: Están equipados con elementos que facilitan su comunicación de forma que puede distribuirse fácilmente una función entre varios de ellos.

Procesador convencional: Ejecuta las instrucciones en forma de serie es decir, una detrás de otra.

Page 44: Introduccion al procesamiento de datos e5 unesr

Procesador con paralelismo interno: Externamente ejecuta las instrucciones como si fuera un procesador convencional en serie, pero internamente puede efectuar operaciones en paralelo.

Procesador con paralelismo externo: Se presenta en los sistemas que incluyen varios procesadores como los servidores, los mainframes y los supercomputadores.

Multiprocesador: Se acostumbra a usar la arquitectura de multiprocesador con memoria común en los servidores. Cada uno de estos procesadores incluyen una memoria caché de grandes dimensiones para reducir el trafico con la memoria común.

DIRECCIONAMIENTO: son las diferentes maneras de especificar en informática un operando dentro de una instrucción en lenguaje ensamblador.

Un modo de direccionamiento especifica la forma de calcular la dirección de memoria efectiva de un operando mediante el uso de la información contenida en registros y / o constantes, contenida dentro de una instrucción de la máquina o en otra parte.

VELOCIDAD DE PROCESO: La velocidad de procesamiento de una PC es la que el computador responde para dado por el Procesador (P.Ej: 2.4 Ghz) que es el ciclo de reloj otorgado por el procesador (velocidad del CPU) y que además está apoyada por la velocidad del bus de comunicación de la Tarjeta Madre y de los demás componentes internos que permiten el funcionamiento del PC. Esta velocidad es medida en Ghz actualmente dado por procesadores Core Quad Core o I3 i7.

CARACTERISTICAS: El sistema operativo mantiene por cada proceso una serie de estructuras de información que permiten identificar las características de este, así como los recursos que tiene asignados. En esta última categoría entran los descriptores de los segmentos de memoria asignados, los descriptores de los archivos abiertos, los descriptores de los puertos de comunicaciones, etc.

Una parte muy importante de esta información se encuentra normalmente como en el llamado bloque de control de procesos (BCP). El sistema operativo mantiene una tabla de procesos con todos los BCP de los procesos. Por razones de eficiencia, la tabla de procesos se construyen normalmente como una estructura estática, que tiene un determinado número de BCP, todos ellos del mismo tamaño. La información que compone un proceso es la siguiente:

Page 45: Introduccion al procesamiento de datos e5 unesr

Contenido de los segmentos de memoria en los que residen el código y los datos del proceso. A esta información se le denomina imagen de memoria o core image.

Contenido de los registros del modelo de programación. Contenido del BCP.

FUNCIONES ARITMETICO LOGICAS Y DE CONTROL: también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.

Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc.

Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes) puede tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.

Muchos otros circuitos pueden contener en el interior una unidad aritmético lógica: unidades de procesamiento gráfico como las que están en las GPU NVIDIA y AMD, FPU como el viejo coprocesador matemático 80387, y procesadores digitales de señales como los que se encuentran en tarjetas de sonido Sound Blaster, lectoras de CD y los televisores de alta definición. Todos éstos tienen en su interior varias ALU potentes y complejas.

MEMORIA RAM: La memoria de acceso aleatorio (en inglés: random-access memory), se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

MEMORIA ROM: La memoria ROM, (read-only memory) o memoria de sólo lectura, es la memoria que se utiliza para almacenar los programas que ponen

Page 46: Introduccion al procesamiento de datos e5 unesr

en marcha el ordenador y realizan los diagnósticos. La mayoría de los ordenadores tienen una cantidad pequeña de memoria ROM (algunos miles de bytes).

MEMORIA CACHE: Está diseñado especialmente para servir al apropiado y organizado almacenamiento de información en una computadora. Su función es básicamente mantener de manera temporal y accesible aquellos datos que son requeridos para realizar determinadas funciones o tareas. Esta disponibilidad permite que cada programa o archivo tenga inmediato acceso a la información necesaria y pueda así dedicarse a subir el nivel de eficiencia de las funciones normales. De tal modo, la memoria principal cuenta con una gran ayuda que le permite adquirir mayor velocidad de desempeño y mejores resultados por fuera de sus limitadas capacidades.

CAPTURA DE DATOS: La captura y el análisis de los datos de producción es una importantísima fuente de información para todas las empresas. En este caso, se trata de recopilar y valorar todos los datos relativos a personas, pedidos y producción. La integración de esa información procesada en sistemas PPS o ERP supone el conocimiento y transparencia necesarios para la toma de decisiones administrativas en el día a día.

UNIDADES Y SOPORTES DE ENTRADA: Los dispositivos de entrada traducen los datos a una forma que la computadora pueda interpretar, para luego procesarlos y almacenarlos.

Dispositivos manuales

Teclado alfanumérico: El estándar es actualmente el teclado de 101 letras con la distribución QWERTY, 12 teclas de funciones, un teclado o pad numérico, teclas de función y teclas para el control del cursos. Algunos teclados están diseñados para aplicaciones específicas, permitiendo una interacción rápida con los sistemas de computación (v.g.: caja registradora). El teclado es un circuito en forma de matriz; cada circuito está conectado al dispositivo controlador, que reconoce la letra o código que envía el usuario cuando se cierra o abre un circuito. La configuración del teclado puede ser modificado por software.

Dispositivos apuntadores

Ratón: La efectividad de las GUI depende de la capacidad del usuario para hacer una selección rápida de una pantalla con íconos o menúes. En estos casos el mouse puede colocar el apuntador (o cursos gráfico) sobre un ícono con rapidez y eficiencia. Los más comunes tienen una esfera en su parte inferior que puede rodar en un escritorio.

Page 47: Introduccion al procesamiento de datos e5 unesr

Bola rastreadora (trackball) o bola palmar: Es una bola insertada en una pequeña caja que se hace girar con los dedos para mover el curso gráfico.

Palanca de mando (joystick): también llamada palanca de control de juegos. Es una palanca vertical que mueve el cursos gráfico en la dirección en que se mueve la palanca.

Pantalla sensible al tacto (Touch Screen): Sirven cuando hay muchos usuarios no familiarizados con las computadoras. Puede ser sensible al tacto por la presión o por el calor. Son de muy baja velocidad.

Dispositivos ópticos

Lector de marcas o rastreador de marca óptica: Usa la luz reflejada para determinar la ubicación de marcas de lápiz en hojas de respuestas estándar y formularios similares.

Lector de código de barras: Usa la luz para leer UPC (Universal Product Codes, Códigos universales de productos), códigos de inventario y otros códigos creados con patrones de barras de anchura variable. Los códigos de barra representan datos alfanuméricos variando el ancho y la combinación de las líneas verticales adyacentes. La ventaja de los códigos de barras sobre los caracteres es que la posición u orientación del código que se lee no es tan importante para el lector.

Lector de vara (lápiz óptico): Usa luz para leer caracteres alfabéticos y numéricos escritos con un tipo de letra especial, siendo también legible para las personas este tipo de letra; muchas veces estos lectores están conectados a terminales POS (point-of-sale, punto de venta). Cuando se usan de esta forma el computador lleva a cabo un reconocimiento óptico de caracteres (OCR, optical character recognition).

Rastreador de páginas: Rastrea e interpreta los caracteres alfanuméricos de las paginas impresas normales. Se usa para convertir una copia dura a un formato que la máquina puede leer. Este tipo de rastreador puede reducir al mínimo o eliminar la captura de datos mediante el teclado.

Dispositivos magnéticos

MICR (magnetic ink character recognition, reconocimiento de caracteres en tinta magnética) o Lectora de caracteres magnéticos: lee los caracteres impresos con tinta magnética en los cheques. En ellos el número de cuenta y el número de cheque se encuentran codificados; la fecha de la transacción se registra automáticamente para todos los cheques procesados ese día; por tanto, sólo se debe teclear el importe en un inscriptor MICR. Un lector-ordenador MICR lee los datos de los cheques y los ordena para el

Page 48: Introduccion al procesamiento de datos e5 unesr

procesamiento que corresponda. Estos dispositivos de reconocimiento son más rápidos y precisos que los OCR.

Lectora de bandas magnéticas: Las bandas magnéticas del reverso de las tarjetas de crédito, por ejemplo, ofrece otro medio de captura de datos directamente de la fuente (como los dispositivos ópticos). Se codifican las bandas con datos apropiados para la aplicación. Las bandas magnéticas contienen muchos más datos por unidad de espacio que los caracteres impresos o los códigos de barras. Además, dado que no se pueden leer visualmente, son perfectos para almacenar datos confidenciales.

Digitalizadores

Para que un computador pueda reconocer texto manuscritos, primero tiene que digitalizar la información, convertirla en alguna forma digital para poder almacenarla en la memoria del computador. Hay diferentes dispositivos de entrada para capturar y digitalizar información:

Digitalizador de imágenes (scanner): Puede obtener una representación digital de cualquier imagen impresa. Convierte fotografías, dibujos, diagramas y otra información impresa en patrones de bits que pueden almacenarse y manipularse con el soft adecuado

Cámara digital: Es un digitalizador de imágenes que permite tomar fotografías del mundo real y obtener imágenes digitales; es decir que no se limita a capturar imágenes impresas planas, puede registrar las mismas cosas que una cámara normal, sólo que en lugar de registrar las imágenes en película, las cámaras digitales almacenan patrones de bits en discos u otros medios de almacenamiento digital.

Digitalizador de audio: Permite digitalizar sonidos de micrófonos y otros dispositivos de sonido. Para que el computador interprete correctamente la entrada de voz digitalizada como si fueran palabras se requiere software de inteligencia artificial. Una unidad de respuesta auditiva o un sintetizador de vos hace que la conversación sea un diálogo. El reconocimiento del habla funciona de la siguiente manera:

Se dice la palabra. Cuando se habla en un micrófono, cada sonido se divide en sus diversas frecuencias.

Se digitaliza la palabra. Se digitalizan los sonidos de cada palabra de modo que la computadora los pueda manejar.

Se compara la palabra. Se compara la versión digitalizada contra modelos similares del diccionario electrónico de la computadora. El modelo digitalizado es una forma que las computadoras pueden almacenar e interpretar.

Page 49: Introduccion al procesamiento de datos e5 unesr

Se presenta la palabra o se realiza el comando. Cuando se encuentra una igualdad, se presenta en una VDT o se realiza el comando adecuado.

En el reconocimiento del habla, la creación de los datos se conoce como capacitación. La mayor parte de los sistemas de reconocimiento del habla son dependientes del locutor, es decir que responde a la voz de un individuo particular.

La tecnología más reciente permite sistemas independientes del locutor, pero necesitan una base de datos muy grande para aceptar el patrón de voz de cualquier persona.

Digitalizador de vídeo: Es una colección de circuitos que puede capturar entradas de una fuente de vídeo y convertirla en una señal digital que puede almacenarse en la memoria y exhibirse en pantallas de computador. Cuando se pone en operación el sistema, éste compara la imagen digitalizada que se debe interpretar con las imágenes digitalizadas registradas previamente en la base de datos. Estos sistemas de entrada de visión son apropiados para tareas especializadas, en que sólo se encuentran unas cuantas imágenes.

Dispositivos sensores: diseñados para hacer seguimientos de la temperatura, la humedad, l presión y otras cantidades físicas, proporcionan datos útiles en robótica, control ambiental, pronósticos meteorológicos, supervisión médica, biorretroalimentación, investigación científica y cientos de aplicaciones más.

TECNICAS DE VALIDACION Y CONTROL EN LA CAPTURA DE DATOS: Todo sistema de información contiene entradas y salidas, para llegar a tener esos componentes se deben utilizar cierto conocimiento para su diseño. Luego de un arduo levantamiento de información se debe tener muy en claro cuáles son los objetivos de ese diseño y cuáles son los datos a capturar. A la hora de la captura de datos se debe ser muy meticuloso con la validación de los mismos, así, se garantizara al usuario que los datos que está incluyendo son los correctos para ese momento, para realizar un buen proceso y arrojar las salidas necesarias y satisfactorias. Debido a esto el diseño de las salidas también debe ser muy bien estudiado porque no puede arrojar una factura si lo que se espera es un gráfico de barras, o se espera por pantalla y lo envió directamente a impresora. Son aspectos importantísimos que se deben tomar en cuenta en estos casos, al igual de la forma como se van a capturar los datos, ya que hoy en día existen mucha diversidad de componentes que van desde el más remoto, como lo es el teclado, hasta una lectura óptica. Hoy en día los sistemas de información son utilizados a nivel mundial y en cualquier área que uno se pueda imaginar, pero siempre ingresando datos que se procesas y generan unos resultados. Para el desarrollo de esos sistemas de información existen técnicas que se deben utilizar para obtenerlos resultados requeridos. Primeramente se debe conocer la problemática a solucionar y luego hacer todo un levantamiento y análisis de información, para luego hacer

Page 50: Introduccion al procesamiento de datos e5 unesr

un Diseño de Entrada/Salidas al sistema, evaluar los datos a incluir y como va a ser su captura. En esta oportunidad se estudiaran dichos tópicos, y así, lograr un mayor conocimiento sobre ellos y poder dar respuestas acertadas a la hora de que se nos presente la oportunidad de desarrollar un sistema.

Diseño De Entrada: Es el enlace que une al sistema de información con el mundo y sus usuarios, en esta existen aspectos generales que todos los analistas deben tener en cuenta estos son: Objetivos del Diseño de Entrada, Captura de Datos para la Entrada,

Objetivo del Diseño de Entrada: Consiste en el desarrollo de especificaciones y procedimientos para la preparación de datos, la realización de los procesos necesarios para poner los datos de transacción en una forma utilizable para su procesamiento así como la entrada de los datos se logra al instruir a la computadora para que lea ya sea documentos escritos, impresos ó por personas que los escriben directamente al sistema. Existen cinco objetivos que controlan la cantidad de entrada requerida, a enviar los retrasos, controlar los errores y mantener la sencillez de los pasos necesarios, estos son:

Control de la Calidad de Entrada, Evitar los Retrasos, Evitar los errores en los datos, Evitar los pasos adicionales, Mantener la Sencillez del Proceso, Control de la Calidad de Entrada: Existen varias razones por las cuales un buen diseñador debe controlar la cantidad de datos en la entrada: Las Operaciones de preparación y entrada dependen de las personas dado que los costos de mano de obra son altos y la preparación de ingreso de los datos también lo son. La fase de entrada puede ser un proceso lento que toma mucho más tiempo que el que necesitan las computadoras para realizar sus tareas.

Evitar los Retrasos: También conocido con el nombre de cuello de botella son siempre uno de los objetivos que el analista evita al diseñar la entrada, una forma de evitarle es utilizar los documentos de retorno. Evitar los Errores en los Datos: La tasa de errores depende de la cantidad de datos, ya que entre mas pequeña sea esta menores serán las oportunidades para cometer errores. Es común encontrar en las operaciones de ventas por lo menos un 3% de errores en las operaciones de entrada de datos. Evitar los Pasos Adicionales: Algunas veces el volumen de transacciones y la cantidad de datos en preparación es algo que no se puede controlar por ello el analista experimentado, evitara diseños para la entrada que traigan una mayor cantidad de pasos a seguir. Ya sea añadir o quitar pasos cuando se alimenta un proceso muchas veces al transcurso de un día. Mantener la sencillez del Proceso: El sistema mejor diseñado se ajusta a las personas que lo utilizarán y al mismo tiempo proporcionarán métodos para el control de los errores, la simplicidad funciona y es aceptada por cualquier usuario. Cuesta trabajo que los usuarios acepten sistemas complejos o confusos y que no exista ninguna garantía para el éxito al instalar un sistema complejo y que domine. Captura de Datos para la Entrada.

Page 51: Introduccion al procesamiento de datos e5 unesr

En una transacción existen datos importantes y otros que no, el analista debe saber cuales utilizará y cuales en realidad deben formar la entrada. Existen dos tipos de datos: Datos variables, Datos de identificación,

Datos Variables: Son aquellos que cambian para cada transacción o toman de decisión.

Datos de Identificación: Estos son los que identifican en forma única el artículo que esta siendo procesado.

Diseño De Salida: El término " salida" se aplica a cualquier información producida por un sistema, ya sea impresa, desplegada o verbal. Cuando los analistas diseñan la salida, seleccionan métodos para representar la información y crean documentos, informes u otros formatos que contienen información producida por el sistema. Los métodos de salida varían a lo largo de los sistemas. Para algunos, como un informe de inventarios de la cantidad de mercancía, el sistema del computador, bajo el control del programa, nada más consulta los datos que se tienen a mano en el almacenamiento, y los ensambla en una forma que sea presentable. Otra salida puede requerir procesamiento sustancial, antes de que este disponible para utilizarlo. Los analistas deben decidir cuando imprimir, desplegar o presentar su salida en forma audible. La salida impresa puede utilizar papel en blanco o formas preimpresas, la salida visual puede utilizar una o múltiples pantallas para desplegar información.

Los sistemas de información ya sean que se desarrollen sobre sistemas pequeños de escritorio o sobre grandes sistemas, utilizan 3 métodos principales para la salida los cuales se clasifican en: Impresión, Pantalla, Despliegue y audio, Objetivos de la Salida, Expresar la Información Relacionada con Actividades Pasadas, Estado Actual o Proyecciones para el Futuro. Señalar Eventos Importantes, Oportunidades, Problemas ó Advertencia. Iniciar una Acción, Confirmar una Acción. El objetivo principal durante el diseño de salida de la computadora es la información que será presentada a las personas, puede afirmarse que la salida de la computadora es para las personas, es por esto que no se aborda la forma en que los datos se mueven entre los procesos o entre los almacenamientos de datos. Captura de Datos, Teclados, Códigos de Barra, OCR, Formas de Reconocimiento de Marcas, OMR, Teclados, Teclear es el método más viejo de entrada de datos y ciertamente es uno con los que los miembros de la organización están más familiarizados. Durante los años se han hecho algunas mejoras para perfeccionar los teclados. Las características incluyen teclas de función especial para abrir programas, teclas usadas para navegar y explorar en la web y teclas que se pueden programas con macros para reducir el número de tecleos necesarios. Los teclados infrarrojos o habilitados para Bluetooth y los ratones también son grandes avances,

Page 52: Introduccion al procesamiento de datos e5 unesr

PRESENTACION DE LA INFORMACION: La presentación es el proceso mediante el cual dispone de contenido de un tema para una audiencia.

Una presentación es una forma de ofrecer y mostrar información de datos y resultados de una investigación. Es utilizado, generalmente, como apoyo para expresar los resultados de una investigación pues con la presentación se dispone de un contenido multimedia (es decir cualquier apoyo visual o auditivo) que de una referencia sobre el tema y ayude a explicar los datos obtenidos de una investigación. Una presentación puede llevar textos, imágenes, vídeos y archivos de audio. Se puede dividir en dos tipos: la presentación multimedia que es generalmente más utilizada a través de un programa de presentaciones pero que también es posible realizar a través de carteles con imágenes y audio generalmente grabados para su reproducción (utilizado para presentar productos, proyectos, etc.). O la presentación común (ésta solo utiliza imágenes y texto en carteles), una presentación que contiene sólo imágenes, a menudo acompañadas de efectos o texto superpuesto; Lo mismo que ocurre con la presentación multimedia ocurre con este tipo de presentación pues se puede realizar tanto en un programa de presentaciones como a través de carteles de apoyo que ayuden a expresar un tema.

UNIDADES Y SOPORTES DE SALIDA:

Impresora. Sintetizado de voz. Visualizador. Trazador de gráficos o "plotter". Monitor. Microfilm. Instrumentación científica o industrial.

UNIDAD V (SOFWARE GESTION Y PROGRAMACION)

CONCEPTO: Es el equipamiento lógico e intangible de un ordenador. En otras palabras, el concepto de software abarca a todas las aplicaciones informáticas, como los procesadores de textos, las planillas de cálculo y los editores de imágenes.

El software es desarrollado mediante distintos lenguajes de programación, que permiten controlar el comportamiento de una máquina. Estos lenguajes consisten en un conjunto de símbolos y reglas sintácticas y semánticas, que definen el significado de sus elementos y expresiones. Un lenguaje de programación permite a los programadores del software especificar, en forma precisa, sobre qué datos debe operar una computadora.

CLASIFICACION: Se clasifica en 2 partes:

Page 53: Introduccion al procesamiento de datos e5 unesr

SOFTWARE DE SISTEMAS: Son aquellos programas que permiten la administración de la parte física o los recursos de la computadora, es la que interactúa entre el usuario y los componentes hardware del ordenador. Se clasifican el Sistemas Operativos Monousuarios y Multiusuarios.

SOFTWARE DE APLICACION: Son aquellos programas que nos ayudan a tareas especificas como edición de textos, imágenes, cálculos, etc. también conocidos como aplicaciones.

SOFWARE A MEDIDA Y ESTANDAR: El Software a medida se adapta en un todo a la organización, hasta en las particularidades más especiales o únicas que están presentes. En este caso, el software es una fiel automatización de los sistemas de información y operaciones de la empresa, aunque suele suceder que estas particularidades normalmente suelen ser variaciones sobre los estándares que no agregan ningún tipo de valor respecto al estándar.

Estándar: En esta alternativa debemos de diferencias primero de todo 2 tipos de SW estándar: rígidos y parametrizables.

En el SW estándar rígido la organización debe de adaptarse totalmente al estándar. En el SW estándar parametrizable la organización puede configurar el producto para ser un poco más a su medida, aunque esto depende principalmente del nivel de parametrización que permita el software.

En ambos casos este tipo de tecnología automatiza sistemas de información y circuitos administrativos estándares ya definidos por el fabricante.

Una vez definida las dos opciones, vamos a profundizar un poco en el tema. Si bien existe una gran cantidad de variantes entre estos dos extremos, la realidad es que no hay una regla que nos permita identificar la mejor opción para todas las organizaciones. Lo que sí, existen una serie de criterios a seguir, que aplicados a cualquier organización, permiten maximizar la probabilidad de éxito en esta crucial decisión.

Si tenemos en cuenta que el único software que recién desarrollado no falla es el que aún no se ha escrito, deberemos estimar que además de contar con el tiempo necesario para estabilizar el software, tendremos que cargar con los costes de cada error o fallo de esta etapa inicial, como el tiempo invertido en negociaciones intentando redimir si el fallo está incluido o no en el contrato, era lo que había definido inicialmente o es algo añadido.

DOCUMENTO: El documento electrónico debe entenderse como toda expresión en lenguaje natural o convencional y cualquier otra expresión gráfica, sonora o en imagen, recogidas en cualquier tipo de soporte material, incluso los soportes informáticos, con eficacia probatoria o cualquier otro tipo de relevancia jurídica.

Page 54: Introduccion al procesamiento de datos e5 unesr

CRITERIOS Y METODOLOGIAS DE LA SELECCIÓN DEL SOFWARE: Los diseñadores de software tienen interés de trabajar con metodologías lo suficientemente documentadas, que nos faciliten la obtención de información, pero también es interesante trabajar con metodologías que dispongan de algún tipo de certificación y training. Según estas condiciones, hemos determinado seis clasificaciones que permiten seleccionar una metodología, según se encuentran mejor posicionadas, en el acumulado final.

Las clasificaciones son:

La metodología con mayor presencia en Internet.

La metodología mejor documentada.

Metodologías certificadas y con training.

Metodologías con comunidades.

Metodología más utilizada por empresas. Presencia empresarial.

Metodología más utilizada en proyectos software.

Se considera como metodologías certificadas aquellas que emiten un certificado que aseguran el cumplimiento y seguimiento de la metodología, así como sus técnicas y prácticas.

Una metodología dispone de training, si se encuentra alguna institución, organización o compañía que ofrezca formación de la metodología.

Se considera que una metodología tiene comunidad, contemplando si se ha formado una comunidad relevante o si está asociada a la Agile Alliance, soportándola y cumpliendo sus principios.

Se consideran los proyectos realizados, en su mayoría por metodologías que se han aplicado en empresas privadas y por lo tanto no existe mucha documentación pública al respecto. Por lo tanto, determinar esta clasificación, requiere de una búsqueda exhaustiva.

Selección de metodologías

Este aspecto no ha sido tratado de manera adecuada, sobre todo en el ámbito de las metodologías tradicionales, y en el caso de las ágiles no existe un criterio unificado. Por ello, el presente artículo se orienta a la formulación inicial, en base a la información existente a la fecha y a la experiencia personal, a la formulación de dos procedimientos al respecto: selección por criterios de presencia y por conocimiento.

Aplicación del criterio de selección por presencia

Page 55: Introduccion al procesamiento de datos e5 unesr

A un grupo de programadores profesionales en el medio local (10), se le ha aplicado una encuesta, sobre recordación, conocimiento y uso de metodologías, quedando un grupo de 5 metodologías, que se han evaluado, según este criterio de selección.

Para determinar la presencia, de las metodologías en Internet, se han realizado búsquedas en Google, Yahoo y Live. Sobre el resultado, se asignaron 5 puntos al mayor, y 1 punto al menor.

Para determinar las metodologías de mayor documentación, se han considerado como documentos, los Libros en español, Libros en inglés y Papers que hablen sobre la aplicación de la metodología. Siguiendo el mismo método, se asignó 5 puntos al mayor y 1 punto al menor.

En el caso de la Certificación y Training, se ha buscado si hay instituciones que certifican la implementación de la metodología, así como si hay entrenamiento o capacitación en la misma. Como no es posible hacer diferencias en cuanto a la certificación, habiéndose asignado el mismo puntaje a las metodologías que tienen Certificación y Training (5 puntos) y 3 puntos las metodologías que contienen sólo training.

En cuanto a Comunidades, la mayoría pertenece a la Agile alliance, pero hay algunas que tienen sus propias comunidades, alianzas e intensa actividad a su alrededor. A estas metodologías se le asignaron 5 puntos, porque no es posible diferenciar entre estas comunidades el número de miembro. A las metodologías que solo pertenecen a la Agile alliance, se le asignaron 2 puntos.

En cuanto a proyectos de software y presencia empresarial, se han asignado 5 puntos, a la metodología que presenta más proyectos y un punto a la que presenta menos.

Resultado de la aplicación del criterio de selección por presencia

Se ha preparado un cuadro resumen con los resultados de la selección. Para cada metodología evaluada, se ha colocado la puntuación que se ha obtenido de la clasificación. La sumatoria de cada clasificación determina que Scrum, es la metodología que se debería usar, por tener una mejor puntuación.

Selección de metodología, por criterios de conocimientos

En función del grupo de trabajo o de diseño, se consideran los siguientes criterios en función de los conocimientos que el equipo de desarrollo tenga de las metodologías a evaluar. Estos criterios son:

Grado de conocimiento

Soporte orientado a objetos

Page 56: Introduccion al procesamiento de datos e5 unesr

Adaptable a cambios

Basado en casos de uso

Posee documentación adecuada

Facilita la integración entre las etapas de desarrollo

Relación con UML

Permite desarrollo software sobre cualquier tecnología

En función de los conocimientos que el equipo tenga, se establecen los pesos para cada criterio. Por ejemplo, Ríos y Suntaxi [37], en su tesis de grado, proponen la siguiente tablas de pesos:

20% para el Grado de conocimiento

15% para Adaptable a cambios y Posee documentación adecuada

10% para el resto de criterios Para determinar la metodología a usar, Ríos y Suntaxi, han elaborado un cuadro resumen, evaluando las siguientes metodologías:

RUP, Rational Unifi ed Process

MSF, Microsoft Solution Framework

RAD, Rapid Application Development

XP, Extreme Programming

En esta evaluación, la metodología RUP es la que recibe un mayor puntaje por parte del equipo de desarrollo.

INTEGRACION DEL SOFWARE: Una de las fases del ciclo de vida del software es la de integración. Es imprescindible poder integrar los desarrollos de software en forma de productos y soluciones para que puedan ponerse en uso.

Esto exige manejarse en varias disciplinas, no perder de vista el punto de vista del usuario, definición y aplicación de procedimientos con rigor, llevar a cabo gestiones de configuración, etc.

Algunas tareas que suelen realizarse con la integración del software es la creación de paquetes, la creación de distribuciones clásicas o de distribuciones la integración de servicios para entornos de trabajo en grupo, migraciones de sistemas, etc.

Page 57: Introduccion al procesamiento de datos e5 unesr

APLICACIÓN EN LA PYME: Si una pyme decide apostar por un modelo de negocio basado en software libre para diferenciarse se sus competidores y poder mantener una dinámica distinta el primer problema que tendrá será la elección de distintos programas que utilizará para su cometido. Para ello pueden acudir a OpenPyme, catálogo de aplicaciones de software libre especializado en la pyme.

Es un catálogo de Software Libre donde se recopilan, de forma categorizada, productos sólidos y fiables que pueden incorporarse en cualquier ámbito productivo de una empresa, mejorando así su gestión y competitividad gracias a la inclusión de herramientas TIC. Es un buen punto de partida para conocer las alternativas que nos ofrece el software libre.

Disponen de todo tipo de aplicaciones, categorizadas y ordenadas de manera que encontrarlas nos resultará bastante fácil. Junto con cada aplicación tenemos una pequeña reseña de su funcionalidad y lo que nos puede aportar a nuestra empresa. A la vez nos indican los requisitos técnicos para su instalación. Se echa de menos una pequeña reseña de soluciones multidisciplinares. Por ejemplo, una solución que esté incluida en varias categorías que nos indique si además de como CRM servirá para la gestión financiera o como ERP.

SUELDOS: El concepto de sueldo se refiere a la remuneración regular asignada por el desempeño de un cargo o servicio profesional. La palabra tiene su origen en el término latino solĭdus (“sólido”), que era el nombre de una antigua moneda romana.

El término de sueldo suele ser utilizado como sinónimo de salario (del latín salarĭum, relacionado con la “sal”), la remuneración regular o la cantidad de dinero con que se retribuye a los trabajadores por cuenta ajena.

Puede decirse que el empleado recibe un sueldo a cambio de poner su fuerza laboral a disposición del empleador, en el marco de una serie de obligaciones compartidas que rigen su relación contractual.

CONTABILIDAD: Es la ciencia social, que se encarga de estudiar, medir y analizar el patrimonio de las organizaciones, empresas e individuos, con el fin de servir en la toma de decisiones y control, presentando la información,

Page 58: Introduccion al procesamiento de datos e5 unesr

previamente registrada, de manera sistemática y útil para las distintas partes interesadas. Posee además una técnica que produce sistemáticamente y estructuradamente información cuantitativa y valiosa, expresada en unidades monetarias acerca de las transacciones que efectúan las entidades económicas y de ciertos eventos económicos identificables y cuantificables que la afectan, con la finalidad de facilitarla a los diversos públicos interesados.

La finalidad de la contabilidad es suministrar información en un momento dado y de los resultados obtenidos durante un período de tiempo, que resulta de utilidad a los usuarios en la toma de sus decisiones, tanto para el control de la gestión pasada, como para las estimaciones de los resultados futuros, dotando tales decisiones de racionalidad y eficiencia.

STOCK: Es una voz inglesa que se usa en español con el sentido de existencias. En el lenguaje comercial y financiero su empleo como anglicismo es frecuente, y por ello la RAE recomienda evitarlo y utilizar las voces en español correspondientes a cada contexto. Se puede definir también como: todo lo referente a los bienes que una persona u organización posee y que sirven para la realización de sus objetivos.

CUENTAS CORRIENTES: La cuenta corriente es un contrato entre un banco y un cliente que establece que la entidad cumplirá las órdenes de pago de la persona de acuerdo a la cantidad de dinero que haya depositado o al crédito que haya acordado. Dicha cuenta puede ser abierta y administrada por una persona o por un grupo de personas; en este último caso, según las condiciones, todos los individuos pueden estar habilitados para operar.

El propietario de una cuenta corriente puede disponer del dinero a través de un cajero automático, la ventanilla de caja o algún tipo de talonario (como un cheque). Es posible realizar descuentos de efectos, vincular pagos a la cuenta y cobrar o pagar intereses o impuestos.

MODALIDADES DE LAS LICENCIAS DEL SOFWARE:

MODALIDADES DE ADQUISICION DEL SOFWARE FORMAS DE ADQUISICION

LICENCIA DE SOFWARE: Una licencia de software es un permiso que se le otorga a un individuo o grupo, para el uso de una pieza de software. La licencia tiene un costo asociado y el software está sujeto a derechos de autor. “NOTA” software se adquiere totalmente desarrollado y se utiliza exactamente como fue escrito.

2. FORMAS DE ADQUISICION: SHAREWARE Se refiere a programas sujetos a derechos de autor que se distribuyen originalmente sin cargo, pero cuyo uso regular requiere el pago de una tarifa al autor. El cancelar, el usuario queda registrado y puede recibir asistencia y actualizaciones. Se puede copiar y

Page 59: Introduccion al procesamiento de datos e5 unesr

distribuir el shareware, pero se espera a que cada usuario pague la tarifa si usa regularmente el producto.“NOTA” software que se adquiere totalmente desarrollado y se utiliza exactamente como fue escrito.

3. FORMAS DE ADQUISICION: FREEWARE. Se refiere a programas protegidos por derechos de autor, pero liberados por el autor para su uso gratuito. El freeware está disponible sin costo, pero el usuario solo puede utilizarlo en las formas expresamente permitidas por el autor. Generalmente, se permite el uso pero no la reproducción con fines comerciales. “NOTA” software que se adquiere totalmente desarrollado y se utiliza exactamente como fue escrito.

4. FORMAS DE ADQUISICION: SOFWARE DE DOMINIO PÚBLICO. Se refiere a cualquier programa que no está sujeto a derechos de autor. Este software es gratuito y se puede usar sin restricciones. En la mayoría de los casos, el software de dominio público se publica en internet, por lo que los usuarios pueden obtenerlo fácilmente. VENTAJAS: Con algunas modificaciones, el usuario obtiene los resultados específicos que requiere. DESVENTAJAS: no siempre se encuentra una opción valida en el mercado. No siempre se logra una adaptación completa. Puede crear dependencia del desarrollo. “NOTA” software se adquiere totalmente desarrollado y se modifica para adaptarlo a las necesidades específicas del usuario.

5. FORMAS DE ADQUSICION: LICENCIA O VENTA DEL SOFWARE. Las condiciones de adquisición de este tipo de software incluyen la posibilidad de aplicarle las modificaciones necesarias al programa original .Estos cambios pueden estar a cargo del usuario o del desarrollador, según el convenio que establezca. VENTAJAS: el programa hace exactamente lo que el usuario necesita. DESVENTAJAS: tiene costo relativamente elevado. Toma más tiempo obtener el programa. “NOTA” software que se desarrolla completamente bajo las especificaciones del usuario.

PROTECCION LEGAL DEL SOFWARE: La protección de la propiedad intelectual en el mercado mundial ha tomado reciente significación en los recientes años. Los propietarios de tecnología del mundo desarrollado, particularmente los estadounidenses, han presionado recientemente para obtener un régimen legal de propiedad intelectual fuerte y relativamente uniforme, como piedra de toque para obtener un tratamiento equitativo en el sistema global del comercio que emerge.

Por otro lado, la posibilidad de incorporar a la protección jurídica estos programas de computo en el ámbito del derecho, específicamente en el de la propiedad intelectual y particularmente en las normas autorales, viene dictada por consideraciones de oportunidad, dada la dimensión económica de los intereses en juego entre los que cabe destacar: la posible conservación de la industria nacional frente a una fuerte concurrencia extranjera, la protección de

Page 60: Introduccion al procesamiento de datos e5 unesr

un producto cuya elaboración requiere un gran esfuerzo de inversión, investigación y posterior difusión, y sobre todo, la evidente necesidad de una harmonización internacional de reglamentaciones.

En la práctica jurídica internacional, la evolución de la materia no es específica. Se puede comprobar, como en un principio, los programas de computadora fueron objeto de protección a través de diversas formulas como el secreto industrial, las cláusulas de confidencialidad en los contratos y la competencia desleal, pero pronto se puso de manifiesto su insuficiencia, y los medios profesionales interesados solicitaron una regulación que les asegurara la propiedad y la protección derivada de la misma.

LENGUAJE: es un lenguaje usado por, o asociado con, ordenadores. Muchas veces, este término es usado como sinónimo de lenguaje de programación, pero un lenguaje informático no tiene por qué ser un lenguaje de programación.

Como ejemplo un lenguaje de marcas como el HTML no es un lenguaje de programación, pero sí es un lenguaje informático.

En general, como cualquier otro lenguaje, un lenguaje de ordenador es creado cuando hay que transmitir una información de algo a alguien basado en computadora.

El lenguaje de programación es el medio que utilizan los programadores para crear un programa de ordenador; un lenguaje de marcas es el medio para describir a un ordenador el formato o la estructura de un documento; etc.

CLASIFICAION: Los Lenguajes informáticos pueden ser clasificados en varias clases, entre las que se incluyen las siguientes.

Lenguaje de programación Lenguaje de especificación Lenguaje de consulta, como SQL o XQuery Lenguaje de marcas, como XML y otros más ligeros Lenguaje de transformación, como XSLT Protocolo de comunicaciones, como http,ftp Lenguaje de sonido, para crear sonidos, Lenguaje gráfico, para crear figuras y dibujos. Metapost, Pseudocódigo

LENGUAJE DE MAQUINA DE BAJO Y ALTO NIVEL:

Bajo Nivel: Es el que proporciona un conjunto de instrucciones aritmeticológicas sin la capacidad de encapsular dichas instrucciones en funciones que no estén ya contempladas en la arquitectura del hardware.

Page 61: Introduccion al procesamiento de datos e5 unesr

Alto Nivel: Se caracteriza por expresar los algoritmos de una manera adecuada a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las máquinas.

LENGUAJE DE CUARTA Y QUINTA GENERACION:

De Cuarta: Son lenguajes que se relacionan menos con procedimientos y que son aun mas parecidos al ingles que los lenguajes de tercera generación.

•Algunas características incluyen capacidades de consulta y base de datos, de creación de códigos y capacidades gráficas.

Ejemplos Visual C++, Visual Basic, Power Builder, Delphi, Forte y muchos otros.

•Lenguajes de consulta son utilizados para hacer preguntas ala computadora con frases parecidas alas de un idioma, ejemplo el inglés.

•Lenguaje de consulta estructurado. Lenguaje estándar que a menudo se usa para realizar consultas y manipulaciones ala base de datos.

De Quinta: Alrededor de la mitad 1998 surgieron gripos de herramientas de lenguajes de quinta generación, los cuales combinan la creación de códigos basadas en reglas, la administración de reutilización y otros avances.

Programación basada en conocimiento. Método para el desarrollo de programas de computación en el que se le ordena ala computadora realizar un propósito en vez de instruirla para hacerlo.

CARACTERISTICAS:

De Cuarta: término 4GL fue utilizado por primera vez en el libro Applications Development Without Programmers de James Martin en 1982, para referirse a los lenguajes de alto nivel no procedimentales.

Los primeros lenguajes que podrían llamarse "iniciadores primitivos" de la categoría 4GL son el RPG de IBM del año 1960, el Informatics MARK-IV de 1967 y el MAPPER de Sperry de 1969.

Los lenguajes 4GL fueron evolucionando junto con el hardware y los sistemas operativos. Aquellos lenguajes que tienen incorporado una interfaz de desarrollo y un sistema de base de datos, constituyen claros ejemplos de la cuarta generación de lenguajes de programación.

De Quinta: Lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del

Page 62: Introduccion al procesamiento de datos e5 unesr

japonés al inglés, por ejemplo). El proyecto duró diez años, pero no obtuvo los resultados esperados.

PROGRAMACION: programación es la acción y efecto de programar. Este verbo tiene varios usos: se refiere a idear y ordenar las acciones que se realizarán en el marco de un proyecto; al anuncio de las partes que componen un acto o espectáculo; a la preparación de máquinas para cumplan con una cierta tarea en un momento determinado; a la elaboración de programas para la resolución de problemas mediante computadoras; y a la preparación de los datos necesarios para obtener una solución de un problema a través de una calculadora electrónica, por ejemplo.

En la actualidad, la noción de programación se encuentra muy asociada a la programación en informática. Este es el proceso por el cual un programador escribe, en un lenguaje de programación, el código fuente de un software. Este código le indicará al programa informático qué tiene que hacer y cómo realizarlo.

El programador se encarga de escribir, probar, depurar y mantener el código fuente. En este sentido, los modelos de desarrollo de software se enmarcan en una disciplina de la informática conocida como ingeniería de software.

METODO DE CICLO DE VIDA: El término ciclo de vida del software describe el desarrollo de software, desde la fase inicial hasta la fase final. El propósito de este programa es definir las distintas fases intermedias que se requieren para validar el desarrollo de la aplicación, es decir, para garantizar que el software cumpla los requisitos para la aplicación y verificación de los procedimientos de desarrollo: se asegura de que los métodos utilizados son apropiados.

Estos programas se originan en el hecho de que es muy costoso rectificar los errores que se detectan tarde dentro de la fase de implementación. El ciclo de vida permite que los errores se detecten lo antes posible y por lo tanto, permite a los desarrolladores concentrarse en la calidad del software, en los plazos de implementación y en los costos asociados.

El ciclo de vida básico de un software consta de los siguientes procedimientos:

•Definición de objetivos: definir el resultado del proyecto y su papel en la estrategia global.

•Análisis de los requisitos y su viabilidad: recopilar, examinar y formular los requisitos del cliente y examinar cualquier restricción que se pueda aplicar.

•Diseño general: requisitos generales de la arquitectura de la aplicación.

•Diseño en detalle: definición precisa de cada subconjunto de la aplicación.

Page 63: Introduccion al procesamiento de datos e5 unesr

•Programación (programación e implementación): es la implementación de un lenguaje de programación para crear las funciones definidas durante la etapa de diseño.

•Prueba de unidad: prueba individual de cada subconjunto de la aplicación para garantizar que se implementaron de acuerdo con las especificaciones.

•Integración: para garantizar que los diferentes módulos se integren con la aplicación. Éste es el propósito de la prueba de integración que está cuidadosamente documentada.

•Prueba beta (o validación), para garantizar que el software cumple con las especificaciones originales.

•Documentación: sirve para documentar información necesaria para los usuarios del software y para desarrollos futuros.

•Implementación

•Mantenimiento: para todos los procedimientos correctivos (mantenimiento correctivo) y las actualizaciones secundarias del software (mantenimiento continuo).

El orden y la presencia de cada uno de estos procedimientos en el ciclo de vida de una aplicación dependen del tipo de modelo de ciclo de vida acordado entre el cliente y el equipo de desarrolladores.

Modelos de ciclo de vida

Para facilitar una metodología común entre el cliente y la compañía de software, los modelos de ciclo de vida se han actualizado para reflejar las etapas de desarrollo involucradas y la documentación requerida, de manera que cada etapa se valide antes de continuar con la siguiente etapa. Al final de cada etapa se arreglan las revisiones de manera que (texto faltante).

COPILADORES: es un programa informático que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz de interpretar. Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede ser un código intermedio (bytecode), o simplemente texto. Este proceso de traducción se conoce como compilación.

Un compilador es un programa que permite traducir el código fuente de un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior (típicamente lenguaje de máquina). De esta manera un programador puede diseñar un programa en un lenguaje mucho más cercano a como piensa un ser humano, para luego compilarlo a un programa más manejable por una computadora.

Page 64: Introduccion al procesamiento de datos e5 unesr

HERRAMIENTAS DE PROGRAMACION: son aquellas que permiten realizar aplicativos, programas, rutinas, utilitarios y sistemas para que la parte física del computador u ordenador, funcione y pueda producir resultados.

Hoy dia existen múltiples herramientas de programación en el mercado, tanto para analistas expertos como para analistas inexpertos.

Las herramientas de programación más comunes del mercado, cuentan hoy dia con programas de depuración o debugger, que son utilitarios que nos permiten detectar los posibles errores en tiempo de ejecución o corrida de rutinas y programas.

Muchas herramientas de software que manipulan programas fuente realizan primero algún tipo de análisis. Algunos ejemplos de tales herramientas son:

•1. Editores de estructuras: Un editor de estructuras toma como entrada una secuencia de órdenes para construir un programa fuente. El editor de estructuras no sólo realiza las funciones de creación y modificación de textos de un editor de textos ordinario, sino que también analiza el texto del programa, imponiendo al programa fuente una estructura jerárquica apropiada. De esa manera, el editor de estructuras puede realizar tareas adicionales útiles para la preparación de programas. Por ejemplo, puede comprobar si la entrada está formada correctamente, puede proporcionar palabras clave de manera automática (por ejemplo, cuando el usuario escribe while, el editor proporciona el correspondiente do y le recuerda al usuario que entre las dos palabras debe ir un condicional) y puede saltar desde un begin o un paréntesis izquierdo hasta su correspondiente o paréntesis derecho. Además, la salida de tal editor suele ser similar a la salida de la fase de análisis de un compilador.

•2. Impresoras estéticas: Una impresora estética analiza un programa y lo imprime de forma que la estructura del programa resulte claramente visible. Por ejemplo, los comentarios pueden aparecer con un tipo de letra especial, y las proposiciones pueden aparecer con una indentación proporcional a la profundidad de su anidamiento en la organización jerárquica de las proposiciones.

•3. Verificadores estáticos: Un verificador estático lee un programa, lo analiza e intenta descubrir errores potenciales sin ejecutar el programa. La parte de análisis a menudo es similar a la que se encuentra en los compiladores de optimización. Así, un verificador estático puede detectar si hay partes de un programa que nunca se podrán ejecutar o si cierta variable se usa antes de ser definida. Además, puede detectar errores de lógica, como intentar utilizar una variable real como apuntador, empleando las técnicas de verificación de tipos.

Page 65: Introduccion al procesamiento de datos e5 unesr

•4. Intérpretes: En lugar de producir un programa objeto como resultado de una traducción, un intérprete realiza las operaciones que implica el programa fuente. Para una proposición de asignación, por ejemplo, un intérprete podría construir un árbol como el de la figura 1 y después efectuar las operaciones de los nodos conforme “recorre” el árbol. En la raíz descubriría que tiene que realizar una asignación, y llamaría a una rutina para evaluar la expresión de la derecha y después almacenaría el valor resultante en la localidad de memoria asociada con la identificadora posición. En el hijo derecho de la raíz, la rutina descubriría que tiene que calcular la suma de dos expresiones. Se llamaría a sí misma de manera recursiva para calcular el valor de la expresión velocidad*60. Después sumaría ese valor de la variable inicial. Muchas veces los intérpretes se usan para ejecutar lenguajes de órdenes, pues cada operador que se ejecuta en un lenguaje de órdenes suele ser una invocación de una rutina compleja, como un editor o un compilador. Del mismo modo algunos lenguajes de “muy alto nivel”, normalmente son interpretados, porque hay muchas cosas sobre los datos, como el tamaño y la forma de las matrices, que no se pueden deducir en el momento de la compilación.

•5. Compiladores: Tradicionalmente, se concibe un compilador como un programa que traduce un programa fuente, como FORTRAN, al lenguaje ensamblador o de máquina de algún computador. Sin embargo, hay lugares, al parecer, no relacionados donde la tecnología de los compiladores se usa con regularidad. La parte de análisis de cada uno de los siguientes ejemplos es parecida a la de un compilador convencional.

a) Formadores de textos. Un formador de textos toma como entrada una cadena de caracteres, la mayor parte de la cual es texto para componer, pero alguna incluye órdenes para indicar párrafos, figuras o estructuras matemáticas, como subíndices o superíndices.

b) Compiladores de circuitos de silicio. Un compilador de circuitos de silicio tiene un lenguaje fuente similar o idéntico a un lenguaje de programación convencional. Sin embargo las variables del lenguaje no representan localidades de memoria, sino señales lógicas (0 o 1) o grupos de señales en un circuito de conmutación. La salida es el diseño de un circuito en un lenguaje apropiado.

c) Intérpretes de consultas. Un intérprete de consultas traduce un predicado que contiene operadores relacionales y boléanos a órdenes para buscar en una base de datos registros que satisfagan ese predicado.

UNIDAD VI

INTRODUCCION A LA COMUNICACIÓN DE DATOS: Es el proceso de comunicar información en forma binaria entre dos o más puntos. Requiere cuatro elementos básicos que son:

Page 66: Introduccion al procesamiento de datos e5 unesr

Emisor: Dispositivo que transmite los datos

Mensaje: lo conforman los datos a ser transmitidos Medio: consiste en el recorrido de los datos desde el origen hasta su

destino

MEDIOS DE TRANSMISION: Constituye el canal que permite la transmisión de información entre dos terminales en un sistema de transmisión. Las transmisiones se realizan habitualmente empleando ondas electromagnéticas que se propagan a través del canal 1.

A veces el canal es un medio físico y otras veces no, ya que las ondas electromagnéticas son susceptibles de ser transmitidas por el vacío.

PROTOCOLO DE COMUNICACIONES: Es el conjunto de reglas normalizadas para la representación, señalización, autenticación y detección de errores necesario para enviar información a través de un canal de comunicación. Un ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación por voz es el caso de un locutor de radio hablando a sus radioyentes.

Los protocolos de comunicación para la comunicación digital por redes de computadoras tienen características destinadas a asegurar un intercambio de datos fiable a través de un canal de comunicación imperfecto. Los protocolos de comunicación siguen ciertas reglas para que el sistema funcione apropiadamente.

REDES DE COMUNICACIÓN DE DATOS LAN: Una red de área local (LAN) es una red de computadoras de cualquier variedad que están, ubicadas relativamente cerca una de otra y conectadas por un cable contiguo (o por enlace inalámbrico). .Una LAN puede consistir de solo dos o tres computadoras interconectadas para compartir recursos, o puede incluir cientos de ellas. Cualquier red que resida dentro de una sola edificación e incluso dentro de un grupo de edificaciones contiguas, se considera una LAN.

Una LAN permite a todas las computadoras conectadas a ella compartir el hardware, software e informaciones. Los recursos mas a menudo compartidos son los dispositivos de discos de almacenamiento e impresoras.

ARQUITECTURAS DE REDES LOCALES: La arquitectura de red es el medio más efectivo en cuanto a costos para desarrollar e implementar un conjunto coordinado de productos que se puedan interconectar. La arquitectura es el “plan” con el que se conectan los protocolos y otros programas de software. Estos es benéfico tanto para los usuarios de la red como para los proveedores de hardware y software.

Page 67: Introduccion al procesamiento de datos e5 unesr

COMUNICACIONES PARA TENER VENTAJAS COMPETITIVAS: Un Sistema de Información estratégico puede ser considerado como el uso de la tecnología de la información para soportar o dar forma a la estrategia competitiva de la organización, a su plan para incrementar o mantener la ventaja competitiva o bien reducir la ventaja de sus rivales.

Su función primordial no es apoyar la automatización de los procesos operativos ni proporcionar información para apoyar a la toma de decisiones . Sin embargo, este tipo de sistemas puede llevar a cabo dichas funciones.

Suelen desarrollarse dentro de la organización (in house), por lo tanto no pueden adaptarse fácilmente a paquetes disponibles en el mercado.

Su función es lograr ventajas que los competidores no posean, tales como ventajas en costos y servicios diferenciados con clientes y proveedores. Apoyan el proceso de innovación de productos dentro de la empresa

Beneficios del Sistema de Información Estratégicos:

CORREO ELECTRONICO: Es un servicio de red que permite a los usuarios enviar y recibir mensajes y archivos rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. Principalmente se usa este nombre para denominar al sistema que provee este servicio en Internet, mediante el protocolo SMTP, aunque por extensión también puede verse aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de documentos digitales. Su eficiencia, conveniencia y bajo coste están logrando que el correo electrónico desplace al correo ordinario para muchos usos habituales.

CORREO DE VOZ: Es un sistema centralizado de manejo de mensajes telefónicos para un gran grupo de personas. Permite a los usuarios recibir,

Page 68: Introduccion al procesamiento de datos e5 unesr

almacenar y gestionar mensajes de voz de las personas que le llaman cuando se encuentra ausente o con la línea ocupada.

Los buzones de voz se han convertido en una funcionalidad siempre presente en los sistemas telefónicos de casi todas las compañías. Están disponibles en sistemas de telefonía fija, móvil y en aplicaciones de software como Asterisk o FreeSWITCH.

VIDEO CONFERENCIA: Es la comunicación simultánea bidireccional de audio y vídeo, permitiendo mantener reuniones con grupos de personas situadas en lugares alejados entre sí. Adicionalmente, pueden ofrecerse facilidades telemáticas o de otro tipo como el intercambio de gráficos, imágenes fijas, transmisión de ficheros desde el ordenador, etc.

El núcleo tecnológico usado en un sistema de videoconferencia es la compresión digital de los flujos de audio y vídeo en tiempo real. Su implementación proporciona importantes beneficios, como el trabajo colaborativo entre personas geográficamente distantes y una mayor integración entre grupos de trabajo.

INTERCAMBIO ELECTRONICO DE DATOS: No es otra cosa que la homogenización de estructuras diversas para datos idénticos manejados por lenguajes informáticos distintos, persiguiendo un estándar genérico que permita realizar transacciones con el mínimo error, a la mayor velocidad, con el menor costo, y en forma transparente para cualquier integrante de una cadena de negocios, o grupo de entidades afines.

En una mirada retrospectiva, encontramos una lenta evolución en el progreso de su implementación. Costos iniciales significativos y variedad de estándares en el mundo, atentaron contra su desarrollo, pese a la indiscutible necesidad de agregar valor a los negocios por este medio.

Nacido particularmente para rubros específicos (banca, transporte, automotrices, etc.), hoy se extiende aguas abajo de las grandes corporaciones merced a dos grandes pilares que devinieron en el tiempo: las mejoras en las comunicaciones y la aparición de la red Internet.

Estadísticas realizadas indican en casos reales y pruebas piloto, mejoras de diez a uno en procesos típicos como compras, reducciones de stocks, servicio al cliente, etc.

Técnicamente, su funcionamiento se basa en las VAN, unidades informáticas que reciben en paquetes de datos estandarizados las informaciones que sus clientes quieren intercambiar. Actúan semejantes a un correo electrónico, agregando encriptación, seguridad y confidencialidad a los envíos, como también, implementación de software de base para las interfaces internas de cada uno.

Page 69: Introduccion al procesamiento de datos e5 unesr

TRANSFERENCIA ELECTRONICA DE FONDOS: Permiten enviar dinero a través de medios electrónicos a una cuenta de cheques o tarjeta de débito en cualesquiera de las instituciones bancarias ubicadas dentro del territorio nacional. Algunas instituciones ofrecen la posibilidad de realizar pagos y depósitos en forma programada, es decir a través del banco por Internet, se pueden programar los pagos ya sea 24 o 48 hrs. antes. Hay que tomar en cuenta que para poder realizar esta transacción es necesario contar con la CLABE del beneficiario.

Para hacer la transferencia (depósito) es necesario que seas cuentahabiente del banco y la operación la puedes hacer a través de:

•Internet. En este caso, también deberás proporcionar la CLABE del destinatario. El banco realizará el cargo por el importe enviado más la comisión correspondiente.

PROCESO DISTRIBUIDO: Es una forma de proceso en la que los datos y las funciones están distribuidos en los distintos elementos de una configuración o sistema que implica la presencia de una red de área local o una red de área amplia.

CLIENTE SERVIDOR: En una red cliente/servidor existen dos tipos de equipos: clientes y servidores. Véase, en la siguiente figura, el ejemplo de una red cliente/servidor compuesta por tres equipos cliente y un equipo servidor, el cual permite compartir un escáner y una impresora.

Page 70: Introduccion al procesamiento de datos e5 unesr

Las estaciones de trabajo son equipos clientes que pueden emplear los usuarios de una red para solicitar información (datos) y servicios (impresión de documentos, transferencia de ficheros, correo electrónico) a los equipos servidores.

INTERNET: Es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

HISTORIA: Internet se inició en torno al año 1969, cuando el Departamento de Defensa de los EE.UU desarrolló ARPANET, una red de ordenadores creada durante la Guerra Fría cuyo objetivo era eliminar la dependencia de un Ordenador Central, y así hacer mucho menos vulnerables las comunicaciones militares norteamericanas.

Tanto el protocolo de Internet como el de Control de Transmisión fueron desarrollados a partir de 1973, también por el departamento de Defensa norteamericano.

Cuando en los años 1980 la red dejó de tener interés militar, pasó a otras agencias que ven en ella interés científico. En Europa las redes aparecieron en los años 1980, vinculadas siempre a entornos académicos, universitarios. En 1989 se desarrolló el World Wide Web (www) para el Consejo Europeo de Investigación Nuclear. En España no fue hasta 1985 cuando el Ministerio de Educación y Ciencia elaboró el proyecto IRIS para conectar entre sí todas las universidades españolas.

Las principales características “positivas” de Internet es que ofrece información actualizada, inmediatez a la hora de publicar información, una información personalizada, información interactiva e información donde no hay límites ni de espacio ni de tiempo.

Pero para navegar por la red de redes, por internet, hay que tener en cuenta también otras muchas cosas, o estar al menos al tanto de ellas para no caer en las muchas trampas que están tendidas por la red. Por ejemplo:

1) La autoría de la información: siempre hay que desconfiar de la información que no tiene autor. En este sentido, a la hora de utilizar información, optemos por las que estén avaladas por el prestigio y reconocimiento tanto del medio como de los autores que en él intervienen.

2) La caducidad de la información: La fecha de la fuente es esencial, pues así sabemos su actualidad. Hay que desconfiar de toda información ofrecida por internet que no disponga de fecha.

Page 71: Introduccion al procesamiento de datos e5 unesr

3) “Internet profunda”: desconocemos todo lo que ofrece internet. Es lo que se llama Internet oculta, profunda o infranet. Hay que optar por “buscadores” que busquen el valor cualitativo y no cuantitativo. En este sentido hay algunos ejemplos de buscadores como Luxmark, About, Aks Gits, que permiten hacer preguntas.

4) Información/conocimiento: Toda información sin análisis, sin gestionar..., puede incluso causar desinformación. Nunca hay que confundir información con conocimiento. El conocimiento permite desbrozar la información que se nos ofrece, “navegar” con seguridad y dirección por entre los océanos de información que realmente inunda la red, muchísimas veces con datos erróneos o irrelevantes

5) El “ruido” documental o informativo: Al iniciar una búsqueda en internet se nos ofrece una cantidad de páginas imposibles de asimilar. A eso se le llama “ruido”, es decir, al exceso de información no jerarquizada habitualmente por la calidad de los contenidos, sino tan sólo por el número de consultas realizadas. La única fiabilidad a la que podemos agarrarnos con seguridad para no naufragar en el exceso de información, es el conocimiento, el propio conocimiento o el ajeno, fiándonos en este caso del prestigio de la fuente de información.

REQUISITOS: Para conectarse a Internet se requiere que su Computadora (PC) cumpla con ciertos requisitos pero como un mínimo las siguientes especificaciones:

Procesador 486, con 16 o 32 megabytes (MB) de memoria en RAM y un disco duro de al menos 1GB (un gigabyte) de capacidad. Sin embargo, en la medida en que el usuario vaya apreciando los servicios que le ofrece internet, querrá disponer de mas espacio de disco; por lo tanto, es aconsejable que adquiera, desde un principio, uno de 3.0 a 4.0GB de capacidad. Nuestra recomendación es una maquina con un procesador con velocidad de 166mhz y 32 de Memoria en RAM

Módem. Buena parte de las Computadoras que se venden hoy en día tienen incluido un módem interno; si no es así, se puede adquirir en el comercio local que mediante un cable se conecta a uno de los puertos de su computadora. Su velocidad se mide por la cantidad de bits de información que puede transferir cada segundo (bps). Hoy en día se ofrecen módems 36.600 o 56.000 bps a un precio que es directamente proporcional a la velocidad que alcanzan. Esto significa que, entre mas rápida sea la transmisión de los datos, mejor será su conexión a internet. Sin embargo, la velocidad a la que su computadora puede enviar y recibir datos, no solamente depende del modém, sino también de la calidad de la línea telefónica y de la cantidad de gente que esté conectada a la red de su proveedor mas el trafico (flujo de datos o información) en internet al mismo tiempo.

Page 72: Introduccion al procesamiento de datos e5 unesr

Línea telefónica Una línea telefónica común servirá para establecer una conexión tipo DUN (Dial Up Network) del Ingles: Red de Marcado o mas conocida como red de acceso telefónico, esta debe de estar en buen estado y sin ruido para un flujo optimo.

Proveedor de acceso. El costo de este servicio ha venido en un descenso paulatino. Los primeros proveedores que tuvo el mercado cobraban tarifas de inscripción y mensualidades que estaban lejos del alcance del bolsillo promedio.

El servicio de Internet tiene un costo representado en las cuentas de cobro que el proveedor de acceso y la empresa de teléfonos le pasan mensualmente al usuario. Normalmente los primeros pagos por el uso del teléfono (la cuota del proveedor es fija) sobrepasan los cálculos más optimistas del 'navegante'. Porqué? La novedad de esta herramienta y el desconocimiento de su funcionamiento hacen que inicialmente su uso se prolongue durante varias horas a la semana.

LOS USUARIOS: Es aquél que usa algo» o «que usa ordinariamente algo. Esto se opone a los conceptos de web semántica, web 2.0 y 3.0, trabajo colaborativo, ya que la realidad actual prima a los ciudadanos como emisores y no solo como receptores que «usan» los medios.

Es preferible, por tanto, hablar de actores, sujetos, ciudadanos, etc. para referirse a las personas que interactúan en las redes digitales. En informática este término se utiliza con especial relevancia.

E-MAIL: Es un servicio muy utilizado en internet, que permite el intercambio de mensajes entre usuarios.

En sus orígenes, los e-mails eran enviados directamente desde un usuario a una computadora, lo que requería que ambas computadoras estén online al mismo tiempo. Luego se crearon los servidores de email que aceptan, renvían, entregan y almacenan mensajes. De esta manera los usuarios no deben estar online de forma simultánea.

WWW: Es básicamente un medio de comunicación de texto, gráficos y otros objetos multimedia a través de Internet, es decir, la web es un sistema de hipertexto que utiliza Internet como su mecanismo de transporte o desde otro punto de vista, una forma gráfica de explorar Internet.

FTP: Siglas de File Transfer Protocol. Método muy común para transferir uno o más ficheros de un ordenador a otro. FTP es un medio específico de conexión de un Sitio web para cargar y descargar ficheros. FTP fue desarrollado durante los comienzos de Internet para copiar ficheros de un ordenador a otro. Con la

Page 73: Introduccion al procesamiento de datos e5 unesr

llegada del World Wide Web, y de los navegadores, ya no se necesitan conocer sus complejos comandos; se puede utilizar FTP escribiendo el URL en la barra de localización que se encuentra en la parte superior de la pantalla del navegador. Por ejemplo, al escribir ftp://nombre.del.sitio/carpeta/nombredelfichero.zip se transfiere el fichero nombredelfichero.zip al disco duro del ordenador. Al escribir ftp://nombre.del.sitio/carpeta/ da una lista con todos los ficheros disponibles en esa carpeta.

Cuando un navegador no está equipado con la función FTP, o si se quiere cargar ficheros en un ordenador remoto, se necesitará utilizar un programa cliente FTP. Para utilizar el FTP, se necesita conocer el nombre del fichero, el ordenador en que reside y la carpeta en la que se encuentra. La mayoría de los ficheros están disponibles a través de "FTP Anonymous", lo que significa que se puede entrar en el ordenador con el nombre de usuario "anónimo" y utilizar la dirección de correo electrónico propia como contraseña.

USENET: Es uno de los sistemas de comunicaciones más antiguos. Permite a cualquier persona, intercambiar mensajes en foros públicos, generalmente relacionados a un tema específico (determinado por el grupo donde se publican-leen los mensajes).

Cuando un usuario se suscribe a un grupo de noticias, la aplicación cliente de noticias se encarga de descargar todos los mensajes disponibles en un servidor y los ordena. Cada servidor determina el tiempo que durará un mensaje almacenado.

Actualmente los grupos de noticias de usenet no sólo se usan para intercambiar texto, sino que son una fuente inagotable de todo tipo de contenidos: videos, imágenes, documentos, música, etc. Mucho de ese material es pirateado.

INTRANET: Es una red de ordenadores privada basada en los estándares de Internet.

Las Intranets utilizan tecnologías de Internet para enlazar los recursos informativos de una organización, desde documentos de texto a documentos multimedia, desde bases de datos legales a sistemas de gestión de documentos. Las Intranets pueden incluir sistemas de seguridad para la red, tablones de anuncios y motores de búsqueda.

Una Intranet puede extenderse a través de Internet. Esto se hace generalmente usando una red privada virtual (VPN).

EXTRANET: Es una red privada que utiliza protocolos de Internet, protocolos de comunicación y probablemente infraestructura pública de comunicación para compartir de forma segura parte de la información u operación propia de una

Page 74: Introduccion al procesamiento de datos e5 unesr

organización con proveedores, compradores, socios, clientes o cualquier otro negocio u organización. Se puede decir en otras palabras que una extranet es parte de la Intranet de una organización que se extiende a usuarios fuera de ella. Usualmente utilizando Internet. La extranet suele tener un acceso semiprivado, para acceder a la extranet de una empresa no necesariamente el usuario ha de ser trabajador de la empresa, pero si tener un vínculo con la entidad. Es por ello que una extranet requiere o necesita un grado de seguridad, para que no pueda acceder cualquier persona. Otra característica de la extranet es que se puede utilizar como una Intranet de colaboración con otras compañías.

UNIDAD VII (INTEGRACION)

ASEGURAMIENTO DE LA CALIDAD DE LOS SISTEMAS: El aseguramiento de la calidad, se puede definir como el esfuerzo total para plantear, organizar, dirigir y controlar la calidad en un sistema de producción con el objetivo de dar al cliente productos con la calidad adecuada. Es simplemente asegurar que la calidad sea lo que debe ser.

VIRUS INFORMATICOS: es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, remplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

SEGURIDAD FISICA Y LOGICA: Es muy importante ser consiente que por más que nuestra empresa sea la más segura desde el punto de vista de ataques externos (hackers, virus, ataques de Dos, etc.); la seguridad de la

Page 75: Introduccion al procesamiento de datos e5 unesr

misma será nula si no se ha previsto como combatir un incendio o cualquier otro tipo de desastre natural y no tener presente políticas claras de recuperación.

La seguridad física es uno de los aspectos más olvidados a la hora del diseño de un sistema informático. Si bien algunos de los aspectos de seguridad física básicos se prevén, otros, como la detección de un atacante interno a la empresa que intenta acceder físicamente a una sala de cómputo de la misma, no. Esto puede derivar en que para un atacante sea más fácil lograr tomar y copiar una cinta de backup de la sala de cómputo, que intentar acceder vía lógica a la misma.

Así, la Seguridad Física consiste en la “aplicación de barreras físicas y procedimientos de control, como medidas de prevención y contramedidas ante amenazas a los recursos e información confidencial”. Se refiere a los controles y mecanismos de seguridad dentro y alrededor del centro de cómputo, así como los medios de acceso remoto al y desde el mismo; implementados para proteger el hardware y medios de almacenamiento de datos.

CONTROL DE ACCESO: Es el conjunto de mecanismos y protocolos por los que varios "interlocutores" (dispositivos en una red, como ordenadores, teléfonos móviles, etc.) se ponen de acuerdo para compartir un medio de transmisión común (por lo general, un cable eléctrico u óptico, o en comunicaciones inalámbricas el rango de frecuencias asignado a su sistema). En ocasiones se habla también de multiplexación para referirse a un concepto similar.

SEGURIDAD EN LOS ENTORNOS PERSONALES: Se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta (incluyendo la información contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo de información se conoce como información privilegiada o confidencial.

El concepto de seguridad de la información no debe ser confundido con el de seguridad informática, ya que este último sólo se encarga de la seguridad en el medio informático, pudiendo encontrar información en diferentes medios o formas.

PLAN DE CONTIGENCIA: Es un instrumento de gestión para el buen gobierno de las Tecnologías de la Información y las Comunicaciones en el dominio del soporte y el desempeño (delivery and support, véase ITIL).

Page 76: Introduccion al procesamiento de datos e5 unesr

Dicho plan contiene las medidas técnicas, humanas y organizativas necesarias para garantizar la continuidad del negocio y las operaciones de una compañía. Un plan de contingencias es un caso particular de plan de continuidad del negocio aplicado al departamento de informática o tecnologías. Otros departamentos pueden tener planes de continuidad que persiguen el mismo objetivo desde otro punto de vista. No obstante, dada la importancia de las tecnologías en las organizaciones modernas, el plan de contingencia es el más relevante.

PREVENCION: Prevenir los riesgos informáticos es conocer las vulnerabilidades de la empresa y el impacto de las incidencias, especialmente en las áreas de Sistemas de Información y de Recursos Humanos. La seguridad informática es un concepto joven, por este motivo todavía hay muchas empresas que mantienen sin coordinación sus disciplinas de seguridad informática. El hecho de tener un cortafuegos no significa estar seguro, es un medio más que ayuda a ir consolidando la protección de nuestros Sistemas, pero no sólo hay que ir apagando los fuegos sino que hay que prevenir los riesgos analizando los Sistemas, las Comunicaciones y la Seguridad Informática, para encontrar la mejor solución global para la empresa.

Las empresas invierten en equipos de protección y monitorización con la intención de hacer una gestión proactiva; también en conexiones rápidas y seguras con autentificación fuerte. Todo ello reduce los riesgos, pero de nada sirven si los usuarios no son sensibles a los problemas de seguridad. En otras ocasiones, la empresa no tiene recursos suficientes para hacer una gestión proactiva y las soluciones de gestión de ancho de banda o de monitorización se consideran secundarias; en ese caso la sensibilización de los usuarios es todavía más importante. Debe partirse de la base de que la competitividad de la empresa pasa siempre por concienciar al usuario de la importancia de la seguridad y que un usuario sin formar es un peligro en potencia para la red.

PROCESAMIENTO DE DATOS: Hasta el momento hemos supuesto que los datos que maneja una aplicación no son tan voluminosos y por lo tanto caben en memoria. Cuando recurrimos a archivos se debe a la necesidad de conservar datos después de que termina un programa, por ejemplo para apagar el computador.

Sin embargo, existen problemas en donde el volumen de datos es tan grande que es imposible mantenerlos en memoria. Entonces, los datos se almacenan en un conjunto de archivos, los que forman una base de datos. Una base de datos es por lo tanto un conjunto de archivos que almacenan, por ejemplo, datos con respecto al negocio de una empresa.

Page 77: Introduccion al procesamiento de datos e5 unesr

EL COMPUTADOR Y LAS ORGANIZACIONES: Es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.

La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

TECNOLOGIA Y SISTEMA:

Tecnología: Es el conjunto de conocimientos técnicos, ordenados científicamente, que permiten diseñar y crear bienes y servicios que facilitan la adaptación al medio ambiente y satisfacer tanto las necesidades esenciales como los deseos de las personas. Es una palabra de origen griego, τεχνολογία, formada por téchnē (arte, técnica u oficio, que puede ser traducido como destreza) y logía (el estudio de algo). Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término en singular para referirse a una de ellas o al conjunto de todas. Cuando se lo escribe con mayúscula, Tecnología, puede referirse tanto a la disciplina teórica que estudia los saberes comunes a todas las tecnologías como a educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más importantes.

La actividad tecnológica influye en el progreso social y económico, pero su carácter abrumadoramente comercial hace que esté más orientada a satisfacer los deseos de los más prósperos (consumismo) que las necesidades esenciales de los más necesitados, lo que tiende además a hacer un uso no sostenible del medio ambiente. Sin embargo, la tecnología también puede ser

Page 78: Introduccion al procesamiento de datos e5 unesr

usada para proteger el medio ambiente y evitar que las crecientes necesidades provoquen un agotamiento o degradación de los recursos materiales y energéticos del planeta o aumenten las desigualdades sociales. Como hace uso intensivo, directo o indirecto, del medio ambiente (biosfera), es la causa principal del creciente agotamiento y degradación de los recursos naturales del planeta.

Sistema: Es un objeto compuesto cuyos componentes se relacionan con al menos algún otro componente; puede ser material o conceptual. Todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura (forma). Según el sistemismo, todos los objetos son sistemas o componentes de otro sistema. Por ejemplo, un núcleo atómico es un sistema material físico compuesto de protones y neutrones relacionados por la interacción nuclear fuerte; una molécula es un sistema material químico compuesto de átomos relacionados por enlaces químicos; una célula es un sistema material biológico compuesto de orgánulos relacionados por enlaces químicos no-covalentes y rutas metabólicas; una corteza cerebral es un sistema material psicológico (mental) compuesto de neuronas relacionadas por potenciales de acción y neurotransmisores; un ejército es un sistema material social y parcialmente artificial compuesto de personas y artefactos relacionados por el mando, el abastecimiento, la comunicación y la guerra; el anillo de los números enteros es un sistema conceptual algebraico compuesto de números positivos, negativos y el cero relacionados por la suma y la multiplicación; y una teoría científica es un sistema conceptual lógico compuesto de hipótesis, definiciones y teoremas relacionados por la correferencia y la deducción (implicación).

NUEVAS CORRIENTES EN TECNOLOGIA INFORMATICA: Se habla mucho de Tecnología Informática, y de como ésta influye en nuestro diario vivir. Sabemos que la tecnología está siendo innovada y reinventada cada vez que dormimos, caminamos y si es posible respiramos (es decir cada vez con más prontitud), con el fin de hacernos la vida mas simple...

Pero en este mundo en el que la tecnología crece de manera exponencial, cuales son las ultimas tendencia????...Bueno, leyendo un poco por ahí, me encontré con esta información...espero les interese...

Green IT, que ha hecho que la industria desarrolle tecnologías más amables con el entorno, que promueven el uso de la energía de manera eficiente, emplean materiales biodegradables o menos contaminantes.

SaaS y Cloud Computing: Software como servicio, que responde al acrónimo inglés SaaS y que evolucionó de ASP (Application Service Provider), es un modelo de implementación de software en las compañías, en el que la instalación, el mantenimiento, los respaldos y el soporte de las aplicaciones es responsabilidad del proveedor, al que se le paga por uso y que da acceso

Page 79: Introduccion al procesamiento de datos e5 unesr

parametrizado y privado vía Internet a las empresas. Cloud computing es un modelo en el que, ya no sólo el software, sino las capacidades tecnológicas flexibles y escalables se proporcionan a los clientes mediante tecnologías Web, con ventajas que ofrecen valor al negocio como movilidad, reducción de riesgos y costes, procesos de negocio prácticamente estandarizados, etc. Destaca en estas áreas el éxito de Salesforce.com, NetSuite, Intacct, Aplicor o Google Apps.

Gobierno IT: Esta tendencia surge de la necesidad de alinear tecnología y negocio. Históricamente, los tecnólogos no conocen el negocio y los usuarios desconocen las actividades del departamento de sistemas. Para paliar este déficit en un momento en el que las inversiones en TI son relevantes, se han creado unidades intermedias entre negocio e informática que racionalizan y justifican las inversiones, además de optimizar el uso de los recursos. Con las Oficinas de Proyectos, PMOs en sus siglas inglesas, emergen aplicaciones de Project Management, que ponen en orden y facilitan los proyectos informáticos, un ámbito en el que destacan proveedores como CA, Oracle o Microsoft.

Web 2.0: Es una evolución en la forma de trabajar en la Web, cuya idea central es el proceso de colaboración y convergencia de muchas personas en un medio, lo que facilita la interrelación entre grupos tanto públicos como privados. Es Tim O’Reilly quien acuña este término, cuyas premisas son el fortalecimiento de las comunidades de usuarios y una gama especial de servicios. A partir de 2004, surgen herramientas y tecnologías o grupos de tecnologías que ayudan a su adopción como AJAX, Java Web, RSS/ATOM, SEM/SEO, blogs, JCC, Mashups, JSON, XML o APIs REST, entre otros.

Tecnología móvil corporativa: La convergencia digital avanza y se consolidará como un referente tecnológico del siglo XXI. El smartphone, además de telefonía, ofrece prestaciones similares a las de un PC, y se consigue una clara convergencia entre un teléfono móvil, un PC, una PDA y un dispositivo multimedia. Garantizar el acceso al correo corporativo, el ERP, el CRM, la intranet, LMS y otras aplicaciones corporativas será el objetivo de la próxima generación de aplicativos. Es un mercado en el que la competencia es fuerte, y la liberación de los sistemas operativos para smartphones (Java, Windows Mobile, Symbian OS, Android, RIM Blackberry, Linux, Mac o Palm OS) está impulsando.

Gestión del rendimiento: Es una tecnología que, apoyada en el concepto de Business Intelligence, promueve el uso sistemático y organizado de los datos históricos de una empresa mediante la gestión de grandes volúmenes de datos y modernas técnicas estadísticas. Al gestionar el rendimiento, se pone en marcha una estrategia de control y seguimiento, a través de indicadores de gestión, de los objetivos y estrategias de la organización, de forma que se

Page 80: Introduccion al procesamiento de datos e5 unesr

garantiza su cumplimiento y el ajuste de cualquier desviación de las metas establecidas. Es un concepto que se nutre de tecnologías robustas como gestores de bases de datos, herramientas de elevada capacidad analítica, etc. En esta área, destacan líderes como IBM, Oracle, SAP, Microsoft, Sun, etc.

Gestión de contenidos y/o gestión de activos digitales: La gestión de activos digitales (Digital Asset Management, DAM) es el proceso de identificar, clasificar, digitalizar, almacenar y recuperar datos e información no estructurada de todo tipo, con el fin de incrementar la productividad de las organizaciones que manejan grandes volúmenes de información: imágenes, vídeos, libros, documentos legales, mapas, etc. DAM ha irrumpido con fuerza gracias a la robustez de los sistemas de gestión de bases de datos, la potencia de las CPUs, la consolidación de XML como estándar y el aumento de las capacidades de almacenamiento. Destacan en este segmento de mercado IBM, EMC, Open Text, Oracle, Microsoft, Interwoven, Vignette, Hyland Software, Xerox o HP, entre otras.