introducion a la computación

32
INTRODUCCION A LA COMPUTACIO N DANIEL ALEJANDRO FLORES SORIANO 19 DE AGOSTO 2013

Upload: alejandro-soriano

Post on 17-Mar-2016

229 views

Category:

Documents


3 download

DESCRIPTION

 

TRANSCRIPT

0

INTRODUCCION A LA COMPUTACIO N DANIEL ALEJANDRO FLORES SORIANO

19 DE AGOSTO 2013

1

INDICE

BLOQUE 1 HISTORIA DE LAS COMPUTADORAS

1.1 Historia de las computadoras………………………………………………………………………. 2

1.2 Generaciones de las computadoras…………………………………………………………….. 9

1.3 Clasificación por su tamaño, función y uso…………………………………………………. 10

1.4 Definición de computadora……………………………………………………………………….. 13

1.5 Importancia y clasificación de las computadoras…………………………………………. 14

BLOQUE 2 ARQUITECTURA BASICA DE UNA COMPUTADORA 2.1 Definición de hardware y de software.................................................................... 16

2.2 Computadoras analógicas, digitales e híbridas....................................................... 17

2.3 Componentes, organización y funcionamiento de una computadora digital…………… 18

2.4 El microprocesador………………………………………………………………………………………………… 19

2.5 Memorias……………………………………………………………………………………………………………… 20

2.6 Periféricos……………………………………………………………………………………………………………… 21

2.7 Buses y tarjetas……………………………………………………………………………………………………… 22

2.8 Dispositivos de almacenamiento secundario………………………………………………………… 22

2.9 Software………………………………………………………………………………………………………………. 23

BLOQUE 3 REDES, COMUNICACIONES Y DATOS

3.1 Definición de red…………………………………………………………………………………………… 24

3.2 Clasificación de redes……………………………………………………………………………………. 25

3.3 Topologías de red…………………………………………………………………………………………. 26

3.4 Medios de hardware de redes………………………………………………………………………. 26

3.5 Internet……………………………………………………………………………………………………….. 27

IMÁGENES…………………………………………………………………………………………………………… 29

REFERENCIAS…………………………………………………………………………………………………………………… 30

2

BLOQUE 1 HISTORIA DE LA COMPUTACIÓN

1.1 HISTORIA DE LAS COMPUTADORAS

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a

las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas

ensartadas en varillas que a su vez están montadas en un marco rectangular.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de

Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los

datos se representaban mediante las posiciones de los engranajes, y los datos se introducían

manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como

leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor

matemático de la Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno

Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico

para efectuar sumas repetidas. La idea que tuvo Charles Babbage sobre un computador nació

debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a

errores. Las características de está maquina incluye una memoria que puede almacenar hasta

1000 números de hasta 50 dígitos cada uno. Las operaciones a ejecutar por la unidad aritmética

son almacenados en una tarjeta perforadora. Se estima que la maquina tardaría un segundo en

realizar una suma y un minuto en una multiplicación.

La máquina de Hollerith. En la década de 1880, la oficina del Censo de los Estados Unidos, deseaba

agilizar el proceso del censo de 1890. Para llevar a cabo esta labor, se contrató a Herman Hollerith,

un experto en estadística para que diseñara alguna técnica que pudiera acelerar el levantamiento

y análisis de los datos obtenidos en el censo. Entre muchas cosas, Hollerith propuso la utilización

de tarjetas en las que se perforarían los datos, según un formato preestablecido. Una vez

perforadas las tarjetas, estas serian tabuladas y clasificadas por maquinas especiales. La idea de las

tarjetas perforadas no fue original de Hollerith. Él se basó en el trabajo hecho en el telar de Joseph

Jacquard que ingenio un sistema donde la trama de un diseño de una tela así como la información

necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el

diseño leyendo la información contenida en las tarjetas. De esta forma, se podían obtener varios

diseños, cambiando solamente las tarjetas.

En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado

por Howard H. Aiken. Este computador tomaba seis segundos para efectuar una multiplicación y

doce para una división. Computadora basada en rieles (tenía aprox. 3000), con 800 kilómetros de

cable, con dimensiones de 17 metros de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le

hicieron mejoras sucesivas, obteniendo así el Mark II, Mark III y Mark IV.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator

And Calculator) que fue la primera computadora electrónica que funcionaba con tubos al vacío, el

3

equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Este computador

superaba ampliamente al Mark I, ya que llego hacer 1500 veces más potente. En el diseño de este

computador fueron incluidas nuevas técnicas de la electrónica que permitían minimizar el uso de

partes mecánicas. Esto trajo como consecuencia un incremento significativo en la velocidad de

procesamiento. Así, podía efectuar 5000 sumas o 500 multiplicaciones en un segundo y permitía el

uso de aplicaciones científicas en astronomía, meteorología, etc.

Durante el desarrollo del proyecto Eniac, el matemático Von Neumann propuso unas mejoras que

ayudaron a llegar a los modelos actuales de computadoras:

1.- Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional.

2.- Hacer que las instrucciones de operación estén en la memoria, al igual que los datos. De esta

forma, memoria y programa residirán en un mismo sitio.

La EDVAC (Electronic Discrete Variable Automatic Computer), construida en la Universidad de

Manchester, en Connecticut (EE.UU), en 1949 fue el primer equipo con capacidad de

almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambios

o reconfigurados cada vez que se usaban. Tenía aproximadamente cuatro mil bulbos y usaba un

tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas

sujetas a retardos. EDCAV pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.

En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal

como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más

completas.

El UNIVAC fue la primera computadora diseñada y construida para un propósito no militar.

Desarrollada para la oficina de CENSO en 1951, por los ingenieros John Mauchly y John Presper

Eckert, que empezaron a diseñarla y construirla en 1946.

La computadora pesaba 7257 kg. Aproximadamente, estaba compuesta por 5000 tubos de vacío, y

podía ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en

serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. Así

Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación.

A continuación te presentamos una línea del tiempo sobre la historia de las computadoras

1617: John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.

1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande.

4

1645: Blaise Pascal inventa la pascalina. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.

1837: Charles Babbage describe la máquina analítica. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.

1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.

1879: Herman Hollerith es contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban información sobre el sexo o la edad, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

1884: Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.

1906: el estadounidense Lee De Forest inventa el tubo de vacío. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.

1931: Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.

1936: Konrad Zuse completa la primera computadora electro-mecánica, aunque no 100% operativa, la Z1.

1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.

1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200 kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo

1949: Jay Forrester desarrolla la primera memoria, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.

1950: Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.

5

1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado

1951: el Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.

1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.

1953: se crean memorias a base de magnetismo (conocidas como memorias de núcleos magnéticos).

1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.

1957: IBM pone a la venta la primera impresora de matriz de puntos.

1958: comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.

1957: Jack S. Kilby construye el primer circuito integrado.

1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.

1960: aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.

1960: se crea el primer compilador de computador.

1960: C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.

1961: en IBM, Kenneth Iverson inventa el lenguaje de programación APL.

1962: en el MIT, Hart y Levin inventan para Lisp el primer compilador autocontenido, es decir, capaz de compilar su propio código fuente.

1962: un equipo de la Universidad de Mánchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.

1962: El estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar.

1964: aparece el CDC 6600, la primera supercomputadora comercialmente disponible.

1964: en el Dartmouth College, John George Kemeny y Thomas Eugene Kurtz desarrollan el lenguaje BASIC (el Dartmouth BASIC).

1965: La lógica difusa, diseñada por Lofti Zadeh, se usa para procesar datos aproximados.

6

1966: la mayoría de ideas y conceptos que existían sobre redes se aplican a la red militar ARPANET.

1966: aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.

1967: en IBM, David Noble ―bajo la dirección de Alan Shugart― inventa el disquete (disco flexible).

1968: Robert Noyce y Gordon Moore fundan la corporación Intel.

1969: Data General Corporation distribuye la primera minicomputadora de 16-bit.

1969: en los laboratorios Bell, Ken Thompson y Dennis Ritchie desarrollan el lenguaje de programación B.

1970: la empresa Corning Glass Works vende comercialmente el primer cable de fibra óptica.

1970: E. F. Codd se publica el primer modelo de base de datos relacional.

1970: el profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.

1970: Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1 kbits).

1971: Intel presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.

1971: Ray Tomlinson crea el primer programa para enviar correo electrónico. Como consecuencia, la arroba se usa por primera vez con fines informáticos.

1971: en el MIT, un grupo de investigadores presentan la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).

1972: en los Laboratorios Bell, Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C.

1973: La división de investigación Xerox PARC desarrollo el primer ordenador que utilizó el concepto de Computadora de Escritorio llamado Xerox Alto, además de ser el primer ordenador en utilizar una GUI y un mouse

1974: Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una LAN (red de área local)

1975: en enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.

1975: se funda la empresa Microsoft.

1975: se funda la empresa Microsoft.

1976: se funda la empresa Apple.

7

1977: se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.

1980: la empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.

1980: Laboratorios Bell desarrolla el primer microprocesador de 32-bit en un solo chip, llamado Bellmac-32.

1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.

1981: Apple presenta el primer computador personal que se vende a gran escala, el Apple II.

1981: Sony crea los disquetes de 3 1/2 pulgadas.

1982: la Asociación Internacional MIDI publica el MIDI (protocolo para comunicar computadoras con instrumentos musicales).

1982: Rod Canion, Jim Harris y Bill Murto fundan Compaq Computer Corporation, una compañía de computadoras personales.

1983: Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.

1983: Bjarne Stroustrup publica el lenguaje de programación C++.

1983: Sun lanza su primer sistema operativo, llamado SunOS.

1983: la compañía Lotus Software lanza el famoso programa de hoja de cálculo Lotus 1-2-3.

1983: el sistema DNS (de Internet) ya posee 1000 hosts.

1984: Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.

1984: las compañías Philips y Sony crean los CD-Roms para computadores.

1984: se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.

1984: aparece el lenguaje LaTeX para procesamiento de documentos

1985: Microsoft presenta el sistema operativo Windows 1.0.

1986: Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.

1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

1990: en AT&T (Laboratorios de Bell) se construye el primer prototipo de procesador óptico.

1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.

1991: comienza a popularizarse la programación orientada a objetos.

8

1991: surge la primera versión del estándar Unicode.

1991: aparece la primera versión de Adobe Premiere.

1991: Compaq pone a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los años noventa en vender una PC de menos de 1000 dólares estadounidenses. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.

1992: Microsoft lanza Windows 3.1.

1992: Aparece la primera versión del sistema operativo Solaris.

1995: Microsoft lanza de Windows 95, junto con su navegador web predeterminado, Windows Internet Explorer.

1995: aparece la primera versión de MySQL.

1995: se especifica la versión 1.5 del DVD, base actual del DVD.

1996: se crea Internet2, más veloz que la Internet original.

1998: Microsoft lanza al mercado el sistema Windows 98.

2000: Microsoft lanza el sistema operativo Windows 2000.

2000: Microsoft lanza el sistema operativo Windows Me.

2000: Macintosh lanza el sistema operativo Mac OS X.

2001: Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.

2001: Se lanza el sistema operativo Windows XP por parte de Microsoft.

2005: Lanzamiento de Windows XP Media Center Edition

2005: Puesta en funcionamiento del supercomputador MareNostrum en el BSC.

2007: La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.

2007: La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5

2008: Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.

2008: Apple lanza en toda Europa y América, el iPhone 3G.

2008: Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.

2008: El supercomputador IBM Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.

9

1.2 GENERACIONES DE LAS COMPUTADORAS

PRIMERA GENERACIÓN 1938-1958

Las computadoras de esta generación empleaban tubos al vacío para procesar información,

utilizaban tarjetas perforadas para ingresar programas, eran sumamente grandes, utilizaban gran

cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas. En esta

generación se desarrollaron los primeros discos duros, que eran grandes tambores que giraban

rápidamente, escribían y leían información desde el medio magnético. La programación implicaba

la modificación directa de los cartuchos y eran sumamente grandes.

El verdadero éxito se obtuvo con la IBM 650 o mediados de la década de los años 50.

SEGUNDA GENERACIÓN 1955-1964

En la segunda generación se inventó el transistor, esto significó un gran avance ya que permitió la

construcción de computadoras más poderosas, más confiables y menos costosas; Además

ocupaban menos espacio y producían menos calor que las computadoras que operaban a base de

tubos de vacio.se desarrollaron nuevos leguajes de programación como COBOL y FORTRAN los

cuales eran comercialmente accesibles. Estas computadoras se usaron para muchos fines

comerciales y gubernamentales.

TERCERA GENERACIÓN 1964-197

En la tercera generación se inventaron los circuitos integrados, gracias a esto surgieron las

primeras computadoras PDP-11 y la IBM 360, eran más poderosas que las computadoras de la

generación anterior, eran más pequeñas y despedían menos calor. Las computadoras podían llevar

a cabo tareas de procesamiento o análisis matemáticos.

CUARTA GENERACION 1971-1988

En esta generación se reemplazaron las memorias magnéticas, por microfichas de silicio. Aparecen

los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de

alta densidad y con una velocidad impresionante. Se miniaturizaron los componentes lo que hizo

posible la creación de la computadora personal.

QUINTA GENERACION 1984-1999

Las computadoras de esta generación están basadas en inteligencia artificial usando lo que se

puede llamar micro chip inteligente. Surge la PC tal cual como la conocemos en la actualidad. IBM

presenta su primera computadora personal y revoluciona el sector informativo. En vista de la

acelerada marcha de la microelectrónica, la sociedad industrial se ha dio a la tarea de poner

también a esa altura el desarrollo del software y los sistemas con que se manejan las

computadoras.

10

SEXTA GENERACION 1999-ACTUALIDAD

Las computadoras de esta generación cuentan con arquitecturas combinadas paralelo-vectorial,

con cientos de microprocesadores vectoriales trabajando al mismo tiempo. Las redes de área

mundial (Wide Área Network, WAN) seguirán creciendo desorbitadamente utilizando medios de

comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las

tecnologías de esta generación ya han sido desarrolladas o están en ese proceso. Algunas de ellas

son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores

ópticos, etc.

1.3 Clasificación de las computadoras por su tamaño función y uso

COMPUTADORAS DIGITALES

Es aquella que cuenta directamente los números (0 dígitos) que representan numerales, letras y

otros símbolos especiales. Son capaces de almacenar diferentes programas por lo que se les puede

utilizar en incontables aplicaciones. Una máquina de este tipo puede procesar una nómina,

graficas, comparaciones, etc., por ejemplo IBM.

Todo lo que hace una computadora digital se basa en una operación: la capacidad de determinar si

un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, solo puede reconocer dos estados en

cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de

números, 0 o 1. Sin embargo, es la velocidad con la cual la computadora realiza este acto tan

sencillo lo que lo convierte en una maravilla de la tecnología moderna.

Las velocidades del ordenador se miden en megahercios (millones de ciclos por segundo), aunque

en la actualidad se alcanzan velocidades del orden de los gigahercios (miles de millones de ciclo

por segundo). Una computadora con una velocidad de reloj de 1 gigahercio (GHz), velocidad

bastante representativa de una microcomputadora, es capaz de ejecutar 1.000 millones de

operaciones discretas por segundo, mientras que las supercomputadoras utilizadas en

aplicaciones de investigación y de defensa alcanzan velocidades de billones de ciclos por segundo.

La velocidad y la potencia de cálculo de las computadoras digitales se incrementan aun mas por la

cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica solo un conmutador

cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON

simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo,

al verificar grupos de conmutadores enlazados como una sola unidad, la computadora aumenta el

número de operaciones que puede reconocer en cada ciclo. Por ejemplo, una computadora que

verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien

ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos

de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). El desarrollo de procesadores

capaces de manejar simultáneamente 16, 32 y 64 bits de datos permitió incrementar la velocidad

de las computadoras.

11

COMPUTADORAS ANALÓGICAS

Es un dispositivo electrónico diseñado con el fin de manipular la entrada de datos en términos de

por mencionar un ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como

datos numéricos. Un dispositivo de cálculo analógico más simple es la regla de cálculo, que utiliza

longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras

funciones. En el clásico ordenador analógico electrónico, las entradas se convierten en tensiones

que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las

respuestas se generan continuamente para su visualización o para su conversión en otra forma

deseada.

Sin embargo presenta dos grandes desventajas: primero, problemas distintos requieren circuitos

eléctricos distintos y es muy fácil que la información pierda integridad. Estas computadoras suelen

utilizarse para control industrial en pilotaje automático o en simulación de fenómenos mecánicos.

Miden magnitudes físicas que se distribuyen en escala continua como puede ser la temperatura o

la presión.

COMPUTADORAS HÍBRIDAS

Son máquinas que combinan las características de las máquinas analógicas y digitales para crear

un sistema de cómputo híbrido. Las instalaciones que contienen elementos de ordenadores

digitales y analógicos se denominan ordenadores híbridos. Por lo general se utilizan para

problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas

como integrales de tiempo. En un ordenador digital también pueden introducirse datos en forma

analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico).

por función en:

*Microcomputadoras *Minicomputadoras

*Macrocomputadoras *Supercomputadoras

MICROCOMPUTADORA

Una microcomputadora es una computadora que tiene un microprocesador (circuito integrado

que tiene la mayoría de las capacidades de procesamiento de las grandes computadoras) y como

mínimo algún tipo de memoria semiconductora.

Generalmente, el microprocesador tiene los circuitos de almacenamiento y entrada/salida en el

mismo circuito integrado. El primer microprocesador comercial fue el Intel 4004, que salió el 15 de

noviembre de 1971.

La primera generación de microcomputadora fue conocida también como computadoras

domésticas.

12

Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen

de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta

de trabajo.

Una microcomputadora es un tipo de computadora que utiliza un microprocesador como unidad

central de procesamiento (CPU). Generalmente son computadoras que ocupan espacios físicos

pequeños, comparadas a sus predecesoras históricas, las mainframes y las minicomputadoras.

De todas maneras dentro del término microcomputadora pueden agruparse computadoras de

diferentes tipos y usos como consolas de videojuegos, notebooks, Tablet, PC’s, dispositivos de

mano, teléfonos celulares y las computadoras personales.

Actualmente el término microcomputadora no es muy utilizado, probablemente por la gran

diversidad de computadoras basadas en un microprocesador. Sus principales características son:

Velocidad de procesamiento: decenas de millones de instrucciones por segundo. Su uso más

común es para propósitos personales.

MINICOMPUTADORA

Las minicomputadoras son una clase de computadora multiusuario, que se encuentran en el rango

intermedio del espectro computacional; es decir entre los grandes sistemas multiusuario

(mainframes), y los más pequeños sistemas monousuarios (microcomputadoras, computadoras

personales, o PC, etc.)

El nombre comenzó a hacerse popular a mediados de la década de 1960, para identificar un tercer

tipo de computadoras, diseñadas gracias a dos innovaciones fundamentales:

El uso de los circuitos integrados (que impactó directamente en la creación de equipos con

tamaños menores al mainframe), y las mejoras en el diseño de la memoria RAM, que permitieron

una mayor disponibilidad de recursos.

Posteriormente, durante los años 80s el minicomputador por excelencia fue la línea AS/400 de

IBM. Sin embargo, más recientemente se han fabricado equipos servidores muy poderosos;

diseñados por fabricantes como la misma IBM o HP.

Así pues, la expansión en el uso de servidores tuvo lugar debido al mayor coste del soporte físico

basado en macropocesadores y el deseo de los usuarios finales de depender menos de los

inflexibles terminales tontos, con el resultado de que los mainframes y los terminales fueron

remplazados por computadoras personales interconectadas entre sí, conectadas con un servidor.

MACROCOMPUTADORAS

La macrocomputadora es un sistema de aplicación general cuya característica principal es el hecho

de que el CPU es el centro de casi todas las actividades de procesamiento secundario.

13

Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes cantidades

de información. El CPU actúa como árbitro de todas las solicitudes y controla el acceso a todos los

archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas

impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de

procesamiento.

El CPU es el centro de procesamiento. Están diseñadas para sistemas multiusuario.

SUPERCOMPUTADORA

Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy

superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos.

Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por

computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las

supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su

potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en

aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan

más de 200 billones de operaciones por segundo).

Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo.

Usuarios a la vez: hasta miles, en entorno de redes amplias.

Tamaño: requieren instalaciones especiales y aire acondicionado industrial. Dificultad de uso: solo

para especialistas.

1.4 COMPUTADORA

Una computadora o computador (del inglés computer y este del latín computare -calcular),

también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una

máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una

computadora es una colección de circuitos integrados y otros componentes relacionados que

puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o

automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones

que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones

prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de

programación y al que lo realiza se le llama programador. La computadora, además de la rutina o

programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce

como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al

momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que

recibe el nombre de "output" o de salida. La información puede ser entonces utilizada,

reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o

componente(s) electrónico(s) local o remotamente usando diferentes sistemas de

14

telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o

unidad de almacenamiento.

La característica principal que la distingue de otros dispositivos similares, como la calculadora no

programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy

diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

1.5 IMPORTANCIA Y CLASIFICACIÓN DE LAS COMPUTADORAS

MICROCOMPUTADORA

Una microcomputadora es una computadora que tiene un microprocesador (circuito integrado

que tiene la mayoría de las capacidades de procesamiento de las grandes computadoras) y como

mínimo algún tipo de memoria semiconductora.

Generalmente, el microprocesador tiene los circuitos de almacenamiento y entrada/salida en el

mismo circuito integrado. El primer microprocesador comercial fue el Intel 4004, que salió el 15 de

noviembre de 1971.

La primera generación de microcomputadora fue conocida también como computadoras

domésticas.

Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen

de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta

de trabajo.

Una microcomputadora es un tipo de computadora que utiliza un microprocesador como unidad

central de procesamiento (CPU). Generalmente son computadoras que ocupan espacios físicos

pequeños, comparadas a sus predecesoras históricas, las mainframes y las minicomputadoras.

De todas maneras dentro del término microcomputadora pueden agruparse computadoras de

diferentes tipos y usos como consolas de videojuegos, notebooks, Tablet, PC’s, dispositivos de

mano, teléfonos celulares y las computadoras personales.

Actualmente el término microcomputadora no es muy utilizado, probablemente por la gran

diversidad de computadoras basadas en un microprocesador. Sus principales características son:

Velocidad de procesamiento: decenas de millones de instrucciones por segundo. Su uso más

común es para propósitos personales.

MINICOMPUTADORA

Las minicomputadoras son una clase de computadora multiusuario, que se encuentran en el rango

intermedio del espectro computacional; es decir entre los grandes sistemas multiusuario

(mainframes), y los más pequeños sistemas monousuarios (microcomputadoras, computadoras

personales, o PC, etc.)

15

El nombre comenzó a hacerse popular a mediados de la década de 1960, para identificar un tercer

tipo de computadoras, diseñadas gracias a dos innovaciones fundamentales:

El uso de los circuitos integrados (que impactó directamente en la creación de equipos con

tamaños menores al mainframe), y las mejoras en el diseño de la memoria RAM, que permitieron

una mayor disponibilidad de recursos.

Posteriormente, durante los años 80s el minicomputador por excelencia fue la línea AS/400 de

IBM. Sin embargo, más recientemente se han fabricado equipos servidores muy poderosos;

diseñados por fabricantes como la misma IBM o HP.

Así pues, la expansión en el uso de servidores tuvo lugar debido al mayor coste del soporte físico

basado en macropocesadores y el deseo de los usuarios finales de depender menos de los

inflexibles terminales tontos, con el resultado de que los mainframes y los terminales fueron

remplazados por computadoras personales interconectadas entre sí, conectadas con un servidor.

MACROCOMPUTADORAS

La macrocomputadora es un sistema de aplicación general cuya característica principal es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento secundario.

Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes cantidades de información. El CPU actúa como árbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.

El CPU es el centro de procesamiento. Están diseñadas para sistemas multiusuario.

SUPERCOMPUTADORA

Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy

superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos.

Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por

computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las

supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su

potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en

aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan

más de 200 billones de operaciones por segundo).

Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo.

Usuarios a la vez: hasta miles, en entorno de redes amplias.

Tamaño: requieren instalaciones especiales y aire acondicionado industrial. Dificultad de uso: solo para especialistas.

16

BLOQUE 2 ARQUITECTURA BÁSICA DE UNA COMPUTADORA

2.1 HARDWARE Y SOFTWARE

EL HARDWARE:

El término hardware se refiere a todas las partes tangibles de un sistema informático; sus

componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.

Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado;

contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del

idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un

significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española

lo define como «Conjunto de los componentes que integran la parte material de una

computadora”. El término, aunque sea lo más común, no solamente se aplica a las computadoras;

del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor

multimedia poseen hardware (y software)

EL SOFTWARE:

Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, que

comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de

tareas específicas, en contraposición a los componentes físicos que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como

el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición

de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente

permite al resto de los programas funcionar adecuadamente, facilitando también la interacción

entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el

usuario.

También tenemos de dos tipos:

Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma

eficiente, además de permitir su comunicación con el usuario. Nosotros utilizamos el Sistema

Windows.

Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretar del

usuario, como por ejemplo: escribir, dibujar, escuchar música.

17

2.2 COMPUTADORAS ANALÓGICAS, DIGITALES E HÍBRIDAS

COMPUTADORAS DIGITALES

Es aquella que cuenta directamente los números (0 dígitos) que representan numerales, letras y

otros símbolos especiales. Son capaces de almacenar diferentes programas por lo que se les puede

utilizar en incontables aplicaciones. Una máquina de este tipo puede procesar una nómina,

graficas, comparaciones, etc., por ejemplo IBM.

Todo lo que hace una computadora digital se basa en una operación: la capacidad de determinar si

un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, solo puede reconocer dos estados en

cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de

números, 0 o 1. Sin embargo, es la velocidad con la cual la computadora realiza este acto tan

sencillo lo que lo convierte en una maravilla de la tecnología moderna.

Las velocidades del ordenador se miden en megahercios (millones de ciclos por segundo), aunque

en la actualidad se alcanzan velocidades del orden de los gigahercios (miles de millones de ciclo

por segundo). Una computadora con una velocidad de reloj de 1 gigahercio (GHz), velocidad

bastante representativa de una microcomputadora, es capaz de ejecutar 1.000 millones de

operaciones discretas por segundo, mientras que las supercomputadoras utilizadas en

aplicaciones de investigación y de defensa alcanzan velocidades de billones de ciclos por segundo.

La velocidad y la potencia de cálculo de las computadoras digitales se incrementan aún más por la

cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica solo un conmutador

cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON

simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo,

al verificar grupos de conmutadores enlazados como una sola unidad, la computadora aumenta el

número de operaciones que puede reconocer en cada ciclo. Por ejemplo, una computadora que

verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien

ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos

de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). El desarrollo de procesadores

capaces de manejar simultáneamente 16, 32 y 64 bits de datos permitió incrementar la velocidad

de las computadoras.

COMPUTADORAS ANALÓGICAS

Es un dispositivo electrónico diseñado con el fin de manipular la entrada de datos en términos de

por mencionar un ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como

datos numéricos. Un dispositivo de cálculo analógico más simple es la regla de cálculo, que utiliza

longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras

funciones. En el clásico ordenador analógico electrónico, las entradas se convierten en tensiones

que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las

respuestas se generan continuamente para su visualización o para su conversión en otra forma

deseada.

18

Sin embargo presenta dos grandes desventajas: primero, problemas distintos requieren circuitos

eléctricos distintos y es muy fácil que la información pierda integridad. Estas computadoras suelen

utilizarse para control industrial en pilotaje automático o en simulación de fenómenos mecánicos.

Miden magnitudes físicas que se distribuyen en escala continua como puede ser la temperatura o

la presión.

COMPUTADORAS HÍBRIDAS

Son máquinas que combinan las características de las máquinas analógicas y digitales para crear

un sistema de cómputo híbrido. Las instalaciones que contienen elementos de ordenadores

digitales y analógicos se denominan ordenadores híbridos. Por lo general se utilizan para

problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas

como integrales de tiempo. En un ordenador digital también pueden introducirse datos en forma

analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico).

2.3 COMPUTADORAS DIGITALES

Es aquella que cuenta directamente los números (0 dígitos) que representan numerales, letras y

otros símbolos especiales. Son capaces de almacenar diferentes programas por lo que se les puede

utilizar en incontables aplicaciones. Una máquina de este tipo puede procesar una nómina,

graficas, comparaciones, etc., por ejemplo IBM.

Todo lo que hace una computadora digital se basa en una operación: la capacidad de determinar si

un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, solo puede reconocer dos estados en

cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de

números, 0 o 1. Sin embargo, es la velocidad con la cual la computadora realiza este acto tan

sencillo lo que lo convierte en una maravilla de la tecnología moderna.

Las velocidades del ordenador se miden en megahercios (millones de ciclos por segundo), aunque

en la actualidad se alcanzan velocidades del orden de los gigahercios (miles de millones de ciclo

por segundo). Una computadora con una velocidad de reloj de 1 gigahercio (GHz), velocidad

bastante representativa de una microcomputadora, es capaz de ejecutar 1.000 millones de

operaciones discretas por segundo, mientras que las supercomputadoras utilizadas en

aplicaciones de investigación y de defensa alcanzan velocidades de billones de ciclos por segundo.

La velocidad y la potencia de cálculo de las computadoras digitales se incrementan aún más por la

cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica solo un conmutador

cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON

simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo,

al verificar grupos de conmutadores enlazados como una sola unidad, la computadora aumenta el

número de operaciones que puede reconocer en cada ciclo. Por ejemplo, una computadora que

verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien

ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos

de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). El desarrollo de procesadores

19

capaces de manejar simultáneamente 16, 32 y 64 bits de datos permitió incrementar la velocidad

de las computadoras.

2.4 MICROPROCESADOR

El chip es el cerebro de la computadora

Es el corazón de nuestras computadoras, algo cuya velocidad todo el mundo tiene claro que hay

que mirar cuando se compra un nuevo equipo. ¿Pero en qué consiste realmente un procesador?

Un microprocesador, también conocido como procesador, micro, chip o microchip, es un circuito

lógico que responde y procesa las operaciones lógicas y aritméticas que hacen funcionar a

nuestras computadoras. En definitiva, es su cerebro.

Pero un procesador no actúa por propia iniciativa, recibe constantemente órdenes de múltiples

procedencias. Cuando encendemos nuestra computadora, lo primero que hace el micro es cumplir

con las instrucciones de la BIOS (basic input/output system), que forma parte de la memoria de la

computadora. Una vez funcionando, además de la BIOS, será el sistema operativo y los programas

instalados los que seguirán haciéndose obedecer por el microprocesador.

Pese a que los microprocesadores siempre nos hacen pensar en ordenadores, lo cierto es que

están disponibles en multitud de 'cacharros' que nos rodean habitualmente, como cámaras de

fotografía o vídeo, coches, teléfonos móviles... No obstante, es cierto que aquellos que se emplean

en las computadoras son los más potentes y complejos.

Cómo se crea un procesador

Con mucha dificultad. Para traer al mundo micros en cantidades industriales es necesario levantar

factorías que suponen una inversión multimillonaria. Por ejemplo, una factoría que levantó hace

no mucho Advanced Micro Devices (AMD) en Dresde, Alemania, costó unos 3.000 millones de

euros.

La principal característica de estas fábricas es que son inmaculadamente limpias, ya que una

simple mota de polvo podría echar a perder millares de microprocesadores. Para evitarlo cuentan

con sistemas de filtración que renuevan el aire diez veces por minuto. Es decir, son 10.000 veces

más limpias que un quirófano. Sus trabajadores van completamente forrados con un traje estéril

que una persona poco familiarizada tardaría más de media hora en ponerse.

Traer al mundo un procesador es sumamente complejo, pero resumiéndolo mucho podríamos

decir que se elaboran de la siguiente manera:

1. Exposición. Se expone un capa de dióxido de silicio al calor y a determinados gases para lograr

que crezca y obtener una lámina u oblea de silicio tan fina que es imperceptible al ojo humano.

2. Fotolitografía. Se aplica luz ultravioleta sobre la oblea a través de una plantilla. El dibujo de

dióxido de silicio resultante se fija con productos químicos. Un procesador consta de varias de

estas capas, cada una con una plantilla distinta y cada una más fina que la anterior.

20

3. Implantación de iones. La oblea es bombardeada con iones para alterar la forma en la que el

silicio conduce la electricidad en esas zonas.

4. División. En cada oblea se han creado miles de micros. Una vez el trazado de su circuito ha sido

comprobado, se cortan individualmente con una sierra de diamante.

5. Empaquetado. La parte más fácil. Cada micro se inserta en el paquete protector que le da la

apariencia que todos conocemos y que le permitirá ser conectado a otros dispositivos.

El nacimiento de un procesador, paso a paso

Antes de que naciera el primer procesador, tuvo que crearse el transistor: unos diminutos

interruptores electrónicos que permiten descomponer toda instrucción informática en los famosos

ceros y unos. El primer transistor nació en 1947 en los laboratorios Bell y, además de conseguir un

premio Nobel para sus creadores, dio la puntilla a las computadoras basadas en interruptores

mecánicos y tubos de silicio. Auténticos dinosaurios.

El segundo gran paso fue crear un circuito, que empleaba dos transistores sobre un cristal de

silicio. Este segundo avance, en el que participó el que sería cofundador de Intel Robert Noyce,

tuvo lugar más de diez años después, en 1958.

El tercer y definitivo avance supuso la creación del primer procesador rudimentario en 1961.

Cuatro años más tarde el procesador más complejo apenas contaba con 64 transistores. Pero el

crecimiento fue extraordinario: el primer procesador comercial fue distribuido por Intel en 1971 y

ya contaba con la friolera de 2.300 transistores. Un prodigio entonces pero que se queda en nada

comparado con los cerca de 30 millones que cuenta un Pentium II de andar por casa.

La tecnología de creación de microprocesadores ya está llegando a su tope. Cada vez son más

diminutos, más rápidos, más complejos de fabricar... Precisamente por ello se lleva hablando

desde hace tiempo de nuevos tipos de micros revolucionarios. Las tecnologías más prometedoras

son las que apuestan por la nanotecnología (computadoras moleculares), que parece la más

viable, y por la integración de elementos biológicos.

2.5 MEMORIAS

En informática, la memoria (también llamada almacenamiento) se refiere a parte de los

componentes que integran una computadora. Son dispositivos que retienen datos informáticos

durante algún intervalo de tiempo. Las memorias de computadora proporcionan una de las

principales funciones de la computación moderna, la retención o almacenamiento de información.

Es uno de los componentes fundamentales de todas las computadoras modernas que, acoplados a

una unidad central de procesamiento (CPU por su sigla en inglés, central processing unit),

implementa lo fundamental del modelo de computadora de Arquitectura de von Neumann, usado

desde los años 1940.

En la actualidad, memoria suele referirse a una forma de almacenamiento de estado sólido

conocido como memoria RAM (memoria de acceso aleatorio, RAM por sus siglas en inglés random

21

access memory) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal.

De forma similar, se refiere a formas de almacenamiento masivo como discos ópticos y tipos de

almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que

las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son

de ayuda porque son fundamentales para la arquitectura de computadores en general.

2.6 PERIFERICOS

Periférico de entrada, es un dispositivo utilizado para proporcionar datos y señales de control a la

unidad central de procesamiento de un computador. Por ejemplo: teclado,raton óptico, escáner,

joystick, que están conectados al computador y son controlados por su microprocesador. A pesar

de que el término periférico implica a menudo el concepto de “adicional pero no esencial”,

muchos de ellos son elementos fundamentales para un sistema informático. Sin embargo, al ser

las fuentes primordiales de entrada, se pueden considerar como extensiones del sistema. Un

dispositivo de entrada es cualquier periférico (pieza del equipamiento del hardware de

computadora) utilizado para proporcionar datos y señales de control a un sistema de

procesamiento de información. Los periféricos de entrada y salida componen la interfaz de

hardware, por ejemplo entre un escáner o controlador 6DOF.

Muchos periféricos de entrada se pueden clasificar de acuerdo a:

Modalidad de entrada (por ejemplo, el movimiento mecánico, sonoro, visual, etc.)

Si la entrada es discreta (por ejemplo, pulsaciones de teclas) o continua (por ejemplo, una

posición, aunque digitalizados en una cantidad discreta, es lo suficientemente rápido como para

ser considerado continúo)

El grado de libertad que se trate (por ejemplo, los ratones tradicionales en dos dimensiones, o los

navegantes tridimensionales para aplicaciones CAD)

Los dispositivos de señalamiento, que son dispositivos de entrada usados para especificar una

posición en el espacio, además se pueden clasificar de acuerdo a:

Si la entrada es directa o indirecta. Con la entrada directa, el espacio de entrada coincide con el

espacio de exhibición, es decir, señalando que se hace en el espacio donde la retroalimentación

visual o el cursor aparece. Las Pantallas táctiles y los lápices ópticos cuentan con la aportación

directa. Ejemplos de participación indirecta de entrada incluyen el ratón y el trackball.

Si la información de posición es absoluta (por ejemplo, en una pantalla táctil) o familiar (por

ejemplo con un ratón que se puede levantar y reposicionar)

Tenga en cuenta que la entrada directa es casi necesariamente favorable, pero de entrada

indirecta puede ser absoluta o relativa. Por ejemplo, la digitalización de tabletas gráficas que no

tienen una pantalla incrustada cuentan con la aportación indirecta y el sentido posiciones

absolutas y con frecuencia se ejecuta en un modo de entrada favorable, pero también pueden ser

22

configurados para simular un modo de entrada de la familia cuando el lápiz o disco puede ser

levantado y colocado de nuevo.

Las líneas mediante las que se comunican los componentes de la CPU entre ellos y con los

elementos externos (memorias, BIOS) se denominan buses. Se clasifican según la información que

transportan en: bus de datos, bus de direcciones y bus de control.

2.7 BUSES Y TARJETAS

Los buses transportan información de tres tipos:

Bus de datos.- líneas que transportan lo datos en forma de números binarios (1 y 0) agrupados en

palabras llamadas byte.

Bus de direcciones.- líneas que transportan la dirección de memoria o del dispositivo al que dirigen

los datos.

Bus de control.- líneas que dirigen el tráfico de información. Envían señales para activar y

desactivar dispositivos mediante interrupciones y transportan información sobre el estado de

éstos.

Las tarjetas de expansión son el intermediario entre los periféricos y la CPU. Son circuitos

montados sobre tarjetas en cuyos extremos se encuentran los contactos que encajan en las

ranuras de la placa base y los puertos o conectores en los que se conectarán los periféricos.

Las tarjetas de expansión más comunes son: la tarjeta gráfica o de vídeo, de sonido, de red,

módem interno.

Para mejorar el rendimiento y el aprovechamiento del espacio, permitiendo la conexión de más

tarjetas, se tiende a incorporarlas en la placa base.

2.8 DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIO

El almacenamiento secundario (memoria secundaria, memoria auxiliar o memoria externa) es el

conjunto de dispositivos (aparatos) y medios (soportes) de almacenamiento, que conforman el

subsistema de memoria de una computadora, junto a la memoria principal.

No deben confundirse las "unidades o dispositivos de almacenamiento" con los "medios o

soportes de almacenamiento", pues los primeros son los aparatos que leen o escriben los datos

almacenados en los soportes.

La memoria secundaria es un tipo de almacenamiento masivo y permanente (no volátil), a

diferencia de la memoria RAM que es volátil; pero posee mayor capacidad de memoria que la

memoria principal, aunque es más lenta que ésta.

23

El proceso de transferencia de datos a un equipo de cómputo se le llama "procedimiento de

lectura". El proceso de transferencia de datos desde la computadora hacia el almacenamiento se

denomina "procedimiento de escritura".

En la actualidad para almacenar información se usan principalmente tres 'tecnologías':

Magnética (ej. disco duro, disquete, cintas magnéticas);

Óptica (ej. CD, DVD, Blu-ray Disc, etc.)

Algunos dispositivos combinan ambas tecnologías, es decir, son dispositivos de almacenamiento híbridos, por ej., discos Zip.

Memoria Flash (Tarjetas de Memorias Flash y Unidades de Estado sólido SSD).

Características del almacenamiento secundario[editar · editar fuente]

Capacidad de almacenamiento grande.

No se pierde información a falta de alimentación.

Altas velocidades de transferencia de información.

Mismo formato de almacenamiento que en memoria principal.

Siempre es independiente del CPU y de la memoria primaria. Debido a esto, los dispositivos de

almacenamiento secundario, también son conocidos como, Dispositivos de Almacenamiento.

2.9 EL SOFTWARE

Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático,

que comprende el conjunto de los componentes lógicos necesarios que hacen posible la

realización de tareas específicas, en contraposición a los componentes físicos que son llamados

hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como

el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición

de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente

permite al resto de los programas funcionar adecuadamente, facilitando también la interacción

entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el

usuario.

También tenemos de dos tipos:

Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma

eficiente, además de permitir su comunicación con el usuario. Nosotros utilizamos el Sistema

Windows.

Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretar del

usuario, como por ejemplo: escribir, dibujar, escuchar música.

24

BLOQUE 3 REDES, COMUNICACIONES Y DATOS

3.1 REDES

Se entiende por red al conjunto de medios (transmisión y conmutación), tecnologías (procesado,

multiplexación, modulaciones), protocolos y facilidades en general, necesarios para el intercambio

de información entre los usuarios de la red. La red es una estructura compleja. Para su estudio

suele dividirse en dos grandes bloques componentes:

*Red de acceso

*red de tránsito o núcleo de red

Los siguientes son ejemplos de redes de telecomunicaciones:

Redes de computadoras

Internet

La red telefónica

La red global Télex

La red aeronáutica ACARS

Todas las redes de telecomunicaciones se componen de cinco componentes básicos que están

presentes en cada entorno de red sin importar el tipo o el uso. Estos componentes básicos

incluyen terminales, procesadores de telecomunicaciones, canales de telecomunicaciones,

computadoras, y software para el control de las telecomunicaciones.

Las terminales son los puntos de arranque y parada en cualquier entorno de red de

telecomunicación. Cualquier dispositivo de entrada o salida que se utiliza para transmitir o recibir

datos puede ser clasificado como un componente de terminal.

Los procesadores de telecomunicaciones apoyan la transmisión de datos y la recepción entre las

terminales y los ordenadores, proporcionando una variedad de funciones de control y apoyo. (es

decir, convertir los datos de digital a analógico y viceversa)

Los canales de telecomunicaciones son el camino por el cual los datos son transmitidos y recibidos.

Los canales de telecomunicaciones se crean a través de una variedad de medios de los cuales los

más populares incluyen alambres de cobre, y cables coaxiales (cableado estructurado). Los cables

de fibra óptica se utilizan cada vez más para traer conexiones más rápidas y robustas a empresas y

hogares.

En Un Entorno de Telecomunicaciones los ordenadores están conectados a través de los medios

para efectuar sus tareas de comunicación.

25

El software de control de telecomunicaciones está presente en todos los ordenadores conectados

a una red y es responsable de controlar las actividades y la funcionalidad de la red.

Las primeras redes fueron construidas sin ordenadores, pero a finales del siglo XX sus centros de

conmutación fueron informatizados o las redes fueron remplazadas con las redes de ordenadores.

En general, todas las redes de telecomunicaciones conceptualmente constan de tres partes o

planos (llamados así porque puede considerarse como, y a menudo lo son, superposiciones de

redes separadas):

El plano de control lleva la información de control (también conocida como señalización).

El plano de datos, el plano de usuario o el plano portador transmite el tráfico de la red de usuarios.

El plano de gestión transmite las operaciones y la administración de tráfico necesarias para la

gestión de red.

3.2 CLASIFICACION DE REDES

La red de datos se utiliza ampliamente en todo el mundo para conectar a individuos y

organizaciones. Las redes de datos se pueden conectar para permitir a los usuarios un acceso libre

de irregularidades a fuentes alojadas fuera del proveedor particular al que están conectadas.

Internet es el mejor ejemplo de muchas redes de datos de diferentes organizaciones, todas

funcionando bajo un único espacio de direcciones.

Las terminales unidas a las redes TCP/IP son dirigidas mediante las direcciones IP. Hay diferentes

tipos de direcciones IP, pero la más común es la IPv4. Cada única dirección se compone de 4

números enteros entre 0 y 255, por lo general separados por puntos cuando están escritos, por

ejemplo, 82.131.34.56.

TCP/IP son los protocolos fundamentales que proporcionan el control y el envío de mensajes a

través de la red de datos. Hay muchas estructuras de red diferentes por las que TCP/IP se pueden

utilizar para enrutar los mensajes eficientemente, por ejemplo:

Redes de área extensa (WAN)

Redes de área metropolitana (MAN)

Redes de área local (LAN)

Redes de área universitaria (CAN)

Redes virtuales privadas (VPN)

Estas son las tres características que diferencian a las redes MAN de las LAN o WAN:

El área del tamaño de la red se encuentra entre las redes LAN y WAN. La red MAN tendrá un área

física de entre 5 y 50 km de diámetro.

26

Las redes MAN generalmente no pertenecen a una sola organización. El equipo que interconecta

la red, los enlaces, y la propia MAN suelen pertenecer a una asociación o un proveedor de red que

proporciona o alquila el servicio a los demás.

Una red MAN es un medio para compartir fuentes a gran velocidad dentro de la red. A menudo

proporciona conexiones a las redes WAN para el acceso a las fuentes que están fuera del alcance

de la MAN.

3.3 TOPOLOGIA DE RED

La topología de red se define como una familia de comunicación usada por los computadores que

conforman una red para intercambiar datos. En otras palabras, la forma en que está diseñada la

red, sea en el plano físico o lógico. El concepto de red puede definirse como "conjunto de nodos

interconectados". Un nodo es el punto en el que una curva se intercepta a sí misma. Lo que un

nodo es concretamente, depende del tipo de redes a que nos refiramos.

Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética,

por la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando

por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los

hosts (estaciones de trabajo), el resultado de esto es una red con apariencia de árbol porque

desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación

de nuevas redes o subredes tanto internas como externas. Además de la topología estética, se

puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.

En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez

de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un

anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un

anillo con topología en estrella.

La topología de red la determina únicamente la configuración de las conexiones entre nodos. La

distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y los tipos de señales

no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.

3.4 MEDIOS DE HADWARE DE REDES

Hardware de Red Partes físicas que conforman una Red Ordenadores Cables de conexión Modems

Gateway Switch Canaletas Etc.

Medios de Transmisión Transportan las señales de los ordenadores TIPOS DE CABLES Cable Recto:

distancias cortas Cable Coaxial: de cobre y costo accesible (cortas distancias) Cable UTP y STP: para

cableado estructurado Cable Fibra Óptica: soporta voz y video (grandes y cortas distancias a gran

velocidad)

27

Medios de Transmisión Transmisiones inalámbricas: Infrarrojos Vías Telefónicas Internet

Adaptadores de Red Medios materiales que conectan a los ordenadores y permiten transmitir

información entre las computadoras Hubs Routers Switch Gateway Modems Etc.

Modem Dispositivo o medio electrónico, el cual: Comunica a las computadoras a través de líneas

telefónicas La comunicación la realiza a través de modulación y demodulación

Router Dispositivo inteligente que permite la conexión de diferentes redes locales (LAN) Controla

el flujo de datos entre 2 o más redes

Hub Es un punto de conexión común para computadores dentro de una red Se utiliza en

topologías de redes en estrella

Otros Adaptadores SWITCH: transmite datos de una red a otra e interconecta 2 o más

ordenadores de una red BRIGETS: es una especie de puente para conectar 2 subredes GATEWAY:

interconecta redes que utilizan protocolos de comunicación diferente o datos entre aplicaciones

no compatibles.

3.5 INTERNET

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la

familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen

funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969,

cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres

universidades en California y una en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la

Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un

conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de

hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de

correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea

(IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación

multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso

remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.

28

1.1

1.2

1.3 1.4

29

IMÁGENES

1.1 COMPUTADORA HIBRIDA

1.2 SUPERCOMPUTADORA

1.3 MICROPROCESADOR

1.4 MODEM DE RED (INTERNET)

30

REFERENCIAS BIBLIOGRAFICAS

http://es.wikipedia.org/wiki/Internet

http://www.slideshare.net/pabloto/medios-y-hardware-de-redes-454947#btnNext

http://es.wikipedia.org/wiki/Topolog%C3%ADa_de_red

http://es.wikipedia.org/wiki/Red_de_telecomunicaci%C3%B3n

http://e-

ducativa.catedu.es/44700165/aula/archivos/repositorio//1000/1060/html/24_buses_tarjetas_de_

expansin_y_puertos.html

http://es.wikipedia.org/wiki/Almacenamiento_secundariO

http://es.wikipedia.org/wiki/Software

http://es.wikipedia.org/wiki/Hardware

http://engendros.galeon.com/U1T5.htm

http://roble.pntic.mec.es/jprp0006/tecnologia/1eso_recursos/unidad02_componentes_ordenado

r/teoria/teoria1.htm

http://www.cad.com.mx/generaciones_de_las_computadoras.htm

http://www.cad.com.mx/historia_de_la_computacion.htm

http://books.google.com.mx/books?id=kzcgMjhkM-MC&printsec=frontcover&hl=es

http://www.consumer.es/web/es/tecnologia/hardware/2005/03/17/140483.php

http://es.wikipedia.org/wiki/Computadora

http://es.wikipedia.org/wiki/Computadora_h%C3%ADbrida

http://es.wikipedia.org/wiki/Generaciones_de_computadoras

http://www.slideshare.net/grupoborozco/las-6-generaciones-de-computadoras

31