Transcript
Page 1: Trabajo Investigacion 3

1

TRABAJO DE INVESTIGACIÓN

EDNA MARISOL NUÑEZ ORJUELA

COD: 53012351

Corporación Unificada Nacional de Educación Superior CUN

Grupo: 40120

BOGOTA

2015

Page 2: Trabajo Investigacion 3

2

TRABAJO DE INVESTIGACIÓN

EDNA MARISOL NUÑEZ ORJUELA

COD: 53012351

REINEL ATEHORTUA RAMIREZ

Tutor programa – INFORMÁTICA Y CONVERGENCIA TECNOLÓGICA

Corporación Unificada Nacional de Educación Superior CUN

Grupo: 40120

BOGOTA

2015

Page 3: Trabajo Investigacion 3

3

TABLA DE CONTENIDO

1. ANARQUÍA INFORMÁTICA:..........................................................................................................5

2. IP:........................................................................................................................................................6

3. TCP/IP:................................................................................................................................................7

4. WWW:................................................................................................................................................8

5. HTTP:..................................................................................................................................................9

6. HACKER:.........................................................................................................................................10

7. CRAKER:..........................................................................................................................................11

8. LAMER:............................................................................................................................................12

9. CABLEADO TRANSOCEÁNICO:..................................................................................................12

10. CABLE COAXIAL:......................................................................................................................14

Tipos de cable coaxial...........................................................................................................................16

Consideraciones sobre el cable coaxial..................................................................................................17

Ventajas del cable coaxial:....................................................................................................................17

11. FIBRA OPTICA:...........................................................................................................................18

Qué es la Fibra Óptica...........................................................................................................................18

Por qué utilizar la Fibra Öptica..............................................................................................................19

Qué beneficios trae la Fibra Óptica.......................................................................................................19

Tipos de Cable de Fibra Óptica.............................................................................................................20

Cable Auto Soportado ADSS............................................................................................................20

Cable Submarino...............................................................................................................................20

Cable OPGW.....................................................................................................................................21

Clasificación de las Fibras Ópticas........................................................................................................21

Fibras ópticas multi-modo.................................................................................................................21

Fibras ópticas mono-modo.................................................................................................................21

12. WI-FI:............................................................................................................................................22

Page 4: Trabajo Investigacion 3

4

13. SATÉLITE:...................................................................................................................................23

¿Qué es un satélite artificial?.................................................................................................................26

¿Para qué sirven los satélites?................................................................................................................27

¿Cómo funcionan los satélites?..............................................................................................................27

Anatomía de un satélite.........................................................................................................................28

Tipos de satélites...................................................................................................................................31

Aplicaciones..........................................................................................................................................32

Satélites científicos............................................................................................................................32

Satélites de comunicación..................................................................................................................33

Satélites de meteorología...................................................................................................................33

Satélites de navegación......................................................................................................................34

Satélites de teledetección...................................................................................................................35

Satélites militares...............................................................................................................................35

14. GPS:..............................................................................................................................................36

Cómo funciona el GPS?........................................................................................................................37

15. TRIADA DE CUATRO:...............................................................................................................38

16. GLOBALIZACION DE LAS COMUNICACIONES:..................................................................41

WEBGRAFÍA...........................................................................................................................................47

Page 5: Trabajo Investigacion 3

5

1. ANARQUÍA INFORMÁTICA:

Hace mención a la ausencia de poder público, ante esta situación el estado se debilita ya que no puede ejercer su monopolio del uso de la fuerza. La anarquía es un Pensamiento ideológico y político. Se basa en la búsqueda de la libertad y en la eliminación de cualquier poder central o estatal. El anarquismo nace en el siglo XIX, tras varios siglos de cambios fundamentales en las estructuras de producción, luego de la revolución industrial y la explotación a la que era sometida la clase obrera. Para el anarquismo, el mayor logro de la humanidad es la libertad del individuo para poder expresarse y actuar sin que se lo impida ninguna forma de poder, sea terrena o sobrenatural, por lo que es necesario abatir todo tipo relación humana que restrinja la autonomía de los hombres y promueva la esclavitud económica.

El Intelectual NOAM CHOMSKI del siglo XX y comienzos del siglo XXI conocido anarquista, define el movimiento anarquista como un movimiento social en el que intenta conseguirse que todo individuo sea libre para desarrollarse y poder ofrecer todo su potencial de nuevo a la sociedad, oponiéndose por ello a cualquier forma de control autoritario. Sin embargo, este pensamiento libertario no debe ser confundido con el neoliberalismo quien adopto y pervirtió esta idea en forma de anarco capitalismo. Pero aquí diverge del socialismo basado en el estado, pues esto sería a su vez una autoridad impuesta, y apuesta por el socialismo libertario, en el que la sociedad está organizada de forma horizontal y se gestionada de abajo hacia arriba.Esto no significa que no se tenga gobierno sino que el gobierno no radica en una casta de gobernantes, sino en la propia sociedad. Estas ideas se acercan mucho a las nuevas formas de democracia directa que se están comenzando a proponer y que hacen posible las nuevas tecnologías.

Por eso , aunque Chomsky sea conocido por su activismo político en contra del control de los medios de comunicación, la guerra sucia de los gobiernos y la dictadura de los mercados, es interesante conocer también su trabajo en el campo de las gramáticas lingüísticas a mediados de los años 50, ya que estas pondrían las bases unas décadas más tarde a los lenguajes de programación modernos y a los autómatas de estados, en la carrera de informática se deben ver 4 asignaturas que están basadas en su práctica totalidad en las teorías de Chomsky sobre gramáticas libres de contexto y gramáticas regulares. A este anarquista le debemos tener ordenadores, Internet, video juegos, teléfonos móviles, navegadores, GPS……

Todo sistema informativo utiliza lenguajes de programación basados en gramática, libres de contexto o se basan en un autómata finito de estados, ya sea el sistema operativo de

Page 6: Trabajo Investigacion 3

6

vuestro ordenador, el sistema de control de vuestro coche o las luces de Navidad que cambian de color y parpadean en las fachadas de los centros comerciales. Sin embargo no Chomsky fue un anarquista famoso casi nadie conocido la faceta de anarquista de Albert Einstein.

Vinton Cerf, el padre del Internet, jamás se habría imaginado que su invento cambiaría el mundo por completo, ya que la manera en la que nos relacionamos actualmente es muy distinta a como solíamos hacerlo hace quince años. Pero no solo socialmente ha cambiado el mundo, el Internet no solo ha cambiado la forma de hacer negocios, sino la forma de comunicarnos.

Aunque parezca que el Internet es gratis, salvo por el pago con la compañía que nos da el servicio, el Internet se paga solo por medio de la publicidad, y es por eso que en cada página de Internet hay mínimo un anuncio. Pero no sólo ha probado ser una buena publicidad, en la actualidad hay revistas impresas que piensan regalar su versión material pues los blogs dejan más ganancias, suficientes para mantener la editorial.

Sin embargo; nos enfrentamos a un medio donde no se han aplicado reglas, es una completa anarquía y muchos empresarios, debido a que los negocios comienzan a estar mal por culpa de la cultura “todo gratis en Internet”. Han empezado a buscar una democratización del Internet. Es decir, buscan ponerle reglas al flujo de información para controlarlo.

2. IP:

IP es la sigla de Internet Protocol o, Protocolo de Internet. Se trata de un estándar que se emplea para el envío y recepción de información mediante una red que reúne paquetes conmutados.

El IP no cuenta con la posibilidad de confirmar si un paquete de datos llegó a su destino. Esto puede permitir que el paquete arribe duplicado, con daños, en un orden erróneo o que, simplemente, no llegue a destino.En caso que los paquetes a transmitir superen el máximo permitido en el fragmento de la red, la información es subdividida en paquetes de menor tamaño y vuelta a reunir en el momento preciso.

Las direcciones IP hacen referencia al equipo de origen y llegada en una comunicación a través del protocolo de Internet. Los conmutadores de paquetes (conocidos como

Page 7: Trabajo Investigacion 3

7

switches) y los enrutadores (routers) utilizan las direcciones IP para determinar qué tramo de red usarán para reenviar los datos.

La dirección IP está compuesta por un número que permite identificar jerárquica y lógicamente la interfaz de una computadora u otra máquina que se encuentra conectada a una red y que emplea el protocolo de Internet. Los usuarios de Internet, por ejemplo, utilizan una dirección IP que suele cambiar al momento de cada conexión. Esta modalidad de asignación es conocida como dirección IP dinámica.

Reducir lo que es el número de IP que han sido asignadas y están inactivas o disminuir los costes de operación que tienen los encargados de ejercer como proveedores de servicios de Internet son básicamente las dos ventajas que trae consigo el uso de las citadas IP dinámicas, que son las que en la actualidad ofrecen la gran mayoría de operadores.

Además de todo lo expuesto tenemos que dejar patente que las citadas IP se pueden asignar por parte del servidor de tres maneras claramente delimitadas siendo la primera de ellas la que se conoce por el nombre de manual. Esto significa que quien la crea es el encargado de administrar la red y lo hace manualmente.

En segundo lugar la segunda forma de asignación es la llamada automática, que se realiza de esta manera que le da nombre y tomando como base fundamental un rango que ya ha sido prefijado por el citado administrador.

En tercer y último lugar tenemos que exponer que está la manera dinámica. Este tipo de asignación tiene una clara diferencia con respecto a los dos anteriores y es que es el único que permite llevar a cabo lo que es el volver a utilizar direcciones IP, es decir, a proceder a su reutilización. Un rango de direcciones IP establecido por el administrador y el software de comunicación TCP/IP que tiene cada ordenador, y que se pone en funcionamiento al conectarse la correspondiente tarjeta de interfaz de red, son los elementos esenciales para que se produzca esta forma de asignación.

Los sitios de Internet que, por cuestiones obvias, deben estar conectados de manera permanente, utilizan una dirección IP estática o fija. Esto quiere decir que la dirección no varía con el paso de las horas o de los días.

3. TCP/IP:

Page 8: Trabajo Investigacion 3

8

Son las siglas de Protocolo de Control de Transmisión/Protocolo de Internet (en inglés Transmission Control Protocol/Internet Protocol), un sistema de protocolos que hacen posibles servicios Telnet, FTP, E-mail, y otros entre ordenadores que no pertenecen a la misma red.

El Protocolo de Control de Transmisión (TCP) permite a dos anfitriones establecer una conexión e intercambiar datos. El TCP garantiza la entrega de datos, es decir, que los datos no se pierdan durante la transmisión y también garantiza que los paquetes sean entregados en el mismo orden en el cual fueron enviados.

El Protocolo de Internet (IP) utiliza direcciones que son series de cuatro números ocetetos (byte) con un formato de punto decimal, por ejemplo: 69.5.163.59

Los Protocolos de Aplicación como HTTP y FTP se basan y utilizan TCP/IP.

4. WWW:

Abreviatura de World Wide Web, es la red global mundial de intercambio de documentos a través de hipertexto comúnmente conocida como Internet.

Para la informática, la World Wide Web es un sistema de información y documentos vinculada a través de hipertexto e hipermedios a los que se puede acceder por medio de Internet, más específicamente, con un navegador web.

En 1989 Tim Berners Lee y Robert Cailiau, dos investigadores del CERN (Organización Europea para la Investigación Nuclear) crearon la Web, interviniendo luego en el desarrollo de los diversos estándares y escenarios Web a partir de su invención.

El funcionamiento de la Web ocurre mediante navegadores web (los más comunes, Internet Explorer, Mozilla Firefox y Safari). El usuario puede visualizar el contenido incluido en páginas y sitios web ingresando una dirección URL en el campo determinado. Así, tiene acceso a texto, imágenes, videos, audio y todo tipo de contenido, y navega entre múltiples unidades de contenido usando hiperenlaces que lo conducen a través de simples clicks.

El “www” es actualmente un estándar mundial que la mayoría de los sitios web incluyen como parte de su dirección y que es preciso para ingresar y navegar en la Web. Si bien

Page 9: Trabajo Investigacion 3

9

Internet no consiste simplemente en el intercambio de información y contenido a través de sitios web, se trata quizás de uno de los usos más difundidos de esta tecnología. Fácilmente, cualquier usuario puede no sólo acceder, sino generar su propio contenido para ser publicado en la WWW mediante aplicaciones gratuitas y rápidas, que permiten intercambiar información desde y hacia todas partes del mundo utilizando el mismo protocolo de navegación. El “www” es un protocolo íntimamente ligado con el “http”, “.net”, “jsp”, “php” y “asp”, entre otros.

Para facilitar la navegación y la búsqueda de información en la Web, existen los denominados buscadores, como Google o Yahoo, que permiten que un usuario ingrese un término de su interés y reciba como resultado cientos de miles de sitios web relacionados con dicho concepto o palabra clave..

5. HTTP:

Hypertext Transfer Protocol o HTTP (en español protocolo de transferencia de hipertexto) es el protocolo usado en cada transacción de la World Wide Web. HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos de software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador web o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un localizador uniforme de recursos (URL). Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.

HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.

Page 10: Trabajo Investigacion 3

10

6. HACKER:

Es un término que es utilizado a veces con cierta ambigüedad, sobre todo considerándose solamente su lado delictivo y dañino en lo que es el mundo de la Informática, pero teniendo siempre en común algo que queda bien en claro: Un Hacker no es un usuario de ordenadores común, sino que cuenta con un conocimiento superior en lo que respecta a la Programación.

El concepto más difundido es aquel en la cual se considera como capaz de poder penetrar en Sistemas Informáticos protegidos, pudiendo acceder a una cantidad variable de Bases de Datos y poder acceder a información que lógicamente, no está disponible al público, pudiendo tener inclusive una sensibilidad confidencial y hasta poder causar un perjuicio de poder hacerse pública, teniendo acceso a ella mediante un Escritorio Remoto, aprovechando entonces la conexión de Redes para dicho acceso.

Actualmente este término es mayormente aplicado a todos los Cibernautas que se agrupan en distintas comunidades o Sub-Culturas que tienen distintas funcionalidades en lo que respecta a la Informática y, sobre todo, al manejo de la Información en Internet.

Un grupo numeroso, aunque quizá no tan masivo como se espera, es el de los Hackers de Seguridad Informática, que se dividen a sí mismo en aquellos que son considerados como Black Hats, que se encargan de abrir brechas de seguridad en sistemas vulnerables para poder acceder a la información, en contraposición a los White Hats que si bien explotan las mismas falencias, simplemente buscan brindar una solución a este agujero en la Seguridad del Sistema.

El término de Hacker nació justamente en otro de los grupos que todavía sigue vigente, perteneciendo al MIT (Instituto de Tecnología de Massachusetts) cuyos programadores se llamaban a sí mismos como "Hackers", definidos a sí mismos como quienes no solo disfrutan del funcionamiento del equipo en forma interna, sino también a las redes informáticas y a las distintas conexiones entre computadoras.

Actualmente contamos con una gran cantidad de Comunidades de Hackers que se desenvuelve con distintas misiones, considerándose a su vez como Hacktivistas (es decir, Activistas del Hacking) que tienen un fundamento y tareas en particular, teniendo por ejemplo el caso de los Hackers del Software Libre, que se encargan de la difusión y desarrollo de las aplicaciones de este tipo.

Por otro lado, encontramos a aquellos que tienen una misión más bien dañina, que son conocidos como Crackers, que son los que realizan modificaciones y daños a los sistemas

Page 11: Trabajo Investigacion 3

11

que han vulnerado, siendo también relacionados a la creación y difusión de Virus Informáticos.

7. CRAKER:

El concepto de Cracker, como su nombre nos está indicando (deriva del inglés Crack, que significaría romper) comprende a aquellos usuarios de ordenadores que tienen los conocimientos y las técnicas necesarias para Romper Sistemas de Seguridad, teniendo esta actividad distintas finalidades y motivos, que varían desde el simple hecho de solamente medir conocimientos, hasta como forma de protesta.

Una de las formas más difundidas en estos últimos tiempos es la del Cracker que realiza una modificación en un funcionamiento de un Software Original, obteniéndose Seriales, aplicaciones conocidas como Keygens (que generan Claves de Producto) y también programan los archivos que se llaman justamente Cracks, que permiten saltear las restricciones de seguridad en el caso del Software Ilegal.

Por otro lado, están aquellos que se encargan de eliminar las funciones de un Sistema de Seguridad en un ordenador o una red informática, teniendo acceso al mismo, pudiendo obtener información o inclusive realizar modificaciones del mismo, siendo al igual que la anterior una práctica ilegal y por ende penada por la ley.

Sin embargo, existen también Crackers Legales, teniendo esta clasificación aquellas personas que simplemente realizan actividades de "Crackeo" para medir sus conocimientos, terminando esta actividad cuando la emplean para su propio beneficio (es decir, no distribuyen Software Ilegal, sino que lo utilizan ellos solamente) al igual que también existen Hackers Legales que realizan infiltraciones a sistemas pero no tienen ni Fines de Lucro ni efectúan modificaciones en los mismos, sino que tienen finalidades completamente lícitas en su actividad.

Un tiempo atrás se hablaba de otro tipo de actividad de Hacking, que es la de Phreakers, que consiste en aquellas personas que irrumpían en las Líneas Telefónicas ajenas para poder realizar Conexiones a Internet (por la conectividad prácticamente obsoleta de Dial Up), lo que generaba lógicamente un gasto económico importante al usuario afectado, siendo aplicado actualmente este concepto para la obtención de Información Bancaria de una persona.

Page 12: Trabajo Investigacion 3

12

8. LAMER:

Este grupo es quizás el que más número de miembros posee y quizás son los que mayor presencia tienen en la red. Normalmente son individuos con ganas de hacer Hacking, pero que carecen de cualquier conocimiento. Habitualmente son individuos que apenas si saben lo que es un ordenador, pero el uso de este y las grandes oportunidades que brinda Internet, convierten al nuevo internauta en un obsesivo ser que rebusca y relee toda la información que le fascina y que se puede encontrar en Internet. Normalmente la posibilidad de entrar en otro sistema remoto o la posibilidad de girar un gráfico en la pantalla de otro ordenador, le fascinan enormemente. Este es quizás el grupo que más peligro acontece en la red ya que ponen en práctica todo el Software de Hackeo que encuentran en la red. Así es fácil ver como un Lamer prueba a diestro y siniestro un " bombeador de correo electrónico " esto es, un programa que bombardea el correo electrónico ajeno con miles de mensajes repetidos hasta colapsar el sistema y después se mofa autodenominandose Hacker. También emplean de forma habitual programas Sniffers para controlar la Red, interceptan tu contraseña y correo electrónico y después te envían varios mensajes, con dirección falsa amenazando tu sistema, pero en realidad no pueden hacer nada más que cometer el error de que poseen el control completo de tu disco duro, aun cuando el ordenador está apagado. Toda una negligencia en un terreno tan delicado.

9. CABLEADO TRANSOCEÁNICO: Actualmente, cualquiera tenemos la posibilidad de acceder a una gran cantidad de información que se encuentra distribuida por todo el mundo de forma casi instantánea sin importar la distancia al lugar donde se encuentre. Pero, ¿os habéis parado a pensar cómo es posible esto? Pues en gran parte es debido a los cableados transoceánicos.

Hoy en día, el 90% del tráfico de Internet pasa por estos cables submarinos que unen Europa, Asia, América y Oceanía. En la página Web http://www.submarinecablemap.com/ podéis observar el mapa de estos “puentes” entre continentes. Sin este cableado muchas de las acciones que realizamos en nuestra vida cotidiana no serían posibles o tendrían un coste prácticamente in asumible.

El conjunto de estos cables convierte a los océanos en auténticas autopistas de la información, que nos permiten tener transmisiones intercontinentales de alta velocidad. Además, no da la capacidad de enviar grandes volúmenes de datos con un retardo

Page 13: Trabajo Investigacion 3

13

mínimo, algo que sería in asumible con otros tipos de enlaces (por ejemplo enlaces por satélite).

Para las transmisiones transoceánicas se suele utilizar la fibra óptica como medio de transmisión, ya que permite altas tasas de transferencia y su tolerancia al ruido es muy alta.

Tanto la fabricación como la instalación del cableado transoceánico son complicadas, ya que se trata de tirar cables de fibra óptica de muchos kilómetros de longitud con una precisión milimétrica a través del fondo oceánico.

El primer cable submarino data de mediados del siglo 19, cuando surgió la necesidad de conectar por telégrafo Inglaterra y Francia. Imaginaros el gran reto que suponía hace siglo y medio. Aunque la tecnología ha evolucionado a pasos agigantados, la instalación y la reparación de este cableado sigue siendo costosa y dependiente de los barcos que van depositando poco a poco el cable sobre fondo marino.

Un cable submarino o Interoceánico es aquel cable de cobre o fibra óptica instalado sobre el lecho marino y destinado fundamentalmente a servicios de telecomunicación.

No obstante, también existen cables submarinos destinados al transporte de energía eléctrica, aunque en este caso las distancias cubiertas suelen ser relativamente pequeñas.

En lo relativo al servicio de telecomunicación los primeros cables, destinados al servicio telegráfico, estaban formados por hilos de cobre recubiertos de un material aislante denominado gutapercha, sistema desarrollado en 1847 por el alemán Werner von Siemens.

Con este sistema se logró tender, en 1852, el primer cable submarino que unía el Reino Unido y Francia a través del Canal de la Mancha.

En 1855 se aprobó el proyecto para tender el primer cable trasatlántico que quedó fuera de servicio en poco tiempo. En 1865 se puso en marcha el segundo proyecto, empleándose para ello el mayor barco existente en ese entonces, el Great Eastern. Este cable no llegaría a funcionar hasta el año 1866 y unía Irlanda y Terranova.

Las dificultades de tendido fueron considerables, así como las de explotación, debido a las elevadas atenuaciones que sufrían las señales como consecuencia de la capacitancia entre el conductor activo y tierra, así como por los problemas de aislamiento. Muchos de estos problemas eran ocasionados por los accionistas de las compañías marítimas,

Page 14: Trabajo Investigacion 3

14

introduciendo clavos y perforando así, la capa aislante del cable, se tuvieron que emplear muchos hombres y un trabajo minucioso y a conciencia para poder repararlos. El progreso de éste, era perjudicial económicamente para las compañías navieras.

El descubrimiento de aislantes plásticos posibilitó la construcción de cables submarinos para telefonía, dotados de repetidores amplificadores sumergidos, con suministro de energía a través de los propios conductores por los que se transmitía la conversación.

Posteriormente, en la década de los 60, se instalaron cables submarinos formados por pares coaxiales, que permitían un elevado número de canales telefónicos analógicos, del orden de 120 a 1800, lo que para la época era mucho. Finalmente, los cables submarinos de fibra óptica han posibilitado la transmisión de señales digitales portadoras de voz, datos, televisión, etc. con velocidades de transmisión de hasta 2,5 Gbit/s, lo que equivale a más de 30 000 canales telefónicos de 64 kbit/s.

Aunque los satélites de comunicaciones cubren una parte de la demanda de transmisión, especialmente para televisión e Internet, los cables submarinos de fibra óptica siguen siendo la base de la red mundial de telecomunicaciones.

10. CABLE COAXIAL:

El cable coaxial es un medio de transmisión relativamente reciente y muy conocido ya que es el más usado en los sistemas de televisión por cable. Físicamente es un cable cilíndrico constituido por un conducto cilíndrico externo que rodea a un cable conductor, usualmente de cobre. Es un medio más versátil ya que tiene más ancho de banda (500Mhz) y es más inmune al ruido. Es un poco más caro que el par trenzado aunque bastante accesible al usuario común. Encuentra múltiples aplicaciones dentro de la televisión (TV por cable, cientos de canales), telefonía a larga distancia (puede llevar 10.000 llamadas de voz simultáneamente), redes de área local (tiende a desaparecer ya que un problema en un punto compromete a toda la red).

Tiene como características de transmisión que cuando es analógica, necesita amplificadores cada pocos kilómetros y los amplificadores más cerca de mayores frecuencias de trabajos, y hasta 500 Mhz; cuando la transmisión es digital necesita repetidores cada 1 Km y los repetidores más cerca de mayores velocidades transmisión.

La transmisión del cable coaxial entonces cubre varios cientos de metros y transporta decenas de Mbps.

Page 15: Trabajo Investigacion 3

15

Consiste en un cable conductor interno (cilíndrico) separado de otro cable conductor externo por anillos aislantes o por un aislante macizo. Todo esto se recubre por otra capa aislante que es la funda del cable.

Este cable, aunque es más caro que el par trenzado, se puede utilizar a más larga distancia, con velocidades de transmisión superiores, menos interferencias y permite conectar más estaciones. Se suele utilizar para televisión, telefonía a larga distancia, redes de área local, conexión de periféricos a corta distancia, etc...Se utiliza para transmitir señales analógicas o digitales. Sus inconvenientes principales son: atenuación, ruido térmico, ruido de intermodulación.

Para señales analógicas se necesita un amplificador cada pocos kilómetros y para señales digitales un repetidor cada kilómetro. Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes razones para la utilización de este cable: era relativamente barato, y era ligero, flexible y sencillo de manejar.

Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un apantallamiento de metal trenzado y una cubierta externa.

El término apantallamiento hace referencia al trenzado o malla de metal (u otro material) que rodea algunos tipos de cable. El apantallamiento protege los datos transmitidos absorbiendo las señales electrónicas espúreas, llamadas ruido, de forma que no pasan por el cable y no distorsionan los datos. Al cable que contiene una lámina aislante y una capa de apantallamiento de metal trenzado se le denomina cable apantallado doble. Para entornos que están sometidos a grandes interferencias, se encuentra disponible un apantallamiento cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de apantallamiento de metal trenzado.

El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre.Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La malla de hilo trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la intermodulación (la intermodulación es la señal que sale de un hilo adyacente).

El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que se encuentren perdidas en la malla circularían por el hilo de cobre. Un cortocircuito eléctrico ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en contacto. Este

Page 16: Trabajo Investigacion 3

16

contacto causa un flujo directo de corriente (o datos) en un camino no deseado. En el caso de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de un fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes, el resultado no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente causan un fallo en el dispositivo y lo habitual es que se pierdan los datos.

Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico) rodea todo el cable.

El cable coaxial es más resistente a interferencias y atenuación que el cable de par trenzado.

La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no afecten a los datos que se envían a través del cable de cobre interno. Por esta razón, el cable coaxial es una buena opción para grandes distancias y para soportar de forma fiable grandes cantidades de datos con un equipamiento poco sofisticado.

Tipos de cable coaxial.

• Cable fino (Thinnet). • Cable grueso (Thicknet).

• Para transmisión en banda ancha.Con una impedancia característica de 75 ohmios.Utilizado en transmisión de señales de televisión por cable (CATV, "Cable Televisión").

• Para transmisión en banda base.Con una impedancia característica de 50 ohmios. Utilizado en LAN´s. Dentro de esta categoría, se emplean dos tipos de cable: coaxial grueso ("thick") y coaxial fino ("thin").

Coaxial grueso ( "thick" ):Es el cable más utilizado en LAN´s en un principio y que aún hoy sigue usándose en determinadas circunstancias (alto grado de interferencias, distancias largas, etc.).

Los diámetros de su alma/malla son 2,6/9,5 mm. Y el del total del cable de 0,4 pulgadas (aprox. 1 cm.). Como conector se emplea un transceptor ("transceiver") relativamente complejo, ya que su inserción en el cable implica una perforación hasta su núcleo (derivación del cable coaxial mediante un elemento tipo "vampiro" o "grifo").

Page 17: Trabajo Investigacion 3

17

Coaxial fino ( "thin" ): Surgió como alternativa al cable anterior, al ser más barato,flexible y fácil de instalar. Los diámetros de su alma/malla son 1,2/4,4 mm, y el del cable sólo de 0,25 pulgadas (algo más de 0,5 cm.). Sin embargo, sus propiedades de transmisión (perdidas en empalmes y conexiones, distancia máxima de enlace, protección gerente a interferencias, etc.) son sensiblemente peores que las del coaxial grueso. Con este coaxial fino se utilizan conectores BNC ("British National Connector") sencillos y de alta calidad Ofrecen más seguridad que los de tipo "grifo", pero requieren un conocimiento previo de los puntos de conexión.

Hasta hace poco, era el medio de transmisión más común en las redes locales. El cable coaxial consiste en dos conductores concéntricos, separados por un dieléctrico y protegido del exterior por un aislante (similar al de las antenas de TV). Existen distintos tipos de cable coaxial, según las redes o las necesidades de mayor protección o distancia. Este tipo de cable sólo lo utilizan las redes EtherNet.

El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en particular.

Consideraciones sobre el cable coaxial

En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no obstante, considere las siguientes características del cable coaxial.

Utilice el cable coaxial si necesita un medio que pueda:

• Transmitir voz, vídeo y datos. • Transmitir datos a distancias mayores de lo que es posible con un cableado menos caro • Ofrecer una tecnología familiar con una seguridad de los datos aceptable.

Ambos tipos de cable pueden ser usados simultáneamente en una red. La velocidad de transmisión de la señal por ambos es de 10 Mb.

Ventajas del cable coaxial:

• La protección de las señales contra interferencias eléctricas debida a otros equipos, fotocopiadoras, motores, luces fluorescentes, etc.

Page 18: Trabajo Investigacion 3

18

• Puede cubrir distancias relativamente grandes, entre 185 y 1500 metros dependiendo del tipo de cable usado.

11. FIBRA OPTICA:

A comienzos de la década de 1840, El físico irlandés John Tyndall descubrió que la luz podía viajar dentro de un material (agua), al curvarse por reflexión interna, y en 1870 presentó sus estudios ante los miembros de la Real Sociedad.

En 1880, Alexander Graham Bell fue el primero en utilizar la luz como medio de transmisión y encontró que en la atmosfera se atenuaban las señales debido a las partículas de aire y vapor de agua.

La búsqueda de un medio para trasmitir luz que fuera inmune a perturbaciones y más confiable continuó y, finalmente, en 1951 se encontraron atenuaciones del haz de luz enviado a través de un hilo llamado fibra óptica en rangos que permitían una aceptable transmisión de información por este medio. A finales de la década del 70 y principios de los 80´s de ese siglo el avance en la fabricación de estos cables ópticos y el desarrollo de las tecnologías LED (Light Emmiting Diode) y LASER (Light Amplification by Stimulated Emission of Radiation) permitieron iniciar el desarrollo de sistemas de comunicación eficientes, confiables y de alta capacidad que utilizan la fibra como medio de transmisión, para dar inicio a una nueva era tecnológica en materia de soluciones para la transmisión de información de gran capacidad. En su composición, la fibra óptica está constituida por un hilo flexible tan delgado como un cabello humano y normalmente está hecha de vidrio u otro material dieléctrico (que no conduce cargas eléctricas). Su índice de refracción es alto y es capaz de llevar la luz con bajas atenuaciones incluso cuando se curva el cable.Está constituida por un núcleo y un revestimiento, ambos cilindros concéntricos y con diferente índice de refracción, siendo el del exterior inferior al del interior. Según el uso y las condiciones a las que será sometida, la fibra óptica además se cubre externamente con una capa llamada recubrimiento.

Qué es la Fibra Óptica

La fibra óptica se compone de filamentos de vidrio, aunque algunas veces se pueden encontrar de plástico. La forma de enviar información a través de la fibra óptica es a través de haces de luz, los cuales viajan dentro de ella. En telecomunicaciones, es el

Page 19: Trabajo Investigacion 3

19

medio de transmisión más utilizado gracias a la gran capacidad que tiene de enviar información, ya que a través de un hilo de fibra óptica se pueden enviar millones de bits por segundo (bps) y acceder a servicios de manera simultánea con gran velocidad y calidad.

Por qué utilizar la Fibra Öptica

Gracias a su composición, la fibra óptica permite adaptarse a diferentes tipos de condiciones geográficas, ya que el cable de fibra óptica es más liviano, lo cual permite una fácil instalación sobre redes de energía, viales y de gasoductos, entre otras, con importantes características técnicas para su funcionamiento, además, como es la inmunidad al ruido y a las interferencias electromagnéticas.

La relación del costo de un cable de fibra óptica frente a los beneficios que se obtienen en la implementación y utilización del mismo generan una relación de ganancia importante, pues permite obtener grandes provechos frente a las altas cantidades de información que pueden transmitirse. Como dato adicional, en el mercado se pueden encontrar cables de fibras ópticas de gran cantidad de hilos a un precio económico, lo cual lo convierte en el medio que más ventajas posee para el despliegue de nuevas redes de telecomunicaciones.

Qué beneficios trae la Fibra Óptica

Gracias a la gran capacidad y a su velocidad de transmisión, las personas pueden conectarse a la red mundial de la información -Internet- de una manera rápida y obtener información de manera instantánea sobre eventos o sucesos que ocurren en el mundo, enviar información a través de correos electrónicos, disfrutar de nuevos servicios como la televisión a través de Internet y acceder a capacitaciones en línea. Todos estos beneficios se pueden obtener a través del uso de las redes de fibra óptica, que se transforman en la solución a muchos de los problemas de acceso y capacidad a redes de telecomunicaciones.

Comparación con otros Medios de Comunicación

Fibra óptica vs cable coaxial

En los medios guiados, la fibra óptica presenta grandes diferencias frente al cable coaxial, como son:

Page 20: Trabajo Investigacion 3

20

• La fibra óptica, como medio físico, permite llevar señales a distancias 10 veces superiores a las que puede llevar el cable coaxial.

• La fibra óptica, en redes de transmisión, requiere el uso de repetidores 30 veces menos que con el cable coaxial.

• La fibra óptica posee una atenuación hasta 100 veces menor que el cable coaxial.Fibra óptica vs comunicaciones por satélite

En comparación con sistemas inalámbricos, la fibra óptica logra diferencias importantes, como son:

• La calidad de la señal es mayor, ya que los retardos están por debajo de los 100 mseg frente a los 500 mseg del satélite.

• La capacidad de transmisión de la fibra óptica es más de 1.000 veces mayor que la del satélite.

• Los equipos de fibra óptica son mucho más pequeños y económicos.

Tipos de Cable de Fibra Óptica

Cable Auto Soportado ADSS

Es un cable diseñado para ser utilizado en estructuras aéreas, comúnmente redes eléctricas o de distribución energética (postes o torres), posee características técnicas que permiten soportar condiciones ambientales extremas y la forma de instalación es a través de soportes y abrazaderas especiales.

Cable Submarino

Es un cable diseñado para permanecer sumergido en el agua. Estos cables logran alcanzar grandes distancias, por lo que son muy utilizados para conectar continentes. Adentro, en su composición, disponen de cables de energía para alimentar los amplificadores ópticos que normalmente hacen parte de sistema de comunicaciones y, al encontrarse ubicados a grandes profundidades, se imposibilita su mantenimiento.

Page 21: Trabajo Investigacion 3

21

Cable OPGW

El cable OPGW (Optical Ground Wire) es un cable que tiene fibras ópticas insertadas dentro de un tubo, en el núcleo central del cable de tierra de los circuitos eléctricos. Sus fibras ópticas están com¬pletamente protegidas y rodeadas por pesados cables a tierra. Es utilizado por las compañías eléctricas para suministrar comunicaciones a lo largo de las rutas de las líneas de alta tensión y poseen gran disponibilidad en el servicio de transmisión de información.

Clasificación de las Fibras Ópticas

De acuerdo con el tipo de aplicación que se requiera, la capacidad de información a transmitir y el precio, en el mercado se pueden encontrar cables de fibra que se adaptan a cualquier tipo de necesidad. Ellos son:

Fibras ópticas multi-modo

Son aquellas fibras que pueden guiar y transmitir varios rayos de luz por el efecto de reflexión (varios modos de propagación), a través del núcleo de la fibra óptica. Estas fibras ópticas son fabricadas a base de vidrio y son utilizadas para aplicaciones de cortas distancias en soluciones donde no existen trayectos mayores de 2 kilómetros, y se adaptan muy bien a soluciones de tipo empresarial y campus universitarios, entre otras.

Fibras ópticas mono-modo

Son aquellas fibras ópticas que, por su diseño, pueden guiar y transmitir un solo rayo de luz a través del eje de la fibra óptica, siendo la longitud de onda del mismo tamaño del núcleo, por lo que se denomina 'mono-modo' (unico modo de propagación). Esta fibra óptica permite lograr grandes distancias, para alcanzar un alto cubrimiento y una alta capacidad de transmisión de información. Estas fibras ópticas son normalmente utilizadas por los operadores de comunicaciones en el mundo para el despliegue de las redes ópticas de cubrimiento metropolitano, regional y nacional. Según la tecnología que se implemente para la transmisión de información, se

Page 22: Trabajo Investigacion 3

22

pueden alcanzar distancias de miles de kilómetros y permitir enviar terabits de información.

12. WI-FI:

Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inalámbrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.

En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:

• 802.11b, que emite a 11 Mb/seg, y• 802.11g, más rapida, a 54 MB/seg.

De hecho, son su velocidad y alcance (unos 100-150 metros en hardaware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables.

Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso, que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las tarjetas PCI (que se insertan directamente en la placa base) las recomendables, nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se venden con tarjeta integrada.

En cualquiera de los casos es aconsejable mantener el punto de acceso en un lugar alto para que la recepción/emisión sea más fluida. Incluso si encontramos que nuestra velocidad no es tan alta como debería, quizás sea debido a que los dispositivos no se encuentren adecuadamente situados o puedan existir barreras entre ellos (como paredes, metal o puertas).

El funcionamiento de la red es bastante sencillo, normalmente sólo tendrás que conectar los dispositivos e instalar su software. Muchos de los enrutadores WIFI (routers WIFI) incorporan herramientas de configuración para controlar el acceso a la información que se transmite por el aire.

Pero al tratarse de conexiones inalámbricas, no es difícil que alguien interceptara nuestra comunicación y tuviera acceso a nuestro flujo de información. Por esto, es recomendable

Page 23: Trabajo Investigacion 3

23

la encriptación de la transmisión para emitir en un entorno seguro. En WIFI esto es posible gracias al WPA, mucho más seguro que su predecesor WEP y con nuevas características de seguridad, como la generación dinámica de la clave de acceso.

Para usuarios más avanzados exite la posibilidad de configurar el punto de acceso para que emita sólo a ciertos dispositivos. Usando la dirección MAC, un identificador único de los dispositivos asignados durante su construcción, y permitiendo el acceso solamente a los dispositivos instalados.

Por último, también merece la pena comentar la existencia de comunidades wireless que permiten el acceso gratuito a la red conectando con nodos públicos situados en diferentes puntos, por ejemplo, en tu ciudad. Esta tendencia aún no está consolidada y tiene un futuro impredecible, pues es muy probable que las compañías telefónicas se interpongan a esta práctica. Si te interesa este tema y quieres más información algunos sitios de interés serían valenciawireless o RedLibre.

13. SATÉLITE:

El origen de los satélites artificiales está íntimamente ligado al desarrollo de los cohetes que fueron creados, primero, como armas de larga distancia; después, utilizados para explorar el espacio y luego, con su evolución, convertidos en instrumentos para colocar satélites en el espacio.

Las actividades en el espacio, incluyendo la tecnología satelital, se remonta a tiempos muy remotos, cuando el hombre empezó a medir los movimientos de las estrellas, dando origen a una de las ramas más antiguas de la ciencia, la Mecánica Celeste. Mucho después, se empezaron a realizar los primeros cálculos científicos sobre la tasa de velocidad necesaria para superar el tirón gravitacional de la Tierra.

No fue sino hasta 1945, cuando el entonces Secretario de la Sociedad Interplanetaria Británica, Arthur C. Clarke, publicó un artículo -que muchos calificaron como fantasioso- acerca de la posibilidad de transmitir señales de radio y televisión a través de largas distancias (transatlánticas) sin la necesidad de cables coaxiales (en el caso de la televisión o relevadores en el de la radio), proponiendo un satélite artificial ubicado a una altura de 36 mil km, que girara alrededor de la Tierra una vez cada 24 horas, de tal forma que se percibiera como fijo sobre un punto determinado y, por lo tanto, cubriendo en su transmisión una fracción de la superficie terrestre. Este artefacto estaría equipado con instrumentos para recibir y transmitir señales entre él mismo y uno o varios puntos desde

Page 24: Trabajo Investigacion 3

24

tierra; también, añadía que para hacer posible la cobertura de todo el planeta habrían de colocarse tres de estos satélites de manera equidistante a la altura mencionada, en la línea del Ecuador. El artículo presentaba, además, algunos cálculos sobre la energía que se requeriría para que dichos satélites funcionaran, y para ello proponía el aprovechamiento de la energía solar.

Con esos elementos en mente, la Marina de los Estados Unidos de América (E.U), unos años más tarde, utilizó con éxito el satélite natural de la Tierra -la Luna- para establecer comunicación entre dos puntos lejanos en el planeta, transmitiendo señales de radar que dicho cuerpo celeste reflejaba, logrando con ello comunicar a la ciudad de Washington con la Isla de Hawai. Esto comprobó que se podrían utilizar satélites artificiales con los mismos fines, pero salvando la desventaja de depender de la hora del día para obtener las señales reflejadas. Se emprendió, un ambicioso proyecto denominado Echo, el cual consistía en utilizar un enorme globo recubierto de aluminio para que sirviera como espejo y reflejara las señales emitidas desde la Tierra. El artefacto, visible a simple vista, fue el primer satélite artificial de tipo pasivo -por su característica de servir solamente como reflejo y no tener aparatos para retransmisión-; los llamados satélites activos vendrían después, con los avances tecnológicos y las experiencias que poco a poco fueron enriqueciendo el conocimiento en este campo.

En la siguiente década, el Año Geofísico Internacional (1957-1958), marcó el banderazo de salida de una carrera espacial que durante muchos años protagonizaron E.U. y la Unión Soviética, siendo esta última la que se llevó la primicia al lanzar al espacio, el 4 de octubre de 1957, el satélite Sputnik I, el cual era una esfera metálica de tan solo 58 cm de diámetro. En diciembre de ese mismo año, E.U. también lanzó su propio satélite, el Vanguard, aunque sin éxito, pues se incendió en el momento de su lanzamiento.La Unión Soviética siguió su camino e instaló en órbita la segunda versión del Sputnik, en noviembre de 1957, ahora con un ser vivo como pasajero: la perra Laika. Después, hubo una tercera versión del Sputnik que se lanzó en 1958.

Unos meses antes, E.U. -continuando con el reto impuesto- lanzó el satélite Explorer l, y con ello se apuntó un tanto en el mundo de la ciencia al descubrir los cinturones de radiación que rodean a la Tierra, a los que llamaron Van Allen en honor al líder de los científicos responsables de esa misión. Posterior a ese satélite, siguieron sus versiones II, III y IV, de los cuales el Explorer II falló.

El primer experimento en comunicaciones desde el espacio también fue en 1958, cuando un cohete Atlas-B, equipado con un transmisor y un reproductor, emitió hacia la Tierra un mensaje grabado con anterioridad por el presidente Eisenhower. El Atlas-Score permitió demostrar que la voz humana podía propagarse superando la considerable

Page 25: Trabajo Investigacion 3

25

distancia existente entre el planeta y el satélite. El concepto fundamental era sencillo: un repetidor colocado en un lugar suficientemente elevado podría dominar mucha mayor superficie que sus homólogos terrestres. El repetidor, por supuesto, sería colocado en órbita, aunque su limitación principal sería la movilidad del objeto en el espacio.

Todos esos satélites aportaron importantes conocimientos al mundo científico, pues al ser equipados cada vez con mejores y más sofisticados instrumentos de medición, permitieron conocer las condiciones del espacio que rodea a la Tierra y, con ello, promover nuevos experimentos.

Fue así que el primer satélite activo que se puso en órbita fue el Courier, de propiedad estadounidense (lanzado en 1960), equipado con un paquete de comunicaciones o repetidor que recibía las señales de la Tierra, las traducía a frecuencias determinadas, las amplificaba y después las retransmitía al punto emisor.

Así, se sucedieron muchos otros lanzamientos de satélites con fines experimentales en el campo de las comunicaciones para transmisiones de radioaficionados y señales de televisión en diversas bandas de frecuencia o con propósitos militares, de tal forma que al terminar 1962, EU. contaba ya con 120 satélites puestos en órbita, mientras que Rusia tenía 33.

En 1963, en Estados Unidos de América se fundó la primera compañía dedicada a telecomunicaciones por satélite (COMSAT). También, en ese mismo año la Unión Internacional de Telecomunicaciones (UIT), durante una conferencia sobre radiocomunicaciones, expidió las primeras normas en materia de telecomunicaciones por satélite.Gracias a la construcción de cohetes más potentes -que llevaron satélites a la altura adecuada- y al desarrollo de la electrónica como un elemento importante relacionado con muchas funciones de un satélite, en 1964 se logró colocar en órbita geoestacionaria o Cinturón de Clarke primer satélite de este tipo (geoestacionario): el Syncom 3, que permitió en Europa la transmisión de los juegos olímpicos de Tokio.

En agosto de 1964 se formó el consorcio internacional Intelsat, encargado de administrar una nueva serie de satélites geoestacionarios disponibles para todo el mundo, el primero de sus satélites fue el Early Bird o Intelsat-1. En la actualidad, existen alrededor de 200 de esta clase, en su mayoría geoestacionarios, conectando lugares de todo el mundo y que, además de servir para la telecomunicación internacional, se emplean para servicios como televisión y observación meteorológica, entre otras aplicaciones.

Page 26: Trabajo Investigacion 3

26

Esos acontecimientos marcaron el inicio de la era espacial, desarrollándose con rapidez la capacidad de fabricar una gran variedad de naves que al principio parecían modestas, pues sólo lanzaban satélites experimentales de investigación relativamente sencillos, que después, en la década de los años 70, se convirtieron en sofisticados prototipos de vehículos espaciales para comunicaciones y meteorología y, más adelante, para sondeos lunares y planetarios.

¿Qué es un satélite artificial?

Podemos empezar por recurrir a la definición que nos da el diccionario: "Son ingenios lanzados por un cohete, que pasan a describir una órbita alrededor de la Tierra o de otro astro" (diccionario enciclopédico El Pequeño Larousse); o bien, la que encontramos en el Universum, el Museo de las Ciencias de la Universidad Nacional Autónoma de México (UNAM): "Un satélite es un cuerpo que gira alrededor de otro. La Tierra tiene un satélite natural y cerca de 9 mil satélites artificiales".

Con estos artefactos de percepción remota se puede observar una gran extensión de terreno, pues están muy por encima de donde circulan normalmente los aviones y permiten fotografiar toda la cordillera del Himalaya o de los Andes; conocer el curso de las aguas, desde una pequeña corriente hasta su gran desembocadura en el océano; o explorar y mostrar áreas inaccesibles, como las heladas regiones de los polos y las profundidades marinas, sólo por dar algunos ejemplos.

Veamos la siguiente tabla tomada de la sala "Satélites" del Museo Universum, que muestra los tipos de satélites según su función y la órbita en que utilizan:

Tipos de

órbita

Altura sobre el nivel del

mar

Velocidad

del satéliteFunción del satélite Ventajas

Órbita baja 250-1 500 km25 000-28

000 km/hr.

Comunicaciones y

observación de la

Tierra.

Poco retraso en las

comunicaciones. Se requiere

menor potencia.

Órbita polar500-800 km sobre el eje

polar

26 600-27

300 km/hr.

Clima

Navegación.

Están perpendiculares sobre la

línea del Ecuador, por lo que

pueden observar distintas

regiones de la Tierra.

Órbita geo-

estacionaria

35 786 km sobre el

Ecuador

11 000

km/hr.

Comunicaciones

Clima.

Al dar la vuelta a la Tierra a su

misma velocidad, siempre

Page 27: Trabajo Investigacion 3

27

Navegación

GPS.observa el mismo territorio

Órbita elíptica

Perigeo (cuando está más

cerca de la Tierra) 200- 1

000 km Apogeo (cuando

está más lejos) ~ 39 000

km

~34 200

km/hr.

~5 400

km/hr.

Comunicaciones Servicios a grandes latitudes.

¿Para qué sirven los satélites?

Estos artefactos son muy útiles para el hombre moderno, son los protagonistas principales de las comunicaciones en el mundo; gracias a ellos, recibimos señales de televisión, de radio y teléfono, o tenemos información valiosa del clima, de nuestro medio ambiente y del espacio.

Para tener una idea más clara, cada objeto o ser sobre la superficie terrestre emite una estela o firma, que es su energía particular, la cual cambia conforme ese objeto o ser se modifica, y por esta característica es posible identificar, mediante un satélite, la firma del agua salada que es diferente a la del agua dulce o diferenciar el aire contaminado del limpio; también, se pueden distinguir los elementos de un territorio en un tiempo determinado, tales como sus cosechas, tipos y estado de las mismas, la fauna marina y la terrestre, las grandes ciudades, los poblados, las instalaciones hechas por el hombre, las vías de comunicación terrestre y muchas más.

Los sistemas de satélites no dependen de líneas y conexiones físicas montadas a lo largo de la superficie de la Tierra, sino de estaciones terrenas ubicadas en diferentes lugares, cuyo costo para su puesta en operación es mucho más bajo que construir una carretera; además, con los avances en la ciencia y tecnología, los satélites son cada vez más versátiles, duran mayor tiempo en órbita y ofrecen más y mejores servicios.

¿Cómo funcionan los satélites?

Page 28: Trabajo Investigacion 3

28

Dado que las microondas (tipo de onda de radio) viajan en línea recta, como un fino rayo a la velocidad de la luz, no debe haber obstáculos entre las estaciones receptoras y emisoras.

Por la curvatura de la Tierra, las estaciones localizadas en lados opuestos del globo no pueden conectarse directamente, sino que han de hacerlo vía satélite. Un satélite situado en la órbita geoestacionaria (a una altitud de 36 mil km) tarda aproximadamente 24 horas en dar la vuelta al planeta, lo mismo que tarda éste en dar una vuelta sobre su eje, de ahí que el satélite permanezca más o menos sobre la misma parte del mundo.

Como queda a su vista un tercio de la Tierra, pueden comunicarse con él las estaciones terrenas -receptoras y transmisoras de microondas- que se encuentran en ese tercio. Entonces, ¿cómo se conectan vía satélite dos lugares distantes?

Una estación terrena que está bajo la cobertura de un satélite le envía una señal de microondas, denominada enlace ascendente. Cuando la recibe, el transpondedor (aparato emisor-receptor) del satélite simplemente la retransmite a una frecuencia más baja para que la capture otra estación, esto es un enlace descendente. El camino que recorre esa comunicación, equiparándolo con la longitud que ocuparía un cable, es de unos 70 mil km, lo cual equivale, más o menos, al doble de la circunferencia de la Tierra, y sólo le toma alrededor de 1/4 de segundo cubrir dicha distancia.

Para entender mejor cómo es posible que un satélite se sostenga en una órbita en el espacio veamos lo siguiente:

1. Imaginemos que estamos en una montaña por encima de la atmósfera: si lanzamos una pelota con poca fuerza, la gravedad la atraerá hacia la Tierra.

2. Si se lanza más fuerte, caerá más lejos3. Mientras másfuerza se aplique, más lejos viajará horizontalmente antes de caer4. Si pudieramos lanzar la bola a 28 mil km/hr., nunca caería a la Tierra, a esto se le

llama estar en órbita. Una nave fuera de la atmósfera se mantiene viajando a esta velocidad, pues no hay resistencia del aire que la detenga.

*Universum Museo de las Ciencias de la UNAM

Anatomía de un satélite

Page 29: Trabajo Investigacion 3

29

En la ingeniería de los satélites, como en cualquier otra área de la Astronáutica, confluyen múltiples aspectos. No sólo se trata de construir una máquina, sino también de conseguir que, a pesar de sus delicados elementos electrónicos, sea capaz de resistir los rigores y presión de un lanzamiento, las ondas acústicas durante el mismo y, sobre todo, funcionar en el ambiente del espacio, donde las temperaturas fluctúan entre los 200° C bajo cero durante periodos de sombra y 200° C a la luz del Sol.

El diseño de los satélites ha evolucionado desde aquellos años del Sputnik I hasta la actualidad; sin embargo, su razón de ser sigue siendo la misma, así como la de la mayor parte de sus elementos. El paso del tiempo y los logros en las tecnologías han proporcionado instrumentos más precisos, sistemas de provisión de energía eléctrica más potentes y componentes de menor peso, pero todos ellos, en esencia, no han cambiado mucho, hay quienes afirman que la Astronáutica es aún una ciencia demasiado joven.

Los satélites pueden dividirse de manera conveniente en dos elementos principales, la carga útil y la plataforma. La carga útil es la razón de ser del satélite, es aquella parte del satélite que recibe, amplifica y retransmite las señales con información útil; pero para que la carga útil realice su función, la plataforma debe proporcionar ciertos recursos:

• La carga útil debe estar orientada en la dirección correcta.• La carga útil debe ser operable y confiable sobre cierto periodo de tiempo

especificado.• Los datos y estados de la carga útil y elementos que conforman la plataforma

deben ser enviados a la estación terrestre para su análisis y mantenimiento.• La órbita del satélite debe ser controlada en sus parámetros.• La carga útil debe de mantenerse fija a la plataforma en la cual está montada.• Una fuente de energía debe estar disponible, para permitir la realización de las

funciones programadas. Cada uno de estos requerimientos es proporcionado por los siguientes conglomerados de elementos conocidos como subsistemas:

• Subsistema de Estructura, misma que puede tener muy distintas formas, pero que siempre se construye con metales muy ligeros que a la vez tienen gran resistencia.

• Subsistema de Propulsión, compuesto por múltiples motores o impulsores de bajo empuje, que sirven al satélite para realizar pequeñas correcciones y cambios de velocidad para controlar su orientación en el espacio y proporcionar el control adecuado de los parámetros de la órbita. Últimamente, se están usando en estos

Page 30: Trabajo Investigacion 3

30

motores otros métodos de propulsión como la eléctrica o iónica, cuyo bajo empuje, pero elevado impulso específico, los hace más eficientes y muy económicos en cuanto al consumo de combustible.

• Subsistema de control de orientación, que trabaja contra las perturbaciones a las que está sometido el aparato, como el viento solar. Este sistema permite al satélite saber constantemente donde está y hacia donde debe orientarse para emisiones lleguen a la zona deseada, considerando su natural movimiento Norte-Sur y Este-Oeste alrededor de un punto. Además, orienta los paneles solares hacia el Sol, sin importar cómo esté posicionado el satélite. La computadora de a bordo, que lleva una serie de programas capaces de reaccionar ante una variada gama de problemas: si algo grave o inesperado ocurre, desconectará automáticamente todos los sistemas no esenciales, se orientará hacia el Sol para garantizar una adecuada iluminación de las celdas solares e intentará comunicarse con la Tierra o esperar órdenes procedentes de ella. Esta fase se denomina modo seguro y puede salvar la vida a muchos satélites dando tiempo a la intervención humana.

• Subsistema de potencia. Como fuente de energía secundaria las baterías proveen energía suficiente para alimentar a los sistemas e instrumentos cuando la energía proveniente del Sol no puede ser aprovechada, esto ocurre por ejemplo, durante eclipses; éstas son cargadas poco antes del lanzamiento y de ellas depende la vida del satélite.

La fuente primaria de energía para el satélite lo constituyen las celdas solares que son colocadas en grupos para conformar lo que se conoce como panel solar Los paneles, por sus grandes dimensiones y su relativa fragilidad, deben permanecer plegados durante el despegue. Su apertura añade otro factor de incertidumbre durante la puesta en órbita del satélite. Una vez en posición y perfectamente orientados, empiezan a proporcionar energía a los sistemas, que hasta entonces han debido usar baterías. Esta energía es administrada por un sistema especial que regula el voltaje y la distribuye de forma adecuada al resto de componentes. Cuanto mayor es el número de celdas agrupadas, más potencia puede generarse. Aunque es verdad que éstas suelen deteriorarse con el paso del tiempo, ahora los constructores de satélites colocan un número suplementario de ellas para garantizar que proporcionarán suficiente electricidad, incluso, durante el último periodo de su vida útil.

• Subsistema de telemetría, seguimiento y órdenes es el encargado de hacer contacto con las estaciones terrenas con el fin de recibir órdenes de ellas y darles seguimiento. Esto permite el correcto mantenimiento de los subsistemas del satélite

Page 31: Trabajo Investigacion 3

31

El módulo de carga útil es aquel en que están instalados los instrumentos que justifican la misión espacial. Algunos de ellos son muy sofisticados: podemos encontrar desde cámaras hasta telescopios, pasando por detectores sensibles a fenómenos atmosféricos, antenas y amplificadores para comunicaciones, entre otros. Para los satélites de comunicaciones, la carga útil está conformada por los transponedores.

Un transponedor está formado por un filtro de entrada que selecciona la frecuencia a amplificar, un controlador de ganancia para el amplificador y su respectiva fuente de alimentación, estos transponedores reciben la señal desde la Tierra a través de antenas y receptores, la amplifican y la envían a su destinatario; si el satélite no hace esto, la señal llegará tan débil que no se percibirá en las estaciones receptoras.

Aunque el satélite es sometido a pruebas exhaustivas durante su construcción y antes de su lanzamiento, siempre es probable que algo falle y esto, entonces, significa afrontar pérdidas considerables; es por ello que desde hace algunos años los propietarios de los satélites suelen adquirir pólizas de seguro que cubran las principales eventualidades (lanzamiento fallido, menor eficiencia de la prevista en órbita, duración en activo inferior a la prevista, etcétera). Se calcula que el precio actual de un satélite está entre 700 y 2 000 millones de pesos, y si a eso le sumamos el mencionado seguro el precio sube a 3 500 millones de pesos . Afortunadamente, el futuro de la construcción de los satélites implica mayor tiempo en órbita, mismo que fluctúa entre 10 y 15 años.

Tipos de satélites

Dada su gran variedad, existen diversas clasificaciones; la UIT los divide de acuerdo con el tipo de servicio que éstos prestan, de tal manera que los hay fijos, móviles, de radiodifusión, de radionavegación y de exploración de la Tierra.

Edward W. Ploman los distingue en dos grandes categorías:

• Satélites de observación. Para la recolección, procesamiento y transmisión de datos de y hacia la Tierra.

• Satélites de comunicación. Para la transmisión, distribución y diseminación de la información desde diversas ubicaciones en la Tierra a otras distintas posiciones.

Page 32: Trabajo Investigacion 3

32

Para propósitos de estudio es conveniente clasificar los diferentes tipos de misiones satelitales basándose en las características principales de sus órbitas respectivas:

• Satélites geoestacionarios (GEO). Son los que se ubican en la órbita del mismo nombre, sobre la línea del Ecuador y a una altitud de 36 mil km. Son utilizados para la transmisión de datos, voz y video.

• Satélites no geoestacionarios. Que a su vez se dividen en dos:• Los Mediun Earth Orbit (MEO), ubicados en una órbita terrestre media a 10 mil km

de altitud.• Los Low Earth Orbit (LEO), localizados en órbita más baja, entre 250 y 1500 km de

altitud. Tanto los satélites MEO como los LEO, por su menor altitud, tienen una velocidad de rotación distinta a la terrestre y, por lo tanto, más rápida; se emplean para servicios de percepción remota, telefonía etc., por mencionar algunos de sus uso.

Aplicaciones

Satélites científicos

Empezaron a lanzase en la década de los años 50, y hasta ahora tienen como principal objetivo estudiar la Tierra -superficie, atmósfera y entorno- y los demás cuerpos celestes. En el inicio de la exploración espacial, se consideró prioritario conocer las condiciones que imperaban sobre un objeto que girara repetidamente alrededor del planeta. Esto era necesario, pues poco tiempo más tarde el propio hombre debería viajar al espacio. Estos aparatos permitieron que el conocimiento del Universo sea mucho más preciso en la actualidad.

Los satélites Echo l no sólo fueron útiles para experimentar técnicas de comunicación pasivas, sino que proporcionaron buena información sobre la densidad de la atmósfera a diversas altitudes. El satélite Explorer l detectó los cinturones de radiación (Van Allen) que rodean la Tierra. Otros de sus hermanos ayudaron a establecer la abundancia de micro meteoritos en los alrededores del planeta, factor importante para tener en cuenta antes de lanzar una astronave tripulada y, además, estudiaron ampliamente los campos geomagnéticos, la cantidad de radiación, la ionosfera terrestre y la densidad atmosférica, entre otras muchas investigaciones. Una rama de la ciencia que se ha visto beneficiada por las actividades en el espacio es la Geodesia. Los satélites geodésicos han permitido conocer con exactitud la forma de los

Page 33: Trabajo Investigacion 3

33

continentes, así como el lentísimo pero constante movimiento de las placas terrestres. Asimismo, los satélites oceánicos han explorado el fondo marino, revelando gran cantidad de información: el Seasat (lanzado en 1978), equipado con un radar especial, fue uno de los aparatos dedicados a este tipo de investigación.

Satélites de comunicación

Se ubican en la intersección de la tecnología del espacio y la de las comunicaciones. Constituyen la aplicación espacial más rentable y, a la vez, más difundida en la actualidad. Las transmisiones en directo vía satélite ya son parte de nuestra cotidianeidad, por lo que no tienen ningún carácter especial. Para la difusión directa de servicios de televisión y radio, telefonía y comunicaciones móviles sólo son necesarios sencillos receptores y antenas parabólicas cada día más pequeñas.

Satélites de meteorología

Estos satélites, aunque se puede afirmar que son científicos, son aparatos especializados que se dedican exclusivamente a la observación de la atmósfera en su conjunto. La comprensión de la física dinámica atmosférica, el comportamiento de las masas nubosas o el movimiento del aire frío o caliente resultan indispensables para realizar predicciones del clima, pues sus efectos impactan de manera irremediable las actividades de los seres humanos aquí en la Tierra.

El primer satélite meteorológico fue el Tiros-1 (lanzado en abril de 1960); luego le siguieron los ESSA, ITOS, Nimbus, NOAA y Meteor, por mencionar algunos. A estos artefactos se debe el descubrimiento del agujero en la capa de ozono. Algunos de éstos se colocan en órbitas no geoestacionarias, como los que pasan sobre los polos de la Tierra y posibilitan una cobertura de toda la superficie de ella. Otros satélites meteorológicos de órbita geoestacionaria como el SMS, GOES y Meteosat pueden cubrir todo un hemisferio y permiten seguir el comportamiento de fenómenos como la temporada de huracanes, el avance de las grandes borrascas, los frentes fríos, el conocimiento de la temperatura de la atmósfera en cada nivel altimétrico, la presión, la distribución del vapor de agua y, con ello, el porqué de las sequías o los efectos de la contaminación, entre muchos otros fenómenos más.

Hoy en día, la Organización Meteorológica Mundial coordina la recolección, procesamiento y difusión de información y datos meteorológicos y oceanográficos

Page 34: Trabajo Investigacion 3

34

provenientes de una constelación de satélites meteorológicos tanto geoestacionarios como de órbita polar, enlazados a 10 mil estaciones terrenas y mil estaciones de observación en altitud, además de otras fuentes de información meteorológica, provenientes de barcos, aeronaves, boyas y otros artefactos que trabajan de manera coordinada para transmitir diariamente a todo el mundo, en tiempo real, más de 15 millones de caracteres de datos y 2 mil mapas meteorológicos.

Satélites de navegación

Desarrollados originalmente con fines militares al marcar el rumbo de misiles, submarinos, bombarderos y tropas, ahora se usan como sistemas de posicionamiento global (GPS, por sus siglas en inglés) para identificar locaciones terrestres mediante la triangulación de tres satélites y una unidad receptora manual que puede señalar el lugar donde ésta se encuentra y obtener así con exactitud las coordenadas de su localización geográfica. Los satélites actuales dedicados a esta tarea (Transit, Navstar GPS, Tsikada, Parus, Uragan, etc.) utilizan frecuencias bajas y medias que están abiertas al público, lo cual ha posibilitado la aparición de múltiples receptores comerciales. Una de las aplicaciones de estos satélites la realiza con éxito la navegación aérea, que está empezando a aprovecharla en los aterrizajes de las aeronaves, ello le supone una guía económica y muy segura para esas actividades.

En los sistemas GPS, tanto el satélite como el equipo receptor en Tierra emiten una señal con una determinada frecuencia, ambas sincronizadas gracias a los relojes atómicos que dichas unidades poseen, el receptor recibe la señal del satélite que se halla a gran altitud, la distancia entre ambos equipos hace que la señal proveniente del satélite llegue con una diferencia de fase con respecto a la señal emitida por el receptor. La medición de esta diferencia en las fases permite calcular la distancia que separa al equipo en Tierra del satélite. Utilizando tres satélites a la vez, podemos obtener las coordenadas de latitud, longitud y altitud del equipo receptor en Tierra. Usando un cuarto satélite es, incluso, posible conseguir datos sobre la velocidad con la que nos desplazamos y el nivel de precisión aumenta mucho.

Otra faceta de los satélites de navegación se encuentra en la búsqueda y el rescate (COSPAS/SARSAT). En estos casos los receptores son vehículos dedicados a otras tareas, que además están equipados con receptores especiales. Cuando una embarcación

Page 35: Trabajo Investigacion 3

35

se pierde en alta mar, puede enviar señales que el satélite recibirá y reenviará al puesto de rescate más próximo, incluyendo sus coordenadas aproximadas.

Satélites de teledetección

Éstos observan el planeta mediante sensores multi espectrales, esto es que pueden pensar diferentes frecuencias o "colores", lo que les permite localizar recursos naturales, vigilar las condiciones de salud de los cultivos, el grado de deforestación, el avance de la contaminación en los mares y un sinfín de características más.

El aumento de la resolución (que permite ver con mayor claridad detalles más pequeños de la superficie) está llegando a extremos insospechados, a tal punto que las fotografías que obtienen pueden tener una clara aplicación militar. Para un mejor aprovechamiento de sus capacidades, los satélites de teledetección se suelen colocar en órbitas bajas y polares, a menudo sincronizadas con el Sol. Desde ellas, enfocan sus sensores, que son capaces de tomar imágenes en varias longitudes de onda o bandas espectrales. El satélite toma constantemente imágenes a su paso, engrosando los archivos que se pondrán a disposición del público y servirán como un acervo histórico de la evolución de la superficie terrestre.

Satélites militares

Son aquellos que apoyan las operaciones militares de ciertos países, bajo la premisa de su seguridad nacional. La magnitud de sus programas espaciales militares es tan grande y secreta que hasta hace poco sólo se podía valorar por el número de lanzamientos que suponía.Uno de los aspectos fundamentales del equilibrio armamentista durante la Guerra Fría fue la posibilidad de una respuesta adecuada ante cualquier ataque enemigo. Para ello, era necesario conocer con la suficiente antelación el despegue de un misil desde cualquier punto del globo terráqueo. Entonces, se fabricaron los satélites de alerta inmediata, que detectan cualquier lanzamiento, tanto de cohetes comerciales como militares.

En un principio, E.U. inició esta actividad utilizando grandes antenas terrenas, después lanzaron satélites del tipo Midas o DSP, los cuales poseen sensores infrarrojos que detectan el calor producido por los gases del escape de los motores de un misil. Dado que el tiempo de funcionamiento de los motores de uno de estos vehículos suele ser inferior a

Page 36: Trabajo Investigacion 3

36

los 10 ó 15 minutos, la detección debe hacerse lo antes posible, dando tiempo a responder al ataque. Rusia, por su parte, usa los satélites Oko y Prognoz.

Los océanos son un escenario en el que se han desarrollado espectaculares batallas navales y un lugar en el que patrullan barcos y submarinos de todas clases. Estos últimos pueden estar equipados con misiles nucleares y su movilidad y ocultación bajo el agua los hace muy peligrosos. Por eso, se han desarrollado satélites que tratan de localizarlos. Es el caso de los White Cloudamericanos o los RORSAT/EORSAT soviéticos.

Algunos satélites especiales -cuya identidad es protegida con mayor recelo- pueden realizar escuchas electrónicas (elint o inteligencia electrónica) que permiten captar conversaciones telefónicas o radiofónicas desde enormes distancias. Algunas de ellas podrían consistir en órdenes de ataque, las cuales hay que interceptar. Es tal el éxito de estos satélites que muchas de las transmisiones deben ser codificadas. Destacan aquí los programas Jumpseat, Chalet/Vortex, Orion, Magnum/Aquacade, Tselina, etcétera.

14. GPS:

GPS (Global Positioning System) es la abreviatura de Global Positioning System. Es un sistema de radionavegación basado en satélites desarrollado y controlado por el Departamento de Defensa de Estados Unidos de América que permite a cualquier usuario saber su localización, velocidad y altura, las 24 horas del día, bajo cualquier condición atmosférica y en cualquier punto del globo terrestre.

Después de la segunda guerra mundial, el Dpto.de Defensa se empeñó en encontrar una solución para el problema del posicionamiento preciso y absoluto. Pasaron varios proyectos y experiencias durante los siguientes 25 años, incluyendo Loran,Transit etc. Todos permitían determinar la posición pero eran limitados en precisión o funcionalidad. En el comienzo de la década de 70, un nuevo proyecto fue propuesto, el GPS.

El GPS tiene tres componentes: el espacial, el de control y el de usuario.

El componente espacial está constituido por una constelación de 24 satélites en órbita terrestre aproximadamente a 20200 km, distribuidos en 6 planos orbitales. Estos planos están separados entre sí por aproximadamente 60 en longitud y tienen inclinaciones próximas a los 55 en relación al plano ecuatorial terrestre. Fue concebido de manera que

Page 37: Trabajo Investigacion 3

37

existan como mínimo 4 satélites visibles por encima del horizonte en cualquier punto de la superficie y en cualquier altura.

El componente de control está constituido por 5 estaciones de rastreo distribuidas a lo largo del globo y una estación de control principal (MCS- Master Control Station). Este componente rastrea los satélites, actualiza sus posiciones orbitales y calibra y sincroniza sus relojes. Otra función importante es determinar las órbitas de cada satélite y prever su trayectoria durante las 24 horas siguientes. Esta información es enviada a cada satélite para después ser transmitida por este, informando al receptor local donde es posible encontrar el satélite.

El componente del usuario incluye todos aquellos que usan un receptor GPS para recibir y convertir la señal GPS en posición, velocidad y tiempo. Incluye además todos los elementos necesarios en este proceso, como las antenas y el software de procesamiento

Cómo funciona el GPS?

Los fundamentos básicos del GPS se basan en la determinación de la distancia entre un punto: el receptor, a otros de referencia: los satélites. Sabiendo la distancia que nos separa de 3 puntos podemos determinar nuestra posición relativa a esos mismos 3 puntos a través de la intersección de 3 circunferencias cuyos radios son las distancias medidas entre el receptor y los satélites. En la realidad, son necesarios como mínimo 4 satélites para determinar nuestra posición correctamente, pero dejemos eso para después.

Cada satélite transmite una señal que es recibida por el receptor, éste, por su parte mide el tiempo que las señales tardan a llegar hasta él. Multiplicando el tiempo medido por la velocidad de la señal (la velocidad de la luz), obtenemos la distancia receptor-satélite, (Distancia= Velocidad x Tiempo).

Sin embargo el posicionamiento satelital no es así de simples. Obtener la medición precisa de la distancia no es tarea fácil.

La distancia puede ser determinada a través de los códigos modulados en la onda enviada por el satélite (códigos C/A y P), o por el análisis de la onda portadora. Estos códigos son complicados. El receptor fue preparado de modo la que solamente descifre esos códigos y

Page 38: Trabajo Investigacion 3

38

ninguno más, de este modo él está inmune a interferencias generadas por fuentes naturales o intencionales. Esta es una de las razones para la complejidad de los códigos.

15. TRIADA DE CUATRO:

Las técnicas o métodos que se utilizan para tener una correcta organización están basadas en estos pilares que vienen del inglés: ("Confidentiality, Integrity, Availability") que significan [Confidencialidad, Integridad y Disponibilidad].

Confidencialidad: Esta característica asegura que los usuarios que no sean autorizados no tienen acceso a determinados datos a menos que estos se autoricen.

Integridad: Cuando nos referimos a esta palabra significa que estamos seguros de que la información de la que disponemos no ha sido borrada, ni modificada ni copiada.

Disponibilidad: Es la característica que asegura que determinados recursos de un sistema e información, estarán disponibles a los usuarios autorizados siempre que estos sean requeridos.

Siguiendo estas características o reglas por decirlo de una forma indirecta, podemos organizar y fundamentar mejor nuestra seguridad.

Lo opuesto a C.I.A

Siempre debemos estar preparados para lo peor y saber muy bien que hay polos opuestos para todo.

En este caso ante un ataque con éxito nuestro archivo que era confidencial puede revertirse mediante la "REVELACION" por lo tanto nuestro archivo que pensábamos que estaba plenamente seguro ahora ha sido alterado y por lo tanto lo contrario a integridad seria "MODIFICACION" y ese archivo que brindaba información y era un recurso disponible para usuarios de todo el mundo ya no está debido a la "DESTRUCCION". Por lo tanto estas tres acciones son las que tenemos que prevenir al máximo nivel que podamos siendo administradores de un sistema es el peor riesgo que puede pasar con nuestros archivos.

¿Que es lo que queremos Proteger?

Page 39: Trabajo Investigacion 3

39

Bien, esta es una pregunta que todos los administradores de sistemas, tendrían que hacerse.

Estamos bajo el mando de una pc o red, como Admin de Seguridad Informática, y ahora

¿que hacemos? ¿que protegemos?.

Tenemos mucho por proteger pero dependiendo el lugar, la empresa, el ambiente y área en el que estemos debemos planificar que proteger y como.

1. Hardware 2. Software 3. Datos 4. Elementos Consumibles

Con lo que respecta a Seguridad Informatica tenemos 4 categorias numeradas arriba, de las cuales la más importante al momento de proteger es la de los DATOS.

Un hardware como puede ser un disco rígido, puede ser cambiado o reemplazado por otro. Inclusive comprado nuevamente.

Un Software puede ser borrado, y luego puede ser instalado nuevamente.

Los elementos consumibles como papeles para el fax y la impresora, tinta para imprimir o escanear, y demás cosas pueden ser cambiadas y compradas.

Pero los datos no. Debido a que estos van modificándose mediante el paso del tiempo, y son resultados de quizás un trabajo extenso realizado. Por eso es necesario para un Administrador, emplear determinadas políticas de seguridad con esos datos, como sincronizar horarios para realizar determinados Backups, archivar estos datos en diferentes lugares para que estén disponibles en caso de que sufra un percance el original, ponerlo de forma privada y confidencial mediantes cifrados, etc.

Creando un Plan de Seguridad

Como habíamos dicho antes, para crear un plan de seguridad efectivo hay que ir paso a paso.

Claro está y remarque que la política de seguridad que adopte cada Admin es relativo a cada empresa ya que cada una tiene sus prioridades.

Page 40: Trabajo Investigacion 3

40

1] Para iniciar el armado de la política de seguridad hay que preguntarse ¿Qué es lo que vamos a proteger?

2] El segundo paso es preguntarnos de ¿quién hay que protegerse?. Dependiendo de qué tan importante sea la empresa y la información valiosa que posea podremos darnos una idea paranoica del nivel de riesgo al que nos enfrentamos.

En este paso ponemos en práctica lo que llamaremos "RESTRICCIONES", por ejemplo: a un grupo de empleados determinados les restringimos el acceso a internet y el modo de ejecución y escritura en los archivos, que simplemente tengan permisos para abrirlos. Esto es por dar un ejemplo, se pueden aplicar diferentes restricciones dependiendo la función del usuario o empleado.

3] El tercer paso es el del factor "RIESGO" Es necesario adoptar ciertas responsabilidades y no solo informáticamente hablando, es sin más palabras, al "pedo" matarnos protegiendo la base de datos de clientes si a estos no les demostramos que tan segura es nuestra empresa.

4] Este es el paso en el cual mediante implementaciones de medidas de seguridad combinadas con software podremos aumentar la seguridad y asi proteger los recursos de la empresa. La implementación de las medidas de seguridad consta en una combinación de: Firewalls, IDS, Restricciones a usuarios, Caducaciones de Contraseñas, Archivos cifrados mediante criptografía, etc.

5] El último paso sería el de Actualizar el sistema, la gente no se da cuenta que tan importante es actualizar un sistema. Por preferencias de comodidad con versiones anteriores o de acostumbramiento con estas, abren una brecha de inseguridad terrible.

También hay que decir que no todo lo nuevo, es para mejor, y más seguro.

Pero generalmente es para mejor, una actualización de un firewall, que quizás repara algunas vulnerabilidades o fallas de versiones anteriores.

Por eso debemos crear una enumeración de los programas que tenemos instalados y luego verificar sus versiones, para posteriormente buscar actualizaciones. Esto generalmente se chequea en un periodo de cada 10 a 15 días.

Page 41: Trabajo Investigacion 3

41

Creando grupo de trabajo y determinando Responsabilidades.

Bien nuestro Administrador, ha avanzado bastante, y ya dispone de suficiente experiencia como para hacerse cargo de una red grande en su empresa importante, y solo le falta crearse un grupo de trabajo y determinar las responsabilidades para cada uno.

Todo lo que se planea generalmente repercute en el futuro, para eso se logra un plan, para prevenir lo que viene o podría venirse, o para realizar una determinada acción. Por este motivo es necesario realizar una política de seguridad pensada y con experiencia que avalen este tema.

Realizar un plan de seguridad informática en una pc donde se utilice para jugar puede resultar algo sencillo. Pero crear un plan de seguridad para una empresa la cual tiene más de 100 pcs en red con salida a internet puede ser algo delicado y complejo.

Y más sabiendo que no todos los empleados que utilizan esa computadora entienden 100% de computación, incluyendo los jefes que aunque ellos tengan la culpa si pasa algo, la van a echar ante nosotros y no podremos decirles nada porque siguen siendo nuestros jefes.

La clave está en dividir tareas, y elegir un grupo efectivo para llevar a cabo la tarea de planeamiento. Este grupo tiene que estar integrado por personas dedicadas a auditar las redes.Cada persona que integre el grupo debe tener una responsabilidad acorde con el plan que se vaya a realizar. Una persona dedicada a la seguridad física de las pcs no se va a dedicar también a problemas de red.

Es por eso que se dividen las tareas en las empresas, y es muy común crear un organigrama.

16. GLOBALIZACION DE LAS COMUNICACIONES:

En los últimos 25 años, las telecomunicaciones han recorrido un amplio camino, desde un sector con comportamiento lineal y predecible, hacia otro sector tremendamente complejo, multifactorial e impredecible. Gran parte de esta complejidad proviene del fenómeno de la globalización de la actividad económica y social y del cambio tecnológico que la impulsa.

Page 42: Trabajo Investigacion 3

42

Estamos hablando de 1978, una época en la que en todos los países del mundo operaban monopolios ofreciendo una gama de servicios muy reducida, centrada en las redes fijas de voz. Los operadores estaban escasamente internacionalizados, tanto en el capital, como en las operaciones, con una fuerte integración con la industria suministradora nacional. La demanda de servicios globales por parte de clientes multinacionales era escasa.

En el año 2003, el panorama del sector telecomunicaciones se ha transformado como resultado del ritmo aplastante con que avanza la globalización del sector. La fuerte competencia del sector de las telecomunicaciones, surgida como consecuencia del proceso liberalizador iniciado a mediados de los noventa, es el resultado de un acuerdo político multilateral de la mayor parte de los Gobiernos del mundo en torno a los Acuerdos de la Organización Mundial del Comercio (OMC).

Analizar el fenómeno de la globalización en las telecomunicaciones requiere considerar varias dimensiones, entre las que destacan las que en este artículo analizamos: proceso de apertura de los mercados nacionales y resultados, operaciones globales de los operadores y exposición de los anteriores a los mercados financieros, la satisfacción de las demandas de los clientes globales, y la situación creciente de brecha digital entre los países más desarrollados y los menos.

El impulso globalizador de la OMC

La OMC emplea el sector de servicios de telecomunicaciones como un banco de pruebas para la aplicación de sus recetas liberalizadoras, orientadas al incremento del comercio internacional por la vía del establecimiento de acuerdos multilaterales y la liberalización de los mercados nacionales, sin restricciones a partir del año 2000 y de forma generalizada en una gran número de países. Apenas subsiste ningún mercado de telecomunicaciones en el mundo que no haya abierto sus fronteras a la competencia.

Los efectos deseados de la globalización de los mercados incluyen una mayor competitividad de las economías y empresas nacionales, modernización acelerada de las infraestructuras de los países en desarrollo, un mayor crecimiento económico, mayor diversidad de oferta y mejores precios, y generación de economías de escala en los oferentes.

Pero persisten efectos indeseados de la globalización, relacionados con el fracaso de las políticas económicas para resolver el subdesarrollo y dar cobertura a las necesidades sociales básicas, la unilateralidad de los beneficios de la competencia en dirección hacia las empresas de los países más desarrollados, o la pasividad en las políticas

Page 43: Trabajo Investigacion 3

43

medioambientales, salud alimentaria o de mejora de condiciones de trabajo de las poblaciones en países en desarrollo.

Privatización y liberalización

La globalización de las telecomunicaciones se intensifica a comienzo de la década de los noventa, cuando se dan los primeros pasos en la aplicación de las políticas liberales en diferentes países, y se inician diferentes procesos de privatización de compañías telefónicas fijas en monopolio y de apertura controlada de sus mercados.

El inversor internacional adquiere una operadora y, a cambio del compromiso por parte del Estado del mantenimiento de un cierto periodo de exclusividad en el mercado, se compromete, con indicadores objetivos, a modernizar la red, reducir lista de espera, incrementar la penetración del servicio y ofertar mejores precios. Este podría ser el lado positivo de la globalización en los países emergentes.

Esta receta, con o sin periodo de exclusividad, la hemos encontrado en muchos países emergentes, en especial Latino América, región en la que Telefónica tiene fuerte presencia a través de los operadores privatizados y operadores de móviles. Pero del periodo de exclusividad se ha pasado abruptamente a una feroz competencia, basada en servicios prestados sobre la red del incúmbete, sin obligaciones de despliegue de redes propias o incentivos a la misma.

El modelo preferente de apertura a los mercados en los países del Sudeste asiático, probablemente por la gran influencia que posee el Reino Unido en los mismos, se ha basado en una apertura gradual hacia una competencia basada en redes, basado en la instauración de duopolios a los que se les obliga a desplegar redes propias, incluso con participación del Estado en el despliegue de redes troncales avanzadas. Una vez lograda cierta competencia en infraestructuras, se ha procedido a abrir plenamente los mercados a la competencia, eso sí, con dos redes en competencia. Es reseñable la experiencia de Corea, con implicación del sector privado y público en la promoción de la banda ancha, con penetraciones superiores al 20%.

Universalización e inversión privada

Sin embargo, los procesos de privatización y liberalización en países emergentes a instancias de la corriente globalizadora arroja también efectos negativos.

Page 44: Trabajo Investigacion 3

44

El problema de la universalización de los servicios y la accesibilidad a las redes es muy importante en estos países emergentes, en particular en zonas rurales o urbanas no rentables, sin que, hoy por hoy, se haya encontrado por parte de las autoridades un modelo de competencia que incentive la necesaria fuerte inversión privada y garantice la prestación del servicio universal.

Los operadores incumbentes afrontan ambiguas regulaciones sobre la materia, mientras que afrontan una fuerte competencia “descremada” por parte de operadores sin apenas inversión y estabilidad, en las grandes ciudades y lugares potencialmente rentables, mientras que una amplia capa de la población permanece sin servicios. La brecha digital es una realidad, dentro de los naciones y entre ellas a nivel mundial.

Además, la telefonía fija se estanca en los países emergentes. Se estanca porque la canibalización móvil-fijo es muy fuerte, incluso protagonizada por filiales de fijo y móvil de la misma compañía matriz, como el caso de Telefónica. El precio de acceso a una línea telefónica móvil es mucho menor que a una fija, además de la mayor conveniencia de la movilidad y su flexibilidad para el control del gasto, favorecido por el modelo tarifario de la parte llamante paga (CPP).

El agravante es que el servicio móvil no está incluido en el concepto de servicio universal y, sin embargo, actúa como elemento que resta mercado a la obligada inversión en redes telefónicas fijas, las cuales sí que están incluidas en el servicio universal.

En las economías emergentes se corre el riesgo de abandonar las redes fijas y confiar a las redes móviles la prestación de los servicios básicos y el futuro despliegue de la banda ancha cuando, con la tecnología actual y el espectro otorgado, es técnicamente compleja la prestación de servicios masivos de voz a través de redes móviles, que no tienen cobertura en zonas rurales y además no disponen de capacidad suficiente para un despliegue amplio de la banda ancha.

Con el tiempo, se está demostrando ineficaz la aplicación directa a los países emergentes de las recetas liberalizadoras de la Unión Europea, los Estados Unidos, la OMC, el FMI, o el Banco Mundial, pues en dichos países la insatisfacción del operador inversor se suma a las proclamas sociales de reducción de la brecha digital. El modelo propugnado por las naciones desarrolladas y sus organismos internacionales, que incluso presenta problemas para su puesta en práctica, parte de una realidad con suficientes niveles medios de penetración de las redes y los servicios como para calificarlos de universales; el modelo se fundamenta en establecer competencia y simultáneamente traslada a los operadores las obligaciones de prestación y financiación del servicio universal.

Page 45: Trabajo Investigacion 3

45

Cada economía, de acuerdo a su grado de desarrollo, debe buscar su propia senda para hacer compatible estos tres elementos: la competencia, la prestación del servicio universal y los incentivos al inversor.

Operadores globales

Los operadores afrontan la globalización en dos facetas: como oferentes de servicios en diferentes países y como demandantes de capital con el que financiar sus operaciones e inversiones.

Su punto de partida es un dominio en su mercado nacional de origen, que ve quebrantado por la introducción de competencia, y necesita salir al exterior para ser más competitivo en su país, compensar reducciones de ingresos e incrementarlos y generar economías de escala en sus operaciones, en la creación de producto y de imagen de marca.

Un operador con vocación de líder debe reducir sus costes fijos unitarios y ser eficiente mediante las economías de escala, para mejorar sus márgenes, ofertar mejores en precios y remunerar a sus accionistas y devolver la deuda. Los mercados financieros y bancarios mundiales evalúan continuamente el rendimiento de las operadoras, dando un valor a la capitalización de la sociedad y estimando el riesgo de su deuda.

El operador está expuesto a los riesgos propios de la actividad internacional: paridad de monedas, procesos inflacionistas, tipos de interés, bolsas de valores nacionales y riesgopaís. Además cada país adapta las regulaciones globales a su realidad, de manera que los operadores internacionales quedan expuestos a medidas gubernamentales populistas que constituyen reclamaciones sociales que, vía parlamentaria, presionan y lesionan al operador, en espacial en materia de precios. Casos conocidos son el de Argentina, y el de Perú.

Clientes globales

El último factor de la globalización en las telecomunicaciones que en este artículo consideramos es el relacionado con la oferta de servicios globales a clientes multinacionales que disponen de oficinas repartidas por todo el mundo. Por las necesidades de su negocio, estos clientes demandan redes globales de datos y telefónicas.

Las redes globales de datos son una realidad, eso sí siempre que estemos hablando de países desarrollados, donde no es un gran problema disponer de circuitos alquilados asequibles y fiables, incluso con tecnología MPLS, mientras que en países menos

Page 46: Trabajo Investigacion 3

46

desarrollados la disponibilidad de circuitos es mucho menor, subsistiendo importantes trabas administrativas que ralentizan el despliegue, constituyendo el satélite la única alternativa.

Sin embargo, la oferta de servicios globales de voz fija que permitan la creación de redes corporativas mundiales es escasa, dada la dificultad en establecer planes privados de numeración compatibles con los nacionales, en lograr la interoperatividad de múltiples centrales de red inteligente distribuidas por el mundo y las trabas regulatorias a los planes tarifarios de los operadores incumbentes; no existen operadores con presencia en todos los países. De igual manera, la oferta de servicios globales de comunicaciones móviles es escasa, siendo las razones similares a las redes fijas de voz; sin embargo, si existen posibilidades de facturación y gestión global de cuentas.

El paradigma IP está cambiando este panorama de las redes globales. La creciente madurez de la voz sobre IP permite integrar voz y datos sobre la misma red, aunque subsisten los problemas de numeración privada frente numeración pública y la interconexión con las redes fijas para terminación de tráficos nacionales.

La globalización beneficia enormemente al sector de las telecomunicaciones pues actúa como impulsor de la competencia y estimulando la eficiencia de las operaciones.

No obstante, en países emergentes y menos desarrollados, la globalización presenta fallos como los escasos incentivos a la inversión en creación y mejora de redes junto a la escasa cobertura de las redes en las zonas rurales o no rentables. La brecha digital aumenta, sin que se esté planteando un debate entre operadores inversores, Gobiernos y sociedad civil, centrado en la problemática real, más allá de populismos y buenas palabras.

Algunos operadores pueden considerarse como efectivamente globales, pues poseen marcas globales, ofertas de productos y servicios uniformes y financiaciones globales, si bien los riesgos de los mercados internacionales, las hacen más vulnerables a las crisis en cadena.

La oferta de servicios globales es una realidad en el negocio de redes de datos, subsistiendo problemas prácticos para la creación de redes globales de voz, tanto fija como móvil, relacionados con la interoperabilidad, la numeración y la interconexión con las redes nacionales.

Page 47: Trabajo Investigacion 3

47

WEBGRAFÍA

http://ludycastanedacun.blogspot.com/2012/03/anarquia-informatica.html

http://definicion.de/ip/#ixzz3SxNjzO1U

http://www.definicionabc.com/tecnologia/www.php#ixzz3SxOyzfcU

http://gerardo-urbinavelasco.blogspot.com/p/que-es-http.html

http://www.mastermagazine.info/termino/5204.php#ixzz3T0Li4lht

http://www.mastermagazine.info/termino/4472.php#ixzz3T0MEoNqS

http://www.seas.es/blog/informatica/cableado-transoceanico/

http://es.wikipedia.org/wiki/Cable_submarino

http://docente.ucol.mx/al003306/Teleprocesos2/cable%20coaxial.htm

http://www.mintic.gov.co/portal/vivedigital/612/w3-article-5342.html

http://www.aulaclic.es/articulos/wifi.html

http://aplicaciones.colombiaaprende.edu.co/red_privada/content/sat%C3%A9lites-artificiales-0

http://www.informatica-hoy.com.ar/aprender-informatica/Que-es-el-GPS-y-como-funciona.php

http://foro.elhacker.net/seguridad/seguridad_informatica_capitulo_1ordm_y_2ordm-t255294.0.html


Top Related