investigación de la web y la web profunda
Post on 16-Jan-2016
11 Views
Preview:
DESCRIPTION
TRANSCRIPT
Salina Cruz, Oaxaca, diciembre de 2014
1
Investigación del internet
INTEGRANTES
Jesús Manuel Solórzano López 141020024
Irving Nolberto Orozco Guajardo 141020357
Ángel de Jesús Figueroa Jiménez 141020042
José Samuel Reyes López 141020049
Miguel Jiménez Pérez 141020020
Gabriel Alejandro
José Manuel García Figueroa
TECNOLÓGICO NACIONAL DE MÉXICO
INSTITUTO TECNOLÓGICO DE SALINA CRUZ
INGENIERÍA EN ELECTRÓNICA
ASIGNATURA
Fundamentos de la investigación
UNIDAD IV
El Internet
INTEGRANTES DEL EQUIPO
Jesús Manuel Solórzano López 141020024
Irving Nolberto Orozco Guajardo 141020357
Ángel de Jesús Figueroa Jiménez 141020042
José Samuel Reyes López 141020049
Miguel Jiménez Pérez 141020020
Gabriel Alejandro
José Manuel García Figueroa
PROFESOR
ING. Apolinar Pacheco López
SEMESTRE: I GRUPO: C
SALINA CRUZ, OAXACA, DICIEMBRE DE 2014
2
Índice
Tema. Paginas.Introducción 4Objetivo general 7Objetivo especifico 8Planteamiento del problema 9Marco teórico 12Capítulo 1. La internet 23Internet 24Worl Wide Web 25
E-mail 26
Motores de búsqueda 27
Procesadores de texto 28
Antecedentes de la Investigación 29
Internet como fuente de investigación. 30
Ventajas y desventajas del Uso de Internet 31
Educación, formación y cambio tecnológico. 33
Capítulo 2. Deed Web 37introducción a la Deep Web 38
Deep web ¿mito o realidad? 39
¿Qué es la deep web? 40
¿Por qué existe la deep web? 42
La inmensidad de la deep web 44Pasos para entrar a la deep web de manera segura 46
Algunos tips para más seguridad 49
Problemas más comunes al entrar a la deep web 50
Ventajas de entrar a la deep web 51
Desventajas de entrar a la deep web 52Conclusión 53Bibliografía o páginas web 54Anexos 55
3
Introducción
Desde la incorporación de los ordenadores, se planteaba la necesidad de transferir archivos de tal forma que, aun destruyéndose una estación física la información fluyese. En concreto esta necesidad fue creada por el gobierno de los EE.UU. a finales de los años sesenta, mediante la red experimental "ARPANET", para la investigación remota e intercambio de información. Este fue el inicio de las telecomunicaciones por ordenador, el inicio de la INTERNET.
Desde entonces hasta ahora las telecomunicaciones han dado un giro sorprendente, se pasó de un uso puramente militar a que cualquier persona con un PC y un Módem (codificador y descodificador de información), pudiera acceder a la red de redes.
Actualmente se barajan cifras entre treinta y cincuenta millones de usuarios, y la importancia de la internet dentro de la empresa es debida a que empresas especializadas en informática, predicen que aproximadamente existan casi doscientos millones de usuarios en el año 2000, lo que significa que el número potencial de usuarios se está multiplicando por cinco, suponiendo un aumento de sorprendente.
El beneficio de la internet dentro de la empresa es que mediante un coste reducido (evitando algunos costes de logística, publicidad y marketing), incorporando en la internet la información necesaria (robots de búsqueda, páginas web con gran número de usuarios, revistas especializadas, etc.), cualquier usuario de la red puede acceder a la información que nosotros hemos incorporado en la red de redes. Mediante transferencia con una tarjeta de crédito queda al menos realizado el precontrato de compra. Además existen mecanismos para intercambiar programas y ficheros, para realizar conexiones a otros ordenadores bien sean bases de datos o bibliotecas para buscar la información necesaria.
El internet está dividido en cuatro herramientas básicas:
FTP (File Transfer Protocol), TN (Telnet), WWW (Wide World Web) y E-Mail (Correo Electrónico).
La aplicación FTP se basa principalmente en la transferencia de ficheros o archivos posibilitando la búsqueda de los mismos mediante palabras claves a través de los buscadores Archie.
TN permite básicamente la conexión a otras máquinas (normalmente estas máquinas tendrán una palabra de paso excepto que sean públicas).
La herramienta WWW es la forma más vistosa del internet, permitiendo la visualización de cualquier página web por muy alejada que esta esté. Una página web es el espacio donde cualquier usuario conectado a la red y contratando con cualquier proveedor o bien realizando su propio servidor web, puede poner cualquier tipo de información. Una forma alternativa a la web es el GOPHER que solo permite texto.
4
El E-Mail nos aporta un servicio similar al correo convencional, sin embargo incluye ventajas como rapidez, reducción de intermediarios, imposibilidad de pérdida, reducción de costes y confidencialidad. Su uso es muy sencillo, tan sólo es necesario escribir el mensaje en el PC y pulsar el icono de enviar, siempre que el programa este con un entorno Windows u otro similar.
En el desarrollo de este trabajo se explicarán las herramientas de uso en el internet expuestos a través de la empresa ficticia "Veganet", explicando las ventajas e inconvenientes que estas tienen en la empresa. También se trataran temas como la seguridad en el internet así como estadísticas de la gente conectada actualmente a la red de redes tanto nacional, como internacionales. Para finalizar se expondrá de forma compacta el desarrollo de la internet en la pymes así como en las grandes empresas.
5
Tema: El Internet
6
Objetivo general
Dar a conocer a la sociedad las ventajas y desventajas que existen en el medio de comunicación masiva más importante del mundo.
7
Objetivo especifico
Conocer como el lado profundo del internet es ignorada por la mayoría de las personas, y algunas viven sin ni siquiera conocer su nombre.
Conocer como el internet se encuentra información restringida y resguardada de temas políticos, sociales, etc… Gracias a que el internet tiene un lado oculto y que la mayoría de la gente desconoce.
Hay una variedad de cosas que no se ven normalmente en la web y la deep web te da un panorama amplio,
8
Planteamiento del problema
Justificación
La realización de este trabajo es con el fin de dar a conocer el mundo oculto
detrás de la internet, buscamos cambiar el panorama de comunicación,
información y economía que son conceptos básicos que todos tenemos acerca de
este, en este proyecto implementaremos una investigación a detalle de que es la
web, la cual se divide en la web normal y la que desconocemos.
Existe una penumbra que la mayoría de los usuarios no conocen, y poco saben de
ella, cuando mencionamos a la Deep web (Internet profunda), hablamos de un
espacio más libre, más abierto, pero no tan neutral como la Internet comercial que
la gran parte de las personas ocupa.
Existen programas de rastreo, cuando tú buscas cierta información clasificada
pones a un grupo de agentes investigadores que te consideran amenaza para la
sociedad.
Hay rumores de que al ponerte enfrente del ordenador, e introduces o realizas
investigaciones que presentan riesgos, a la sociedad (bombas, venenos o cosas
así), hay alguien siguiéndote, que está observando lo que tú haces, entonces,
¿Cómo podemos decir que tenemos privacidad si no están observando?
Se dice que google es la mafia más grande del mundo, porque son ellos mismos
quienes nos vigilan y venden nuestra información a ciertas potencias mundiales,
por ello, la mayoría de las páginas de internet acceden a google, para ahí tener un
control total de lo que hacemos.
Por eso está enfocado en dar a conocer el lado desconocido del internet.
9
Delimitación del tema.
Hablar del internet es como navegar en la mar, es decir, es algo desconocido que solo personas valientes se han atrevido a descubrir. Esta investigación está enfocada en lo que es la deep web, ya que como su mismo nombre lo dice es oculta, oculta nuestros ojos (navegadores simples), solo nos muestran lo que debemos ver o lo que ellos mismos quieren que veamos.
Lo que abarca este tema es la web normal y lo que más nos interesa y a donde queremos llegar, la gran deep web, la cual contiene diferentes secretos que a la sociedad le interesa saber, porque, la información es conocimiento y el conocimiento es poder.
10
Alcance de la investigación.
Es una investigación de tipo informativo y descriptivo. El enfoque metodológico utilizado para esta investigación es de carácter cuantitativo, que nos arrojara datos sobre la dependencia que tiene la sociedad al internet, y sobre el conocimiento que ellos tienen sobre la web oculta la cual contiene documentos clasificados de diferentes gobiernos, que no quieren que sean rebelados al público.
Y también advertimos sobre los peligros que existen al navegar por dichas páginas ilegales que solo traen problemas al entrar.
11
Marco teórico
Marco situacional
Actualmente el internet es un fenómeno que toma cada vez más fuerza, paso de ser una extensa base de datos de información a algo que controla muchos ámbitos, la mayoría de las personas pasa alumnos 5 horas diarias en internet aunque solo se mantienen en la superficie de la nube, la mayoría de cibernautas solo conoce redes sociales y páginas de agrado de propios y extraños más sin embargo solo las persona especializadas se adentran más en el mundo del internet la famosa web profunda ,muchos piensan que es un rumor pero como lo dijo Descartes “ El hecho que tu no hayas podido no quiere decir que no sea posible”, nos dice que muchas personas piensan un mito este famoso lado oscuro del internet aunque las personas experimentada y conocedoras de la materia saben muy bien que si existe pero su riesgo es alto, se arriesgan tanto como la parte legal prohíbe estrictamente cualquier relación con la Deep Web , el ingreso a ella está penado con cárcel mientras por otra parte al ingresar se quedan expuestos a virus cibernéticos ,traumas o faltas a la moral o robo de información personal incluso el secuestro, pero en realidad ¿que no esconde esta famosa internet profunda?, se hablan desde aberraciones y un nivel de morbosidad inaudita para cualquier persona susceptible más sin embrago cabe resaltar que la respuesta la tienen solo aquellos que se arriesguen y logren adentrarse en las entrañas de esta web profunda y prohibida.
12
Marco histórico
Introducción
Los navegadores de Internet son el programa que permite acceder a la web. Desde su aparición en 1991, los navegadores han evolucionado considerablemente, a la vez que la propia web.
Principales navegadores
Mosaic
Fue creado por el Centro Nacional de Aplicaciones de Supercomputación (Universidad de Illinois, EE.UU.) fue el primer navegador que popularizó el uso de la web. Cuando se publicó la primera versión, en 1993, el acceso a Internet todavía estaba limitado a Universidades y organismos gubernamentales. En 1994, el acceso a Internet se abrió a particulares, el jefe del proyecto y otros miembros del equipo se salieron de la Universidad para crear Netscape. A partir de ese momento, aunque se publicaron nuevas versiones en 1995 y 1997, Mosaic dejó de ser importante. En 1997 el desarrollo de Mosaic se dio por terminado.
Netscape
Netscape apareció en 1994 y hasta 1997 fue el navegador más popular, por varios motivos:
Intentó ser un programa comercial, siempre existieron versiones gratuitas con toda la funcionalidad
Publicaban versiones nuevas continuamente que eran capaces de representar elementos cada vez más complejos
Antes de 1994 las empresas de comunicación no podían ofrecer acceso a Internet, pero en su lugar ofrecían acceso a comunidades cerradas a los clientes (la más grande era entonces AOL, America On Line).
A partir de 1994, las leyes permitieron el acceso de particulares, pero las empresas seguían sin cambiar el chip: por ejemplo hasta 1996 Microsoft no incluyó en Windows un navegador web, aunque sí ofrecía acceso a una red privada llamada Microsoft Network. Netscape aprovechó para situarse como la puerta de entrada al nuevo mundo de la web.
En 1996, Windows incluyó un navegador (Internet Explorer) en Windows 95 OSR2, la cuota de mercado de Netscape empezó a caer inexorablemente.
En 1998, Netscape se rindió y antes de abandonar el mercado fundó la fundación sin ánimo de lucro Mozilla, para crear un navegador de software libre.
En 1999 Netscape fue comprada por AOL (reconvertida ya en proveedor de Internet), que a su vez se fusionó con Time Warner en 2000. Aunque se siguieron publicando versiones de Netscape hasta 2008, desde el año 2000 Netscape es irrelevante.
13
Internet Explorer (1995)
Se presentó basándose en una versión de Mosaic. Internet Explorer 1 no estaba incluido en Windows 95, pero ante el éxito de Netscape y la creciente popularidad de la web, Microsoft pisó el acelerador:
Se publicaron versiones prácticamente cada año: IE 2 (noviembre de 1995), IE 3 (agosto de 1996), IE 4 (septiembre de 1997), IE 5 (marzo de 1999), IE 5.5 (julio de 2000) e IE 6 (agosto de 2001).
IE se incluyó en Windows a partir de Windows 95 OSR1 (febrero de 1996), lo que dió lugar a demandas por abuso de posición dominante en Estados Unidos y Europa.
Cada versión incluía nuevas características avanzadas, superando a Netscape en muchos aspectos.
En el año 2000, Internet Explorer dominó absolutamente el mercado y Microsoft pisó el freno:
Las versiones se espaciaron: Internet Explorer 6 SP1 (septiembre de 2002), Internet Explorer 6 SP2 (agosto de 2004).
Las nuevas versiones no incluían prácticamente nuevas características. En 2003, Microsoft llegó a anunciar que sólo habría nuevas versiones de
Internet Explorer cuando hubiera nuevas versiones de Windows.
A partir de 2005, ante la aparición de Firefox, Microsoft volvió a pisar el acelerador, aunque su uso global ha ido bajando desde entonces:
Se fueron publicando nuevas versiones a un ritmo cada vez más rápido: IE 7 (octubre de 2006), IE 8 (marzo de 2009), IE 9 (marzo de 2011) e IE 10 (septiembre de 2012).
Las nuevas versiones han ido incluyendo características avanzadas y, sobre todo, respeto a las recomendaciones del W3C.
Tanto IE 7 como IE 8 estuvieron disponibles para Windows XP, probablemente debido al fracaso de Windows Vista como sustituto de Windows XP. Durante el primer año de IE 7, para instalarlo era necesario validar Windows, pero desde entonces esa limitación no se ha vuelto a utilizar.
A partir de 2011, confirmado el éxito de Windows 7 como sustituto de Windows XP, Microsoft volvió a vincular el navegador con el sistema operativo e Internet Explorer 9 ya no se publicó para Windows XP.
Actualmente (octubre de 2014), las versiones más modernas de IE que se pueden instalar en cada versión de Windows es la siguiente:
En Windows XP, la versión más moderna que se puede instalar es IE 8.
14
En Windows Vista, la versión más moderna que se puede instalar es IE 9. En Windows 7, 8 y 8.1 se puede instalar IE 11, la última versión disponible
actualmente (octubre de 2014).
Mozilla (Netscape 1998)
Netscape anunció que liberaba el código fuente de su navegador y el proyecto de continuar el desarrollo de ese código recibió el nombre de “Mozilla”.
Tras unos comienzos titubeantes en los que hubo que desechar gran parte del código, a partir de 1999 se empezaron a publicar numerosas versiones (el lema era "release early, release often", es decir "publica pronto, publica a menudo") de la suite Mozilla, que incluía tanto el navegador como el cliente de correo electrónico, un programa de chat o un editor. Desde el primer momento, el objetivo era implementar fielmente las recomendaciones del W3C. En junio de 2002 se publicó por fin Mozilla 1.0.
Firefox
Además de cumplir las recomendaciones del W3C (no solamente respecto al HTML y a CSS, sino también SVG o MathML), pone el énfasis en la usabilidad (pestañas, interface, etc), facilitando además la personalización y ampliación a través de extensiones.
Está financiado principalmente por Google, a través de donaciones a la Fundación Mozilla. A cambio, la página de inicio inicial de Firefox es la página web de Google. Cuando Google comenzó a publicar en 2008 su propio navegador (Chrome) surgieron dudas sobre la continuidad de esas donaciones, pero en agosto de 2008 el acuerdo se renovó hasta noviembre de 2011 y en diciembre de 2011 se renovó hasta noviembre de 2014.
Este modelo de desarrollo rápido también crea conflictos para los creadores de extensiones, ya que los cambios internos de cada versión pueden hacer que cualquier extensión deje de funcionar. Este problema se agravaba en las primeras versiones porque Firefox suponía que las extensiones eran incompatibles si no se habían actualizado, pero a partir de Firefox 10, Firefox supone que las extensiones son compatibles salvo que se indique lo contrario en la web de extensiones.
Chrome
Chrome es un navegador creado en 2008 por Google a partir de WebKit, el motor de renderizado del navegador Safari, aunque desde la versión 28 (julio de 2013) utiliza el motor Blink en vez de WebKit.
La versión 1.0 se publicó en diciembre de 2008. Su ritmo de desarrollo se aceleró en 2009 (2 versiones publicadas), 2010 (5 versiones publicadas) y 2011 (8 versiones publicadas) y desde 2011 se publica aproximadamente cada seis-siete semanas, como Firefox, aunque no se publica a intervalos regulares como sí hace Firefox.
15
Chrome ha destacado siempre por su interfaz minimalista y por la velocidad de ejecución del código Javascript, lo que obligó a Firefox y a Internet Explorer a ponerse las pilas en estos aspectos.
Desde 2011, el crecimiento de los dispositivos móviles con sistema operativo Android ha ayudado a Chrome a aumentar su cuota de mercado. Desde finales de 2013 la suma de todas las versiones de Chrome supera a la versión más utilizada de Internet Explorer (actualmente -septiembre de 2014- IE 8).
Chrome volvió a poner sobre la mesa el eterno debate entre la superioridad de las aplicaciones locales y remotas. Gracias a Chrome algunos ven técnicamente posible que el navegador se convierta en la única aplicación del ordenador, con todos los datos en Internet y las aplicaciones ejecutándose en HTML5 y Javascript. Otros recuerdan que más o menos esa fue ya la promesa de Java hace 15 años, que no se cumplió. En cualquier caso, los próximos años prometen ser apasionantes.
16
Marco conceptual.
Concepto Internet
Es una red de redes que permite la interconexión descentralizada de computadoras a través de un conjunto de protocolos denominado TCP/IP. Tuvo sus orígenes en 1969, cuando una agencia del Departamento de Defensa de los Estados Unidos comenzó a buscar alternativas ante una eventual guerra atómica que pudiera incomunicar a las personas. Tres años más tarde se realizó la primera demostración pública del sistema ideado, gracias a que tres universidades de California y una de Utah lograron establecer una conexión conocida como ARPANET (Advanced Research Projects Agency Network).
A diferencia de lo que suele pensarse, Internet y la World Wide Web no son sinónimos. La WWW es un sistema de información desarrollado en 1989 por Tim Berners Lee y Robert Cailliau. Este servicio permite el acceso a información que se encuentra enlazada mediante el protocolo HTTP (HyperText Transfer Protocol)
Concepto de web
El término, de todas formas, tiene varios usos. Además de nombrar a Internet en general, la palabra web puede servir hacer mención a una página web, un sitio web o hasta un servidor web.
Es importante establecer que este término además forma parte de lo que se conoce como World Wide Web que es la red informática que se emplea en todo el mundo. A finales de la década de los años 80 fue cuando nació aquella que permite que hoy cualquier ciudadano, a través de una conexión a Internet junto a un navegador y un ordenador, pueda acceder desde cualquier rincón del mundo a la web que desea. Lo puede hacer para informarse, para entretenerse o simplemente por simple curiosidad.
Una página web es un documento que incluye un archivo HTML con texto, imágenes, videos, animaciones Flash, etc. Al conjunto de páginas web que suelen formar parte del mismo dominio o subdominio de Internet se lo conoce como sitio web. Dentro del sitio web, todas las páginas guardan alguna relación entre sí y están vinculadas mediante vínculos (también conocidos como enlaces, hipervínculos, hiperenlaces o links).
Muchas son las recomendaciones existentes acerca de las características imprescindibles que debe tener una página web para ser considerada buena, útil y óptima. No obstante, entre todas ellas destacaríamos las siguientes:
17
Debe poseer una jerarquía perfectamente clara. Es decir, todos sus elementos deben estar claros y organizados en una estructura comprensible.
Es imprescindible que respete y cumpla con los estándares web establecidos.
Debe contar con el formato más útil para abordar y tratar los asuntos a los que se refiere.
No menos importante es que ofrezca al usuario algo más. Es decir, se trata de que este encuentre en ella información, curiosidades y soluciones.
Debe tener claro el público al que se dirige para así abordar las cuestiones que más le interesen y preocupen a aquel.
Es fundamental que permita una navegación sencilla y rápida, sin grandes tiempos de espera para que se carguen sus elementos.
Debe incluir material audiovisual que la haga más atractiva y dinámica.
Tiene que permitir la interactuación de todos sus internautas.
El servidor web, por otra parte, es un programa creado para transferir páginas web a través de la implementación del protocolo HTTP. Por extensión, se denomina servidor a la computadora donde se ejecuta dicho tipo de software.
Concepto Deep web
Deep Web es un término en inglés empleado para referirse a todas las páginas de Internet que no están indexadas por los motores de búsqueda del Internet que conocemos y en el que navegamos todos los días (para más claridad sobre indexación puedes ver este artículo sobre cómo funciona Google). El nombre en español de Deep Web es Internet profunda, haciendo alusión a la analogía de que el contenido que usamos día a día es contenido que está en la superficie, fácilmente accesible y visible para todos. A la Internet profunda también se le conoce como Internet invisible, Deepnet, Darkweb, Dark Web,Undernet y hidden Web.
El término de Deep Web es utilizado frecuentemente para referirse a páginas de Internet que están funcionando bajo software que protege su identidad, como Tor, sin embargo la diferencia es que éstas ocultan su identidad de forma intencional, frecuentemente para ocultar actividad y oferta de contenido ilegal (como pornografía infantil, oferta de sustancias, oferta de servicios ilegales, etc.), de ahí que Deep Web y Dark Web sean términos que se usan coloquialmente para referirse a las páginas con dicha oferta.
18
Marco legal
Las disposiciones de esta Ley son de orden público, interés social y observancia general en el Estado de México, en términos de lo establecido por los artículos 102 apartado B de la Constitución Política de los Estados Unidos Mexicanos y 16 de la Constitución Política del Estado Libre y Soberano de México.
La presente Ley tiene por objeto establecer las bases para la protección, observancia, j promoción y divulgación de los derechos humanos que ampara el orden jurídico mexicano; así como los procedimientos que se sigan ante la Comisión de Derechos Humanos del Estado de México.
Trans Pacific-Partnership Agreement (TPP)
Mientras que los otros tres elementos de esta lista se refieren solo a la legislación
de Estados Unidos, existe un debate internacional en curso para establecer las
normas para el intercambio en línea entre países de ambos lados del Pacífico. Los
defensores de la tecnología están preocupados por lo que el TPP va a significar
para los derechos digitales de autor tanto en Estados Unidos como a nivel
internacional.
El TPP involucra nueve países a lo largo de la costa del Pacífico (Estados Unidos,
Perú, Chile, Vietnam, Singapur, Malasia, Australia, Nueva Zelanda y Brunei) y
pronto Japón y Canadá. El acuerdo podría ampliar los estándares de propiedad
intelectual estadounidenses a otros países, al tiempo que refuerza las leyes
vigentes de propiedad intelectual en Estados Unidos. Los defensores, como la
EFF están preocupados por lo que la ley va a significar para sus esfuerzos en
suavizar las restricciones de “uso justo” del contenido y reformar las leyes de
derechos de autor como la Digital Millennium Copyright Act (DCMA). En términos
más generales, sin embargo, la EFF ha señalado que las partes en cuanto a la
tecnología en las negociaciones del TPP se han realizado de manera secreta.
La Oficina Comercial de Estados Unidos en su web analiza los beneficios del TPP,
particularmente en lo relativo a los acuerdos comerciales entre los países, pero
dice muy poco acerca de los impactos del TPP en la tecnología. Mientras tanto,
las próximas rondas de negociaciones del TPP se llevaron a cabo durante las dos
primeras semanas de marzo.
19
Computer Fraud and Abuse Act (CFAA)
Los combatientes por la libertad en Internet lamentaron el fallecimiento del
organizador de la antiSOPA y fundador de Reddit, Aaron Swartz, a principios de
este año. Swartz se enfrentaba a un enjuiciamiento en virtud de la CFAA, que
desde entonces ha sido denominada por algunos como la“Ley de Aaron”. Los que
buscan la reforma creen que la CFAA –que fue aprobada a finales de 1980 y
actualizada una década después– es demasiado restrictiva en la prohibición de
qué se puede compartir. Swartz, por ejemplo, fue acusado de robar millones de
artículos científicos y documentos de un servicio de suscripción del MIT llamado
JSTOR, y podría haber sido condenado a prisión.
En términos generales, la CFAA considera un delito federal acceder y compartir
información protegida. Sin embargo, las organizaciones como la FEP han pedido
reformas a la CFAA durante años, específicamente para reducir las sanciones por
violaciones a la CFAA y establecer definiciones más claras de cuándo se produce
una violación a la CFAA.
No está claro dónde está la reforma a la CFAA en este momento. El blog Politico
informó recientemente que la administración Obama se ha mostrado renuente a
apoyar los esfuerzos de reforma.
Cyber Intelligence Sharing and Protection Act (CISPA)
En un nivel básico, la CISPA dicta cómo las empresas comparten información
sobre amenazas cibernéticas con el gobierno federal. Quienes se oponen a la
legislación, como laElectronic Frontier Foundation ), están preocupados por lo que
ellos llaman protecciones inadecuadas de privacidad dadas las amplias
definiciones de amenaza cibernética.
Igualmente preocupante, según Mark Stanley, director de campañas y
comunicaciones para el centro no partidista para la Democracia y la Tecnología
(CDT), es que la información que las empresas entregan al gobierno va a la
Agencia Nacional de Seguridad (NSA) que, afirma, es una división militar del
gobierno.
“Con razón, hay poca luz en lo que la NSA hace”, explica Stanley. “Debido a que
es una entidad militar, debe ser secreta”. Pero eso crea problemas de privacidad
cuando las empresas proporcionan información personal identificable (PII) de
20
ciudadanos estadounidenses a la NSA. No tenemos idea de cómo va a ser
utilizada”, señala, debido a las definiciones amplias de la seguridad cibernética en
la ley. La CDT está solicitando normas que dicten qué organizaciones del gobierno
utilizan la información y para qué.
La CISPA ha estado dando vueltas en Washington DC, durante los últimos años,
pero ha ganado el apoyo bipartidista recientemente, incluso de los dos miembros
principales del Comité de Inteligencia de la Cámara. Los partidarios del proyecto
de ley la presentaron de nuevo en febrero, por lo que será una pieza muy debatida
de la legislación en los próximos meses.
Electronic Communications Privacy Act (ECPA)
Desde que esta ley –que establece las normas sobre cómo el gobierno puede
tener acceso a la información digital de los ciudadanos– fue aprobada en 1986 la
tecnología ha cambiado drásticamente, pero la ley no lo ha hecho.
Los defensores de la reforma de la ECPA dicen que la parte más atroz de la ley
concierne a los derechos que el gobierno tiene para obtener los archivos
electrónicos sin necesidad de una orden judicial. “Una carta de papel que
guardada en el cajón de su casa u oficina tiene un nivel significativamente más
alto de protección constitucional frente a un correo electrónico en este momento”,
señala Robert Holleyman, presidente de la Business Software Alliance, que apoya
los cambios en la ECPA para fortalecer la privacidad de los consumidores y las
empresas.
La ECPA permite al gobierno obtener acceso a las comunicaciones digitales –
correo electrónico, mensajes de Facebook, la información que se guarda en bases
de datos de su proveedor de nube pública y una variedad de otros archivos– con
solo una orden de comparecencia y no una orden judicial, una vez que esos
elementos tienen 180 días de antigüedad.
Para proporcionar un alcance de qué tanta información entregan las compañías al
gobierno, Google informó recientemente que tuvo más de 18 mil solicitudes de
información por parte del gobierno en la segunda mitad del año pasado.
Ya hay un movimiento en marcha en el Congreso para cambiar esta situación. El
año pasado, el Comité Judicial del Senado aprobó una actualización de la ECPA,
pero no llegaron a una votación del Senado. En marzo, los miembros de la
21
Cámara de Representantes presentaron una actualización a la ECPA, por lo que
el debate se elevará de nuevo pronto.
Otra parte de la ECPA dicta cuándo el gobierno tiene acceso a la localización por
GPS usando teléfonos celulares. Ha habido un cierto apoyo en la Cámara por la
ley del GPS, que permite establecer políticas para que el gobierno pueda tener
acceso a información sobre la ubicación de los ciudadanos, pero el proyecto de ley
que el Senado aprobó el año pasado se quedó en silencio sobre este tema.
Ley federal de protección de datos personales en posesión de los particulares
Artículo 1. La presente Ley es de orden público y de observancia general en toda la República y tiene por objeto la protección de los datos personales en posesión de los particulares, con la finalidad de regular su tratamiento legítimo, controlado e informado, a efecto de garantizar la privacidad y el derecho a la autodeterminación informativa de las personas
Artículo 7o. Es inviolable la libertad de difundir opiniones, información e ideas, a través de cualquier medio. No se puede restringir este derecho por vías o medios indirectos, tales como el abuso de controles oficiales o particulares, de papel para periódicos, de frecuencias radioeléctricas o de enseres y aparatos usados en la difusión de información o por cualesquiera otros medios y tecnologías de la información y comunicación encaminados a impedir la transmisión y circulación de ideas y opiniones.
Ninguna ley ni autoridad puede establecer la previa censura, ni coartar la
libertad de difusión, que no tiene más límites que los previstos en el primer párrafo del artículo 6o. de esta Constitución. En ningún caso podrán secuestrarse los bienes utilizados para la difusión de información, opiniones e ideas, como instrumento del delito.
Artículo reformado DOF 11-06-2013
Artículo 6o. La manifestación de las ideas no será objeto de ninguna inquisición judicial o administrativa, sino en el caso de que ataque a la moral, la vida privada o los derechos de terceros, provoque algún delito, o perturbe el orden público; el derecho de réplica será ejercido en los términos dispuestos por la ley. El derecho a la información será garantizado por el Estado.
Párrafo reformado DOF 13-11-2007, 11-06-2013
22
Toda persona tiene derecho al libre acceso a información plural y oportuna, así como a buscar, recibir y difundir información e ideas de toda índole por cualquier medio de expresión.
Párrafo adicionado DOF 11-06-2013
Capítulo 1: El Internet
23
El Internet
Internet es el producto de un proyecto del Ministerio de la Defensa
Estadounidense conocido como A.R.PA.N.E.T. Por medio del cual se
interconectaron las principales universidades de E.E.U.U y algunos centros de
investigación científica. En poco más de diez años el Reino Unido se conectó a la
ya gran red que cubría casi todas las universidades y centros científicos de
Estados unidos. Luego se conectarían los demás países de Europa y algunos del
continentes asiático. Ya a finales de los ochenta se hablaba de una red
internacional. Fue con la creación del servicio Web al principio de los noventa lo
que logró que se conectaran millones de personas desde sus casas y oficinas. A
mediados de los noventa comenzó el gran boom donde se puso de manifiesto el
comercio, los negocios financieros, y sobre todo el entretenimiento. Actualmente
se calcula que deben existir alrededor de 200 millones de internautas en la gran
autopista de la información.
24
Worl Wide Web
Antes de aparecer este servicio, los usuarios de la red tenían que manejar toda
una serie de comandos y poseer cierto nivel de conocimientos sobre sistemas
operativos para poder hacer operaciones como copiar un archivo, mandar un
mensaje, etc. Al ir aumentando el número de usuarios se hizo necesario buscar
herramientas que hicieran más sencillo el acceso a la información y el manejo de
la misma. Es por esto que se crearon servicios como GOPHER y el World Wide
Web. La ventaja de estos servicios fue su entorno gráfico y el poco uso de
comandos escritos para realizar cualquier acción. Ciertamente el servicio que más
éxito tuvo y sigue teniendo es el conocido por sus siglas: WWW. Hoy en día
Internet se basa fundamentalmente en este servicio, aun cuando se sigan
utilizando otros como el GOPHER, el Archi, el FTP o la Verónica.
25
El uso de un correo electrónico estándar constituyó uno de los grandes avances
en lo que a comunicación se refiere. Ya el correo tradicional se destina a
transporte de mercancía en la mayoría de los casos. En muchas organizaciones
ya se ha sustituido casi por completo el uso del papel para los asuntos
burocráticos. Los informes, memorandos, minutas y demás documentos se envían
por correo electrónico, ahorrando el costo del papel, del toner o tinta de la
impresora, ahorrando tiempo y en muchos casos, ayudando a tener un
departamento de correo interno bastante reducido. Sin embargo existen muchas
personas que opinan que el e-mail le quita lo romántico y lo personal a una carta
de papel, pero al ver los números estadísticos que reflejan la gran cantidad de
personas en todo el mundo que usan el e-mail, podemos asegurar que esto no
hará decaer su uso. (Figura 1.1)
Capítulo 1: figura 1. 1
26
Motores de búsqueda
Al principio cuando una persona quería buscar una información o un archivo, tenía
que saber la dirección exacta del servidor donde estaba el archivo maestro y luego
bajar dicha información a su PC. Por lo general eran direcciones de universidades
y centros científicos. Pero al multiplicarse el número de servidores a lo ancho del
globo terráqueo se hizo imprescindible el uso de un servicio que hiciera la
búsqueda de la información requerida en las distintas bases de datos a donde se
pudiera conectar. Con la aparición de la Web, se hizo más sencillo este servicio.
Dos de los más populares motores de búsqueda son Yahoo! (www.yahoo.com) y
Altavista (www.altavista..com). (Figura 1.2)
Cuando un estudiante requiere una información que le mandaron a investigar, es
común que lo primero que haga al estar conectado a Internet es buscar una de
estas dos direcciones y colocar en la opción de búsqueda lo que desea conseguir.
Luego, este buscador le ofrece distintas opciones donde se pueden encontrar los
datos buscados.
Capítulo 1: figura 1. 2
27
Procesadores de texto
Ya hace unos cuantos años que el uso de la máquina de escribir pasó a ser algo
obsoleto. Los actuales procesadores de texto como el Microsoft Word, Lotus Word
Pro, Star office, entre otros, brindan todo tipo de ventajas a la hora de "tipear" un
trabajo determinado. Una de las grandes ventajas del uso de estos programas son
las herramientas que ayudan a hacer el trabajo más fácil y cómodo. Así tenemos
las herramientas de Ortografía, Gramática, Diccionario de Sinónimos, ayudante
para gráficos, impresión, etc. Es muy útil también el uso de los comandos "copiar"
y "pegar" por medio de los cuales se puede ahorrar una gran cantidad de tiempo
cuando se quiere estructurar un párrafo, o cuando se quiere hacer una síntesis de
varios documentos por ejemplo.
El copiar y pegar consiste en seleccionar una porción de texto y copiarla a un
documento que se esté creando. Es esta quizá la herramienta más atacada por los
que critican el uso de Internet como técnica de investigación, pues, según
sostienen, el estudiante cada vez lee menos, capta menos y utiliza menos su
capacidad de investigar y de sintetizar.
Capítulo 1: figura 1. 3
28
Antecedentes de la Investigación
En la actualidad el uso del PC en el hogar sigue estando ligado a cuatro grandes
actividades: El correo electrónico, la navegación en Internet, el procesamiento de
textos y el entretenimiento.
En un estudio realizado por Microsoft de Argentina, se dio a conocer que los
jóvenes prefieren buscar información en la Web que en un CD-ROM, aun cuando
el proceso es más lento Según la firma investigadora de mercado International
Data Corp. (IDC citado por Cabrera, 2000) la cantidad de usuarios de Internet en
América Latina está creciendo en un rango porcentual compuesto anual de 41 por
ciento -- el más rápido en el mundo -- y se espera que alcance los 29.4 millones
en el 2003.
En Venezuela la firma Datanálisis (Datanálisis, 2001) publicó una serie de datos
interesantes acerca de la conducta del internauta venezolano. En el gráfico que
veremos a continuación se destaca el hecho que el mayor porcentaje de
internautas son jóvenes. Este dato es importante por cuanto demuestra la
importancia que le da la juventud venezolana a Internet. Esto contribuye también a
que las empresas, instituciones y demás organismos presentes en la Web,
enfoquen cada vez más sus páginas web hacia el consumidor joven que busca
entre otras cosas entretenimiento y conocimiento. (Figura 1.4)
Capítulo 1: figura 1. 4
29
Internet como fuente de investigación.
Actualmente el acceso a Internet es cada vez más frecuente por parte de los
estudiantes a la hora de buscar información. El uso de Internet como herramienta
de investigación se ha convertido en poco tiempo en una gran alternativa para el
uso de las bibliotecas. Es ya cosa común encontrar dentro de una biblioteca una
sala de computación con acceso a Internet. Se hace evidente pues, la interrelación
que existe entre estas dos grandes fuentes de información. Sin embargo, es
notorio el hecho de que cada vez más el estudiante en general prefiere obtener los
datos que necesita para su investigación a través de la "autopista de la
información" y no de la biblioteca tradicional.
Entre las principales causas que podemos enumerar sobre esta conducta
podemos citar:
La necesidad de recolectar datos de una manera rápida y eficiente.
El alto costo de los libros, que obliga a buscar alternativas para
conseguir la información contenida en ellos sin tener que comprarlos.
La falta de tiempo que nos impide el trasladarnos a una biblioteca
pública cada vez que la necesitemos.
El deplorable estado en que se encuentran muchas de las bibliotecas
las cuales no poseen gran cantidad de material útil para nuestra
investigación y lo poco que se consigue está en mal estado la
mayoría de las veces.
30
Ventajas y desventajas del Uso de Internet
Entre las principales ventajas que ofrece el uso de Internet como fuente de
información tenemos:
El ahorro de tiempo al no tener que trasladarse hacia una biblioteca.
Esto siempre y cuando posea el acceso a Internet en su casa.
El ahorro de tiempo al no tener que transcribir gran cantidad de
caracteres, utilizando el método de "copiar y pegar" texto.
El ahorro de costos al no tener que pagar por copias fotostáticas o
por la compra de libros o revistas.
El acceso a una cantidad mayor de fuentes de información, con
motores de búsqueda especializados que ahorran el tiempo de
búsqueda de los datos.
El acceso a herramientas informáticas para el intercambio de la
información, tales como: e-mail, charlas en línea (chats), forum de
discusión, etc.
El ahorro de tiempo permite culminar con más rapidez los trabajos de
investigación.
El acceso a grandes bases de datos ofrece la oportunidad de realizar
un trabajo de mayor calidad.
El acceso directo a la tecnología moderna obliga al usuario a
mantenerse al día en los cambios tecnológicos. Esto incide
positivamente en el desarrollo cultural del individuo.
Sirve como complemento del aprendizaje a la par del uso de las
bibliotecas tradicionales.
Quizá la posible gran desventaja que podríamos encontrar en un uso muy
frecuente de Internet para buscar información es la de que ciertos estudiantes se
dedican a copiar textualmente monografías que se encuentran en la red, sin hacer
31
uso de su creatividad y de su capacidad de análisis. Esto evidentemente afecta
negativamente el desarrollo intelectual de estos estudiantes.
Sin embargo, es importante señalar el hecho de que Internet posibilita, por primera
vez en la historia de la educación, que la mente del estudiante quede liberada de
tener que retener una cantidad enorme de información; solo es necesario
comprender los conceptos sobre la dinámica de los procesos en los cuales una
información está encuadrada, ello permite utilizar métodos pedagógicos con los
cuales el alumno puede aprender más y mejor en un año lo que le requería por
ejemplo en tres.
El acostumbrado método memorístico que utilizan las escuelas y universidades
para impartir conocimientos tenderá a caer en desuso, pues su utilidades casi
nula. La tendencia es que el valor real de un estudiante vendrá dado no por la
cantidad de información que posea sino por la capacidad de interpretar la
información y procesarla creativamente.
Ahora los docentes pueden destinar su esfuerzo y el de los alumnos en desarrollar
más las capacidades mentales que les posibiliten a los estudiantes poder
"comprender adecuadamente" la información y "elaborarla creativamente",
pudiendo así producir una calidad superior de razonamiento.
Evaluaciones sobre la calidad educativa de los alumnos que egresan de la escuela
media han demostrado que la mayoría no comprenden bien lo que leen y tienen
serias deficiencias en poder razonar eficientemente.
Es importante resaltar que si a los alumnos que terminan la escuela media, en
instituciones educativas en las cuales predomina la educación memorística, se les
interroga sobre la información que con tanto esfuerzo memorizaron en los
anteriores 12 años de "estudio", se comprobara que en la mayoría de los casos se
les olvido en un porcentaje superior al 90 %, esto permite afirmar que la educación
memorística también fracasa en lograr su objetivo, además de perjudicar el
desarrollo del pensamiento creativo en los alumnos.
32
Educación, formación y cambio tecnológico.
Indica Piaget (Raúl Rispa, 1981) que la información facilita la capacidad de
adaptación a situaciones nuevas. Educación y formación son procesos de
adquisición de información estructurada, de conocimientos que permiten al
individuo y a los grupos humanos actuar en las diversas situaciones de su vivir.
Si nuestro entorno está cambiando, precisamos de una nueva educación y
formación acorde con las nuevas condiciones.
La formación profesional y laboral y la educación en los centros universitarios en
general habrían de prepararse para el futuro; sin embargo, los sistemas
educativos formales son lentos en recoger las necesidades del mundo real y
suelen impartir una preparación más apta para situaciones del pasado que para
las del futuro que son las que, realmente, vamos a afrontar. En una sociedad
intensiva en uso de sistemas informáticos y en tecnologías de información, una
alfabetización básica en estas áreas tendría que ser ya habitual. En un mundo
cuyo eje de producción social y económica pasa por el manejo de información,
este cambio tecnológico acelerado, profundo en que vivimos implica la necesidad
de una formación continua que impida el desfase de nuestra preparación y la
obsolescencia de nuestros conocimientos y capacidades; un aspecto profundo del
problema generalizado del desempeño en nuestras sociedades actuales y del que
no se suele hablar , quizás porque las nuevas tecnologías de la información traen,
junto a sus retos, nuevas posibilidades para la educación en todos sus niveles así
como la formación continua. Como la rápida difuminación de fronteras entre el
equipamiento doméstico y los instrumentos didácticos formales contribuye a la
autoeducación y la formación continuada tan conveniente en una sociedad que
exige una educación más allá del período y ámbito de formación, y aporta
economías al no requerir de aulas, transporte, etc.
33
Una de las más revolucionarias de las invenciones humanas fue la escritura; los
animales mueren y se llevan consigo los conocimientos y experiencias
acumulados. Sin embargo, los avances que el hombre ha efectuado en los 10.000
últimos años se basan en su capacidad de almacenar información superando el
tiempo y el espacio.
Hoy vemos cómo surgen nuevos medios para crear, dar forma, almacenar,
recuperar y difundir información. Agregados a los materiales impresos, el registro
sonoro, la imagen fotoquímica y la radiodifusión oral y audiovisual, dan lugar a un
nuevo sistema global de información.
Un término reciente relacionado con la educación a distancia es el de aprendizaje
abierto, que pone el énfasis más en el que aprende que en el proceso de ayuda.
No todo el aprendizaje a distancia es abierto, aunque, el aprendizaje abierto
proporciona la oportunidad para el que aprende de progresar a su propio ritmo y
en función de sus expectativas. Un elemento necesario para la eficacia del
sistema es la realimentación y los intercambios educativos. En los sistemas más
sofisticados (y en expansión) los estudiantes cuentan con la ayuda de un servicio
de orientación que ofrece consejo y apoyo.
El sistema puede ser evaluado de forma positiva frente a los críticos que
presentan el aprendizaje a distancia como una pérdida de contacto con el profesor
u orientador y de espontaneidad personal.
Sin embargo algunas de las metodologías más recientes se centran en el
aprendizaje individual. A través de la teleconferencia, la enseñanza a distancia
favorece las relaciones grupales y cada vez se utilizan más los sistemas de apoyo
por medio del teléfono; los programas de radio y televisión que llegan a tener una
enorme audiencia también se emplean en este tipo de enseñanza.
34
En algunas ocasiones, los alumnos que estudian a distancia se reúnen en
seminarios de fines de semana o en escuelas de verano. También hay reuniones y
conferencias para los proveedores de cursos.
No es posible predecir todas las repercusiones de la evolución de la educación, ni
la rapidez con que se producirá; sin embargo, sobre la base de los cambios ya en
vigor, pueden adivinarse formas de enseñanza totalmente inéditas , la causa de tal
evolución que hace que aquello suceda , es la creciente complejidad de la vida
moderna. Formarse y prosperar requieren ineludiblemente más y mejor técnica
educativa para así mantenerse al alcance de los acontecimientos. El elemento
catalizador para la creación de este universo inteligente , la tendencia tecnológica
que lo puso en funcionamiento, fue la fusión gradual de dos tecnologías ; las
telecomunicaciones y la informática han introducido un nuevo concepto (EAO)
Enseñanza Asistida por Ordenador); en efecto , aunque su implementación
todavía no sea muy amplia , la informática ha penetrado en el mundo de la
educación y este tipo de enseñanza se desarrolla en la actualidad en tres
aspectos diferentes: uno, de adiestramiento y práctica del alumno, otro por un
sistema de tutoría y un último que podríamos denominar coloquial .
Sea cual sea la modalidad de enseñanza, la aplicación que en el mundo educativo
tiene la informática es muy importante, ya que, entre otras cosas, se puede contar
con su infinita paciencia y la posibilidad de almacenar en su memoria un número
de cuestiones que jamás podrá contener un libro y los cambios no se notarán de
inmediato, sino en el futuro.
Según una encuesta realizada por la Universidad Alejandro de Humboldt a un
grupo estudiantes de Ingeniería en Informática se determinó el auge que tiene
Internet como fuente de información entre los estudiantes encuestados.
Esto arroja una tendencia actual que sin embargo no asegura que esta se
mantenga por siempre, por cuanto podríamos estar frente a una simple "moda" o
quizás en un futuro cercano las bibliotecas podrían adecuarse de tal manera que
35
brindaran ciertos beneficios (entre ellos evidentemente el acceso a Internet) que
las hicieran atractivas y más útiles que el sólo acceso a la Red.
En esta gráfica se refleja que un 82% de los encuestados no cree que sus
capacidades intelectuales puedan ser mermadas con el uso continuado de Internet
como fuente de búsqueda de datos. Sin embargo existe un porcentaje pequeño
que opina lo contrario. Esto puede ser debido a una mala utilización del medio
informativo en el sentido de que estas personas pueden no tener cierto grado de
conocimientos en el manejo de los motores de búsqueda o en los diferentes
servicios de intercambio de datos.
De este resultado podemos deducir que en un porcentaje alto, Internet no sólo es
la primera alternativa al momento de buscar información, sino que es la única
opción que se escoge. Sin embargo existe un porcentaje muy respetable en el que
se refleja que el uso de otras alternativas sigue siendo útil. Esto nos indica que el
uso de la biblioteca puede disminuir en cierto grado, pero no Desaparecer
totalmente.
Estos resultados reflejan la opinión que tienen los encuestados sobre el valor
positivo de la información contenida en Internet. Se debe tener en cuenta que esta
utilidad depende en gran medida de la capacidad que tenga el estudiante para
investigar los datos. Es muy probable que una persona que no sepa utilizar bien
los motores de búsqueda y demás medios para buscar información en la red, no
obtenga resultados positivos para su investigación. Por otro lado, hay que tomar
en cuenta que por más amplias que sean las bases de datos actuales en toda la
red, no todo puede estar allí. Siempre habrá trabajos de investigación,
monografías, libros enteros, etc. que no han sido "publicados" en Internet.
36
Capítulo 2: La Deep Web
37
Introducción a la Deep Web
Cuando hablamos de la Deep web (Internet profunda), hablamos a vez de un
espacio más libre, más abierto pero no tan neutral como la Internet comercial que
todas conocemos.
Este espacio podremos encontrar sicarios a sueldo, venta directa de drogas,
armas..., todo lo que la común mente podría tachar de deleznable. Cabe
mencionar que hay información muy valiosa como secretos de estados y algunas
teorías conspiratorias que suenan a ciencia ficción, pero hay veces en que estas
no están demasiado alejadas de la realidad.
``Cuando miras al abismo, el abismo también te mira a ti.´´
Nietzsche
Un hecho muy importante que no se debe olvidar es que el ser humano por
naturaleza es curioso, aunque también por naturaleza le teme a lo desconocido.
"La emoción más antigua y más intensa de la humanidad es el miedo, y el más
antiguo y más intenso de los miedos es el miedo a lo desconocido"
H.P. Lovecraf
38
Deep web ¿mito o realidad?
Lejos de las posibles conspiraciones cibernéticas, centraremos el trabajo en las
Posibilidades reales y positivas de la Deep Web. La Deep web o Internet profunda
son redes que escapan a los buscadores más conocidos De la superficie, de ahí
su nombre. Sus páginas, manuales, documentos. No están Indexados y
necesitamos usar programas específicos para poder acceder a ellas. Son las
bases de datos no indexadas, son redes que no quieren mantener comunicación
con la Internet común, son las entrañas de la red, los suburbios. No se trata de un
dogma de fe, algo supuesto e intangible; ¡en el 2000 se hablaba de 7.500
Terabytes de información! ¿Impresionados? Bien. Pues sabed que la Universidad
de Berkeley, California, estima que actualmente la Internet Profunda debe tener
unos 91.000 Terabytes. Tal vez la forma más sencilla, aunque poco original de
explicar este fenómeno, sea el iceberg (figura 2.1). Es un excelente símil; claro y
conciso.
Capítulo 2: figura 2. 1
39
¿Qué es la deep web?
La Deep Web la forman todas aquellas páginas que los buscadores como Google,
Bing, Yahoo! etcétera no son capaces de indexar. Esto es posible ya que muchas
páginas o documentos están diseñados paraqué permanezcan ocultos a esos
buscadores. Es decir, las personas que los crean no quieren que sean populares
ni sencillos de encontrar. Muchas de esas páginas, directamente, precisan de una
contraseña para ser vistas.
Aunque pueda resultar difícil de creer, hasta el punto de que para muchos es una
leyenda urbana; la Deep web o Internet profunda (Deep net, Hidden web, Invisible
web) compone la gran mayoría de Internet. La Deep Web es todo el contenido de
la World Wide Web que no forma parte de la Surface Web, es decir, no forma
parte de los sitios que pueden ser indexados por los buscadores y a los que
cualquier usuario puede tener acceso desde un navegador corriente.
Aunque hay pocos estudios, uno de los más recientes hecho por la Universidad de
California estima que la Deep Web está formada por unos 7.5 peta bytes (1 peta
byte son 1000 terabytes). Según estudios similares, la web que todos conocemos
(Facebook, Wikipedia, los blogs, etc.) se compone de menos del 1% de todo
Internet. (figura 2.2).
Capítulo 2: figura 2. 2
40
El concepto es sencillo y a la vez confuso, pero se hacen comparaciones de la
web con el mar. En la superficie del mar se encuentran los buscadores, que
recogen los sitios que tienen enlaces entre ellos, páginas estáticas como por
ejemplo este blog. Esa es el área del océano que podemos “surfear”. Más
profundo se encuentran las bases de datos. Cuando se le hace una pregunta a
una base de datos, esta genera una página única que no se indexa en los
buscadores y por lo tanto no forma parte de la Surface Web.
Las publicaciones académicas, como las de revistas científicas privadas, tampoco
forman parte de la superficie, ya que están escondidas en páginas individuales
dentro de redes privadas, como las que descargó el fallecido Aaron Swartz y por
las que fue encarcelado y enjuiciado. Muchas páginas también están escondidas
porque forman parte de una Intranet, usualmente de corporaciones o
universidades.
41
¿Por qué existe la deep web?
La principal causa de la existencia de la Internet profunda es la imposibilidad de
los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran
parte de la información existente en Internet. Si los buscadores tuvieran la
capacidad para acceder a toda la información entonces la magnitud de la "Internet
profunda" se reduciría casi en su totalidad. No obstante, aunque los motores de
búsqueda pudieran indexar la información de la Internet Profunda esto no
significaría que ésta dejará de existir, ya que siempre existirán las páginas
privadas. Los motores de búsqueda no pueden acceder a la información de estas
páginas y sólo determinados usuarios, aquellos con contraseña o códigos
especiales, pueden hacerlo.
Los siguientes son algunos de los motivos por los que los buscadores son
incapaces de indexar la Internet profunda:
1.-Páginas y sitios web protegidos con contraseñas o códigos establecidos.
2.-Páginas que el buscador decidió no indexar: esto se da generalmente porque la
demanda para el archivo que se decidió no indexar es poca en comparación con
los archivos de texto HTML; estos archivos generalmente también son más
“difíciles” de indexar y requieren más recursos.
3.-Sitios, dentro de su código, tiene archivos que le impiden al buscador indexarlo.
4.-De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan
bases de datos. Para estos casos los buscadores pueden llegar a la interfaz
creada para acceder a dichas bases de datos, como por ejemplo catálogo de
librerías o agencias de gobierno.
5.-Enciclopedias, diccionarios, revistas en las que para acceder a la información
hay que interrogar a la base de datos, como por ejemplo la base de datos de
la RAE.
42
6.-Sitios que tienen una mezcla de media o archivos que no son fáciles de
clasificar como visible lo invisible (Web opaca).
7.-La información es efímera o no suficientemente valiosa para indexar. Es posible
indexar está información pero como cambia con mucha frecuencia y su valor es de
tiempo limitado no hay motivo para indexarla.
43
La inmensidad de la deep web (figura 2.3)
Capítulo 2: figura 2. 3
44
La Internet profunda (Deep Web) es un conjunto de sitios web y bases de datos
que buscadores comunes no pueden encontrar ya que no están indexadas. El
contenido que puede ser hallado dentro de la Internet profunda es muy amplio. Se
estima que la Internet Profunda es 500 veces mayor que la Internet Superficial,
siendo el 96% de esta información públicamente accesible.
El internet se ve divido en dos ramas, La internet profunda y la superficial.
El Internet superficial se compone de páginas estáticas o fijas, mientras que Web
profunda está compuesta de páginas dinámicas. Las páginas estáticas no
dependen de una base de datos para desplegar su contenido si no que residen en
un servidor en espera de ser recuperadas, y son básicamente archivos
HTML cuyo contenido nunca cambia.
Todos los cambios se realizan directamente en el código y la nueva versión de la
página se carga en el servidor. Estas páginas son menos flexibles que las páginas
dinámicas. Las páginas dinámicas se crean como resultado de una búsqueda de
base de datos. El contenido se coloca en una base de datos y se proporciona sólo
cuando lo solicite el usuario.
Se estima que la información que se encuentra en la Internet profunda es de
7,500 terabytes, lo que equivale a aproximadamente 550 billones de documentos
individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de
lo que se puede encontrar en la Internet superficial. En comparación, se estima
que la Internet superficial contiene solo19 terabytes de contenido y un billón de
documentos individuales. En 2010 existían más de 200,000 sitios en la internet
profunda.
45
Pasos para entrar a la deep web de manera segura
1. Entrar en tu buscador de preferencia y escribir virtual box (figura 2.4), una vez
hecho eso descargar este programa el cual emulara un ordenador, en otras
palabras generara una copia virtual de una computadora dentro de tu
computadora.
Capítulo 2: figura 2. 4
2.-despues de haber descargado virtualbox, entrar en tu buscador de preferencia y
escribir Tails (figura 2.5), una vez hecho eso descargar este sistema operativo,
Tails es el sistema operativo basado en debían el cual nos ayudara a proteger
nuestro ordenador, este sistema operativo está pensado para utilizar TOR (The
Onion Router and The onion web).
Capítulo 2: figura 2. 5
46
3.- instalar virtual box deshabilitando la opción de crear una barra ya que esta no
sirve de nada, cuando ya se haya instalado nos pedirá la confirmación de drivers.
4.-una vez que se habrá sola la ventana del programa virtualbox, crearemos la
máquina virtual y para ello vamos a elegir el tipo Linux la versión Ubuntu y la
vamos a renombrar tails (o como quiera uno).
5.-una vez renombrada la máquina virtual le damos siguiente y generaremos un
disco de imagen y escogemos la capacidad de este según nuestra capacidad de
disco duro, le damos siguiente.
6.- después de hacer el paso 5 veremos cargar automáticamente nuestro sistema
operativo (tails) cuando se configure todo nos pedirá una contraseña
generalmente en los sistemas Linux la contraseña es ``root´´ o ``tor´´.
7.-despues de haber puesto la contraseña, veremos en la pantalla de nuestra
máquina virtual una barra, en la cual tiene la palabra aplicaciones en la parte
superior izquierda, daremos click en esta y posterior en la aplicación de internet,
después de la aplicación de internet nos vamos a vidala que sería nuestro
navegador ``TOR´´ (figura 2.6) ya configurado dentro nuestro sistema operativo.
Capítulo 2: figura 2. 6
47
8.-por ultimo una vez estando en ``TOR´´ buscaríamos la ``hidden wiki´´ le damos
en la primera opción que el buscador nos da, y dentro de la ``hidden wiki´´
podemos ir a cualquier enlace o dirección que estén dentro de esta página de todo
tipo que quieras. (Figura 2.7)
Capítulo 2: figura 2. 7
48
Algunos tips para más seguridad
1.-hacer esto en un ciber internet, por si algún virus o hacker intenta apoderarse
del ordenador (figura 2.8), aunque si esto llegara a suceder lo único que
tendríamos que hacer es desinstalar virtual box y volverlo a instalar si quieres
volver a entrar.
Capítulo 2: figura 2. 8
2.-borrar todo tipo de información personal de tu ordenador principal (para esto
puedes utilizar el programa CCLEANER) (figura 2.9).
Capítulo 2: figura 2. 9
3.-desconectar todo tipo de aparato auditivo o visual de tu ordenador. (Figura 2.10)
Capítulo 2: figura 2. 10
49
Problemas más comunes al entrar a la deep web
Se dice que la Deep web no se navega, se bucea, y es común sentirse perdido las
primeras veces (figura 2.11); se trata de un ejercicio nuevo en un elemento
conocido, y eso genera cierta confusión y tendencia a abandonar el intento. Los
principales problemas con los que tropezamos son los siguientes: No sabemos
cuáles son los enlaces de interés ni sabemos cómo llegar a ellos. También es
común que al intentar acceder a un servicio de la Deep web, este se encuentre
caído, perdido o muerto. Hay que tener en cuenta que el mantenimiento de estas
páginas, foros, chat, servicios..., no es tan habitual como el de una página web
comercial, la de un periódico de éxito o la de un blog conocido en la Internet
común, pero como todo en esta vida, no tenemos más que seguir buscando,
curioseando e incluso fisgando para poder encontrar cuales son esos buenos
enlaces. (Figura 2.12)
Capítulo 2: figura 2. 11
Capítulo 2: figura 2. 12
50
Ventajas de entrar a la deep web
Cuando se ingresa a la Deep web a buscar información las ventajas son las que
toman el podio, pues se ha demostrado que al abrir el abanico de opciones de
elección, las tasas de calidad aumentan considerablemente. Dadas las
condiciones de la red y teniendo en cuenta que los motores de búsqueda no son
necesariamente calificadores de calidad de información, es más factible encontrar
artículos de calidad dentro de una base de datos de 100.000 que en una de 1.000.
Por lo que las investigaciones sobre diversos temas, conseguirán mejores
resultados, y más originales, con una búsqueda en esta parte de la web. Por otra
parte es posible señalar el anonimato, la privacidad, y las oportunidades que esto
puede dar antes situaciones de opresión y coartación de la libertad de expresión.
(figura 2.13)
Capítulo 2: figura 2. 13
51
Desventajas de entrar a la deep web
En la Red Profunda hay demasiadas cosas como para contarlas, el contenido de
esta supera por mucho al de la que normalmente conocemos y en ella vas a
encontrar desde lo bueno y útil hasta lo asqueroso y detestable.
Lamentablemente, al ser una red muy grande, sin restricciones y anónima, hay
una gran posibilidad de encontrar contenido como:
1.-Pornografía de todo tipo.
2.-Imágenes grotescas.
3.-Videos de crímenes.
4.-Piratería.
5.-Contratación de personas para asesinatos.
6.-Venta de armas y drogas.
7.-Tráfico de órganos.
8.-hackers.
9.-virus informáticos muy potentes.
Teniendo en cuenta los aspectos anteriores, podremos hacer un juicio de los
peligros y beneficios que supone la Red Profunda. La decisión es personal y no
debemos dejar que las opiniones de los demás influyan en nuestra decisión. Es
cierto que es peligroso pero si se toman las precauciones necesarias y no se
ingresa a archivos desconocidos o de aspecto peligroso, no se encontrarán
contenidos indeseables.
52
Conclusión
La Deep Web es un ciberespacio que ofrece anonimato, por esta razón informamos a las personas que tengan la oportunidad de acceder a este sitio sea con la finalidad de un beneficio ético o enriquecimiento de conocimientos, al igual que apoyar a agencias de inteligencia para poder restringir redes que no tienen sentido de la moral y con fines lucrativos inhumanos. Comunicamos a los lectores que esta web hospeda información útil, así como información viral, por lo mismo es necesario ser mayor de edad y tener un criterio propio y responsable de lo que investigaras, la reflexión nos lleva a darnos cuenta, que la red profunda navegan cibernautas con 2 modus operandi, un punto central en este tema. Como último nuestra sociedad requiere de educación para saber utilizar la tecnología de forma ética.
53
Bibliografía o páginas web
Paginas consultadas para el internet.
Páginas web: Yahoo (temas: el internet) (fecha de consulta 05/12/2014)
Dirección: http://www.yahoo.com
Páginas web: alta vista (temas: la internet) (fecha de consulta 05/12/2014)
Dirección: http://altavista.digital.com
Páginas web: ole (temas: secretos) (fecha de consulta 05/12/2014)
Dirección: http://www.ole.es
Páginas web: lycos (temas: la internet) (fecha de consulta 05/12/2014)
Dirección: http://www.lycos.com
Páginas web: infoseek (temas: el internet) (fecha de consulta 05/12/2014)
Dirección: http://www.infoseek.com
Páginas web: shareware (temas: el internet) (fecha de consulta 05/12/2014)
Dirección: http://www.shareware.com
Páginas web: shareware (temas: ¿Qué es el internet?) (fecha de consulta 05/12/2014)
Dirección: http://www.pointcom.com
Paginas consultadas para la Deep Web.
Página web: chaval (tema: que es la Deep Web y que peligros esconde) (fechas de consulta 03/11/2014)
Dirección: http://www.chaval.es/chavales/enterate/riesgos/%C2%BFque-es-la-deep-web-%C2%BFque-peligros-esconde
Página web: index (tema:Deep Web) (fecha de consulta 03/11/2014)
Dirección: http://www.identi.li/index.php?topic=126577
Páginas web: descarga adictos (temas: manual para la Deep web) (fecha de consulta 03/11/2014) Dirección:http://descargadictos.net/programas/5599/manual-para-la-deep-web-mucho-ojo-no-me-hago-responsable.html
54
Páginas web: Wikipedia (temas: internet profunda) (fecha de consulta 03/11/2014) Dirección: http://es.wikipedia.org/wiki/Internet_profunda
Páginas web: blogthinkbig (temas: ¿qué es la Deep web?) (fecha de consulta 03/11/2014) Dirección: http://blogthinkbig.com/que-es-la-deep-web/
Otras web consultadas:
Páginas web: leyes (temas: leyes a favor de la deep web) (fecha de consulta 03/11/2014) Dirección: http://cpcug.org/user/invest/
Páginas web: policía cibernética (temas: leyes a en contra de la deep web) (fecha de consulta 03/11/2014) Dirección: http://index.imarcon.com
Páginas web: informe del FBI (temas: no existe la deep web) (fecha de consulta 03/11/2014) Dirección: http://www.impactonline.org
Páginas web: ------ (temas: leyes a favor de la deep web) (fecha de consulta 03/11/2014) Dirección: http://www.excite.com
Páginas web: ct (temas: leyes) (fecha de consulta 03/11/2014)
Dirección: http://www.frus.com
55
Anexos
RESPONDE ´´SI´´ O ´´NO´´ A CADA UNA DE LAS PREGUNTAS
1.- ¿Es usted un usuario activo de internet?
SI NO
2.- ¿Ha escuchado acerca de la Deep web?
SI NO
3.- ¿Entraría a la Deep web?
SI NO
4.- ¿Conoces a alguien que lo haya hecho?
SI NO
5.- ¿Te llama la atención el contenido de esta web?
SI NO
6.- ¿Has visto contenido sacado de la Deep web?
SI NO
7.- A algunas personas les resulta perturbador el contenido de esta web ¿Es este tu caso?
SI NO
8.- ¿Consideras la Deep web como mala?
SI NO
56
top related