investigación de la web y la web profunda

74
1 Investigación del internet INTEGRANTES Jesús Manuel Solórzano López 141020024 Irving Nolberto Orozco Guajardo 141020357 Ángel de Jesús Figueroa Jiménez 141020042 José Samuel Reyes López 141020049 Miguel Jiménez Pérez 141020020 Gabriel Alejandro

Upload: jesus-manuel-solorzano-lopez

Post on 16-Jan-2016

11 views

Category:

Documents


0 download

DESCRIPTION

información y guía

TRANSCRIPT

Page 1: investigación de la web  y la web profunda

Salina Cruz, Oaxaca, diciembre de 2014

1

Investigación del internet

INTEGRANTES

Jesús Manuel Solórzano López 141020024

Irving Nolberto Orozco Guajardo 141020357

Ángel de Jesús Figueroa Jiménez 141020042

José Samuel Reyes López 141020049

Miguel Jiménez Pérez 141020020

Gabriel Alejandro

José Manuel García Figueroa

Page 2: investigación de la web  y la web profunda

TECNOLÓGICO NACIONAL DE MÉXICO

INSTITUTO TECNOLÓGICO DE SALINA CRUZ

INGENIERÍA EN ELECTRÓNICA

ASIGNATURA

Fundamentos de la investigación

UNIDAD IV

El Internet

INTEGRANTES DEL EQUIPO

Jesús Manuel Solórzano López 141020024

Irving Nolberto Orozco Guajardo 141020357

Ángel de Jesús Figueroa Jiménez 141020042

José Samuel Reyes López 141020049

Miguel Jiménez Pérez 141020020

Gabriel Alejandro

José Manuel García Figueroa

PROFESOR

ING. Apolinar Pacheco López

SEMESTRE: I GRUPO: C

SALINA CRUZ, OAXACA, DICIEMBRE DE 2014

2

Page 3: investigación de la web  y la web profunda

Índice

Tema. Paginas.Introducción 4Objetivo general 7Objetivo especifico 8Planteamiento del problema 9Marco teórico 12Capítulo 1. La internet 23Internet 24Worl Wide Web 25

E-mail 26

Motores de búsqueda 27

Procesadores de texto 28

Antecedentes de la Investigación 29

Internet como fuente de investigación. 30

Ventajas y desventajas del Uso de Internet 31

Educación, formación y cambio tecnológico. 33

Capítulo 2. Deed Web 37introducción a la Deep Web 38

Deep web ¿mito o realidad? 39

¿Qué es la deep web? 40

¿Por qué existe la deep web? 42

La inmensidad de la deep web 44Pasos para entrar a la deep web de manera segura 46

Algunos tips para más seguridad 49

Problemas más comunes al entrar a la deep web 50

Ventajas de entrar a la deep web 51

Desventajas de entrar a la deep web 52Conclusión 53Bibliografía o páginas web 54Anexos 55

3

Page 4: investigación de la web  y la web profunda

Introducción

Desde la incorporación de los ordenadores, se planteaba la necesidad de transferir archivos de tal forma que, aun destruyéndose una estación física la información fluyese. En concreto esta necesidad fue creada por el gobierno de los EE.UU. a finales de los años sesenta, mediante la red experimental "ARPANET", para la investigación remota e intercambio de información. Este fue el inicio de las telecomunicaciones por ordenador, el inicio de la INTERNET.

Desde entonces hasta ahora las telecomunicaciones han dado un giro sorprendente, se pasó de un uso puramente militar a que cualquier persona con un PC y un Módem (codificador y descodificador de información), pudiera acceder a la red de redes.

Actualmente se barajan cifras entre treinta y cincuenta millones de usuarios, y la importancia de la internet dentro de la empresa es debida a que empresas especializadas en informática, predicen que aproximadamente existan casi doscientos millones de usuarios en el año 2000, lo que significa que el número potencial de usuarios se está multiplicando por cinco, suponiendo un aumento de sorprendente.

El beneficio de la internet dentro de la empresa es que mediante un coste reducido (evitando algunos costes de logística, publicidad y marketing), incorporando en la internet la información necesaria (robots de búsqueda, páginas web con gran número de usuarios, revistas especializadas, etc.), cualquier usuario de la red puede acceder a la información que nosotros hemos incorporado en la red de redes. Mediante transferencia con una tarjeta de crédito queda al menos realizado el precontrato de compra. Además existen mecanismos para intercambiar programas y ficheros, para realizar conexiones a otros ordenadores bien sean bases de datos o bibliotecas para buscar la información necesaria.

El internet está dividido en cuatro herramientas básicas:

FTP (File Transfer Protocol), TN (Telnet), WWW (Wide World Web) y E-Mail (Correo Electrónico).

La aplicación FTP se basa principalmente en la transferencia de ficheros o archivos posibilitando la búsqueda de los mismos mediante palabras claves a través de los buscadores Archie.

TN permite básicamente la conexión a otras máquinas (normalmente estas máquinas tendrán una palabra de paso excepto que sean públicas).

La herramienta WWW es la forma más vistosa del internet, permitiendo la visualización de cualquier página web por muy alejada que esta esté. Una página web es el espacio donde cualquier usuario conectado a la red y contratando con cualquier proveedor o bien realizando su propio servidor web, puede poner cualquier tipo de información. Una forma alternativa a la web es el GOPHER que solo permite texto.

4

Page 5: investigación de la web  y la web profunda

El E-Mail nos aporta un servicio similar al correo convencional, sin embargo incluye ventajas como rapidez, reducción de intermediarios, imposibilidad de pérdida, reducción de costes y confidencialidad. Su uso es muy sencillo, tan sólo es necesario escribir el mensaje en el PC y pulsar el icono de enviar, siempre que el programa este con un entorno Windows u otro similar.

En el desarrollo de este trabajo se explicarán las herramientas de uso en el internet expuestos a través de la empresa ficticia "Veganet", explicando las ventajas e inconvenientes que estas tienen en la empresa. También se trataran temas como la seguridad en el internet así como estadísticas de la gente conectada actualmente a la red de redes tanto nacional, como internacionales. Para finalizar se expondrá de forma compacta el desarrollo de la internet en la pymes así como en las grandes empresas.

5

Page 6: investigación de la web  y la web profunda

Tema: El Internet

6

Page 7: investigación de la web  y la web profunda

Objetivo general

Dar a conocer a la sociedad las ventajas y desventajas que existen en el medio de comunicación masiva más importante del mundo.

7

Page 8: investigación de la web  y la web profunda

Objetivo especifico

Conocer como el lado profundo del internet es ignorada por la mayoría de las personas, y algunas viven sin ni siquiera conocer su nombre.

Conocer como el internet se encuentra información restringida y resguardada de temas políticos, sociales, etc… Gracias a que el internet tiene un lado oculto y que la mayoría de la gente desconoce.

Hay una variedad de cosas que no se ven normalmente en la web y la deep web te da un panorama amplio,

8

Page 9: investigación de la web  y la web profunda

Planteamiento del problema

Justificación

La realización de este trabajo es con el fin de dar a conocer el mundo oculto

detrás de la internet, buscamos cambiar el panorama de comunicación,

información y economía que son conceptos básicos que todos tenemos acerca de

este, en este proyecto implementaremos una investigación a detalle de que es la

web, la cual se divide en la web normal y la que desconocemos.

Existe una penumbra que la mayoría de los usuarios no conocen, y poco saben de

ella, cuando mencionamos a la Deep web (Internet profunda), hablamos de un

espacio más libre, más abierto, pero no tan neutral como la Internet comercial que

la gran parte de las personas ocupa.

Existen programas de rastreo, cuando tú buscas cierta información clasificada

pones a un grupo de agentes investigadores que te consideran amenaza para la

sociedad.

Hay rumores de que al ponerte enfrente del ordenador, e introduces o realizas

investigaciones que presentan riesgos, a la sociedad (bombas, venenos o cosas

así), hay alguien siguiéndote, que está observando lo que tú haces, entonces,

¿Cómo podemos decir que tenemos privacidad si no están observando?

Se dice que google es la mafia más grande del mundo, porque son ellos mismos

quienes nos vigilan y venden nuestra información a ciertas potencias mundiales,

por ello, la mayoría de las páginas de internet acceden a google, para ahí tener un

control total de lo que hacemos.

Por eso está enfocado en dar a conocer el lado desconocido del internet.

9

Page 10: investigación de la web  y la web profunda

Delimitación del tema.

Hablar del internet es como navegar en la mar, es decir, es algo desconocido que solo personas valientes se han atrevido a descubrir. Esta investigación está enfocada en lo que es la deep web, ya que como su mismo nombre lo dice es oculta, oculta nuestros ojos (navegadores simples), solo nos muestran lo que debemos ver o lo que ellos mismos quieren que veamos.

Lo que abarca este tema es la web normal y lo que más nos interesa y a donde queremos llegar, la gran deep web, la cual contiene diferentes secretos que a la sociedad le interesa saber, porque, la información es conocimiento y el conocimiento es poder.

10

Page 11: investigación de la web  y la web profunda

Alcance de la investigación.

Es una investigación de tipo informativo y descriptivo. El enfoque metodológico utilizado para esta investigación es de carácter cuantitativo, que nos arrojara datos sobre la dependencia que tiene la sociedad al internet, y sobre el conocimiento que ellos tienen sobre la web oculta la cual contiene documentos clasificados de diferentes gobiernos, que no quieren que sean rebelados al público.

Y también advertimos sobre los peligros que existen al navegar por dichas páginas ilegales que solo traen problemas al entrar.

11

Page 12: investigación de la web  y la web profunda

Marco teórico

Marco situacional

Actualmente el internet es un fenómeno que toma cada vez más fuerza, paso de ser una extensa base de datos de información a algo que controla muchos ámbitos, la mayoría de las personas pasa alumnos 5 horas diarias en internet aunque solo se mantienen en la superficie de la nube, la mayoría de cibernautas solo conoce redes sociales y páginas de agrado de propios y extraños más sin embargo solo las persona especializadas se adentran más en el mundo del internet la famosa web profunda ,muchos piensan que es un rumor pero como lo dijo Descartes “ El hecho que tu no hayas podido no quiere decir que no sea posible”, nos dice que muchas personas piensan un mito este famoso lado oscuro del internet aunque las personas experimentada y conocedoras de la materia saben muy bien que si existe pero su riesgo es alto, se arriesgan tanto como la parte legal prohíbe estrictamente cualquier relación con la Deep Web , el ingreso a ella está penado con cárcel mientras por otra parte al ingresar se quedan expuestos a virus cibernéticos ,traumas o faltas a la moral o robo de información personal incluso el secuestro, pero en realidad ¿que no esconde esta famosa internet profunda?, se hablan desde aberraciones y un nivel de morbosidad inaudita para cualquier persona susceptible más sin embrago cabe resaltar que la respuesta la tienen solo aquellos que se arriesguen y logren adentrarse en las entrañas de esta web profunda y prohibida.

12

Page 13: investigación de la web  y la web profunda

Marco histórico

Introducción

Los navegadores de Internet son el programa que permite acceder a la web. Desde su aparición en 1991, los navegadores han evolucionado considerablemente, a la vez que la propia web.

Principales navegadores

Mosaic

Fue creado por el Centro Nacional de Aplicaciones de Supercomputación (Universidad de Illinois, EE.UU.) fue el primer navegador que popularizó el uso de la web. Cuando se publicó la primera versión, en 1993, el acceso a Internet todavía estaba limitado a Universidades y organismos gubernamentales. En 1994, el acceso a Internet se abrió a particulares, el jefe del proyecto y otros miembros del equipo se salieron de la Universidad para crear Netscape. A partir de ese momento, aunque se publicaron nuevas versiones en 1995 y 1997, Mosaic dejó de ser importante. En 1997 el desarrollo de Mosaic se dio por terminado.

Netscape

Netscape apareció en 1994 y hasta 1997 fue el navegador más popular, por varios motivos:

Intentó ser un programa comercial, siempre existieron versiones gratuitas con toda la funcionalidad

Publicaban versiones nuevas continuamente que eran capaces de representar elementos cada vez más complejos

Antes de 1994 las empresas de comunicación no podían ofrecer acceso a Internet, pero en su lugar ofrecían acceso a comunidades cerradas a los clientes (la más grande era entonces AOL, America On Line).

A partir de 1994, las leyes permitieron el acceso de particulares, pero las empresas seguían sin cambiar el chip: por ejemplo hasta 1996 Microsoft no incluyó en Windows un navegador web, aunque sí ofrecía acceso a una red privada llamada Microsoft Network. Netscape aprovechó para situarse como la puerta de entrada al nuevo mundo de la web.

En 1996, Windows incluyó un navegador (Internet Explorer) en Windows 95 OSR2, la cuota de mercado de Netscape empezó a caer inexorablemente.

En 1998, Netscape se rindió y antes de abandonar el mercado fundó la fundación sin ánimo de lucro Mozilla, para crear un navegador de software libre.

En 1999 Netscape fue comprada por AOL (reconvertida ya en proveedor de Internet), que a su vez se fusionó con Time Warner en 2000. Aunque se siguieron publicando versiones de Netscape hasta 2008, desde el año 2000 Netscape es irrelevante.

13

Page 14: investigación de la web  y la web profunda

Internet Explorer (1995)

Se presentó basándose en una versión de Mosaic. Internet Explorer 1 no estaba incluido en Windows 95, pero ante el éxito de Netscape y la creciente popularidad de la web, Microsoft pisó el acelerador:

Se publicaron versiones prácticamente cada año: IE 2 (noviembre de 1995), IE 3 (agosto de 1996), IE 4 (septiembre de 1997), IE 5 (marzo de 1999), IE 5.5 (julio de 2000) e IE 6 (agosto de 2001).

IE se incluyó en Windows a partir de Windows 95 OSR1 (febrero de 1996), lo que dió lugar a demandas por abuso de posición dominante en Estados Unidos y Europa.

Cada versión incluía nuevas características avanzadas, superando a Netscape en muchos aspectos.

En el año 2000, Internet Explorer dominó absolutamente el mercado y Microsoft pisó el freno:

Las versiones se espaciaron: Internet Explorer 6 SP1 (septiembre de 2002), Internet Explorer 6 SP2 (agosto de 2004).

Las nuevas versiones no incluían prácticamente nuevas características. En 2003, Microsoft llegó a anunciar que sólo habría nuevas versiones de

Internet Explorer cuando hubiera nuevas versiones de Windows.

A partir de 2005, ante la aparición de Firefox, Microsoft volvió a pisar el acelerador, aunque su uso global ha ido bajando desde entonces:

Se fueron publicando nuevas versiones a un ritmo cada vez más rápido: IE 7 (octubre de 2006), IE 8 (marzo de 2009), IE 9 (marzo de 2011) e IE 10 (septiembre de 2012).

Las nuevas versiones han ido incluyendo características avanzadas y, sobre todo, respeto a las recomendaciones del W3C.

Tanto IE 7 como IE 8 estuvieron disponibles para Windows XP, probablemente debido al fracaso de Windows Vista como sustituto de Windows XP. Durante el primer año de IE 7, para instalarlo era necesario validar Windows, pero desde entonces esa limitación no se ha vuelto a utilizar.

A partir de 2011, confirmado el éxito de Windows 7 como sustituto de Windows XP, Microsoft volvió a vincular el navegador con el sistema operativo e Internet Explorer 9 ya no se publicó para Windows XP.

 

Actualmente (octubre de 2014), las versiones más modernas de IE que se pueden instalar en cada versión de Windows es la siguiente:

En Windows XP, la versión más moderna que se puede instalar es IE 8.

14

Page 15: investigación de la web  y la web profunda

En Windows Vista, la versión más moderna que se puede instalar es IE 9. En Windows 7, 8 y 8.1 se puede instalar IE 11, la última versión disponible

actualmente (octubre de 2014).

Mozilla (Netscape 1998)

Netscape anunció que liberaba el código fuente de su navegador y el proyecto de continuar el desarrollo de ese código recibió el nombre de “Mozilla”.

Tras unos comienzos titubeantes en los que hubo que desechar gran parte del código, a partir de 1999 se empezaron a publicar numerosas versiones (el lema era "release early, release often", es decir "publica pronto, publica a menudo") de la suite Mozilla, que incluía tanto el navegador como el cliente de correo electrónico, un programa de chat o un editor. Desde el primer momento, el objetivo era implementar fielmente las recomendaciones del W3C. En junio de 2002 se publicó por fin Mozilla 1.0.

Firefox

Además de cumplir las recomendaciones del W3C (no solamente respecto al HTML y a CSS, sino también SVG o MathML), pone el énfasis en la usabilidad (pestañas, interface, etc), facilitando además la personalización y ampliación a través de extensiones.

Está financiado principalmente por Google, a través de donaciones a la Fundación Mozilla. A cambio, la página de inicio inicial de Firefox es la página web de Google. Cuando Google comenzó a publicar en 2008 su propio navegador (Chrome) surgieron dudas sobre la continuidad de esas donaciones, pero en agosto de 2008 el acuerdo se renovó hasta noviembre de 2011 y en diciembre de 2011 se renovó hasta noviembre de 2014.

Este modelo de desarrollo rápido también crea conflictos para los creadores de extensiones, ya que los cambios internos de cada versión pueden hacer que cualquier extensión deje de funcionar. Este problema se agravaba en las primeras versiones porque Firefox suponía que las extensiones eran incompatibles si no se habían actualizado, pero a partir de Firefox 10, Firefox supone que las extensiones son compatibles salvo que se indique lo contrario en la web de extensiones.

Chrome

Chrome es un navegador creado en 2008 por Google a partir de WebKit, el motor de renderizado del navegador Safari, aunque desde la versión 28 (julio de 2013) utiliza el motor Blink en vez de WebKit.

La versión 1.0 se publicó en diciembre de 2008. Su ritmo de desarrollo se aceleró en 2009 (2 versiones publicadas), 2010 (5 versiones publicadas) y 2011 (8 versiones publicadas) y desde 2011 se publica aproximadamente cada seis-siete semanas, como Firefox, aunque no se publica a intervalos regulares como sí hace Firefox.

15

Page 16: investigación de la web  y la web profunda

Chrome ha destacado siempre por su interfaz minimalista y por la velocidad de ejecución del código Javascript, lo que obligó a Firefox y a Internet Explorer a ponerse las pilas en estos aspectos.

Desde 2011, el crecimiento de los dispositivos móviles con sistema operativo Android ha ayudado a Chrome a aumentar su cuota de mercado. Desde finales de 2013 la suma de todas las versiones de Chrome supera a la versión más utilizada de Internet Explorer (actualmente -septiembre de 2014- IE 8).

Chrome volvió a poner sobre la mesa el eterno debate entre la superioridad de las aplicaciones locales y remotas. Gracias a Chrome algunos ven técnicamente posible que el navegador se convierta en la única aplicación del ordenador, con todos los datos en Internet y las aplicaciones ejecutándose en HTML5 y Javascript. Otros recuerdan que más o menos esa fue ya la promesa de Java hace 15 años, que no se cumplió. En cualquier caso, los próximos años prometen ser apasionantes.

16

Page 17: investigación de la web  y la web profunda

Marco conceptual.

Concepto Internet

Es una red de redes que permite la interconexión descentralizada de computadoras a través de un conjunto de protocolos denominado TCP/IP. Tuvo sus orígenes en 1969, cuando una agencia del Departamento de Defensa de los Estados Unidos comenzó a buscar alternativas ante una eventual guerra atómica que pudiera incomunicar a las personas. Tres años más tarde se realizó la primera demostración pública del sistema ideado, gracias a que tres universidades de California y una de Utah lograron establecer una conexión conocida como ARPANET (Advanced Research Projects Agency Network).

A diferencia de lo que suele pensarse, Internet y la World Wide Web no son sinónimos. La WWW es un sistema de información desarrollado en 1989 por Tim Berners Lee y Robert Cailliau. Este servicio permite el acceso a información que se encuentra enlazada mediante el protocolo HTTP (HyperText Transfer Protocol)

Concepto de web

El término, de todas formas, tiene varios usos. Además de nombrar a Internet en general, la palabra web puede servir hacer mención a una página web, un sitio web o hasta un servidor web.

Es importante establecer que este término además forma parte de lo que se conoce como World Wide Web que es la red informática que se emplea en todo el mundo. A finales de la década de los años 80 fue cuando nació aquella que permite que hoy cualquier ciudadano, a través de una conexión a Internet junto a un navegador y un ordenador, pueda acceder desde cualquier rincón del mundo a la web que desea. Lo puede hacer para informarse, para entretenerse o simplemente por simple curiosidad.

Una página web es un documento que incluye un archivo HTML con texto, imágenes, videos, animaciones Flash, etc. Al conjunto de páginas web que suelen formar parte del mismo dominio o subdominio de Internet se lo conoce como sitio web. Dentro del sitio web, todas las páginas guardan alguna relación entre sí y están vinculadas mediante vínculos (también conocidos como enlaces, hipervínculos, hiperenlaces o links).

Muchas son las recomendaciones existentes acerca de las características imprescindibles que debe tener una página web para ser considerada buena, útil y óptima. No obstante, entre todas ellas destacaríamos las siguientes:

17

Page 18: investigación de la web  y la web profunda

Debe poseer una jerarquía perfectamente clara. Es decir, todos sus elementos deben estar claros y organizados en una estructura comprensible.

Es imprescindible que respete y cumpla con los estándares web establecidos.

Debe contar con el formato más útil para abordar y tratar los asuntos a los que se refiere.

No menos importante es que ofrezca al usuario algo más. Es decir, se trata de que este encuentre en ella información, curiosidades y soluciones.

Debe tener claro el público al que se dirige para así abordar las cuestiones que más le interesen y preocupen a aquel.

Es fundamental que permita una navegación sencilla y rápida, sin grandes tiempos de espera para que se carguen sus elementos.

Debe incluir material audiovisual que la haga más atractiva y dinámica.

Tiene que permitir la interactuación de todos sus internautas.

El servidor web, por otra parte, es un programa creado para transferir páginas web a través de la implementación del protocolo HTTP. Por extensión, se denomina servidor a la computadora donde se ejecuta dicho tipo de software.

Concepto Deep web

Deep Web es un término en inglés empleado para referirse a todas las páginas de Internet que no están indexadas por los motores de búsqueda del Internet que conocemos y en el que navegamos todos los días (para más claridad sobre indexación puedes ver este artículo sobre cómo funciona Google). El nombre en español de Deep Web es Internet profunda, haciendo alusión a la analogía de que el contenido que usamos día a día es contenido que está en la superficie, fácilmente accesible y visible para todos. A la Internet profunda también se le conoce como Internet invisible, Deepnet, Darkweb, Dark Web,Undernet y hidden Web.

El término de Deep Web es utilizado frecuentemente para referirse a páginas de Internet que están funcionando bajo software que protege su identidad, como Tor, sin embargo la diferencia es que éstas ocultan su identidad de forma intencional, frecuentemente para ocultar actividad y oferta de contenido ilegal (como pornografía infantil, oferta de sustancias, oferta de servicios ilegales, etc.), de ahí que Deep Web y Dark Web sean términos que se usan coloquialmente para referirse a las páginas con dicha oferta.

18

Page 19: investigación de la web  y la web profunda

Marco legal

Las disposiciones de esta Ley son de orden público, interés social y observancia general en el Estado de México, en términos de lo establecido por los artículos 102 apartado B de la Constitución Política de los Estados Unidos Mexicanos y 16 de la Constitución Política del Estado Libre y Soberano de México.

La presente Ley tiene por objeto establecer las bases para la protección, observancia, j promoción y divulgación de los derechos humanos que ampara el orden jurídico mexicano; así como los procedimientos que se sigan ante la Comisión de Derechos Humanos del Estado de México.

Trans Pacific-Partnership Agreement (TPP)

Mientras que los otros tres elementos de esta lista se refieren solo a la legislación

de Estados Unidos, existe un debate internacional en curso para establecer las

normas para el intercambio en línea entre países de ambos lados del Pacífico. Los

defensores de la tecnología están preocupados por lo que el TPP va a significar

para los derechos digitales de autor tanto en Estados Unidos como a nivel

internacional.

El TPP involucra nueve países a lo largo de la costa del Pacífico (Estados Unidos,

Perú, Chile, Vietnam, Singapur, Malasia, Australia, Nueva Zelanda y Brunei) y

pronto Japón y Canadá. El acuerdo podría ampliar los estándares de propiedad

intelectual estadounidenses a otros países, al tiempo que refuerza las leyes

vigentes de propiedad intelectual en Estados Unidos. Los defensores, como la

EFF están preocupados por lo que la ley va a significar para sus esfuerzos en

suavizar las restricciones de “uso justo” del contenido y reformar las leyes de

derechos de autor como la Digital Millennium Copyright Act (DCMA). En términos

más generales, sin embargo, la EFF ha señalado que las partes en cuanto a la

tecnología en las negociaciones del TPP se han realizado de manera secreta.

La Oficina Comercial de Estados Unidos en su web analiza los beneficios del TPP,

particularmente en lo relativo a los acuerdos comerciales entre los países, pero

dice muy poco acerca de los impactos del TPP en la tecnología. Mientras tanto,

las próximas rondas de negociaciones del TPP se llevaron a cabo durante las dos

primeras semanas de marzo.

19

Page 20: investigación de la web  y la web profunda

Computer Fraud and Abuse Act (CFAA)

Los combatientes por la libertad en Internet lamentaron el fallecimiento del

organizador de la antiSOPA y fundador de Reddit, Aaron Swartz, a principios de

este año. Swartz se enfrentaba a un enjuiciamiento en virtud de la CFAA, que

desde entonces ha sido denominada por algunos como la“Ley de Aaron”. Los que

buscan la reforma creen que la CFAA –que fue aprobada a finales de 1980 y

actualizada una década después– es demasiado restrictiva en la prohibición de

qué se puede compartir. Swartz, por ejemplo, fue acusado de robar millones de

artículos científicos y documentos de un servicio de suscripción del MIT llamado

JSTOR, y podría haber sido condenado a prisión.

En términos generales, la CFAA considera un delito federal acceder y compartir

información protegida. Sin embargo, las organizaciones como la FEP han pedido

reformas a la CFAA durante años, específicamente para reducir las sanciones por

violaciones a la CFAA y establecer definiciones más claras de cuándo se produce

una violación a la CFAA.

No está claro dónde está la reforma a la CFAA en este momento. El blog Politico

informó recientemente que la administración Obama se ha mostrado renuente a

apoyar los esfuerzos de reforma.

Cyber Intelligence Sharing and Protection Act (CISPA)

En un nivel básico, la CISPA dicta cómo las empresas comparten información

sobre amenazas cibernéticas con el gobierno federal. Quienes se oponen a la

legislación, como laElectronic Frontier Foundation ), están preocupados por lo que

ellos llaman protecciones inadecuadas de privacidad dadas las amplias

definiciones de amenaza cibernética.

Igualmente preocupante, según Mark Stanley, director de campañas y

comunicaciones para el centro no partidista para la Democracia y la Tecnología

(CDT), es que la información que las empresas entregan al gobierno va a la

Agencia Nacional de Seguridad (NSA) que, afirma, es una división militar del

gobierno.

“Con razón, hay poca luz en lo que la NSA hace”, explica Stanley. “Debido a que

es una entidad militar, debe ser secreta”. Pero eso crea problemas de privacidad

cuando las empresas proporcionan información personal identificable (PII) de

20

Page 21: investigación de la web  y la web profunda

ciudadanos estadounidenses a la NSA. No tenemos idea de cómo va a ser

utilizada”, señala, debido a las definiciones amplias de la seguridad cibernética en

la ley. La CDT está solicitando normas que dicten qué organizaciones del gobierno

utilizan la información y para qué.

La CISPA ha estado dando vueltas en Washington DC, durante los últimos años,

pero ha ganado el apoyo bipartidista recientemente, incluso de los dos miembros

principales del Comité de Inteligencia de la Cámara. Los partidarios del proyecto

de ley la presentaron de nuevo en febrero, por lo que será una pieza muy debatida

de la legislación en los próximos meses.

Electronic Communications Privacy Act (ECPA)

Desde que esta ley –que establece las normas sobre cómo el gobierno puede

tener acceso a la información digital de los ciudadanos– fue aprobada en 1986 la

tecnología ha cambiado drásticamente, pero la ley no lo ha hecho.

Los defensores de la reforma de la ECPA dicen que la parte más atroz de la ley

concierne a los derechos que el gobierno tiene para obtener los archivos

electrónicos sin necesidad de una orden judicial. “Una carta de papel que

guardada en el cajón de su casa u oficina tiene un nivel significativamente más

alto de protección constitucional frente a un correo electrónico en este momento”,

señala Robert Holleyman, presidente de la Business Software Alliance, que apoya

los cambios en la ECPA para fortalecer la privacidad de los consumidores y las

empresas.

La ECPA permite al gobierno obtener acceso a las comunicaciones digitales –

correo electrónico, mensajes de Facebook, la información que se guarda en bases

de datos de su proveedor de nube pública y una variedad de otros archivos– con

solo una orden de comparecencia y no una orden judicial, una vez que esos

elementos tienen 180 días de antigüedad.

Para proporcionar un alcance de qué tanta información entregan las compañías al

gobierno, Google informó recientemente que tuvo más de 18 mil solicitudes de

información por parte del gobierno en la segunda mitad del año pasado.

Ya hay un movimiento en marcha en el Congreso para cambiar esta situación. El

año pasado, el Comité Judicial del Senado aprobó una actualización de la ECPA,

pero no llegaron a una votación del Senado. En marzo, los miembros de la

21

Page 22: investigación de la web  y la web profunda

Cámara de Representantes presentaron una actualización a la ECPA, por lo que

el debate se elevará de nuevo pronto.

Otra parte de la ECPA dicta cuándo el gobierno tiene acceso a la localización por

GPS usando teléfonos celulares. Ha habido un cierto apoyo en la Cámara por la

ley del GPS, que permite establecer políticas para que el gobierno pueda tener

acceso a información sobre la ubicación de los ciudadanos, pero el proyecto de ley

que el Senado aprobó el año pasado se quedó en silencio sobre este tema.

Ley federal de protección de datos personales en posesión de los particulares

Artículo 1. La presente Ley es de orden público y de observancia general en toda la República y tiene por objeto la protección de los datos personales en posesión de los particulares, con la finalidad de regular su tratamiento legítimo, controlado e informado, a efecto de garantizar la privacidad y el derecho a la autodeterminación informativa de las personas

Artículo 7o. Es inviolable la libertad de difundir opiniones, información e ideas, a través de cualquier medio. No se puede restringir este derecho por vías o medios indirectos, tales como el abuso de controles oficiales o particulares, de papel para periódicos, de frecuencias radioeléctricas o de enseres y aparatos usados en la difusión de información o por cualesquiera otros medios y tecnologías de la información y comunicación encaminados a impedir la transmisión y circulación de ideas y opiniones.

 Ninguna ley ni autoridad puede establecer la previa censura, ni coartar la

libertad de difusión, que no tiene más límites que los previstos en el primer párrafo del artículo 6o. de esta Constitución. En ningún caso podrán secuestrarse los bienes utilizados para la difusión de información, opiniones e ideas, como instrumento del delito.

Artículo reformado DOF 11-06-2013  

Artículo 6o. La manifestación de las ideas no será objeto de ninguna inquisición judicial o administrativa, sino en el caso de que ataque a la moral, la vida privada o los derechos de terceros, provoque algún delito, o perturbe el orden público; el derecho de réplica será ejercido en los términos dispuestos por la ley. El derecho a la información será garantizado por el Estado.

Párrafo reformado DOF 13-11-2007, 11-06-2013 

22

Page 23: investigación de la web  y la web profunda

Toda persona tiene derecho al libre acceso a información plural y oportuna, así como a buscar, recibir y difundir información e ideas de toda índole por cualquier medio de expresión.

Párrafo adicionado DOF 11-06-2013

Capítulo 1: El Internet

23

Page 24: investigación de la web  y la web profunda

El Internet

Internet es el producto de un proyecto del Ministerio de la Defensa

Estadounidense conocido como A.R.PA.N.E.T. Por medio del cual se

interconectaron las principales universidades de E.E.U.U y algunos centros de

investigación científica. En poco más de diez años el Reino Unido se conectó a la

ya gran red que cubría casi todas las universidades y centros científicos de

Estados unidos. Luego se conectarían los demás países de Europa y algunos del

continentes asiático. Ya a finales de los ochenta se hablaba de una red

internacional. Fue con la creación del servicio Web al principio de los noventa lo

que logró que se conectaran millones de personas desde sus casas y oficinas. A

mediados de los noventa comenzó el gran boom donde se puso de manifiesto el

comercio, los negocios financieros, y sobre todo el entretenimiento. Actualmente

se calcula que deben existir alrededor de 200 millones de internautas en la gran

autopista de la información.

24

Page 25: investigación de la web  y la web profunda

Worl Wide Web

Antes de aparecer este servicio, los usuarios de la red tenían que manejar toda

una serie de comandos y poseer cierto nivel de conocimientos sobre sistemas

operativos para poder hacer operaciones como copiar un archivo, mandar un

mensaje, etc. Al ir aumentando el número de usuarios se hizo necesario buscar

herramientas que hicieran más sencillo el acceso a la información y el manejo de

la misma. Es por esto que se crearon servicios como GOPHER y el World Wide

Web. La ventaja de estos servicios fue su entorno gráfico y el poco uso de

comandos escritos para realizar cualquier acción. Ciertamente el servicio que más

éxito tuvo y sigue teniendo es el conocido por sus siglas: WWW. Hoy en día

Internet se basa fundamentalmente en este servicio, aun cuando se sigan

utilizando otros como el GOPHER, el Archi, el FTP o la Verónica.

25

Page 26: investigación de la web  y la web profunda

E-mail

El uso de un correo electrónico estándar constituyó uno de los grandes avances

en lo que a comunicación se refiere. Ya el correo tradicional se destina a

transporte de mercancía en la mayoría de los casos. En muchas organizaciones

ya se ha sustituido casi por completo el uso del papel para los asuntos

burocráticos. Los informes, memorandos, minutas y demás documentos se envían

por correo electrónico, ahorrando el costo del papel, del toner o tinta de la

impresora, ahorrando tiempo y en muchos casos, ayudando a tener un

departamento de correo interno bastante reducido. Sin embargo existen muchas

personas que opinan que el e-mail le quita lo romántico y lo personal a una carta

de papel, pero al ver los números estadísticos que reflejan la gran cantidad de

personas en todo el mundo que usan el e-mail, podemos asegurar que esto no

hará decaer su uso. (Figura 1.1)

Capítulo 1: figura 1. 1

26

Page 27: investigación de la web  y la web profunda

Motores de búsqueda

Al principio cuando una persona quería buscar una información o un archivo, tenía

que saber la dirección exacta del servidor donde estaba el archivo maestro y luego

bajar dicha información a su PC. Por lo general eran direcciones de universidades

y centros científicos. Pero al multiplicarse el número de servidores a lo ancho del

globo terráqueo se hizo imprescindible el uso de un servicio que hiciera la

búsqueda de la información requerida en las distintas bases de datos a donde se

pudiera conectar. Con la aparición de la Web, se hizo más sencillo este servicio.

Dos de los más populares motores de búsqueda son Yahoo! (www.yahoo.com) y

Altavista (www.altavista..com). (Figura 1.2)

Cuando un estudiante requiere una información que le mandaron a investigar, es

común que lo primero que haga al estar conectado a Internet es buscar una de

estas dos direcciones y colocar en la opción de búsqueda lo que desea conseguir.

Luego, este buscador le ofrece distintas opciones donde se pueden encontrar los

datos buscados.

Capítulo 1: figura 1. 2

27

Page 28: investigación de la web  y la web profunda

Procesadores de texto

Ya hace unos cuantos años que el uso de la máquina de escribir pasó a ser algo

obsoleto. Los actuales procesadores de texto como el Microsoft Word, Lotus Word

Pro, Star office, entre otros, brindan todo tipo de ventajas a la hora de "tipear" un

trabajo determinado. Una de las grandes ventajas del uso de estos programas son

las herramientas que ayudan a hacer el trabajo más fácil y cómodo. Así tenemos

las herramientas de Ortografía, Gramática, Diccionario de Sinónimos, ayudante

para gráficos, impresión, etc. Es muy útil también el uso de los comandos "copiar"

y "pegar" por medio de los cuales se puede ahorrar una gran cantidad de tiempo

cuando se quiere estructurar un párrafo, o cuando se quiere hacer una síntesis de

varios documentos por ejemplo.

El copiar y pegar consiste en seleccionar una porción de texto y copiarla a un

documento que se esté creando. Es esta quizá la herramienta más atacada por los

que critican el uso de Internet como técnica de investigación, pues, según

sostienen, el estudiante cada vez lee menos, capta menos y utiliza menos su

capacidad de investigar y de sintetizar.

Capítulo 1: figura 1. 3

28

Page 29: investigación de la web  y la web profunda

Antecedentes de la Investigación

En la actualidad el uso del PC en el hogar sigue estando ligado a cuatro grandes

actividades: El correo electrónico, la navegación en Internet, el procesamiento de

textos y el entretenimiento.

En un estudio realizado por Microsoft de Argentina, se dio a conocer que los

jóvenes prefieren buscar información en la Web que en un CD-ROM, aun cuando

el proceso es más lento Según la firma investigadora de mercado International

Data Corp. (IDC citado por Cabrera, 2000) la cantidad de usuarios de Internet en

América Latina está creciendo en un rango porcentual compuesto anual de 41 por

ciento -- el más rápido en el mundo -- y se espera que alcance los 29.4 millones

en el 2003.

En Venezuela la firma Datanálisis (Datanálisis, 2001) publicó una serie de datos

interesantes acerca de la conducta del internauta venezolano. En el gráfico que

veremos a continuación se destaca el hecho que el mayor porcentaje de

internautas son jóvenes. Este dato es importante por cuanto demuestra la

importancia que le da la juventud venezolana a Internet. Esto contribuye también a

que las empresas, instituciones y demás organismos presentes en la Web,

enfoquen cada vez más sus páginas web hacia el consumidor joven que busca

entre otras cosas entretenimiento y conocimiento. (Figura 1.4)

Capítulo 1: figura 1. 4

29

Page 30: investigación de la web  y la web profunda

Internet como fuente de investigación.

Actualmente el acceso a Internet es cada vez más frecuente por parte de los

estudiantes a la hora de buscar información. El uso de Internet como herramienta

de investigación se ha convertido en poco tiempo en una gran alternativa para el

uso de las bibliotecas. Es ya cosa común encontrar dentro de una biblioteca una

sala de computación con acceso a Internet. Se hace evidente pues, la interrelación

que existe entre estas dos grandes fuentes de información. Sin embargo, es

notorio el hecho de que cada vez más el estudiante en general prefiere obtener los

datos que necesita para su investigación a través de la "autopista de la

información" y no de la biblioteca tradicional.

Entre las principales causas que podemos enumerar sobre esta conducta

podemos citar:

La necesidad de recolectar datos de una manera rápida y eficiente.

El alto costo de los libros, que obliga a buscar alternativas para

conseguir la información contenida en ellos sin tener que comprarlos.

La falta de tiempo que nos impide el trasladarnos a una biblioteca

pública cada vez que la necesitemos.

El deplorable estado en que se encuentran muchas de las bibliotecas

las cuales no poseen gran cantidad de material útil para nuestra

investigación y lo poco que se consigue está en mal estado la

mayoría de las veces.

30

Page 31: investigación de la web  y la web profunda

Ventajas y desventajas del Uso de Internet

Entre las principales ventajas que ofrece el uso de Internet como fuente de

información tenemos:

El ahorro de tiempo al no tener que trasladarse hacia una biblioteca.

Esto siempre y cuando posea el acceso a Internet en su casa.

El ahorro de tiempo al no tener que transcribir gran cantidad de

caracteres, utilizando el método de "copiar y pegar" texto.

El ahorro de costos al no tener que pagar por copias fotostáticas o

por la compra de libros o revistas.

El acceso a una cantidad mayor de fuentes de información, con

motores de búsqueda especializados que ahorran el tiempo de

búsqueda de los datos.

El acceso a herramientas informáticas para el intercambio de la

información, tales como: e-mail, charlas en línea (chats), forum de

discusión, etc.

El ahorro de tiempo permite culminar con más rapidez los trabajos de

investigación.

El acceso a grandes bases de datos ofrece la oportunidad de realizar

un trabajo de mayor calidad.

El acceso directo a la tecnología moderna obliga al usuario a

mantenerse al día en los cambios tecnológicos. Esto incide

positivamente en el desarrollo cultural del individuo.

Sirve como complemento del aprendizaje a la par del uso de las

bibliotecas tradicionales.

Quizá la posible gran desventaja que podríamos encontrar en un uso muy

frecuente de Internet para buscar información es la de que ciertos estudiantes se

dedican a copiar textualmente monografías que se encuentran en la red, sin hacer

31

Page 32: investigación de la web  y la web profunda

uso de su creatividad y de su capacidad de análisis. Esto evidentemente afecta

negativamente el desarrollo intelectual de estos estudiantes.

Sin embargo, es importante señalar el hecho de que Internet posibilita, por primera

vez en la historia de la educación, que la mente del estudiante quede liberada de

tener que retener una cantidad enorme de información; solo es necesario

comprender los conceptos sobre la dinámica de los procesos en los cuales una

información está encuadrada, ello permite utilizar métodos pedagógicos con los

cuales el alumno puede aprender más y mejor en un año lo que le requería por

ejemplo en tres.

El acostumbrado método memorístico que utilizan las escuelas y universidades

para impartir conocimientos tenderá a caer en desuso, pues su utilidades casi

nula. La tendencia es que el valor real de un estudiante vendrá dado no por la

cantidad de información que posea sino por la capacidad de interpretar la

información y procesarla creativamente.

Ahora los docentes pueden destinar su esfuerzo y el de los alumnos en desarrollar

más las capacidades mentales que les posibiliten a los estudiantes poder

"comprender adecuadamente" la información y "elaborarla creativamente",

pudiendo así producir una calidad superior de razonamiento.

Evaluaciones sobre la calidad educativa de los alumnos que egresan de la escuela

media han demostrado que la mayoría no comprenden bien lo que leen y tienen

serias deficiencias en poder razonar eficientemente.

Es importante resaltar que si a los alumnos que terminan la escuela media, en

instituciones educativas en las cuales predomina la educación memorística, se les

interroga sobre la información que con tanto esfuerzo memorizaron en los

anteriores 12 años de "estudio", se comprobara que en la mayoría de los casos se

les olvido en un porcentaje superior al 90 %, esto permite afirmar que la educación

memorística también fracasa en lograr su objetivo, además de perjudicar el

desarrollo del pensamiento creativo en los alumnos.

32

Page 33: investigación de la web  y la web profunda

Educación, formación y cambio tecnológico.

Indica Piaget (Raúl Rispa, 1981) que la información facilita la capacidad de

adaptación a situaciones nuevas. Educación y formación son procesos de

adquisición de información estructurada, de conocimientos que permiten al

individuo y a los grupos humanos actuar en las diversas situaciones de su vivir.

Si nuestro entorno está cambiando, precisamos de una nueva educación y

formación acorde con las nuevas condiciones.

La formación profesional y laboral y la educación en los centros universitarios en

general habrían de prepararse para el futuro; sin embargo, los sistemas

educativos formales son lentos en recoger las necesidades del mundo real y

suelen impartir una preparación más apta para situaciones del pasado que para

las del futuro que son las que, realmente, vamos a afrontar. En una sociedad

intensiva en uso de sistemas informáticos y en tecnologías de información, una

alfabetización básica en estas áreas tendría que ser ya habitual. En un mundo

cuyo eje de producción social y económica pasa por el manejo de información,

este cambio tecnológico acelerado, profundo en que vivimos implica la necesidad

de una formación continua que impida el desfase de nuestra preparación y la

obsolescencia de nuestros conocimientos y capacidades; un aspecto profundo del

problema generalizado del desempeño en nuestras sociedades actuales y del que

no se suele hablar , quizás porque las nuevas tecnologías de la información traen,

junto a sus retos, nuevas posibilidades para la educación en todos sus niveles así

como la formación continua. Como la rápida difuminación de fronteras entre el

equipamiento doméstico y los instrumentos didácticos formales contribuye a la

autoeducación y la formación continuada tan conveniente en una sociedad que

exige una educación más allá del período y ámbito de formación, y aporta

economías al no requerir de aulas, transporte, etc.

33

Page 34: investigación de la web  y la web profunda

Una de las más revolucionarias de las invenciones humanas fue la escritura; los

animales mueren y se llevan consigo los conocimientos y experiencias

acumulados. Sin embargo, los avances que el hombre ha efectuado en los 10.000

últimos años se basan en su capacidad de almacenar información superando el

tiempo y el espacio.

Hoy vemos cómo surgen nuevos medios para crear, dar forma, almacenar,

recuperar y difundir información. Agregados a los materiales impresos, el registro

sonoro, la imagen fotoquímica y la radiodifusión oral y audiovisual, dan lugar a un

nuevo sistema global de información.

Un término reciente relacionado con la educación a distancia es el de aprendizaje

abierto, que pone el énfasis más en el que aprende que en el proceso de ayuda.

No todo el aprendizaje a distancia es abierto, aunque, el aprendizaje abierto

proporciona la oportunidad para el que aprende de progresar a su propio ritmo y

en función de sus expectativas. Un elemento necesario para la eficacia del

sistema es la realimentación y los intercambios educativos. En los sistemas más

sofisticados (y en expansión) los estudiantes cuentan con la ayuda de un servicio

de orientación que ofrece consejo y apoyo.

El sistema puede ser evaluado de forma positiva frente a los críticos que

presentan el aprendizaje a distancia como una pérdida de contacto con el profesor

u orientador y de espontaneidad personal.

Sin embargo algunas de las metodologías más recientes se centran en el

aprendizaje individual. A través de la teleconferencia, la enseñanza a distancia

favorece las relaciones grupales y cada vez se utilizan más los sistemas de apoyo

por medio del teléfono; los programas de radio y televisión que llegan a tener una

enorme audiencia también se emplean en este tipo de enseñanza.

34

Page 35: investigación de la web  y la web profunda

En algunas ocasiones, los alumnos que estudian a distancia se reúnen en

seminarios de fines de semana o en escuelas de verano. También hay reuniones y

conferencias para los proveedores de cursos.

No es posible predecir todas las repercusiones de la evolución de la educación, ni

la rapidez con que se producirá; sin embargo, sobre la base de los cambios ya en

vigor, pueden adivinarse formas de enseñanza totalmente inéditas , la causa de tal

evolución que hace que aquello suceda , es la creciente complejidad de la vida

moderna. Formarse y prosperar requieren ineludiblemente más y mejor técnica

educativa para así mantenerse al alcance de los acontecimientos. El elemento

catalizador para la creación de este universo inteligente , la tendencia tecnológica

que lo puso en funcionamiento, fue la fusión gradual de dos tecnologías ; las

telecomunicaciones y la informática han introducido un nuevo concepto (EAO)

Enseñanza Asistida por Ordenador); en efecto , aunque su implementación

todavía no sea muy amplia , la informática ha penetrado en el mundo de la

educación y este tipo de enseñanza se desarrolla en la actualidad en tres

aspectos diferentes: uno, de adiestramiento y práctica del alumno, otro por un

sistema de tutoría y un último que podríamos denominar coloquial .

Sea cual sea la modalidad de enseñanza, la aplicación que en el mundo educativo

tiene la informática es muy importante, ya que, entre otras cosas, se puede contar

con su infinita paciencia y la posibilidad de almacenar en su memoria un número

de cuestiones que jamás podrá contener un libro y los cambios no se notarán de

inmediato, sino en el futuro.

Según una encuesta realizada por la Universidad Alejandro de Humboldt a un

grupo estudiantes de Ingeniería en Informática se determinó el auge que tiene

Internet como fuente de información entre los estudiantes encuestados.

Esto arroja una tendencia actual que sin embargo no asegura que esta se

mantenga por siempre, por cuanto podríamos estar frente a una simple "moda" o

quizás en un futuro cercano las bibliotecas podrían adecuarse de tal manera que

35

Page 36: investigación de la web  y la web profunda

brindaran ciertos beneficios (entre ellos evidentemente el acceso a Internet) que

las hicieran atractivas y más útiles que el sólo acceso a la Red.

En esta gráfica se refleja que un 82% de los encuestados no cree que sus

capacidades intelectuales puedan ser mermadas con el uso continuado de Internet

como fuente de búsqueda de datos. Sin embargo existe un porcentaje pequeño

que opina lo contrario. Esto puede ser debido a una mala utilización del medio

informativo en el sentido de que estas personas pueden no tener cierto grado de

conocimientos en el manejo de los motores de búsqueda o en los diferentes

servicios de intercambio de datos.

De este resultado podemos deducir que en un porcentaje alto, Internet no sólo es

la primera alternativa al momento de buscar información, sino que es la única

opción que se escoge. Sin embargo existe un porcentaje muy respetable en el que

se refleja que el uso de otras alternativas sigue siendo útil. Esto nos indica que el

uso de la biblioteca puede disminuir en cierto grado, pero no Desaparecer

totalmente.

Estos resultados reflejan la opinión que tienen los encuestados sobre el valor

positivo de la información contenida en Internet. Se debe tener en cuenta que esta

utilidad depende en gran medida de la capacidad que tenga el estudiante para

investigar los datos. Es muy probable que una persona que no sepa utilizar bien

los motores de búsqueda y demás medios para buscar información en la red, no

obtenga resultados positivos para su investigación. Por otro lado, hay que tomar

en cuenta que por más amplias que sean las bases de datos actuales en toda la

red, no todo puede estar allí. Siempre habrá trabajos de investigación,

monografías, libros enteros, etc. que no han sido "publicados" en Internet.

36

Page 37: investigación de la web  y la web profunda

Capítulo 2: La Deep Web

37

Page 38: investigación de la web  y la web profunda

Introducción a la Deep Web

Cuando hablamos de la Deep web (Internet profunda), hablamos a vez de un

espacio más libre, más abierto pero no tan neutral como la Internet comercial que

todas conocemos.

Este espacio podremos encontrar sicarios a sueldo, venta directa de drogas,

armas..., todo lo que la común mente podría tachar de deleznable. Cabe

mencionar que hay información muy valiosa como secretos de estados y algunas

teorías conspiratorias que suenan a ciencia ficción, pero hay veces en que estas

no están demasiado alejadas de la realidad.

``Cuando miras al abismo, el abismo también te mira a ti.´´

Nietzsche

Un hecho muy importante que no se debe olvidar es que el ser humano por

naturaleza es curioso, aunque también por naturaleza le teme a lo desconocido.

"La emoción más antigua y más intensa de la humanidad es el miedo, y el más

antiguo y más intenso de los miedos es el miedo a lo desconocido"

H.P. Lovecraf

38

Page 39: investigación de la web  y la web profunda

Deep web ¿mito o realidad?

Lejos de las posibles conspiraciones cibernéticas, centraremos el trabajo en las

Posibilidades reales y positivas de la Deep Web. La Deep web o Internet profunda

son redes que escapan a los buscadores más conocidos De la superficie, de ahí

su nombre. Sus páginas, manuales, documentos. No están Indexados y

necesitamos usar programas específicos para poder acceder a ellas. Son las

bases de datos no indexadas, son redes que no quieren mantener comunicación

con la Internet común, son las entrañas de la red, los suburbios. No se trata de un

dogma de fe, algo supuesto e intangible; ¡en el 2000 se hablaba de 7.500

Terabytes de información! ¿Impresionados? Bien. Pues sabed que la Universidad

de Berkeley, California, estima que actualmente la Internet Profunda debe tener

unos 91.000 Terabytes. Tal vez la forma más sencilla, aunque poco original de

explicar este fenómeno, sea el iceberg (figura 2.1). Es un excelente símil; claro y

conciso.

Capítulo 2: figura 2. 1

39

Page 40: investigación de la web  y la web profunda

¿Qué es la deep web?

La Deep Web la forman todas aquellas páginas que los buscadores como Google,

Bing, Yahoo! etcétera no son capaces de indexar. Esto es posible ya que muchas

páginas o documentos están diseñados paraqué permanezcan ocultos a esos

buscadores. Es decir, las personas que los crean no quieren que sean populares

ni sencillos de encontrar. Muchas de esas páginas, directamente, precisan de una

contraseña para ser vistas.

Aunque pueda resultar difícil de creer, hasta el punto de que para muchos es una

leyenda urbana; la Deep web o Internet profunda (Deep net, Hidden web, Invisible

web) compone la gran mayoría de Internet. La Deep Web es todo el contenido de

la World Wide Web que no forma parte de la Surface Web, es decir, no forma

parte de los sitios que pueden ser indexados por los buscadores y a los que

cualquier usuario puede tener acceso desde un navegador corriente.

Aunque hay pocos estudios, uno de los más recientes hecho por la Universidad de

California estima que la Deep Web está formada por unos 7.5 peta bytes (1 peta

byte son 1000 terabytes). Según estudios similares, la web que todos conocemos

(Facebook, Wikipedia, los blogs, etc.) se compone de menos del 1% de todo

Internet. (figura 2.2).

Capítulo 2: figura 2. 2

40

Page 41: investigación de la web  y la web profunda

El concepto es sencillo y a la vez confuso, pero se hacen comparaciones de la

web con el mar. En la superficie del mar se encuentran los buscadores, que

recogen los sitios que tienen enlaces entre ellos, páginas estáticas como por

ejemplo este blog. Esa es el área del océano que podemos “surfear”. Más

profundo se encuentran las bases de datos. Cuando se le hace una pregunta a

una base de datos, esta genera una página única que no se indexa en los

buscadores y por lo tanto no forma parte de la Surface Web.

Las publicaciones académicas, como las de revistas científicas privadas, tampoco

forman parte de la superficie, ya que están escondidas en páginas individuales

dentro de redes privadas, como las que descargó el fallecido Aaron Swartz y por

las que fue encarcelado y enjuiciado. Muchas páginas también están escondidas

porque forman parte de una Intranet, usualmente de corporaciones o

universidades.

41

Page 42: investigación de la web  y la web profunda

¿Por qué existe la deep web?

La principal causa de la existencia de la Internet profunda es la imposibilidad de

los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran

parte de la información existente en Internet. Si los buscadores tuvieran la

capacidad para acceder a toda la información entonces la magnitud de la "Internet

profunda" se reduciría casi en su totalidad. No obstante, aunque los motores de

búsqueda pudieran indexar la información de la Internet Profunda esto no

significaría que ésta dejará de existir, ya que siempre existirán las páginas

privadas. Los motores de búsqueda no pueden acceder a la información de estas

páginas y sólo determinados usuarios, aquellos con contraseña o códigos

especiales, pueden hacerlo. 

Los siguientes son algunos de los motivos por los que los buscadores son

incapaces de indexar la Internet profunda:

1.-Páginas y sitios web protegidos con contraseñas o códigos establecidos.

2.-Páginas que el buscador decidió no indexar: esto se da generalmente porque la

demanda para el archivo que se decidió no indexar es poca en comparación con

los archivos de texto HTML; estos archivos generalmente también son más

“difíciles” de indexar y requieren más recursos.

3.-Sitios, dentro de su código, tiene archivos que le impiden al buscador indexarlo.

4.-De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan

bases de datos. Para estos casos los buscadores pueden llegar a la interfaz

creada para acceder a dichas bases de datos, como por ejemplo catálogo de

librerías o agencias de gobierno.

5.-Enciclopedias, diccionarios, revistas en las que para acceder a la información

hay que interrogar a la base de datos, como por ejemplo la base de datos de

la RAE.

42

Page 43: investigación de la web  y la web profunda

6.-Sitios que tienen una mezcla de media o archivos que no son fáciles de

clasificar como visible lo invisible (Web opaca).

7.-La información es efímera o no suficientemente valiosa para indexar. Es posible

indexar está información pero como cambia con mucha frecuencia y su valor es de

tiempo limitado no hay motivo para indexarla.

43

Page 44: investigación de la web  y la web profunda

La inmensidad de la deep web (figura 2.3)

Capítulo 2: figura 2. 3

44

Page 45: investigación de la web  y la web profunda

La Internet profunda (Deep Web) es un conjunto de sitios web y bases de datos

que buscadores comunes no pueden encontrar ya que no están indexadas. El

contenido que puede ser hallado dentro de la Internet profunda es muy amplio. Se

estima que la Internet Profunda es 500 veces mayor que la Internet Superficial,

siendo el 96% de esta información públicamente accesible.

El internet se ve divido en dos ramas, La internet profunda y la superficial.

El Internet superficial se compone de páginas estáticas o fijas, mientras que Web

profunda está compuesta de páginas dinámicas. Las páginas estáticas no

dependen de una base de datos para desplegar su contenido si no que residen en

un servidor en espera de ser recuperadas, y son básicamente archivos 

HTML cuyo contenido nunca cambia.

Todos los cambios se realizan directamente en el código y la nueva versión de la

página se carga en el servidor. Estas páginas son menos flexibles que las páginas

dinámicas. Las páginas dinámicas se crean como resultado de una búsqueda de

base de datos. El contenido se coloca en una base de datos y se proporciona sólo

cuando lo solicite el usuario.

Se estima que la información que se encuentra en la Internet profunda es de

7,500 terabytes, lo que equivale a aproximadamente 550 billones de documentos

individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de

lo que se puede encontrar en la Internet superficial. En comparación, se estima

que la Internet superficial contiene solo19 terabytes de contenido y un billón de

documentos individuales. En 2010 existían más de 200,000 sitios en la internet

profunda.

45

Page 46: investigación de la web  y la web profunda

Pasos para entrar a la deep web de manera segura

1. Entrar en tu buscador de preferencia y escribir virtual box (figura 2.4), una vez

hecho eso descargar este programa el cual emulara un ordenador, en otras

palabras generara una copia virtual de una computadora dentro de tu

computadora.

Capítulo 2: figura 2. 4

2.-despues de haber descargado virtualbox, entrar en tu buscador de preferencia y

escribir Tails (figura 2.5), una vez hecho eso descargar este sistema operativo,

Tails es el sistema operativo basado en debían el cual nos ayudara a proteger

nuestro ordenador, este sistema operativo está pensado para utilizar TOR (The

Onion Router and The onion web).

Capítulo 2: figura 2. 5

46

Page 47: investigación de la web  y la web profunda

3.- instalar virtual box deshabilitando la opción de crear una barra ya que esta no

sirve de nada, cuando ya se haya instalado nos pedirá la confirmación de drivers.

4.-una vez que se habrá sola la ventana del programa virtualbox, crearemos la

máquina virtual y para ello vamos a elegir el tipo Linux la versión Ubuntu y la

vamos a renombrar tails (o como quiera uno).

5.-una vez renombrada la máquina virtual le damos siguiente y generaremos un

disco de imagen y escogemos la capacidad de este según nuestra capacidad de

disco duro, le damos siguiente.

6.- después de hacer el paso 5 veremos cargar automáticamente nuestro sistema

operativo (tails) cuando se configure todo nos pedirá una contraseña

generalmente en los sistemas Linux la contraseña es ``root´´ o ``tor´´.

7.-despues de haber puesto la contraseña, veremos en la pantalla de nuestra

máquina virtual una barra, en la cual tiene la palabra aplicaciones en la parte

superior izquierda, daremos click en esta y posterior en la aplicación de internet,

después de la aplicación de internet nos vamos a vidala que sería nuestro

navegador ``TOR´´ (figura 2.6) ya configurado dentro nuestro sistema operativo.

Capítulo 2: figura 2. 6

47

Page 48: investigación de la web  y la web profunda

8.-por ultimo una vez estando en ``TOR´´ buscaríamos la ``hidden wiki´´ le damos

en la primera opción que el buscador nos da, y dentro de la ``hidden wiki´´

podemos ir a cualquier enlace o dirección que estén dentro de esta página de todo

tipo que quieras. (Figura 2.7)

Capítulo 2: figura 2. 7

48

Page 49: investigación de la web  y la web profunda

Algunos tips para más seguridad

1.-hacer esto en un ciber internet, por si algún virus o hacker intenta apoderarse

del ordenador (figura 2.8), aunque si esto llegara a suceder lo único que

tendríamos que hacer es desinstalar virtual box y volverlo a instalar si quieres

volver a entrar.

Capítulo 2: figura 2. 8

2.-borrar todo tipo de información personal de tu ordenador principal (para esto

puedes utilizar el programa CCLEANER) (figura 2.9).

Capítulo 2: figura 2. 9

3.-desconectar todo tipo de aparato auditivo o visual de tu ordenador. (Figura 2.10)

Capítulo 2: figura 2. 10

49

Page 50: investigación de la web  y la web profunda

Problemas más comunes al entrar a la deep web

Se dice que la Deep web no se navega, se bucea, y es común sentirse perdido las

primeras veces (figura 2.11); se trata de un ejercicio nuevo en un elemento

conocido, y eso genera cierta confusión y tendencia a abandonar el intento. Los

principales problemas con los que tropezamos son los siguientes: No sabemos

cuáles son los enlaces de interés ni sabemos cómo llegar a ellos. También es

común que al intentar acceder a un servicio de la Deep web, este se encuentre

caído, perdido o muerto. Hay que tener en cuenta que el mantenimiento de estas

páginas, foros, chat, servicios..., no es tan habitual como el de una página web

comercial, la de un periódico de éxito o la de un blog conocido en la Internet

común, pero como todo en esta vida, no tenemos más que seguir buscando,

curioseando e incluso fisgando para poder encontrar cuales son esos buenos

enlaces. (Figura 2.12)

Capítulo 2: figura 2. 11

Capítulo 2: figura 2. 12

50

Page 51: investigación de la web  y la web profunda

Ventajas de entrar a la deep web

Cuando se ingresa a la Deep web a buscar información las ventajas son las que

toman el podio, pues se ha demostrado que al abrir el abanico de opciones de

elección, las tasas de calidad aumentan considerablemente. Dadas las

condiciones de la red y teniendo en cuenta que los motores de búsqueda no son

necesariamente calificadores de calidad de información, es más factible encontrar

artículos de calidad dentro de una base de datos de 100.000 que en una de 1.000.

Por lo que las investigaciones sobre diversos temas, conseguirán mejores

resultados, y más originales, con una búsqueda en esta parte de la web. Por otra

parte es posible señalar el anonimato, la privacidad, y las oportunidades que esto

puede dar antes situaciones de opresión y coartación de la libertad de expresión.

(figura 2.13)

Capítulo 2: figura 2. 13

51

Page 52: investigación de la web  y la web profunda

Desventajas de entrar a la deep web

En la Red Profunda hay demasiadas cosas como para contarlas, el contenido de

esta supera por mucho al de la que normalmente conocemos y en ella vas a

encontrar desde lo bueno y útil hasta lo asqueroso y detestable.

Lamentablemente, al ser una red muy grande, sin restricciones y anónima, hay

una gran posibilidad de encontrar contenido como:

1.-Pornografía de todo tipo.

2.-Imágenes grotescas.

3.-Videos de crímenes.

4.-Piratería.

5.-Contratación de personas para asesinatos.

6.-Venta de armas y drogas.

7.-Tráfico de órganos.

8.-hackers.

9.-virus informáticos muy potentes.

Teniendo en cuenta los aspectos anteriores, podremos hacer un juicio de los

peligros y beneficios que supone la Red Profunda. La decisión es personal y no

debemos dejar que las opiniones de los demás influyan en nuestra decisión. Es

cierto que es peligroso pero si se toman las precauciones necesarias y no se

ingresa a archivos desconocidos o de aspecto peligroso, no se encontrarán

contenidos indeseables.

52

Page 53: investigación de la web  y la web profunda

Conclusión

La Deep Web es un ciberespacio que ofrece anonimato, por esta razón informamos a las personas que tengan la oportunidad de acceder a este sitio sea con la finalidad de un beneficio ético o enriquecimiento de conocimientos, al igual que apoyar a agencias de inteligencia para poder restringir redes que no tienen sentido de la moral y con fines lucrativos inhumanos. Comunicamos a los lectores que esta web hospeda información útil, así como información viral, por lo mismo es necesario ser mayor de edad y tener un criterio propio y responsable de lo que investigaras, la reflexión nos lleva a darnos cuenta, que la red profunda navegan cibernautas con 2 modus operandi, un punto central en este tema. Como último nuestra sociedad requiere de educación para saber utilizar la tecnología de forma ética.

53

Page 54: investigación de la web  y la web profunda

Bibliografía o páginas web

Paginas consultadas para el internet.

Páginas web: Yahoo (temas: el internet) (fecha de consulta 05/12/2014)

Dirección: http://www.yahoo.com

Páginas web: alta vista (temas: la internet) (fecha de consulta 05/12/2014)

Dirección: http://altavista.digital.com

Páginas web: ole (temas: secretos) (fecha de consulta 05/12/2014)

Dirección: http://www.ole.es

Páginas web: lycos (temas: la internet) (fecha de consulta 05/12/2014)

Dirección: http://www.lycos.com

Páginas web: infoseek (temas: el internet) (fecha de consulta 05/12/2014)

Dirección: http://www.infoseek.com

Páginas web: shareware (temas: el internet) (fecha de consulta 05/12/2014)

Dirección: http://www.shareware.com

Páginas web: shareware (temas: ¿Qué es el internet?) (fecha de consulta 05/12/2014)

Dirección: http://www.pointcom.com

Paginas consultadas para la Deep Web.

Página web: chaval (tema: que es la Deep Web y que peligros esconde) (fechas de consulta 03/11/2014)

Dirección: http://www.chaval.es/chavales/enterate/riesgos/%C2%BFque-es-la-deep-web-%C2%BFque-peligros-esconde

Página web: index (tema:Deep Web) (fecha de consulta 03/11/2014)

Dirección: http://www.identi.li/index.php?topic=126577

Páginas web: descarga adictos (temas: manual para la Deep web) (fecha de consulta 03/11/2014) Dirección:http://descargadictos.net/programas/5599/manual-para-la-deep-web-mucho-ojo-no-me-hago-responsable.html

54

Page 55: investigación de la web  y la web profunda

Páginas web: Wikipedia (temas: internet profunda) (fecha de consulta 03/11/2014) Dirección: http://es.wikipedia.org/wiki/Internet_profunda

Páginas web: blogthinkbig (temas: ¿qué es la Deep web?) (fecha de consulta 03/11/2014) Dirección: http://blogthinkbig.com/que-es-la-deep-web/

Otras web consultadas:

Páginas web: leyes (temas: leyes a favor de la deep web) (fecha de consulta 03/11/2014) Dirección: http://cpcug.org/user/invest/

Páginas web: policía cibernética (temas: leyes a en contra de la deep web) (fecha de consulta 03/11/2014) Dirección: http://index.imarcon.com

Páginas web: informe del FBI (temas: no existe la deep web) (fecha de consulta 03/11/2014) Dirección: http://www.impactonline.org

Páginas web: ------ (temas: leyes a favor de la deep web) (fecha de consulta 03/11/2014) Dirección: http://www.excite.com

Páginas web: ct (temas: leyes) (fecha de consulta 03/11/2014)

Dirección: http://www.frus.com

55

Page 56: investigación de la web  y la web profunda

Anexos

RESPONDE ´´SI´´ O ´´NO´´ A CADA UNA DE LAS PREGUNTAS

1.- ¿Es usted un usuario activo de internet?

SI NO

2.- ¿Ha escuchado acerca de la Deep web?

SI NO

3.- ¿Entraría a la Deep web?

SI NO

4.- ¿Conoces a alguien que lo haya hecho?

SI NO

5.- ¿Te llama la atención el contenido de esta web?

SI NO

6.- ¿Has visto contenido sacado de la Deep web?

SI NO

7.- A algunas personas les resulta perturbador el contenido de esta web ¿Es este tu caso?

SI NO

8.- ¿Consideras la Deep web como mala?

SI NO

56