ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Internet profunda wiki: info, historia y vídeos

videos internet

salud  Internet profunda 


La primordial causa de la existencia de internet profunda es la imposibilidad de los buscadores web (Google, Yahoo, Bing, etcétera) de hallar o bien indexar una gran parte de la información existente en Internet. Si los motores de búsqueda tuviesen la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría prácticamente en su totalidad. Sin embargo, si bien los buscadores pudiesen indexar la información de internet profunda esto no querría decir que esta dejase de existir, en tanto que siempre y en toda circunstancia van a existir las páginas privadas. Los buscadores no pueden acceder a la información de estas páginas y solo ciertos usuarios, aquellos con claves de acceso o bien códigos singulares, pueden hacerlo.


La Deep Web es un lugar idóneo para el crimen organizado, ahí pueden establecerse contactos que no son monitoreados, absolutamente nadie esta allá observando. Además de esto las trasferencias tanto de mercadería como de pagos son casi imposible de rastrear. La página web está dividida en 2 partes, la página web superficial y la página web profunda. Esta última es la que se conoce como Deep Web, donde se sitúa todo contenido que no es indexable por los buscadores web, o bien al que los usuarios no pueden acceder a través de un buscador web como DuckDuckGo, Startpage, Yandex, Ecosia, Yahoo!, Google o bien Bing.


La internet profunda no es una zona prohibida o bien mística de internet, y la tecnología relacionada con ella en general no es conspirativa, peligrosa o bien ilegal. En ella se cobija todo género de recurso al que se es bastante difícil de acceder a través de métodos comunes como los buscadores populares.


Una una parte de internet profunda consiste en redes internas de instituciones científicas y académicas que forman la llamada Academic Invisible Web: («Internet académica invisible») la que se refiere a las bases de datos que poseen avances en tecnología, publicaciones científicas, y material académico generalmente a los que no se pueden acceder de manera fácil.


La internet profunda es un conjunto de sitios y bases de datos que buscadores web comunes no pueden hallar en tanto que no están indizadas. El contenido que se puede encontrar en internet profunda es muy amplio.


El internet se ve dividido en 2 ramas, internet profunda y la superficial. Internet superficial se compone de páginas indizadas en servidores DNS con una alfabetización y codificación de página a la perfección comprensible por los buscadores web, al paso que internet profunda está compuesta de páginas cuyos dominios están registrados con extensiones .onion y los nombres de los dominios están codificados en una trama HASH. Estas páginas se sirven de forma ad hoc, y no precisan darse de alta, es suficiente con que tu computador tenga marchando un servicio onion, que va a hacer las veces de un servicio dns, mas singular para las páginas del internet profundo. A través de una red Peer to Peer, se contestan las bases de datos que poseen la resolución de nombres HASH.


Mientras que las páginas normales son identificadas a través de el protocolo UDP/IP, las páginas .onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema para la navegación segura. El sistema de busca es exactamente el mismo que utiliza BitTorrent. El contenido se pone en una base de datos y se da solo cuando lo pida el usuario.


En dos mil diez se estimó que la información que se halla en internet profunda es de siete mil quinientos terabytes, lo que equivale a más o menos quinientos cincuenta billones de documentos individuales. El contenido de internet profunda es de cuatrocientos a quinientos cincuenta veces mayor de lo que se puede localizar en internet superficial. En comparación, se calcula que internet superficial contiene solo diecinueve terabytes de contenido y un billón de documentos individuales.


También en dos mil diez se estimó que existían más de doscientos cero sitios en internet profunda.


Estimaciones basadas en la extrapolación de una investigación de la Universidad de California en Berkeley especula que hoy día internet profunda debe tener unos noventa y uno cero terabytes.


La Association for Computing Machinery (ACM) publicó en dos mil siete que Google y Yahoo indexaban el treinta y dos por ciento de los objetos de internet profunda, y MSN tenía la cobertura más pequeña con el once por ciento . No obstante, la cobertura de los 3 motores era de treinta y siete por ciento , lo que señalaba que estaban indexando prácticamente exactamente los mismos objetos.


Son páginas de texto, ficheros, o bien a veces información a la que se puede acceder a través de la WWW que los motores de búsqueda de empleo general no pueden, debido a restricciones o bien de forma deliberada, añadir a sus índices de webs.


La Web profunda se refiere a la compilación de sitios o bien bases de datos que un buscador común, como Google, no puede o bien no desea indexar. Es un sitio concreto del internet que se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, salvo que uno lo desee.


Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mentó que Jill Ellsworth empleó el término «Web invisible» en mil novecientos noventa y cuatro para referirse a los sitios que no están registrados por ningún motor de busca.


En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en 1996:


Otro empleo temprano del término Web Invisible o bien web profunda fue por Bruce Monte y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta @ 1 de web profunda, en un comunicado de prensa de diciembre de mil novecientos noventa y seis.


La relevancia potencial de las bases de datos de busca asimismo se reflejó en el primer lugar de busca dedicado a ellos, el motor AT1 que se anunció a bombo y platillo a inicios de mil novecientos noventa y siete. No obstante, PLS, dueño de AT1, fue adquirida por AOL en mil novecientos noventa y ocho, y poco después el servicio AT1 fue descuidado.


El primer empleo del término concreto de web profunda, ahora en general admitida, ocurrió en el estudio de Bergman de dos mil uno mentado previamente.


Por otra parte, el término web invisible diríase que es impreciso porque:



  • Muchos usuarios aceptan que la única forma de acceder a la página web es consultando un buscador.
  • Alguna información puede ser encontrada más de forma fácil que otra, mas esto no desea decir que esté invisible.
  • La web contiene información de distintos tipos que es guardada y recuperada en diferentes formas.
  • El contenido indizado por los buscadores web de la página web es guardado asimismo en bases de datos y libre únicamente por medio de las solicitudes o bien consultas del usuario, por lo tanto no es adecuado decir que la información guardada en bases de datos es invisible.

Las arañas (web crawlers)


Cuando se ingresa a un buscador y se efectúa una consulta, el buscador no recorre la totalidad de internet en pos de las posibles contestaciones, sino busca en su base de datos, que ha sido generada y también indizada anteriormente. Se usa el término «araña web» (en inglés web crawler) o bien robots (por software, generalmente llamados "bots") inteligentes que van haciendo buscas por links de hipertexto de página en página, registrando la información ahí libre.


El contenido que existe en internet profunda es en rarísimas ocasiones mostrado como resultado en los buscadores web, puesto que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con claves de acceso, ciertos desarrolladores que no desean que sus páginas sean encontradas introducen etiquetas singulares en el código para eludir que sea indizada. Las «arañas» son inútiles de enseñar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer links que incluyen un signo de interrogación. Mas ahora sitios no creados con HTML o bien con signos de interrogación son indizados por ciertos buscadores web. No obstante, se estima que aun con estos buscadores web más avanzados solo se consigue lograr el dieciseis por ciento de la información libre en internet profunda. Existen diferentes técnicas de busca para extraer contenido de internet profunda como librerías de bases de datos o bien sencillamente conocer el URL al que deseas acceder y escribirlo manualmente.

Artículo principal: Tor (red de anonimato)Logo de Tor

The Onion Enrutador (abreviado como TOR) es un proyecto desarrollado y también incorporado por la marina de los U.S.A. lanzado el veinte de septiembre de dos mil dos. Más tarde fue patrocinado por la EFF (Electronic Frontier Foundation, una organización en defensa de los derechos digitales). Al presente (dos mil dieciocho), sobrevive como TOR Project, una Organización no Gubernamental premiada en dos mil once por la Free Software Foundation por dejar que millones de personas en el planeta tengan libertad de acceso y expresión en la red sosteniendo su privacidad y anonimato.


A diferencia de los navegadores de internet usuales, Tor le deja a los usuarios navegar por la Web de forma anónima. Tor es descargado de treinta millones a cincuenta millones de veces por año, hay 0,8 millones de usuarios diarios de Tor y un aumento del veinte por ciento únicamente en dos mil trece. Tor puede acceder a unos seis quinientos sitios ocultos.


Cuando se ejecuta el software de Tor, para acceder a internet profunda, los datos de la computadora se cifran en capas. El software manda los datos por medio de una red de links a otros equipos ?llamados en inglés «relays» ('nodos’)? y lo va retransmitiendo quitando una capa ya antes de retransmitirlo nuevamente, esta trayectoria cambia con cierta frecuencia. Tor cuenta con más de cuatro cero retransmisiones y todos y cada uno de los datos cifrados pasan mediante ?por lo menos? 3 de estos relays. En el momento en que la última capa de cifrado es retirado por un nodo de salida, se conecta a la web que quiere visitar.


El contenido que puede ser encontrado en internet profunda es muy amplio, se hallan por servirnos de un ejemplo, datos que se producen en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes, bases de datos sobre agencias de inteligencia, disidentes políticos y contenidos delincuentes.

Artículo principal: CriptomonedaLogo de Bitcoin, una de las criptomonedas más populares.

Es posible localizar sitios que efectúen transacciones ilegales (como drogas, armas, o bien aun mercenarios) en servidores exclusivos para usuarios de Tor. Es una práctica común emplear monedas digitales como el Bitcoin que se intercambia mediante carteras digitales entre el usuario y el vendedor, lo que hace que sea prácticamente imposible de rastrear.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Internet profunda wiki: info, historia y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas