Deep Web: o lado negro da internet. Cuidado!! O que acontece na parte obscura da internet?
Bruno Wille É Mestre emAdministração em Negócios de Segurança,nas Organizações com Pós Graduação em Politicas Públicas em Segurança Pública,Graduado em Gestãoem Segurança empresarial, com cursos de extensão em crimes por computador, segurança de redes , Prevenção a Fraudes e delitos corporativos e inteligencia empresarial
Vamos fazer uma analogia à um iceberg. Sua parte superior é equivalente a internet que você usa no seu dia-a-dia, tudo o que está indexado no Google e em outros buscadores. A parte debaixo do iceberg, que é muito maior, equivale à denominada Deep Web, também conhecida como Dark Web.
A Deep Web é tudo aquilo que não está na internet comum, tudo aquilo que não é indexado pelos buscadores. Um outro mundo, completamente a parte da realidade que estamos acostumados no dia-a-dia. A Deep Web contém muito mais páginas e recursos do que a surface web (a internet convencional), porém a maioria de seus recursos não são de qualidade e assustariam a maioria das pessoas. De acordo com a empresa BrightPlanet, a internet comum possui um tamanho total de 25% contra 75% da Deep Web. Todas as trilhões de páginas da Deep Web estão ocultas da maioria das pessoas.
Mas o que tem na Deep Web?
Existem algumas coisas inocentes, como comunidades que não querem ser incomodadas e artigos sobre pesquisas científicas e compartilhamento de arquivos, entre outros. No entanto, a maioria das pessoas que se arriscaram a entrar no lado negro da internet se arrependeram. Pra começar, é o melhor lugar para se encher de vírus. Além disso, todos os hackers se dispõe dos recursos da Deep Web para planejar ataques contra sites de bancos, e coisas do tipo, envolvendo altas quantias. Mas há coisas muito mais perturbadoras. Todos os tipos de psicopatas usam constantemente a Dark Web.
Quem já acessou diz ser fácil encontrar em vários sites vídeos de abusos sexuais contra bebês, crimes hediondos feitos por diversão, satanismo, canibalismo, além de sites tráfico de drogas, tráfico de armas, nazistas, terroristas, tutoriais para criação de bombas e venenos, e tudo o que de pior existe no mundo, fruto da perversidade de algumas mentes humanas.
Esses conteúdos se escondem em protocolos produzidos justamente para não serem monitorados por autoridades e pela polícia, além da garantia do anonimato a quem os acessa. Os dados de endereço IP e fontes de dados são todos codificados dificultando a ação da polícia quando investigam os usuários da Deep Web.
Nota: Um simples navegador não é suficiente para ir para o lado negro da internet, é preciso realizar o download de programas extras. Existem vários tutoriais que explicam como fazê-lo na internet comum, mas se for acessar, é preciso ter muito cuidado com o que se pesquisa.
Deep web
Origem: Wikipédia, a enciclopédia livre.
Analogia do iceberg, bastante utilizada para mostrar o tamanho da Deep Web (parte imersa) em relação ao da Surface Web (parte emersa)
Deep Web (também chamada de Deepnet, Web Invisível, Undernet ou Web oculta) se refere ao conteúdo da World Wide Web que não faz parte da Surface Web, a qual é indexada pelos mecanismos de busca padrão.
Não deve ser confundida com a dark Internet, na qual os computadores não podem mais ser alcançados via Internet, ou com a Darknet, rede de compartilhamento de arquivos.
Mike Bergman, fundador da BrightPlanet1 e autor da expressão2 , afirmou que a busca na Internet atualmente pode ser comparada com o arrastar de uma rede na superfície do oceano: pode-se pescar um peixe grande, mas há uma grande quantidade de informação que está no fundo, e, portanto, faltando. A maior parte da informação da Web está enterrada profundamente em sites gerados dinamicamente, a qual não é encontrada pelos mecanismos de busca padrão. Estes não conseguem "enxergar" ou obter o conteúdo na Deep Web - aquelas páginas não existem até serem criadas dinamicamente como resultado de uma busca específica. A Deep Web possui um tamanho muito superior ao da Surface Web.3
Tamanho
Estimativas baseadas em extrapolações de um estudo feito na Universidade da Califórnia em Berkeley em 20013 especularam que a Deep Web possui 7.500 terabytes de informação. Estimativas feitas por He et al.4 , em 2004, detectaram cerca de 300.000 sites da deep web e, de acordo com Shestakov, cerca de 14.000 destes eram da parte russa da Web em 2006.5 Em 2008, a web chamada “Deep Web”, não referenciada pelos motores de busca representa 70 a 75% do total, ou seja, cerca de um trilhão de páginas não indexadas.
Nomenclatura
Para referir-se aos websites que não estavam registrados em nenhum mecanismo de busca.3 Bergman citou um artigo de janeiro de 1996 por Frank Garcia, no qual ele afirma que estes6
"Seriam sites projetados propositalmente, mas que não se teve o interesse de registrá-lo em nenhum mecanismo de busca. Então, ninguém pode encontrá-los! Estão escondidos. Eu os chamo de Web Invisível."
Outro uso antigo do termo Web Invisível foi feito por Bruce Mount e Matthew B. Koll do Personal Library Software, descrevendo a ferramenta da deep Web "@1", na edição de dezembro de 1996.7
O primeiro uso do termo específico deep Web, agora reconhecido, ocorreu no estudo de 2001 de Bergman, mencionado anteriormente.3
O Wikileaks começou na deep web, logo depois seu conteúdo foi disponibilizado na surface web.
O conteúdo da deep web pode ser classificado em uma ou mais das seguintes categorias:
- Conteúdo dinâmico: páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
- Conteúdo isolado: páginas que não possuem referências ou ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers. Diz-se que essas páginas não possuem backlinks.
- Web privada: sites que exigem um registro e um login (conteúdo protegido por senha).
- Web contextual: páginas cujo conteúdo varia de acordo com o contexto de acesso (por exemplo, IP do cliente ou sequência de navegação anterior). Muitos sites estão escondidos e não há possibilidade de acesso, propositalmente.
- Conteúdo de acesso limitado: sites que limitam o acesso às suas páginas de modo técnico (usando CAPTCHAs por exemplo).
- Conteúdo de scripts: páginas que são acessíveis apenas por links gerados por JavaScript, assim como o conteúdo baixado dinamicamente através de aplicações em Flash ou Ajax.
- Conteúdo não-HTML/texto: conteúdo textual codificado em arquivos multimídia (imagem ou vídeo) ou formatos de arquivo específicos que não são manipulados pelos motores de busca.
- Conteúdo que utiliza o protocolo Gopher ou hospedado em servidores FTP, por exemplo, não é indexado pela maioria dos mecanismos de busca. O Google, por exemplo, não indexa páginas fora dos protocolos HTTP ou HTTPS.8