História da Internet - History of the Internet

A história da Internet tem sua origem nos esforços para construir e interconectar redes de computadores que surgiram a partir de pesquisa e desenvolvimento nos Estados Unidos e envolveram colaborações internacionais, principalmente com pesquisadores do Reino Unido e da França .

A ciência da computação foi uma disciplina emergente no final dos anos 1950 que começou a considerar o compartilhamento de tempo entre os usuários de computador e, mais tarde, a possibilidade de conseguir isso em redes de longa distância . Independentemente, Paul Baran propôs uma rede distribuída baseada em dados em blocos de mensagens no início dos anos 1960 e Donald Davies concebeu a comutação de pacotes em 1965 no National Physical Laboratory (NPL) e propôs a construção de uma rede comercial nacional de dados no Reino Unido. A Advanced Research Projects Agency (ARPA) do Departamento de Defesa dos Estados Unidos concedeu contratos em 1969 para o desenvolvimento do projeto ARPANET , dirigido por Robert Taylor e administrado por Lawrence Roberts . A ARPANET adotou a tecnologia de comutação de pacotes proposta por Davies e Baran, sustentada por trabalhos matemáticos no início dos anos 1970 de Leonard Kleinrock na UCLA . A rede foi construída por Bolt, Beranek e Newman .

As primeiras redes de comutação de pacotes, como a rede NPL , ARPANET, Merit Network e CYCLADES, pesquisaram e forneceram redes de dados no início dos anos 1970. Os projetos ARPA e os grupos de trabalho internacionais levaram ao desenvolvimento de protocolos para internetworking , nos quais várias redes separadas poderiam ser unidas em uma rede de redes, que produziu vários padrões. Bob Kahn , da ARPA, e Vint Cerf , da Stanford University , publicaram pesquisas em 1974 que evoluíram para o Transmission Control Protocol (TCP) e o Internet Protocol (IP), os dois protocolos do conjunto de protocolos da Internet . O projeto incluiu conceitos do projeto francês CYCLADES dirigido por Louis Pouzin .

No início dos anos 1980, a National Science Foundation (NSF) financiou centros nacionais de supercomputação em várias universidades nos Estados Unidos e forneceu interconectividade em 1986 com o projeto NSFNET , criando assim acesso de rede a esses sites de supercomputador para pesquisas e organizações acadêmicas nos Estados Unidos Estados. As conexões internacionais com a NSFNET, o surgimento de arquiteturas como o Domain Name System e a adoção do TCP / IP internacionalmente nas redes existentes marcaram o início da Internet . Os provedores de serviços comerciais de Internet (ISPs) surgiram em 1989 nos Estados Unidos e na Austrália. A ARPANET foi desativada em 1990. Conexões privadas limitadas a partes da Internet por entidades oficialmente comerciais surgiram em várias cidades americanas no final de 1989 e 1990. A NSFNET foi desativada em 1995, removendo as últimas restrições ao uso da Internet para o transporte comercial tráfego.

Uma pesquisa no CERN na Suíça pelo cientista da computação britânico Tim Berners-Lee em 1989–90 resultou na World Wide Web , ligando documentos de hipertexto em um sistema de informação, acessível a partir de qualquer da rede. Desde meados da década de 1990, a Internet teve um impacto revolucionário na cultura, comércio e tecnologia, incluindo o aumento da comunicação quase instantânea por correio eletrônico , mensagens instantâneas , chamadas telefônicas de voz sobre protocolo de Internet (VoIP), chat de vídeo e a World Wide Web com seus fóruns de discussão , blogs , serviços de rede social e sites de compras online . Quantidades crescentes de dados são transmitidas em velocidades cada vez mais altas em redes de fibra óptica operando a 1 Gbit / s , 10 Gbit / s ou mais. A apropriação do cenário global de comunicação pela Internet foi rápida em termos históricos: ela comunicou apenas 1% das informações que fluíam por redes de telecomunicações bidirecionais no ano de 1993, 51% em 2000 e mais de 97% das informações tele comunicadas em 2007 A Internet continua a crescer, impulsionada por quantidades cada vez maiores de informações online, comércio, entretenimento e serviços de rede social . No entanto, o futuro da rede global pode ser moldado por diferenças regionais.

Fundações

Precursores

O conceito de comunicação de dados - transmissão de dados entre dois lugares diferentes por meio de um meio eletromagnético como o rádio ou um fio elétrico - é anterior à introdução dos primeiros computadores. Esses sistemas de comunicação eram normalmente limitados a ponto a ponto de comunicação entre dois dispositivos finais. Linhas de semáforo , sistemas de telégrafo e máquinas de telex podem ser considerados os primeiros precursores desse tipo de comunicação. O telégrafo no final do século 19 foi o primeiro sistema de comunicação totalmente digital.

O trabalho teórico fundamental sobre a teoria da informação foi desenvolvido por Harry Nyquist e Ralph Hartley na década de 1920. A teoria da informação, tal como enunciada por Claude Shannon , na década de 1940, forneceu uma base teórica sólida para entender os trade-offs entre a relação sinal-ruído , largura de banda e transmissão livre de erros na presença de ruído , na tecnologia de telecomunicações . Este foi um dos três desenvolvimentos principais, junto com os avanços na tecnologia de transistores (especificamente transistores MOS ) e tecnologia de laser , que tornou possível o rápido crescimento da largura de banda das telecomunicações ao longo do próximo meio século.

Os primeiros computadores da década de 1940 tinham uma unidade central de processamento e terminais de usuário . À medida que a tecnologia evoluiu na década de 1950, novos sistemas foram concebidos para permitir a comunicação em distâncias mais longas (para terminais) ou com maior velocidade (para interconexão de dispositivos locais) que eram necessários para o modelo de computador mainframe . Essas tecnologias possibilitaram a troca de dados (como arquivos) entre computadores remotos. No entanto, o modelo de comunicação ponto a ponto era limitado, pois não permitia a comunicação direta entre dois sistemas arbitrários; um link físico era necessário. A tecnologia também foi considerada vulnerável para uso estratégico e militar, pois não havia caminhos alternativos para a comunicação em caso de quebra de link.

Inspiração para networking e interação com computadores

Os primeiros computadores eram conectados diretamente a terminais usados ​​por um usuário individual. Christopher Strachey , que se tornou o primeiro professor de computação da Universidade de Oxford , entrou com um pedido de patente para compartilhamento de tempo em fevereiro de 1959. Em junho daquele ano, ele deu um artigo "Compartilhamento de tempo em grandes computadores rápidos" na Conferência de Processamento de Informação da UNESCO em Paris, onde ele passou o conceito para JCR Licklider do MIT . Licklider, vice-presidente da Bolt Beranek and Newman, Inc. , passou a propor uma rede de computadores em seu artigo de janeiro de 1960 Man-Computer Symbiosis :

Uma rede de tais centros, conectados uns aos outros por linhas de comunicação de banda larga, [...] as funções das bibliotecas atuais junto com avanços antecipados no armazenamento e recuperação de informações e funções simbióticas sugeridas anteriormente neste artigo

Em agosto de 1962, Licklider e Welden Clark publicaram o artigo "Comunicação Homem-Computador On-line", que foi uma das primeiras descrições de um futuro em rede.

Em outubro de 1962, Licklider foi contratado por Jack Ruina como diretor do recém-criado Information Processing Techniques Office (IPTO) dentro da DARPA , com o mandato de interconectar os principais computadores do Departamento de Defesa dos Estados Unidos em Cheyenne Mountain, Pentágono e SAC HQ. Lá, ele formou um grupo informal dentro da DARPA para promover a pesquisa de computador. Ele começou escrevendo memorandos em 1963 descrevendo uma rede distribuída para a equipe da IPTO, a quem chamou de "Membros e Afiliados da Rede Intergaláctica de Computadores ".

Embora ele tenha deixado o IPTO em 1964, cinco anos antes de a ARPANET entrar em operação, foi sua visão de rede universal que impulsionou um de seus sucessores, Robert Taylor , a iniciar o desenvolvimento da ARPANET. Licklider mais tarde voltou a liderar o IPTO em 1973 por dois anos.

Troca de pacotes

A questão de conectar redes físicas separadas para formar uma rede lógica foi o primeiro de muitos problemas. As primeiras redes usavam sistemas de troca de mensagens que exigiam estruturas de roteamento rígidas, sujeitas a um único ponto de falha . Na década de 1960, Paul Baran, da RAND Corporation, produziu um estudo de redes de sobrevivência para os militares dos EUA em caso de guerra nuclear. As informações transmitidas pela rede de Baran seriam divididas no que ele chamou de "blocos de mensagens". De forma independente, Donald Davies ( National Physical Laboratory, Reino Unido ), propôs e colocou em prática uma rede de área local baseada no que chamou de comutação de pacotes , termo que acabaria por ser adotado.

A comutação de pacotes é um projeto de rede de armazenamento e encaminhamento rápido que divide as mensagens em pacotes arbitrários, com decisões de roteamento feitas por pacote. Ele fornece melhor utilização da largura de banda e tempos de resposta do que a tecnologia de comutação de circuito tradicional usada para telefonia, especialmente em links de interconexão com recursos limitados.

Redes que levaram à Internet

Rede NPL

Após discussões com JCR Licklider em 1965, Donald Davies se interessou por comunicações de dados para redes de computadores. Mais tarde naquele ano, no National Physical Laboratory (Reino Unido) , Davies projetou e propôs uma rede nacional de dados comerciais baseada na comutação de pacotes. No ano seguinte, ele descreveu o uso de um "computador de interface" para atuar como roteador . A proposta não foi aceita nacionalmente, mas ele produziu um projeto para uma rede local para atender às necessidades do NPL e provar a viabilidade da comutação de pacotes usando transmissão de dados em alta velocidade. Ele e sua equipe foram um dos primeiros a usar o termo 'protocolo' em um contexto de comutação de dados em 1967.

Em 1969, ele começou a construir a rede comutada por pacotes Mark I para atender às necessidades do laboratório multidisciplinar e provar a tecnologia em condições operacionais. Em 1976, 12 computadores e 75 dispositivos terminais foram conectados, e mais foram adicionados até a rede ser substituída em 1986. A rede local NPL e a ARPANET foram as duas primeiras redes no mundo a usar comutação de pacotes e foram interconectadas no início 1970s. A equipe do NPL realizou trabalho de simulação em redes de pacotes, incluindo redes de datagramas , e pesquisa em internetworking .

ARPANET

Robert Taylor foi promovido a chefe do Escritório de Técnicas de Processamento de Informação (IPTO) na Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) em 1966. Ele pretendia realizar as idéias de Licklider de um sistema de rede interconectado. Como parte da função do IPTO, três terminais de rede foram instalados: um para System Development Corporation em Santa Monica , um para Project Genie na University of California, Berkeley , e um para o projeto Compatible Time-Sharing System no Massachusetts Institute of Technology ( MIT). A necessidade identificada de Taylor por networking tornou-se óbvia pelo desperdício de recursos aparente para ele.

Para cada um desses três terminais, eu tinha três conjuntos diferentes de comandos do usuário. Então, se eu estivesse conversando online com alguém da SDC e quisesse falar com alguém que conheço em Berkeley ou MIT sobre isso, eu tinha que me levantar do terminal SDC, ir até o outro terminal e entrar em contato com eles .... Eu disse, oh cara, é óbvio o que fazer: se você tem esses três terminais, deve haver um terminal que vai a qualquer lugar que você quiser, onde você tem computação interativa. Essa ideia é a ARPAnet.

Trazendo Larry Roberts do MIT em janeiro de 1967, ele iniciou um projeto para construir essa rede. Roberts e Thomas Merrill estavam pesquisando compartilhamento de tempo de computador em redes de longa distância (WANs). As redes de longa distância surgiram durante a década de 1950 e foram estabelecidas durante a década de 1960. No primeiro Simpósio ACM sobre Princípios de Sistemas Operacionais em outubro de 1967, Roberts apresentou uma proposta para a "rede ARPA", baseada na proposta de Wesley Clark de usar Processadores de Mensagens de Interface para criar uma rede de comutação de mensagens . Na conferência, Roger Scantlebury apresentou o trabalho de Donald Davies sobre comutação de pacotes para comunicações de dados e mencionou o trabalho de Paul Baran na RAND . Roberts incorporou os conceitos de comutação de pacotes no projeto da ARPANET e atualizou a velocidade de comunicação proposta de 2,4 kbps para 50 kbps. Leonard Kleinrock posteriormente desenvolveu a teoria matemática por trás do desempenho dessa tecnologia, com base em seu trabalho anterior sobre a teoria das filas .

A ARPA fechou o contrato para construir a rede para a Bolt Beranek & Newman , e a primeira conexão da ARPANET foi estabelecida entre a Universidade da Califórnia, Los Angeles ( UCLA ) e o Instituto de Pesquisa de Stanford às 22h30 de 29 de outubro de 1969.

"Montamos uma conexão telefônica entre nós e os caras do SRI ...", Kleinrock ... disse em uma entrevista: "Digitamos L e perguntamos ao telefone,

"Você vê o L?"
"Sim, vemos o L", foi a resposta.
Digitamos o O e perguntamos: "Você vê o O."
"Sim, vemos o O."
Então digitamos o G e o sistema travou ...

No entanto, uma revolução havia começado "....

35 Years of the Internet, 1969–2004. Selo do Azerbaijão, 2004.

Em dezembro de 1969, uma rede de quatro nós foi conectada pela adição da Universidade de Utah e da Universidade da Califórnia, Santa Bárbara . No mesmo ano, Taylor ajudou a fundar o ALOHAnet , um sistema projetado pelo professor Norman Abramson e outros da Universidade do Havaí em Manoa que transmitia dados por rádio entre sete computadores em quatro ilhas do Havaí . O software para estabelecer links entre sites de rede na ARPANET foi o Network Control Program (NCP), concluído em c. 1970.

O desenvolvimento da ARPANET foi centrado em torno do processo de solicitação de comentários (RFC), ainda hoje usado para propor e distribuir protocolos e sistemas da Internet. O RFC 1, intitulado "Host Software", foi escrito por Steve Crocker da University of California, Los Angeles , e publicado em 7 de abril de 1969. Esses primeiros anos foram documentados no filme de 1972 Computer Networks: The Heralds of Resource Sharing .

As primeiras colaborações internacionais na ARPANET foram esparsas. As conexões foram feitas em 1973 ao Norwegian Seismic Array ( NORSAR ), através de um link de satélite na Tanum Earth Station, na Suécia, e ao grupo de pesquisa de Peter Kirstein na University College London, que forneceu uma porta de entrada para as redes acadêmicas britânicas. Em 1981, o número de hosts cresceu para 213. A ARPANET se tornou o núcleo técnico do que se tornaria a Internet e uma ferramenta primária no desenvolvimento das tecnologias usadas.

Rede de Mérito

A Rede de Mérito foi formada em 1966 como a Tríade de Informações de Pesquisa Educacional de Michigan para explorar a rede de computadores entre três universidades públicas de Michigan como um meio de ajudar no desenvolvimento educacional e econômico do estado. Com o apoio inicial do Estado de Michigan e da National Science Foundation (NSF), a rede de comutação de pacotes foi demonstrada pela primeira vez em dezembro de 1971, quando uma conexão interativa de host para host foi feita entre os sistemas de computador mainframe IBM na Universidade de Michigan em Ann Arbor e Wayne State University em Detroit . Em outubro de 1972, as conexões com o mainframe do CDC na Michigan State University em East Lansing completaram a tríade. Nos anos seguintes, além de conexões interativas de host para host, a rede foi aprimorada para suportar conexões de terminal para host, conexões de lote de host para host (envio de trabalho remoto, impressão remota, transferência de arquivo em lote), transferência de arquivo interativo, gateways para o Tymnet e redes de dados públicas Telenet , anexos de host X.25 , gateways para redes de dados X.25, hosts conectados a Ethernet e, eventualmente, TCP / IP e outras universidades públicas em Michigan ingressam na rede. Tudo isso preparou o terreno para o papel de Merit no projeto NSFNET que começou em meados da década de 1980.

CYCLADES

A rede de comutação de pacotes CYCLADES foi uma rede de pesquisa francesa projetada e dirigida por Louis Pouzin . Com base nas ideias de Donald Davies, Pouzin desenvolveu a rede para explorar alternativas ao design ARPANET inicial e para apoiar a pesquisa de internetworking. Demonstrada pela primeira vez em 1973, foi a primeira rede a tornar os hosts responsáveis ​​pela entrega confiável de dados, ao invés da própria rede, usando datagramas não confiáveis e mecanismos de protocolo ponta a ponta associados . Os conceitos desta rede influenciaram a arquitetura ARPANET posterior.

X.25 e redes de dados públicas

1974 Entrevista da ABC com Arthur C. Clarke , na qual ele descreve um futuro de computadores pessoais em rede onipresentes.

Com base em iniciativas internacionais de pesquisa, particularmente nas contribuições de Rémi Després , os padrões de rede de comutação de pacotes foram desenvolvidos pelo Comitê Consultivo Internacional de Telégrafo e Telefone (ITU-T) na forma de X.25 e padrões relacionados. O X.25 é construído com base no conceito de circuitos virtuais emulando conexões telefônicas tradicionais. Em 1974, o X.25 formou a base para a rede SERCnet entre sites acadêmicos e de pesquisa britânicos, que mais tarde se tornou JANET . O padrão ITU inicial em X.25 foi aprovado em março de 1976.

Os Correios britânicos , Western Union International e Tymnet colaboraram para criar a primeira rede internacional de comutação de pacotes, conhecida como International Packet Switched Service (IPSS), em 1978. Essa rede cresceu da Europa e dos EUA para cobrir Canadá, Hong Kong, e a Austrália em 1981. Na década de 1990, fornecia uma infraestrutura de rede mundial.

Ao contrário da ARPANET, o X.25 estava comumente disponível para uso comercial. A Telenet ofereceu seu serviço de correio eletrônico de Telemail, que também foi direcionado para uso empresarial, em vez do sistema de e-mail geral da ARPANET.

As primeiras redes de discagem pública usaram protocolos de terminal TTY assíncronos para alcançar um concentrador operado na rede pública. Algumas redes, como Telenet e CompuServe , usaram X.25 para multiplexar as sessões de terminal em seus backbones comutados por pacotes, enquanto outras, como Tymnet , usaram protocolos proprietários. Em 1979, a CompuServe se tornou o primeiro serviço a oferecer recursos de correio eletrônico e suporte técnico para usuários de computadores pessoais. A empresa inovou novamente em 1980 como a primeira a oferecer bate-papo em tempo real com seu Simulador CB . Outras redes de discagem importantes foram a America Online (AOL) e a Prodigy, que também forneciam recursos de comunicação, conteúdo e entretenimento. Muitas redes de BBS ( bulletin board system ) também forneciam acesso on-line, como o FidoNet, que era popular entre usuários de computador amadores, muitos deles hackers e operadores de rádio amador .

Na URSS , as primeiras redes de computadores apareceram na década de 1950 no sistema de defesa antimísseis em Sary Shagan (primeiro foram testadas em Moscou no Instituto Lebedev de Mecânica de Precisão e Engenharia de Computação ). Na década de 1960, o grande projeto de rede de computadores chamado OGAS foi proposto, mas não foi implementado. O programa espacial conjunto Apollo – Soyuz EUA – URSS (1972–1975) usou dados digitais para espaçonaves transmitidos entre dois países. Desde o final dos anos 1970, as redes soviéticas X.25 começaram a aparecer e a Akademset emergiu em Leningrado em 1978. Em 1982, o instituto VNIIPAS foi criado em Moscou para servir como o nó central da Akademset, que estabeleceu a conexão regular X.25 com a IIASA na Áustria (o que permitiu acesso a outras redes mundiais). Em 1983, a VNIIPAS juntamente com o governo dos EUA e George Soros criaram o provedor de serviços soviético X.25 chamado SFMT ("San Francisco - Teleporte de Moscou") que mais tarde se tornou o Sovam Teleport (" Teleporte Soviético-Americano"). A VNIIPAS também forneceu serviços X.25, inclusive via satélite, para países do bloco oriental, juntamente com Mongólia, Cuba e Vietnã. Na época, os usuários ocidentais da Usenet geralmente não sabiam disso e consideravam tal rede na URSS inexistente, então um deles em 1º de abril de 1984 fez um boato de " tolo de abril " sobre o " Kremvax " (" Kremlin VAX ") que ganhou alguma popularidade nos anos subsequentes. A URSS se juntou nominalmente à rede privada Fidonet em outubro de 1990, quando o primeiro nó da Região 50 apareceu em Novosibirsk . A Sovam Teleport no início da década de 1990 se tornou a primeira provedora de rede SWIFT para bancos russos emergentes (mais do que X.25). Algumas das primeiras redes soviéticas / russas também foram iniciadas como partes da BITNET .

UUCP e Usenet

Em 1979, dois alunos da Duke University , Tom Truscott e Jim Ellis , originaram a ideia de usar scripts de shell Bourne para transferir notícias e mensagens em uma conexão UUCP de linha serial com a vizinha Universidade da Carolina do Norte em Chapel Hill . Após o lançamento público do software em 1980, a malha de hosts UUCP encaminhados nas notícias da Usenet se expandiu rapidamente. UUCPnet, como seria mais tarde denominado, também criou gateways e links entre FidoNet e hosts BBS dial-up. As redes UUCP se espalham rapidamente devido aos custos mais baixos envolvidos, capacidade de usar linhas alugadas existentes, links X.25 ou mesmo conexões ARPANET , e a falta de políticas de uso estritas em comparação com redes posteriores como CSNET e Bitnet . Todas as conexões eram locais. Em 1981, o número de hosts UUCP cresceu para 550, quase dobrando para 940 em 1984.

A Sublink Network , operando desde 1987 e oficialmente fundada na Itália em 1989, baseou sua interconectividade no UUCP para redistribuir mensagens de correio e grupos de notícias em seus nós italianos (cerca de 100 na época) pertencentes a particulares e pequenas empresas. A Rede Sublink representou possivelmente um dos primeiros exemplos de progresso da tecnologia da Internet por meio da difusão popular.

1973–1989: Unindo as redes e criando a Internet

Mapa da rede de teste TCP / IP em fevereiro de 1982

TCP / IP

Primeira demonstração na Internet, ligando a ARPANET , PRNET e SATNET em 22 de novembro de 1977

Com tantos métodos de rede diferentes, algo era necessário para unificá-los. Bob Kahn da DARPA recrutou Vinton Cerf da Universidade de Stanford para trabalhar com ele no problema. Steve Crocker formou um "Grupo de Trabalho em Rede" da ARPA com Vint Cerf. Simultaneamente, um Grupo de Trabalho de Rede Internacional formado em 1972; os membros ativos incluíam Vint Cerf, Alex McKenzie, Donald Davies , Roger Scantlebury , Louis Pouzin e Hubert Zimmermann . Em 1973, esses grupos realizaram uma reformulação fundamental, onde as diferenças entre os protocolos de rede eram ocultadas pelo uso de um protocolo comum de internetwork, e em vez de a rede ser responsável pela confiabilidade, como na ARPANET, os hosts passaram a ser os responsáveis. Este trabalho também criou o termo catenet (rede concatenada).

Kahn e Cerf publicaram suas idéias em 1974, que incorporaram conceitos propostos por Louis Pouzin e Hubert Zimmermann, projetistas da rede CYCLADES . A especificação do protocolo resultante, o Transmission Control Program , foi publicada como RFC  675 pelo Network Working Group em dezembro de 1974. Ela contém o primeiro uso comprovado do termo internet , como uma abreviação para internetwork . Este software tinha um design monolítico, usando dois canais de comunicação simplex para cada sessão de usuário.

Com o papel da rede reduzido a um núcleo de funcionalidade, tornou-se possível trocar tráfego com outras redes independentemente de suas características detalhadas, resolvendo assim os problemas fundamentais de internetworking . A DARPA concordou em financiar o desenvolvimento do software protótipo. Os testes começaram em 1975 por meio de implementações simultâneas em Stanford, BBN e University College London . Após vários anos de trabalho, a primeira demonstração de um gateway entre a rede Packet Radio (PRNET) na área da Baía de SF e a ARPANET foi conduzida pelo Stanford Research Institute . Em 22 de novembro de 1977, uma demonstração de três redes foi conduzida, incluindo a ARPANET, o Packet Radio Van da SRI na Packet Radio Network e a Atlantic Packet Satellite Network (SATNET).

O software foi redesenhado como uma pilha de protocolo modular, usando canais full-duplex. Entre 1976 e 1977, Yogen Dalal propôs separar as funções de roteamento e controle de transmissão do TCP em duas camadas discretas, o que levou à divisão do Programa de Controle de Transmissão em Protocolo de Controle de Transmissão (TCP) e protocolo IP (IP) na versão 3 em 1978 . Originalmente referido como IP / TCP , a versão 4 foi descrita na publicação IETF RFC 791 (setembro de 1981), 792 e 793. Foi instalado na SATNET em 1982 e na ARPANET em janeiro de 1983 depois que o DoD o tornou padrão para todos os computadores militares networking. Isso resultou em um modelo de rede que se tornou conhecido informalmente como TCP / IP. Também era conhecido como modelo do Departamento de Defesa (DoD), modelo DARPA ou modelo ARPANET. Cerf credita a seus alunos de pós-graduação Yogen Dalal, Carl Sunshine, Judy Estrin e Richard Karp o trabalho importante de design e testes. A DARPA patrocinou ou incentivou o desenvolvimento de implementações TCP / IP para muitos sistemas operacionais.

Decomposição da representação do endereço IPv4 com quatro pontos em seu valor binário

O IPv4 usa endereços de 32 bits , o que limita o espaço de endereço a 2 32 endereços, ou seja, 4 294 967 296 endereços. O último endereço IPv4 disponível foi atribuído em janeiro de 2011. O IPv4 está sendo substituído pelo seu sucessor, chamado " IPv6 ", que usa endereços de 128 bits, fornecendo 2 128 endereços, ou seja, 340 282 366 920 938 463 463 374 607 431 768 211 456 . Este é um espaço de endereço muito maior. A mudança para o IPv6 deve levar muitos anos, décadas, ou talvez mais, para ser concluída, uma vez que havia quatro bilhões de máquinas com IPv4 quando a mudança começou.

De ARPANET para NSFNET

Mapa da Internet TCP / IP da BBN Technologies do início de 1986.

Após a ARPANET estar instalada e funcionando por vários anos, a ARPA procurou outra agência para transferir a rede; A missão principal da ARPA era financiar pesquisa e desenvolvimento de ponta, não administrar um utilitário de comunicações. Eventualmente, em julho de 1975, a rede foi entregue à Agência de Comunicações de Defesa , também parte do Departamento de Defesa . Em 1983, a parte militar dos EUA da ARPANET foi separada como uma rede separada, a MILNET . MILNET posteriormente tornou-se o NIPRNET não classificado, mas apenas militar , em paralelo com o SIPRNET de nível SECRETO e JWICS para TOP SECRET e superior. A NIPRNET possui gateways de segurança controlados para a Internet pública.

As redes baseadas na ARPANET foram financiadas pelo governo e, portanto, restritas a usos não comerciais, como pesquisa; o uso comercial não relacionado era estritamente proibido. Inicialmente, isso restringia as conexões a instalações militares e universidades. Durante a década de 1980, as conexões se expandiram para mais instituições de ensino e até mesmo para um número crescente de empresas, como Digital Equipment Corporation e Hewlett-Packard , que participavam de projetos de pesquisa ou prestavam serviços a quem participava.

Vários outros ramos do governo dos EUA , a Administração Nacional de Aeronáutica e Espaço (NASA), a Fundação Nacional de Ciência (NSF) e o Departamento de Energia (DOE) tornaram-se fortemente envolvidos na pesquisa da Internet e iniciaram o desenvolvimento de um sucessor para a ARPANET. Em meados da década de 1980, todas as três filiais desenvolveram as primeiras Redes de longa distância baseadas em TCP / IP. A NASA desenvolveu a NASA Science Network , a NSF desenvolveu o CSNET e o DOE desenvolveu a Energy Sciences Network ou ESNet.

Backbone T3 NSFNET, c. 1992

A NASA desenvolveu a NASA Science Network (NSN) baseada em TCP / IP em meados da década de 1980, conectando cientistas espaciais a dados e informações armazenados em qualquer lugar do mundo. Em 1989, a Rede de Análise de Física Espacial baseada em DECnet (SPAN) e a Rede de Ciência NASA baseada em TCP / IP (NSN) foram reunidas no Centro de Pesquisa Ames da NASA, criando a primeira rede de área ampla multiprotocolo chamada NASA Science Internet, ou NSI . A NSI foi estabelecida para fornecer uma infraestrutura de comunicação totalmente integrada para a comunidade científica da NASA para o avanço das ciências da terra, do espaço e da vida. Como uma rede internacional multiprotocolo de alta velocidade, a NSI forneceu conectividade a mais de 20.000 cientistas em todos os sete continentes.

Em 1981, a NSF apoiou o desenvolvimento da Computer Science Network (CSNET). O CSNET se conectou com a ARPANET usando TCP / IP e executou TCP / IP sobre X.25 , mas também suportou departamentos sem conexões de rede sofisticadas, usando troca de correio dial-up automatizada.

Em 1986, a NSF criou a NSFNET , um backbone de 56 kbit / s para apoiar os centros de supercomputação patrocinados pela NSF . A NSFNET também forneceu apoio para a criação de redes regionais de pesquisa e educação nos Estados Unidos e para a conexão de redes de campus de universidades e faculdades às redes regionais. O uso da NSFNET e das redes regionais não se limitou a usuários de supercomputadores e a rede de 56 kbit / s rapidamente ficou sobrecarregada. A NSFNET foi atualizada para 1,5 Mbit / s em 1988 sob um acordo cooperativo com a Rede Merit em parceria com a IBM , MCI e o Estado de Michigan . A existência da NSFNET e a criação de Federal Internet Exchanges (FIXes) permitiram que a ARPANET fosse desativada em 1990.

A NSFNET foi expandida e atualizada para 45 Mbit / s em 1991, e foi desativada em 1995, quando foi substituída por backbones operados por vários provedores comerciais de serviços de Internet .

A comunidade acadêmica e de pesquisa continua a desenvolver e usar redes avançadas, como a Internet2 nos Estados Unidos e a JANET no Reino Unido.

Transição para a Internet

O termo "internet" foi refletido na primeira RFC publicada no protocolo TCP (RFC 675: Internet Transmission Control Program, December 1974) como uma forma abreviada de internetworking , quando os dois termos eram usados ​​indistintamente. Em geral, uma Internet era um conjunto de redes conectadas por um protocolo comum. No período em que a ARPANET foi conectada ao projeto NSFNET recém-formado no final dos anos 1980, o termo era usado como o nome da rede, Internet, sendo a grande e global rede TCP / IP.

À medida que o interesse em redes cresceu pelas necessidades de colaboração, troca de dados e acesso a recursos de computação remota, as tecnologias TCP / IP se espalharam pelo resto do mundo. A abordagem agnóstica de hardware em TCP / IP apoiou o uso da infraestrutura de rede existente, como a rede International Packet Switched Service (IPSS) X.25, para transportar o tráfego da Internet.

Muitos sites que não conseguiam se conectar diretamente à Internet criaram gateways simples para a transferência de correio eletrônico, o aplicativo mais importante da época. Sites com apenas conexões intermitentes usavam UUCP ou FidoNet e contavam com os gateways entre essas redes e a Internet. Alguns serviços de gateway foram além do simples peering de correio, como permitir acesso a sites de protocolo de transferência de arquivo (FTP) via UUCP ou correio.

Finalmente, as tecnologias de roteamento foram desenvolvidas para a Internet para remover os aspectos de roteamento centralizado restantes. O Exterior Gateway Protocol (EGP) foi substituído por um novo protocolo, o Border Gateway Protocol (BGP). Isso forneceu uma topologia em malha para a Internet e reduziu a arquitetura centralizada que a ARPANET enfatizou. Em 1994, o Classless Inter-Domain Routing (CIDR) foi introduzido para oferecer suporte a uma melhor conservação do espaço de endereço, o que permitiu o uso de agregação de rota para diminuir o tamanho das tabelas de roteamento .

TCP / IP torna-se global (década de 1980)

CERN, a Internet europeia, o link para o Pacífico e além

No início de 1982, o grupo de NORSAR e Peter Kirstein na University College London (UCL) deixou a ARPANET e começou a usar TCP / IP sobre SATNET. A UCL forneceu acesso entre a Internet e redes acadêmicas no Reino Unido.

Entre 1984 e 1988, o CERN iniciou a instalação e operação do TCP / IP para interconectar seus principais sistemas internos de computador, estações de trabalho, PCs e um sistema de controle do acelerador. O CERN continuou a operar um sistema autodesenvolvido limitado (CERNET) internamente e vários protocolos de rede incompatíveis (normalmente proprietários) externamente. Houve uma resistência considerável na Europa em relação ao uso mais amplo de TCP / IP, e as intranets TCP / IP do CERN permaneceram isoladas da Internet até 1989, quando uma conexão transatlântica com a Universidade Cornell foi estabelecida.

Em 1988, as primeiras conexões internacionais com a NSFNET foram estabelecidas pelo INRIA da França e por Piet Beertema no Centrum Wiskunde & Informatica (CWI) na Holanda. Daniel Karrenberg, do CWI, visitou Ben Segal, coordenador de TCP / IP do CERN, em busca de conselhos sobre a transição EUnet , o lado europeu da rede UUCP Usenet (grande parte da qual rodava sobre links X.25), para TCP / IP. No ano anterior, Segal havia se encontrado com Len Bosack, da então ainda pequena empresa Cisco, sobre a compra de alguns roteadores TCP / IP para o CERN, e Segal pôde aconselhar Karrenberg e encaminhá-lo à Cisco para obter o hardware apropriado. Isso expandiu a porção europeia da Internet nas redes UUCP existentes. A conexão NORDUnet com a NSFNET foi implementada logo em seguida, fornecendo acesso aberto para estudantes universitários na Dinamarca, Finlândia, Islândia, Noruega e Suécia. Em janeiro de 1989, o CERN abriu suas primeiras conexões TCP / IP externas. Isso coincidiu com a criação da Réseaux IP Européens ( RIPE ), inicialmente um grupo de administradores de rede IP que se reunia regularmente para realizar o trabalho de coordenação. Mais tarde, em 1992, o RIPE foi formalmente registrado como uma cooperativa em Amsterdã.

Em 1991 , a JANET , a rede nacional de pesquisa e educação do Reino Unido, adotou o protocolo da Internet na rede existente. No mesmo ano, Dai Davies introduziu a tecnologia da Internet na NREN pan-europeia , EuropaNet , que foi construída no protocolo X.25. A Rede Acadêmica e de Pesquisa Europeia (EARN) e a RARE adotaram o IP na mesma época, e o backbone europeu da Internet EBONE tornou-se operacional em 1992.

Ao mesmo tempo que o aumento da internetworking na Europa, formaram-se redes ad hoc para a ARPA e entre as universidades australianas, com base em várias tecnologias, como X.25 e UUCP Net. Estas eram limitadas em sua conexão às redes globais, devido ao custo de fazer conexões UUCP internacionais dial-up ou X.25 individuais. Em 1989, as universidades australianas se juntaram ao esforço para usar protocolos IP para unificar suas infraestruturas de rede. AARNet foi formada em 1989 pelo Comitê dos Vice-Chanceleres Australianos e forneceu uma rede baseada em IP dedicada para a Austrália. A primeira conexão internacional de Internet da Nova Zelândia foi estabelecida no mesmo ano.

Em maio de 1982, a Coreia do Sul configurou uma rede TCP / IP doméstica de dois nós, adicionando um terceiro nó no ano seguinte. O Japão, que construiu a rede baseada em UUCP JUNET em 1984, conectou-se à NSFNET em 1989, marcando a expansão da Internet para a Ásia. Foi sede da reunião anual da Internet Society , INET'92, em Kobe . Cingapura desenvolveu o TECHNET em 1990 e a Tailândia ganhou uma conexão global com a Internet entre a Universidade Chulalongkorn e a UUNET em 1992.

No entanto, por um período no final da década de 1980 e início da década de 1990, engenheiros, organizações e nações foram polarizados sobre a questão de qual padrão , o modelo OSI ou o conjunto de protocolos da Internet resultaria nas melhores e mais robustas redes de computadores.

A primeira "divisão digital" global emerge

Enquanto os países desenvolvidos com infraestruturas tecnológicas aderiam à Internet, os países em desenvolvimento começaram a vivenciar uma divisão digital que os separava da Internet. Em uma base essencialmente continental, eles estão construindo organizações para a administração de recursos da Internet e compartilhando experiências operacionais, à medida que mais e mais instalações de transmissão são implementadas.

África

No início da década de 1990, os países africanos contavam com links X.25 IPSS e modem UUCP de 2400 baud para comunicações de computador internacionais e entre redes .

Em agosto de 1995, a InfoMail Uganda, Ltd., uma empresa privada em Kampala agora conhecida como InfoCom, e NSN Network Services of Avon, Colorado, vendida em 1997 e agora conhecida como Clear Channel Satellite, estabeleceu o primeiro TCP / IP nativo da África. serviços de Internet via satélite de velocidade. A conexão de dados foi originalmente transportada por um satélite russo RSCC Banda C que conectou os escritórios da InfoMail em Kampala diretamente ao ponto de presença MAE-West da NSN usando uma rede privada da estação terrestre alugada da NSN em Nova Jersey. A primeira conexão de satélite da InfoCom foi de apenas 64 kbit / s, servindo a um computador host da Sun e doze modems dial-up US Robotics.

Em 1996, um projeto financiado pela USAID , a Iniciativa Leland , começou a trabalhar no desenvolvimento de conectividade total à Internet para o continente. Guiné , Moçambique, Madagascar e Ruanda ganharam estações terrenas de satélite em 1997, seguidos pela Costa do Marfim e Benin em 1998.

A África está construindo uma infraestrutura de Internet. AFRINIC , com sede em Maurício , gerencia a alocação de endereços IP para o continente. Assim como nas outras regiões da Internet, há um fórum operacional, a Comunidade da Internet de Especialistas em Redes Operacionais.

Existem muitos programas para fornecer usinas de transmissão de alto desempenho, e as costas oeste e sul têm cabos ópticos submarinos. Cabos de alta velocidade unem o Norte da África e o Chifre da África aos sistemas de cabos intercontinentais. O desenvolvimento de cabos submarinos é mais lento na África Oriental; o esforço conjunto original entre a Nova Parceria para o Desenvolvimento da África (NEPAD) e o Sistema de Submarinos da África Oriental (Eassy) foi interrompido e pode se tornar dois esforços.

Ásia e Oceania

O Centro de Informações de Rede da Ásia-Pacífico (APNIC) , com sede na Austrália, gerencia a alocação de endereços IP para o continente. A APNIC patrocina um fórum operacional, a Conferência Regional da Internet da Ásia-Pacífico sobre Tecnologias Operacionais (APRICOT).

O primeiro sistema de Internet da Coreia do Sul, o System Development Network (SDN), começou a operar em 15 de maio de 1982. O SDN foi conectado ao resto do mundo em agosto de 1983 usando UUCP (Unixto-Unix-Copy); conectado ao CSNET em dezembro de 1984; e formalmente conectado à Internet dos Estados Unidos em 1990.

Em 1991, a República Popular da China viu sua primeira rede de faculdades TCP / IP , a TUNET da Universidade Tsinghua . O PRC fez sua primeira conexão global com a Internet em 1994, entre a Beijing Electro-Spectrometer Collaboration e o Linear Accelerator Center da Universidade de Stanford . No entanto, a China implementou sua própria exclusão digital, implementando um filtro de conteúdo para todo o país .

América latina

Como nas demais regiões, o Registro de Endereços da Internet da América Latina e Caribe (LACNIC) administra o espaço de endereços IP e outros recursos de sua área. LACNIC, com sede no Uruguai, opera a raiz do DNS, o DNS reverso e outros serviços importantes.

1989–2004: Ascensão da Internet global, Web 1.0

Inicialmente, como com suas redes predecessoras, o sistema que evoluiria para a Internet era principalmente para uso do governo e de órgãos governamentais. No entanto, o interesse no uso comercial da Internet rapidamente se tornou um tópico comumente debatido. Embora o uso comercial fosse proibido, a definição exata de uso comercial não era clara e subjetiva. O UUCP Net e o X.25 IPSS não tinham tais restrições, o que acabaria por ver a proibição oficial do uso de UUCPNet de conexões ARPANET e NSFNET . (Alguns links UUCP ainda permaneceram se conectando a essas redes, pois os administradores ignoraram sua operação.)

Número de hosts da Internet em todo o mundo: 1969 até o presente
Fonte: Internet Systems Consortium .

Como resultado, durante o final da década de 1980, foram formadas as primeiras empresas provedoras de serviços de Internet (ISP). Empresas como PSINet , UUNET , Netcom e Portal Software foram formadas para fornecer serviços às redes regionais de pesquisa e fornecer acesso alternativo à rede, e-mail baseado em UUCP e notícias da Usenet para o público. O primeiro ISP comercial de discagem nos Estados Unidos foi o The World , inaugurado em 1989.

Em 1992, o Congresso dos EUA aprovou a Lei de Tecnologia Avançada e Científica, 42 USC  § 1862 (g) , que permitiu à NSF apoiar o acesso das comunidades de pesquisa e educação a redes de computadores que não eram usadas exclusivamente para fins de pesquisa e educação, portanto permitindo que a NSFNET se interconecte com redes comerciais. Isso causou polêmica na comunidade de pesquisa e educação, que estava preocupada que o uso comercial da rede pudesse levar a uma Internet que respondesse menos às suas necessidades, e na comunidade de provedores de rede comercial, que achava que os subsídios do governo estavam dando uma vantagem injusta para algumas organizações.

Em 1990, os objetivos da ARPANET foram cumpridos e as novas tecnologias de rede ultrapassaram o escopo original e o projeto foi encerrado. Novos prestadores de serviços de rede, incluindo PSINet , Alternet , CERFnet, ANS CO + RE, e muitos outros estavam oferecendo acesso à rede para clientes comerciais. A NSFNET não era mais o backbone de fato e o ponto de troca da Internet. O Commercial Internet eXchange (CIX), o Metropolitan Area Exchanges (MAEs) e, posteriormente, os Network Access Points (NAPs) estavam se tornando as principais interconexões entre muitas redes. As restrições finais ao transporte do tráfego comercial terminaram em 30 de abril de 1995, quando a National Science Foundation encerrou seu patrocínio do Serviço de Backbone da NSFNET e o serviço foi encerrado. A NSF forneceu apoio inicial para os NAPs e apoio provisório para ajudar na transição das redes regionais de pesquisa e educação para ISPs comerciais. A NSF também patrocinou o Serviço de Rede de Backbone de altíssima velocidade (vBNS), que continuou a fornecer suporte para centros de supercomputação e pesquisa e educação nos Estados Unidos.

World Wide Web e introdução de navegadores

Anúncio de 1997 na State Magazine da Biblioteca do Departamento de Estado dos EUA para sessões de introdução à então desconhecida Web

A World Wide Web (às vezes abreviada como "www" ou "W3") é um espaço de informação onde documentos e outros recursos da web são identificados por URIs , interligados por links de hipertexto , e podem ser acessados ​​via Internet usando um navegador da web e (mais recentemente ) aplicativos baseados na web . Ela se tornou conhecida simplesmente como "a Web". A partir da década de 2010, a World Wide Web passou a ser a principal ferramenta que bilhões de pessoas usam para interagir na Internet e mudou a vida das pessoas de maneira incomensurável.

Os precursores do navegador da web surgiram na forma de aplicativos com hiperlinks durante a metade e no final dos anos 1980 (o conceito básico de hiperlinks já existia há algumas décadas). Depois disso, Tim Berners-Lee é creditado por inventar a World Wide Web em 1989 e desenvolver em 1990 o primeiro servidor da Web e o primeiro navegador da Web, chamado WorldWideWeb (sem espaços) e posteriormente renomeado Nexus. Muitos outros foram desenvolvidos logo, com Marc Andreessen 's 1993 Mosaic (mais tarde Netscape ), sendo particularmente fácil de usar e instalar, e muitas vezes creditado como o estopim do boom da Internet na década de 1990. Outros navegadores importantes são o Internet Explorer , Firefox , Google Chrome , Microsoft Edge , Opera e Safari .

NCSA Mosaic era um navegador gráfico executado em vários computadores domésticos e de escritório populares. É creditado por primeiro trazer conteúdo multimídia para usuários não técnicos, incluindo imagens e texto na mesma página, ao contrário dos designs de navegador anteriores; Marc Andreessen, seu criador, também estabeleceu a empresa que, em 1994, lançou o Netscape Navigator , o que resultou em uma das primeiras guerras do navegador , quando ele acabou em uma competição pelo domínio (que perdeu) com Microsoft Windows ' Internet Explorer , que foi empacotado com o Windows que por sua vez levou ao processo antitruste Estados Unidos versus Microsoft Corporation . A Web começou a entrar em uso geral em 1993-4, quando sites de uso diário começaram a se tornar disponíveis. As restrições ao uso comercial foram suspensas em 1995. Nos Estados Unidos, o serviço online America Online (AOL) oferecia a seus usuários uma conexão à Internet por meio de seu próprio navegador interno, por meio de uma conexão discada à Internet . Conexões de Internet de banda larga mais rápidas substituíram muitas conexões dial-up desde o início dos anos 2000.

Uso na sociedade em geral

Envelope carimbado do Russian Post emitido em 1993 com selo e gráficos dedicados ao primeiro cabo óptico digital subaquático russo lançado em 1993 pela Rostelecom de Kingisepp a Copenhagen

Durante a primeira década ou mais da Internet pública, as imensas mudanças que ela eventualmente possibilitaria nos anos 2000 ainda eram incipientes. Em termos de contextualização para este período, os dispositivos móveis celulares ("smartphones" e outros dispositivos celulares) que hoje oferecem acesso quase universal, foram usados ​​para negócios e não como um artigo doméstico de rotina pertencente a pais e filhos em todo o mundo. A mídia social no sentido moderno ainda não existia, os laptops eram volumosos e a maioria das residências não tinha computadores. As taxas de dados eram lentas e a maioria das pessoas não tinha meios de gravar ou digitalizar vídeos; o armazenamento de mídia estava mudando lentamente de fita analógica para discos ópticos digitais ( DVD e, até certo ponto, de disquete para CD ). Habilitando tecnologias usadas desde o início de 2000, como PHP , JavaScript moderno e Java , tecnologias como AJAX , HTML 4 (e sua ênfase em CSS ) e vários frameworks de software , que permitiram e simplificaram a velocidade de desenvolvimento da web, muito aguardada invenção e sua eventual adoção generalizada.

A Internet foi amplamente utilizada para listas de discussão , e-mails , e-commerce e início populares de compras online ( Amazon e eBay , por exemplo), fóruns on-line e quadros de avisos , e sites pessoais e blogs , e uso foi crescendo rapidamente, mas por padrões mais modernos os sistemas usados ​​eram estáticos e careciam de um engajamento social generalizado. Ela esperou uma série de eventos no início dos anos 2000 para mudar de uma tecnologia de comunicação para se desenvolver gradualmente em uma parte fundamental da infraestrutura da sociedade global.

Os elementos típicos de design desses sites da era "Web 1.0" incluem: Páginas estáticas em vez de HTML dinâmico ; conteúdo servido a partir de sistemas de arquivos em vez de bancos de dados relacionais ; páginas construídas usando Server Side Includes ou CGI em vez de um aplicativo da web escrito em uma linguagem de programação dinâmica ; HTML 3.2 -era estruturas como frames e tabelas para criar layouts de página; livros de visitas online ; uso excessivo de botões GIF e pequenos gráficos semelhantes promovendo itens específicos; e formulários HTML enviados por e - mail . (O suporte para scripts do lado do servidor era raro em servidores compartilhados, então o mecanismo de feedback usual era por e-mail, usando formulários mailto e seu programa de e- mail .

Durante o período de 1997 a 2001, ocorreu a primeira bolha especulativa de investimento relacionada à Internet, na qual empresas "ponto-com" (referindo-se ao domínio de alto nível " .com " usado por empresas) foram impulsionadas a avaliações extremamente altas como investidores os valores das ações rapidamente aumentaram , seguido por um crash do mercado ; a primeira bolha pontocom . No entanto, isso apenas diminuiu temporariamente o entusiasmo e o crescimento, que se recuperou rapidamente e continuou a crescer.

Com a chamada para a Web 2.0 logo em seguida, o período da Internet até por volta de 2004–2005 foi retrospectivamente denominado e descrito por alguns como Web 1.0.

2005 – presente: Web 2.0, onipresença global, mídia social

As mudanças que iriam impulsionar a Internet em seu lugar como um sistema social ocorreram durante um período relativamente curto de não mais de cinco anos, de cerca de 2005 a 2010. Elas incluíram:

  • A chamada para " Web 2.0 " em 2004 (sugerida pela primeira vez em 1999),
  • Acelerar a adoção e comoditização entre as famílias e a familiaridade com o hardware necessário (como computadores).
  • Tecnologia de armazenamento acelerada e velocidades de acesso a dados - discos rígidos surgiram, substituíram discos flexíveis muito menores e mais lentos e aumentaram de megabytes para gigabytes (e por volta de 2010, terabytes ), RAM de centenas de kilobytes para gigabytes como quantidades típicas em um sistema e Ethernet , a tecnologia que permite o TCP / IP, passou de velocidades comuns de kilobits para dezenas de megabits por segundo, para gigabits por segundo.
  • Internet de alta velocidade e cobertura mais ampla de conexões de dados, a preços mais baixos, permitindo taxas de tráfego maiores, tráfego mais simples e confiável e tráfego de mais locais,
  • A percepção cada vez mais acelerada da capacidade dos computadores de criar novos meios e abordagens de comunicação, o surgimento de mídias sociais e sites como Twitter e Facebook para sua posterior proeminência e colaborações globais como a Wikipedia (que existia antes, mas ganhou destaque como um resultado),
  • A revolução móvel , que forneceu acesso à Internet para grande parte da sociedade humana de todas as idades, em suas vidas diárias, e permitiu que eles compartilhassem, discutissem e atualizassem, indagassem e respondessem continuamente.
  • A RAM não volátil cresceu rapidamente em tamanho e confiabilidade, e diminuiu em preço, tornando-se uma mercadoria capaz de permitir altos níveis de atividade de computação nesses pequenos dispositivos portáteis, bem como em unidades de estado sólido (SSD).
  • Uma ênfase no processador com eficiência de energia e design de dispositivo, em vez de poder de processamento puramente alto; um dos beneficiários disso foi a ARM , uma empresa britânica que se concentrava desde os anos 1980 em microprocessadores simples, poderosos, mas de baixo custo. A arquitetura ARM rapidamente ganhou domínio no mercado de dispositivos móveis e incorporados.

O termo "Web 2.0" descreve sites que enfatizam o conteúdo gerado pelo usuário (incluindo interação entre usuários), usabilidade e interoperabilidade . Ele apareceu pela primeira vez em um artigo de janeiro de 1999 chamado "Futuro Fragmentado", escrito por Darcy DiNucci , uma consultora em design de informação eletrônica , onde ela escreveu:

"A Web que conhecemos agora, que carrega em uma janela do navegador em telas essencialmente estáticas, é apenas um embrião da Web por vir. Os primeiros vislumbres da Web 2.0 estão começando a aparecer, e estamos apenas começando a ver como esse embrião pode A Web será entendida não como telas de texto e gráficos, mas como um mecanismo de transporte, o éter por onde acontece a interatividade. Ela aparecerá na tela do seu computador, [...] no seu aparelho de TV [ ...] painel do carro [...] seu telefone celular [...] máquinas de jogos de mão [...] talvez até mesmo seu forno de microondas. "

O termo ressurgiu durante 2002–2004 e ganhou destaque no final de 2004 após as apresentações de Tim O'Reilly e Dale Dougherty na primeira Conferência Web 2.0 . Em seus comentários iniciais, John Battelle e Tim O'Reilly delinearam sua definição de "Web como plataforma", onde os aplicativos de software são construídos na Web em oposição ao desktop. O aspecto único dessa migração, eles argumentaram, é que "os clientes estão construindo seu negócio para você". Eles argumentaram que as atividades dos usuários que geram conteúdo (na forma de ideias, texto, vídeos ou imagens) podem ser "aproveitadas" para criar valor.

A Web 2.0 não se refere a uma atualização de nenhuma especificação técnica, mas sim a mudanças cumulativas na forma como as páginas da Web são criadas e usadas. A Web 2.0 descreve uma abordagem, na qual os sites se concentram substancialmente em permitir que os usuários interajam e colaborem uns com os outros em um diálogo de mídia social como criadores de conteúdo gerado pelo usuário em uma comunidade virtual , em contraste com os sites onde as pessoas são limitadas ao passivo visualização do conteúdo . Exemplos de Web 2.0 incluem serviços de rede social , blogs , wikis , folksonomias , sites de compartilhamento de vídeo , serviços hospedados , aplicativos da Web e mashups . Terry Flew , em sua 3ª edição da New Media descreveu o que ele acreditava para caracterizar as diferenças entre a Web 1.0 e a Web 2.0:

"[A] mudança de sites pessoais para blogs e agregação de sites de blog, da publicação para a participação, do conteúdo da web como resultado de um grande investimento inicial para um processo contínuo e interativo, e de sistemas de gerenciamento de conteúdo para links baseados em marcação ( folksonomia ) ".

Esta era viu vários nomes conhecidos ganharem destaque por meio de sua operação voltada para a comunidade - YouTube , Twitter, Facebook, Reddit e Wikipedia são alguns exemplos.

A revolução móvel

O próprio processo de mudança que geralmente coincidia com a "Web 2.0" foi bastante acelerado e transformado pouco tempo depois pelo crescente crescimento dos dispositivos móveis. Essa revolução móvel fez com que os computadores na forma de smartphones se tornassem algo que muitas pessoas usavam, levavam consigo para todos os lugares, se comunicavam, usavam para fotos e vídeos que eles compartilhavam instantaneamente ou para comprar ou buscar informações "em movimento" - e usado socialmente, como em oposição a itens em uma mesa em casa ou apenas usados ​​para o trabalho.

Serviços baseados em localização, serviços que usam localização e outras informações de sensor e crowdsourcing (frequentemente, mas nem sempre com base em localização), tornaram-se comuns, com postagens marcadas por localização ou sites e serviços tornando-se cientes da localização. Sites direcionados a dispositivos móveis (como "m.website.com") tornaram-se comuns, projetados especialmente para os novos dispositivos usados. Netbooks , ultrabooks , 4G e Wi-Fi generalizados e chips móveis capazes ou funcionando quase com a potência de desktops de poucos anos antes com uso de energia muito menor, tornaram-se facilitadores deste estágio de desenvolvimento da Internet, e o termo " App " surgiu (abreviação de "Programa de aplicativo" ou "Programa"), assim como a " loja de aplicativos ".

Essa "revolução móvel" permitiu que as pessoas tivessem uma quantidade quase ilimitada de informações na ponta dos dedos. Com a possibilidade de acessar a internet de telefones celulares, ocorreu uma mudança na forma como consumimos mídia. Na verdade, olhando para as estatísticas de consumo de mídia, mais da metade do consumo de mídia entre 18 e 34 anos usava um smartphone.

Networking no espaço sideral

O primeiro link de Internet em órbita terrestre baixa foi estabelecido em 22 de janeiro de 2010, quando o astronauta TJ Creamer postou a primeira atualização não assistida em sua conta do Twitter da Estação Espacial Internacional , marcando a extensão da Internet para o espaço. (Os astronautas da ISS usaram e-mail e Twitter antes, mas essas mensagens foram retransmitidas para o solo por meio de um link de dados da NASA antes de serem postadas por um proxy humano.) Este acesso pessoal à Web, que a NASA chama de Crew Support LAN, usa o link de micro-ondas de banda Ku de alta velocidade da estação espacial . Para navegar na web, os astronautas podem usar um laptop de estação para controlar um computador desktop na Terra e podem conversar com suas famílias e amigos na Terra usando equipamento de voz sobre IP .

A comunicação com a espaçonave além da órbita terrestre tem sido tradicionalmente por meio de links ponto a ponto através da Deep Space Network . Cada link de dados deve ser programado e configurado manualmente. No final da década de 1990, a NASA e o Google começaram a trabalhar em um novo protocolo de rede, rede tolerante a atrasos (DTN), que automatiza esse processo, permite a rede de nós de transmissão espaciais e leva em consideração que as espaçonaves podem perder temporariamente o contato porque se movem para trás a Lua ou planetas, ou porque o clima espacial interrompe a conexão. Sob tais condições, o DTN retransmite pacotes de dados em vez de descartá-los, como faz o protocolo TCP / IP padrão da Internet. A NASA conduziu o primeiro teste de campo do que chama de "internet do espaço profundo" em novembro de 2008. O teste de comunicações baseadas em DTN entre a Estação Espacial Internacional e a Terra (agora denominado Rede Tolerante à Disrupção) está em andamento desde março de 2009, e está programado para continuar até março de 2014.

Esta tecnologia de rede deve, em última análise, permitir missões que envolvam várias espaçonaves, onde a comunicação confiável entre as embarcações pode ter precedência sobre os links descendentes entre a nave e a terra. De acordo com uma declaração de fevereiro de 2011 de Vint Cerf do Google , os chamados "protocolos Bundle" foram enviados para a nave espacial EPOXI da NASA (que está em órbita ao redor do Sol) e a comunicação com a Terra foi testada a uma distância de aproximadamente 80 luz segundos.

Governança da Internet

Como uma rede globalmente distribuída de redes autônomas voluntariamente interconectadas, a Internet opera sem um órgão central de governo. Cada rede constituinte escolhe as tecnologias e protocolos que implanta a partir dos padrões técnicos desenvolvidos pela Internet Engineering Task Force (IETF). No entanto, a interoperação bem-sucedida de muitas redes requer certos parâmetros que devem ser comuns em toda a rede. Para gerenciar esses parâmetros, a Autoridade para Atribuição de Números da Internet (IANA) supervisiona a alocação e atribuição de vários identificadores técnicos. Além disso, a Corporação da Internet para Atribuição de Nomes e Números (ICANN) fornece supervisão e coordenação para os dois espaços de nomes principais na Internet, o espaço de endereço do Protocolo da Internet e o Sistema de Nomes de Domínio .

NIC, InterNIC, IANA e ICANN

A função IANA foi originalmente desempenhada pelo USC Information Sciences Institute (ISI), e delegou partes dessa responsabilidade com relação à rede numérica e identificadores de sistema autônomo ao Network Information Center (NIC) do Stanford Research Institute (SRI International) em Menlo Park , Califórnia . Jonathan Postel da ISI gerenciou a IANA, atuou como editor da RFC e desempenhou outras funções importantes até sua morte prematura em 1998.

À medida que a ARPANET inicial crescia, os hosts eram chamados por nomes e um arquivo HOSTS.TXT seria distribuído da SRI International para cada host na rede. Conforme a rede cresceu, isso se tornou complicado. Uma solução técnica veio na forma do Sistema de Nomes de Domínio , criado por Paul Mockapetris da ISI em 1983. A Defense Data Network - Network Information Center (DDN-NIC) no SRI tratou de todos os serviços de registro, incluindo os domínios de primeiro nível (TLDs) de .mil , .gov , .edu , .org , .net , .com e .us , administração de servidor de nomes raiz e atribuição de números da Internet sob um contrato do Departamento de Defesa dos Estados Unidos . Em 1991, a Defense Information Systems Agency (DISA) concedeu a administração e manutenção do DDN-NIC (gerenciado pelo SRI até este ponto) à Government Systems, Inc., que o subcontratou ao pequeno setor privado Network Solutions, Inc.

A crescente diversidade cultural da Internet também representou desafios administrativos para o gerenciamento centralizado dos endereços IP. Em outubro de 1992, a Internet Engineering Task Force (IETF) publicou a RFC 1366, que descreveu o "crescimento da Internet e sua crescente globalização" e estabeleceu a base para uma evolução do processo de registro de IP, com base em um modelo de registro distribuído regionalmente . Esse documento enfatizava a necessidade de existir um único registro de números de Internet em cada região geográfica do mundo (que seria de "dimensões continentais"). Os registros seriam "imparciais e amplamente reconhecidos pelos provedores de rede e assinantes" em sua região. O RIPE Network Coordination Center (RIPE NCC) foi estabelecido como o primeiro RIR em maio de 1992. O segundo RIR, o Asia Pacific Network Information Center (APNIC), foi estabelecido em Tóquio em 1993, como um projeto piloto do Asia Pacific Networking Group .

Como, neste ponto da história, a maior parte do crescimento da Internet vinha de fontes não militares, decidiu-se que o Departamento de Defesa não mais financiaria serviços de registro fora do TLD .mil. Em 1993, a US National Science Foundation , após um processo de licitação em 1992, criou a InterNIC para gerenciar as alocações de endereços e o gerenciamento dos bancos de dados de endereços e concedeu o contrato a três organizações. Os serviços de registro seriam fornecidos pela Network Solutions ; Os serviços de diretório e banco de dados seriam fornecidos pela AT&T ; e os Serviços de Informação seriam fornecidos pela General Atomics .

Com o tempo, após consultas com IANA, IETF , RIPE NCC , APNIC e o Federal Networking Council (FNC), foi tomada a decisão de separar o gerenciamento de nomes de domínio do gerenciamento de números IP. Seguindo os exemplos de RIPE NCC e APNIC, foi recomendado que o gerenciamento do espaço de endereço IP então administrado pelo InterNIC deve estar sob o controle daqueles que o utilizam, especificamente os ISPs, organizações de usuários finais, entidades corporativas, universidades e indivíduos . Como resultado, o American Registry for Internet Numbers (ARIN) foi estabelecido em dezembro de 1997, como uma corporação independente, sem fins lucrativos, por direção da National Science Foundation e se tornou o terceiro Registro Regional da Internet.

Em 1998, tanto a IANA quanto as funções restantes da InterNIC relacionadas ao DNS foram reorganizadas sob o controle da ICANN , uma corporação sem fins lucrativos da Califórnia contratada pelo Departamento de Comércio dos Estados Unidos para gerenciar várias tarefas relacionadas à Internet. Como essas tarefas envolviam coordenação técnica para dois espaços de nomes principais da Internet (nomes DNS e endereços IP) criados pela IETF, ICANN também assinou um memorando de entendimento com o IAB para definir o trabalho técnico a ser realizado pela Autoridade para Atribuição de Números da Internet. A gestão do espaço de endereços da Internet permaneceu com os registros regionais da Internet, que foram definidos coletivamente como uma organização de apoio dentro da estrutura da ICANN. ICANN fornece coordenação central para o sistema DNS, incluindo coordenação de políticas para o sistema de registro / registrador dividido, com concorrência entre provedores de serviços de registro para atender a cada domínio de primeiro nível e vários registradores concorrentes que oferecem serviços DNS para usuários finais.

Força-Tarefa de Engenharia da Internet

O Internet Engineering Task Force (IETF) é o maior e mais visível de vários grupos ad-hoc vagamente relacionados que fornecem orientação técnica para a Internet, incluindo o Internet Architecture Board (IAB), o Internet Engineering Steering Group (IESG) e o Internet Research Task Force (IRTF).

O IETF é um grupo vagamente auto-organizado de voluntários internacionais que contribuem para a engenharia e evolução das tecnologias da Internet. É o principal órgão envolvido no desenvolvimento de novas especificações padrão da Internet. Muito do trabalho do IETF é organizado em grupos de trabalho . Os esforços de padronização dos Grupos de Trabalho são freqüentemente adotados pela comunidade da Internet, mas a IETF não controla ou patrulha a Internet.

O IETF surgiu de reuniões trimestrais com pesquisadores financiados pelo governo dos Estados Unidos, começando em janeiro de 1986. Representantes não governamentais foram convidados pela quarta reunião da IETF em outubro de 1986. O conceito de Grupos de Trabalho foi introduzido na quinta reunião em fevereiro de 1987. O sétima reunião em julho de 1987 foi a primeira reunião com mais de cem participantes. Em 1992, a Internet Society , uma sociedade de membros profissionais, foi formada e a IETF começou a operar sob ela como um organismo de padrões internacionais independente. A primeira reunião da IETF fora dos Estados Unidos foi realizada em Amsterdã, Holanda, em julho de 1993. Hoje, a IETF se reúne três vezes por ano e a participação chega a ca. 2.000 participantes. Normalmente, uma em cada três reuniões da IETF é realizada na Europa ou na Ásia. O número de participantes fora dos EUA é normalmente ca. 50%, mesmo em reuniões realizadas nos Estados Unidos.

A IETF não é uma entidade legal, não tem conselho administrativo, nem membros, nem taxas. O status mais próximo de associação é estar em uma lista de e-mails da IETF ou do Grupo de Trabalho. Os voluntários da IETF vêm de todo o mundo e de muitas partes diferentes da comunidade da Internet. O IETF trabalha em estreita colaboração e sob a supervisão do Internet Engineering Steering Group (IESG) e do Internet Architecture Board (IAB). A Internet Research Task Force (IRTF) e o Internet Research Steering Group (IRSG), atividades de pares para o IETF e IESG sob a supervisão geral do IAB, se concentram em questões de pesquisa de longo prazo.

Pedido de comentários

Request for Comments (RFCs) são a documentação principal para o trabalho do IAB, IESG, IETF e IRTF. RFC 1, "Host Software", foi escrito por Steve Crocker na UCLA em abril de 1969, bem antes da IETF ser criada. Originalmente, eram memorandos técnicos que documentavam aspectos do desenvolvimento da ARPANET e foram editados por Jon Postel , o primeiro Editor RFC .

RFCs cobrem uma ampla gama de informações de padrões propostos, padrões preliminares, padrões completos, melhores práticas, protocolos experimentais, história e outros tópicos informativos. RFCs podem ser escritos por indivíduos ou grupos informais de indivíduos, mas muitos são o produto de um Grupo de Trabalho mais formal. Os rascunhos são apresentados ao IESG por indivíduos ou pelo Presidente do Grupo de Trabalho. Um RFC Editor, nomeado pelo IAB, separado da IANA, e trabalhando em conjunto com o IESG, recebe rascunhos do IESG e edita, formata e publica. Depois que um RFC é publicado, ele nunca é revisado. Se a norma que descreve mudanças ou suas informações se tornarem obsoletas, a norma revisada ou as informações atualizadas serão republicadas como um novo RFC que "torna obsoleto" o original.

The Internet Society

A Internet Society (ISOC) é uma organização internacional sem fins lucrativos fundada em 1992 "para assegurar o desenvolvimento aberto, a evolução e o uso da Internet para o benefício de todas as pessoas em todo o mundo". Com escritórios perto de Washington, DC, EUA, e em Genebra, Suíça, a ISOC tem uma base de membros composta por mais de 80 membros organizacionais e mais de 50.000 membros individuais. Os membros também formam "capítulos" com base na localização geográfica comum ou em interesses especiais. Atualmente, existem mais de 90 capítulos em todo o mundo.

ISOC fornece suporte financeiro e organizacional e promove o trabalho dos órgãos de configuração de padrões para os quais é a sede organizacional: a Internet Engineering Task Force (IETF), o Internet Architecture Board (IAB), o Internet Engineering Steering Group (IESG), e a Internet Research Task Force (IRTF). A ISOC também promove a compreensão e a apreciação do modelo da Internet de processos abertos e transparentes e de tomada de decisão baseada em consenso.

Globalização e governança da Internet no século 21

Desde a década de 1990, a governança e a organização da Internet têm sido de importância global para governos, comércio, sociedade civil e indivíduos. As organizações que detinham o controle de certos aspectos técnicos da Internet foram as sucessoras da velha supervisão da ARPANET e os atuais tomadores de decisão nos aspectos técnicos do dia-a-dia da rede. Embora sejam reconhecidos como administradores de certos aspectos da Internet, suas funções e autoridade para tomar decisões são limitadas e estão sujeitas a um crescente escrutínio internacional e a cada vez mais objeções. Essas objeções levaram a ICANN a se retirar do relacionamento com a Universidade do Sul da Califórnia em 2000 e, em setembro de 2009, ganhar autonomia do governo dos Estados Unidos ao encerrar seus acordos de longa data, embora algumas obrigações contratuais com o Departamento de Comércio dos Estados Unidos contínuo. Finalmente, em 1º de outubro de 2016 ICANN encerrou seu contrato com o Departamento de Comércio dos Estados Unidos da Administração Nacional de Telecomunicações e Informações ( NTIA ), permitindo que a supervisão passasse para a comunidade global da Internet.

A IETF, com apoio financeiro e organizacional da Internet Society, continua a servir como órgão de padrões ad-hoc da Internet e emite solicitações de comentários .

Em novembro de 2005, a Cúpula Mundial sobre a Sociedade da Informação , realizada em Túnis , convocou um Fórum de Governança da Internet (IGF) a ser convocado pelo Secretário-Geral das Nações Unidas . O IGF abriu uma conversa contínua e não vinculativa entre as partes interessadas que representam governos, o setor privado, a sociedade civil e as comunidades técnicas e acadêmicas sobre o futuro da governança da Internet. A primeira reunião do IGF foi realizada em outubro / novembro de 2006, com reuniões anuais subsequentes. Desde a WSIS, o termo "governança da Internet" foi ampliado para além de preocupações técnicas estreitas para incluir uma gama mais ampla de questões de política relacionadas à Internet.

Tim Berners-Lee , inventor da web, estava ficando preocupado com as ameaças ao futuro da web e em novembro de 2009 no IGF em Washington DC lançou a World Wide Web Foundation (WWWF) para fazer campanha para tornar a web uma ferramenta segura e capacitadora para o bem da humanidade com acesso a todos. Em novembro de 2019 no IGF em Berlim, Berners-Lee e a WWWF lançaram o Contrato para a Web , uma iniciativa de campanha para persuadir governos, empresas e cidadãos a se comprometerem com nove princípios para impedir o "uso indevido" com o aviso "Se não agimos agora - e agimos juntos - para evitar que a web seja mal utilizada por aqueles que querem explorar, dividir e minar, corremos o risco de desperdiçá-la "(seu potencial para o bem).

Politização da Internet

Devido ao seu destaque e imediatismo como meio eficaz de comunicação de massa, a Internet também se tornou mais politizada à medida que cresceu. Isso tem levado, por sua vez, a discursos e atividades que antes teriam acontecido de outras formas, migrando para serem mediados pela internet.

Os exemplos incluem atividades políticas, como protesto público e angariação de apoio e votos , mas também:

Neutralidade da rede

Em 23 de abril de 2014, a Federal Communications Commission (FCC) estava considerando uma nova regra que permitiria aos provedores de serviços de Internet oferecer aos provedores de conteúdo um caminho mais rápido para enviar conteúdo, revertendo assim sua posição anterior de neutralidade da rede . Uma possível solução para as preocupações com a neutralidade da rede pode ser a banda larga municipal , de acordo com a professora Susan Crawford , especialista em direito e tecnologia da Harvard Law School . Em 15 de maio de 2014, a FCC decidiu considerar duas opções em relação aos serviços de Internet: primeiro, permitir faixas de banda larga rápidas e lentas, comprometendo assim a neutralidade da rede; e, segundo, reclassificar a banda larga como um serviço de telecomunicações , preservando assim a neutralidade da rede. Em 10 de novembro de 2014, o presidente Obama recomendou à FCC reclassificar o serviço de Internet de banda larga como um serviço de telecomunicações a fim de preservar a neutralidade da rede . Em 16 de janeiro de 2015, os republicanos apresentaram uma legislação, na forma de um projeto de lei para discussão de RH do Congresso dos EUA , que faz concessões à neutralidade da rede, mas proíbe a FCC de cumprir a meta ou aprovar qualquer regulamentação adicional que afete os provedores de serviços de Internet (ISPs). Em 31 de janeiro de 2015, a AP News informou que a FCC apresentará a ideia de aplicar ("com algumas ressalvas") o Título II (operadora comum) da Lei de Comunicações de 1934 na Internet em uma votação prevista para 26 de fevereiro de 2015. A adoção dessa noção reclassificaria o serviço de internet de informativo para de telecomunicações e, segundo Tom Wheeler , presidente da FCC, garantiria a neutralidade da rede . A FCC deve impor a neutralidade da rede em seus votos, de acordo com o The New York Times .

Em 26 de fevereiro de 2015, a FCC decidiu a favor da neutralidade da rede aplicando o Título II (operadora comum) da Lei de Comunicações de 1934 e a Seção 706 da Lei de Telecomunicações de 1996 à Internet. O presidente da FCC, Tom Wheeler , comentou: "Este não é mais um plano para regulamentar a Internet do que a Primeira Emenda é um plano para regulamentar a liberdade de expressão. Ambos defendem o mesmo conceito."

Em 12 de março de 2015, a FCC divulgou os detalhes específicos das regras de neutralidade da rede. Em 13 de abril de 2015, a FCC publicou a regra final sobre seus novos regulamentos de " Neutralidade da Rede ".

Em 14 de dezembro de 2017, a FCC revogou sua decisão de 12 de março de 2015 por uma votação de 3–2 em relação às regras de neutralidade da rede.

Uso e cultura

Email e Usenet

O e-mail costuma ser chamado de aplicativo matador da Internet. É anterior à Internet e foi uma ferramenta crucial para sua criação. O e-mail começou em 1965 como uma maneira de vários usuários de um computador mainframe de time-sharing se comunicarem. Embora a história não seja documentada, entre os primeiros sistemas a ter tal facilidade estavam o System Development Corporation (SDC) Q32 e o Compatible Time-Sharing System (CTSS) no MIT.

A rede de computadores ARPANET deu um grande contributo para a evolução do correio eletrónico. Um correio experimental entre sistemas transferido na ARPANET logo após sua criação. Em 1971, Ray Tomlinson criou o que viria a ser o formato de endereçamento de correio eletrônico padrão da Internet, usando o sinal @ para separar nomes de caixa de correio de nomes de host.

Uma série de protocolos foram desenvolvidos para entregar mensagens entre grupos de computadores de tempo compartilhado mais de sistemas de transmissão alternativos, como UUCP e IBM 's VNET sistema de e-mail. O e-mail pode ser passado dessa forma entre várias redes, incluindo ARPANET , BITNET e NSFNET , bem como para hosts conectados diretamente a outros sites via UUCP. Veja a história do protocolo SMTP .

Além disso, o UUCP permitia a publicação de arquivos de texto que podiam ser lidos por muitas outras pessoas. O software News desenvolvido por Steve Daniel e Tom Truscott em 1979 foi usado para distribuir notícias e mensagens semelhantes a BBS. Isso rapidamente cresceu em grupos de discussão, conhecidos como grupos de notícias , em uma ampla gama de tópicos. Na ARPANET e na NSFNET, grupos de discussão semelhantes se formariam por meio de listas de discussão, discutindo questões técnicas e tópicos mais focados na cultura (como ficção científica, discutidos na lista de correspondência sflovers).

Nos primeiros anos da Internet, o e-mail e mecanismos semelhantes também foram fundamentais para permitir que as pessoas acessassem recursos que não estavam disponíveis devido à ausência de conectividade online. UUCP era freqüentemente usado para distribuir arquivos usando os grupos 'alt.binary'. Além disso, os gateways de e-mail FTP permitiam que pessoas que moravam fora dos Estados Unidos e da Europa baixassem arquivos usando comandos ftp escritos em mensagens de e-mail. O arquivo foi codificado, fragmentado e enviado por e-mail; o receptor teve que remontá-lo e decodificá-lo mais tarde, e era a única maneira das pessoas que moravam no exterior fazer o download de itens como as versões anteriores do Linux usando as lentas conexões dial-up disponíveis na época. Após a popularização da Web e do protocolo HTTP, essas ferramentas foram lentamente abandonadas.

De Gopher para a WWW

À medida que a Internet cresceu na década de 1980 e no início da década de 1990, muitas pessoas perceberam a necessidade crescente de encontrar e organizar arquivos e informações. Projetos como Archie , Gopher , WAIS e a lista FTP Archive tentaram criar maneiras de organizar os dados distribuídos. No início da década de 1990, Gopher, inventado por Mark P. McCahill, ofereceu uma alternativa viável para a World Wide Web . No entanto, em 1993, a World Wide Web viu muitos avanços na indexação e facilidade de acesso por meio de mecanismos de pesquisa, que muitas vezes negligenciavam o Gopher e o Gopherspace. À medida que a popularidade aumentou por meio da facilidade de uso, os incentivos ao investimento também cresceram até que, em meados de 1994, a popularidade da WWW ganhou vantagem. Então ficou claro que Gopher e os outros projetos estavam fadados ao fracasso.

Um dos paradigmas de interface do usuário mais promissores durante esse período foi o hipertexto . A tecnologia foi inspirado por Vannevar Bush 's " Memex " e desenvolvido através de Ted Nelson ' pesquisa s no Projeto Xanadu , Douglas Engelbart 'pesquisa s no NLS e aumentar , e Andries van Dam ' pesquisa s de HES em 1968, através FRESS , Intermedia e outros. Muitos pequenos sistemas de hipertexto autocontidos também foram criados, como o HyperCard da Apple Computer (1987). Gopher se tornou a primeira interface de hipertexto comumente usada para a Internet. Embora os itens do menu Gopher fossem exemplos de hipertexto, eles não eram comumente percebidos dessa forma.

Este computador NeXT foi usado por Sir Tim Berners-Lee no CERN e se tornou o primeiro servidor Web do mundo .

Em 1989, enquanto trabalhava no CERN , Tim Berners-Lee inventou uma implementação baseada em rede do conceito de hipertexto. Ao lançar sua invenção para uso público, ele incentivou o uso generalizado. Por seu trabalho no desenvolvimento da World Wide Web, Berners-Lee recebeu o prêmio de tecnologia Millennium em 2004. Um dos primeiros navegadores populares, modelado após o HyperCard , foi o ViolaWWW .

Um ponto de inflexão para a World Wide Web começou com a introdução do navegador Mosaic em 1993, um navegador gráfico desenvolvido por uma equipe do National Center for Supercomputing Applications da Universidade de Illinois em Urbana – Champaign (NCSA-UIUC), liderado por Marc Andreessen . O financiamento para a Mosaic veio da Iniciativa de Comunicação e Computação de Alto Desempenho, um programa de financiamento iniciado pela Lei de Comunicação e Computação de Alto Desempenho de 1991 , também conhecido como " Gore Bill ". A interface gráfica do Mosaic logo se tornou mais popular do que o Gopher, que na época era basicamente baseado em texto, e a WWW se tornou a interface preferida para acessar a Internet. (A referência de Gore ao seu papel na "criação da Internet", no entanto, foi ridicularizada em sua campanha para as eleições presidenciais . Veja o artigo completo Al Gore e tecnologia da informação ).

O Mosaic foi substituído em 1994 pelo Netscape Navigator de Andreessen , que substituiu o Mosaic como o navegador mais popular do mundo. Embora tenha mantido esse título por algum tempo, a competição do Internet Explorer e uma variedade de outros navegadores quase o substituiu completamente. Outro evento importante realizado em 11 de janeiro de 1994 foi o The Superhighway Summit no Royce Hall da UCLA . Esta foi a "primeira conferência pública reunindo todos os principais líderes da indústria, governo e acadêmicos no campo [e] também deu início ao diálogo nacional sobre a Superestrada da Informação e suas implicações."

24 Horas no Ciberespaço , "o maior evento online de um dia" (8 de fevereiro de 1996) até aquela data, ocorreu no site então ativo, cyber24.com. Foi chefiado pelo fotógrafo Rick Smolan . A exposição fotográfica foi revelado na Instituição Smithsonian 's Museu Nacional de História Americana em 23 de janeiro de 1997, com 70 fotos do projeto.

Motores de busca

Mesmo antes da World Wide Web, havia motores de busca que tentavam organizar a Internet. O primeiro deles foi o mecanismo de busca Archie da Universidade McGill em 1990, seguido em 1991 pelo WAIS e Gopher. Todos os três sistemas anteriores à invenção da World Wide Web, mas todos continuaram a indexar a Web e o resto da Internet por vários anos depois que a Web apareceu. Ainda existem servidores Gopher em 2006, embora existam muitos mais servidores web.

À medida que a Web cresceu, mecanismos de busca e diretórios da Web foram criados para rastrear páginas na Web e permitir que as pessoas encontrem coisas. O primeiro mecanismo de pesquisa de texto completo na Web foi o WebCrawler em 1994. Antes do WebCrawler, apenas os títulos das páginas da Web eram pesquisados. Outro mecanismo de pesquisa inicial, o Lycos , foi criado em 1993 como um projeto universitário e foi o primeiro a obter sucesso comercial. No final da década de 1990, tanto os diretórios da Web quanto os mecanismos de pesquisa da Web eram populares - Yahoo! (fundada em 1994) e Altavista (fundada em 1995) foram os respectivos líderes da indústria. Em agosto de 2001, o modelo de diretório começou a dar lugar aos motores de busca, acompanhando a ascensão do Google (fundado em 1998), que havia desenvolvido novas abordagens para classificação de relevância . Os recursos de diretório, embora ainda comumente disponíveis, tornaram-se pensamentos posteriores para os mecanismos de pesquisa.

O "Painel de conhecimento" do Google é assim que as informações do Mapa do conhecimento são apresentadas aos usuários.

O tamanho do banco de dados, que havia sido um recurso de marketing significativo no início dos anos 2000, foi igualmente substituído pela ênfase na classificação de relevância, os métodos pelos quais os mecanismos de pesquisa tentam classificar os melhores resultados primeiro. A classificação de relevância tornou-se uma questão importante por volta de 1996, quando se tornou aparente que era impraticável revisar listas completas de resultados. Consequentemente, os algoritmos para classificação de relevância têm melhorado continuamente. O método PageRank do Google para ordenar os resultados tem recebido a maior parte da imprensa, mas todos os principais mecanismos de pesquisa refinam continuamente suas metodologias de classificação com o objetivo de melhorar a ordenação dos resultados. A partir de 2006, as classificações do mecanismo de pesquisa são mais importantes do que nunca, tanto que uma indústria se desenvolveu (" otimizadores de mecanismo de pesquisa " ou "SEO") para ajudar os desenvolvedores da web a melhorar sua classificação de pesquisa e todo um conjunto de jurisprudência foi desenvolvido em torno de questões que afetam as classificações em mecanismos de pesquisa, como o uso de marcas registradas em metatags . A venda de classificações de pesquisa por alguns mecanismos de pesquisa também criou polêmica entre bibliotecários e defensores do consumidor.

Em 3 de junho de 2009, a Microsoft lançou seu novo mecanismo de busca, o Bing . No mês seguinte, Microsoft e Yahoo! anunciou um acordo em que o Bing daria força ao Yahoo! Pesquisar .

Hoje, o Google deu passos largos para transformar a experiência dos usuários em mecanismos de busca. Com a adição do Google Knowledge Graph , houve um efeito significativo na internet como um todo, possivelmente até limitando o tráfego de certos sites, incluindo a Wikipedia. Ao obter informações da Wikipedia e apresentá-las na página do Google, alguns argumentam que isso pode afetar negativamente a Wikipedia e outros sites. No entanto, não houve nenhuma preocupação imediata entre a Wikipedia e o Mapa do conhecimento.

Compartilhamento de arquivos

O compartilhamento de recursos ou arquivos tem sido uma atividade importante nas redes de computadores muito antes do estabelecimento da Internet e era suportado de várias maneiras, incluindo sistemas de BBS (1978), Usenet (1980), Kermit (1981) e muitos outros. O Protocolo de Transferência de Arquivos (FTP) para uso na Internet foi padronizado em 1985 e ainda está em uso hoje. Uma variedade de ferramentas foi desenvolvida para auxiliar o uso de FTP, ajudando os usuários a descobrirem arquivos que eles podem querer transferir, incluindo o Wide Area Information Server (WAIS) em 1991, Gopher em 1991, Archie em 1991, Veronica em 1992, Jughead em 1993 , Internet Relay Chat (IRC) em 1988 e, por fim, a World Wide Web (WWW) em 1991 com diretórios da Web e mecanismos de pesquisa na Web .

Em 1999, o Napster se tornou o primeiro sistema de compartilhamento de arquivos ponto a ponto . O Napster usava um servidor central para indexação e descoberta de pares, mas o armazenamento e a transferência de arquivos eram descentralizados. Uma variedade de programas e serviços de compartilhamento de arquivos ponto a ponto com diferentes níveis de descentralização e anonimato se seguiram, incluindo: Gnutella , eDonkey2000 e Freenet em 2000, FastTrack , Kazaa , Limewire e BitTorrent em 2001 e Poisoned em 2003.

Todas essas ferramentas são de uso geral e podem ser usadas para compartilhar uma ampla variedade de conteúdo, mas o compartilhamento de arquivos de música, software e filmes e vídeos posteriores são os principais usos. E embora parte desse compartilhamento seja legal, grande parte não é. Ações judiciais e outras ações legais fizeram com que o Napster em 2001, o eDonkey2000 em 2005, o Kazaa em 2006 e o ​​Limewire em 2010 fechassem ou redirecionassem seus esforços. O Pirate Bay , fundado na Suécia em 2003, continua apesar de um julgamento e recurso em 2009 e 2010 que resultou em penas de prisão e multas pesadas para vários de seus fundadores. O compartilhamento de arquivos permanece controverso e com acusações de roubo de propriedade intelectual de um lado e acusações de censura do outro.

Bolha pontocom

De repente, o baixo preço de chegar a milhões em todo o mundo, e a possibilidade de vender ou ouvir essas pessoas no mesmo momento em que foram alcançados, prometeu derrubar dogma negócio estabelecido em publicidade, correspondência vendas, gestão de relacionamento com o cliente , e muitos mais áreas. A web era um novo aplicativo matador - podia reunir compradores e vendedores não relacionados de maneira contínua e de baixo custo. Empreendedores em todo o mundo desenvolveram novos modelos de negócios e correram para o capitalista de risco mais próximo . Embora alguns dos novos empreendedores tivessem experiência em negócios e economia, a maioria era simplesmente gente com ideias e não administrava o influxo de capital com prudência. Além disso, muitos planos de negócios pontocom baseavam-se no pressuposto de que, ao usar a Internet, eles contornariam os canais de distribuição dos negócios existentes e, portanto, não teriam que competir com eles; quando as empresas estabelecidas com marcas fortes existentes desenvolveram sua própria presença na Internet, essas esperanças foram destruídas e os recém-chegados ficaram tentando entrar em mercados dominados por empresas maiores e mais estabelecidas. Muitos não tinham a capacidade de fazer isso.

A bolha das pontocom estourou em março de 2000, com o índice NASDAQ Composite de alta tecnologia chegando a 5.048,62 em 10 de março (5.132,52 intradiário), mais que o dobro de seu valor um ano antes. Em 2001, a deflação da bolha estava correndo a toda velocidade. A maioria das pontocom cessou suas atividades, após ter queimado seu capital de risco e capital de IPO, muitas vezes sem nunca ter lucro . Mas, apesar disso, a Internet continua a crescer, impulsionada pelo comércio, cada vez maiores quantidades de informações e conhecimentos online e redes sociais.

Telefones celulares e a Internet

O primeiro telefone móvel com conectividade com a Internet foi o Nokia 9000 Communicator , lançado na Finlândia em 1996. A viabilidade do acesso a serviços de Internet em telefones móveis foi limitada até que os preços desse modelo caíram e os provedores de rede começaram a desenvolver sistemas e serviços convenientemente acessíveis em telefones. A NTT DoCoMo no Japão lançou o primeiro serviço de Internet móvel, i-mode , em 1999 e isso é considerado o nascimento dos serviços de Internet em telefonia móvel. Em 2001, o sistema de e-mail para celular da Research in Motion (agora BlackBerry Limited ) para seu produto BlackBerry foi lançado na América. Para fazer uso eficiente da tela pequena e do teclado minúsculo e da operação com uma mão típica dos telefones celulares, um documento específico e modelo de rede foi criado para dispositivos móveis, o Wireless Application Protocol (WAP). A maioria dos serviços de Internet para dispositivos móveis opera usando WAP. O crescimento dos serviços de telefonia móvel foi inicialmente um fenômeno principalmente asiático, com Japão, Coréia do Sul e Taiwan logo descobrindo que a maioria de seus usuários de Internet acessando recursos por telefone, em vez de PC. Os países em desenvolvimento seguiram, com Índia, África do Sul, Quênia, Filipinas e Paquistão, todos relatando que a maioria de seus usuários domésticos acessou a Internet de um telefone móvel em vez de um PC. O uso da Internet na Europa e na América do Norte foi influenciado por uma grande base instalada de computadores pessoais, e o crescimento do acesso à Internet por telefone móvel foi mais gradual, mas atingiu níveis de penetração nacional de 20-30% na maioria dos países ocidentais. O cross-over ocorreu em 2008, quando mais dispositivos de acesso à Internet eram telefones celulares do que computadores pessoais. Em muitas partes do mundo em desenvolvimento, a proporção é de até 10 usuários de telefones celulares para um usuário de PC.

Serviços de hospedagem de arquivos

A hospedagem de arquivos permitiu que as pessoas expandissem os discos rígidos de seus computadores e "hospedassem" seus arquivos em um servidor. A maioria dos serviços de hospedagem de arquivos oferece armazenamento gratuito, bem como maior quantidade de armazenamento mediante o pagamento de uma taxa. Esses serviços expandiram muito a Internet para uso comercial e pessoal.

O Google Drive , lançado em 24 de abril de 2012, se tornou o serviço de hospedagem de arquivos mais popular. O Google Drive permite que os usuários armazenem, editem e compartilhem arquivos com eles próprios e com outros usuários. Este aplicativo não apenas permite a edição, hospedagem e compartilhamento de arquivos. Ele também atua como programas de escritório de acesso gratuito do próprio Google, como Google Docs , Google Slides e Google Sheets . Este aplicativo serviu como uma ferramenta útil para professores e alunos universitários, bem como para aqueles que precisam de armazenamento em nuvem .

O Dropbox , lançado em junho de 2007, é um serviço de hospedagem de arquivos semelhante que permite aos usuários manter todos os seus arquivos em uma pasta no computador, que é sincronizada com os servidores do Dropbox. Isso difere do Google Drive porque não é baseado em navegador da web. Agora, o Dropbox trabalha para manter os funcionários e arquivos sincronizados e eficientes.

Mega , com mais de 200 milhões de usuários, é um sistema de comunicação e armazenamento criptografado que oferece aos usuários armazenamento gratuito e pago, com ênfase na privacidade. Sendo três dos maiores serviços de hospedagem de arquivos, Google Drive, Dropbox e Mega representam as ideias e valores centrais desses serviços.

Pirataria online

A forma mais antiga de pirataria online começou com um serviço de compartilhamento de música P2P (ponto a ponto) chamado Napster , lançado em 1999. Sites como LimeWire , The Pirate Bay e BitTorrent permitiam que qualquer pessoa se envolvesse em pirataria online, causando ondas na indústria de mídia . Com a pirataria online, ocorreu uma mudança na indústria de mídia como um todo.

Tecnologias da web

As páginas da Web foram inicialmente concebidas como documentos estruturados baseados em Hypertext Markup Language (HTML), que podem permitir o acesso a imagens , vídeos e outros conteúdos. Os hiperlinks na página permitem que os usuários naveguem para outras páginas. Nos primeiros navegadores, as imagens eram abertas em um aplicativo "auxiliar" separado. O Mosaic de 1993 de Marc Andreessen e o Netscape de 1994 introduziram textos e imagens mistos para usuários não técnicos. O HTML evoluiu durante a década de 1990, levando ao HTML 4, que introduziu grandes elementos de estilo CSS e, posteriormente, extensões para permitir que o código do navegador faça chamadas e solicite conteúdo de servidores de forma estruturada ( AJAX ).

Historiografia

Existem problemas quase intransponíveis em fornecer uma historiografia do desenvolvimento da Internet. O processo de digitalização representa um duplo desafio tanto para a historiografia em geral quanto, em particular, para a pesquisa de comunicação histórica. Uma noção da dificuldade em documentar os primeiros desenvolvimentos que levaram à Internet pode ser obtida a partir da citação:

"O período da Arpanet está um tanto bem documentado porque a corporação responsável - a BBN - deixou um registro físico. Passando para a era da NSFNET , tornou-se um processo extraordinariamente descentralizado. O registro existe nos porões das pessoas, em armários. ... Tanto de o que aconteceu foi feito verbalmente e com base na confiança individual. "

-  Doug Gale (2007)

Veja também

Referências

Bibliografia

Leitura adicional

links externos