|
Pesquisadores querem
'reconstruir' a Internet
Ainda que a Internet tenha levado quase
quatro décadas para chegar ao seu estado atual, alguns pesquisadores
acadêmicos, com o auspício do governo federal norte-americano, querem
reestruturar tudo e começar de novo. A idéia pareceria inconcebível, até
absurda, mas muitos crêem que a estratégia de "apagar e começar de novo"
representa a única maneira de atender verdadeiramente aos desafios de
segurança, portabilidade e outros temas que surgiram desde que Leonard
Kleinrock, um professor da Universidade da Califórnia (Ucla), ajudou a
supervisionar a primeira troca de textos significativa entre dois
computadores, em setembro de 1969.
A Internet "funciona muito bem em muitas situações, mas foi desenhada
com premissas completamente diferentes", disse Dipankar Raychandhuri,
professor da Universidade de Rutgers, que supervisiona os projetos de
reestruturação. "É uma espécie de milagre que ela siga funcionando bem
hoje".
Agora que a rede não está mais limitada pela lentidão das conexões ou
dos processadores nos PCs, nem pelos altos custos de armazenamento de
dados, os pesquisadores consideram ter chegado o momento de reformular a
arquitetura subjacente da rede, um passo que implicaria a necessidade de
substituir os equipamentos existentes e de reprogramar o software para
encaminhar melhor o tráfego do futuro sobre os canais disponíveis.
Até mesmo Vinton Cerf, um dos 'pais' fundadores da Internet, que
ajudou no desenvolvimento e nas técnicas para as chaves de comunicação,
disse que a iniciativa de reforma é "saudável em geral", porque a
tecnologia atual "não satisfaz todas as necessidades".
Mas para qualquer reconstrução, um dos desafios consistirá em
alcançar o equilíbrio entre os interesses de vários grupos. Na primeira
vez, os pesquisadores puderam trabalhar em paz dentro de seus
laboratórios. Desta vez, a indústria tem uma influência mais importante,
e as autoridades querem que sejam levadas em conta suas necessidades de
intervenção.
Não há evidências de que estes grupos já estejam atuando, mas uma vez
que qualquer investigação pareça promissória, "inúmeras pessoas vão
querer participar no desenho", disse Jonathan Zittrain, professor de
Direito afiliado às universidades de Oxford e Harvard.
A Fundação Nacional de Ciências (NSF, na sigla em inglês), quer
construir uma rede experimental de investigação conhecida como 'Ambiente
Global para Inovações em Rede' (GENI, na sigla em inglês), e está
financiando vários projetos nas universidades e em outras instituições
mediante o projeto Desenho da Rede Futura de Internet (FIND, na sigla em
inglês).
As universidades de Rutgers, Stanford, Princeton, Carnegie Mellon e o
Instituto Tecnológico de Massachusetts (MIT) estão entre as instituições
que empreenderam projetos individuais. As dependências governamentais,
incluído o Departamento de Defesa, também exploraram o conceito. A União
Européia apoiou pesquisas de iniciativas semelhantes, mediante um
programa conhecido como Investigação e Experimentação da Internet Futura
(FIRE, na sigla em inglês). Funcionários e pesquisadores se reuniram no
mês passado em Zurique para discutir seus primeiros achados e metas.
Uma nova rede funcionaria paralela à Internet atual e a substituiria
posteriormente, ou talvez alguns aspectos da investigação se aplicariam
a uma reestruturação da arquitetura existente. Estas propostas estão,
entretanto, em suas etapas iniciais, e não dariam frutos senão daqui a
dez ou 15 anos, no caso do Congresso aprovar o financiamento.
Guru Parulkar, que assumirá a direção geral da iniciativa de
Stanford, depois de encabeçar os programas da NSF, estimou que apenas a
proposta GENI custará US$ 350 milhões, enquanto que o gasto do governo,
da universidade e da indústria em projetos individuais cresceria em
conjunto a US$ 300 milhões. Até agora, o gasto foi de algumas dezenas de
milhões de dólares. A substituição de todos os programas e computadores
para implementar a nova rede poderia acrescentar bilhões de dólares ao
custo.
Os defensores do "apagar e começar de novo" dizem que o mundo mais
cômodo dos pesquisadores nas décadas de 1970 e 80 não necessariamente se
ajusta às realidades e necessidades da Internet comercial. "A rede é
agora uma ferramenta essencial para muitas pessoas, enquanto em seus
primeiros dias era apenas algo experimental", disse Zittrain.
Os primeiros arquitetos da Internet construíram o sistema sob o
princípio da confiança. A maioria dos pesquisadores não se conhecia
entre si, portanto se manteve abertura e flexibilidade ao compartilhar a
rede, características que foram cruciais para seu rápido crescimento.
Mas à medida que a rede se expandia, chegaram os remetentes de ondas de
correio indesejável e os piratas, que puderam atuar livremente porque a
rede não tem mecanismos integrados para saber com certeza quem enviou o
quê.
Os desenhistas da rede supunham também que os computadores estariam
em lugares fixos e sempre conectados. Isto já não acontece, com a
proliferação de computadores portáteis e de bolso e os celulares com
cada vez mais funções web. Todos esses sistemas vão de um ponto a outro
de conexão sem fio e poodem perder o sinal em determinados lugares.
Os engenheiros melhoraram a segurança e fizeram mudanças para
permitir a portabilidade da Internet, mas os pesquisadores assinalam que
tudo isso agrega complexidades, afeta o desempenho e, no caso da
segurança, se limita a fazer reparos, num arriscado jogo de 'gato e
rato'. As reparações provisórias para os dispositivos celulares "podem
funcionar bem se uma pequena fração do tráfego é desse tipo, mas podem
saturar os processadores dos computadores e criar falhas de segurança
quando 90% ou mais do tráfego é móvel", explicou Nick Mckeown,
co-diretor do programa de Stanford.
A Internet seguirá enfrentando desafios, enquanto as aplicações
requerem transmissões garantidas e não uma estratégia que dá apenas seu
"melhor esforço" e que funciona melhor para o correio eletrônico e
outras tarefas menos dependentes do fator tempo. Deve-se pensar em um
médico que utilizará as teleconferências para realizar uma cirurgia
remota, ou no consumidor de um serviço de telefonia via Internet que
precisa fazer uma chamada de emergência. Nestes casos, um atraso mínimo
no envio dos dados pode ser fatal.
Em vez de criar paliativos para cada problema, os pesquisadores desta
nova proposta querem redesenhar o sistema para abrigar facilmente
qualquer tecnologia futura, diz Larry Peterson, presidente do conselho
de ciências da informática de Princeton e chefe do grupo de planejamento
de GENI. Inclusive, se os desenhistas originais tivessem sido mais
visionários, não teriam podido incorporar estas funções desde o começo.
Os computadores eram muito mais lentos, então, para realizar, por
exemplo, os cálculos necessários para autentificar a identidade de um
usuário.
Kleinrock, o pioneiro da Internet na Ucla, questionou a necessidade
de fazer uma transição, mas acrescentou que estas iniciativas resultam
úteis para o avanço tecnológico. "Algo chamado GENI seguramente não se
converterá na Internet, mas algumas partes disso poderiam ser integradas
à rede enquanto evolui", vislumbra ele.
|