{

title : "My Cyber-Space",

description : "O seu lugar de tecnologia",

author : "Victor Oliveira"

}


terça-feira, 21 de dezembro de 2010

Avanço dos computadores poderá se estagnar nos próximos anos

Os microprocessadores aumentaram de velocidade por um fator de 10.000 durante os anos 1980 e 1990. Mas dois obstáculos podem fazer com que o poder de processamento bata de frente com um muro na próxima década.

Conforme os transistores se tornaram cada vez menores e mais densamente empacotados dentro dos chips, a velocidade dos processadores se estabilizou. Eles atingiram a casa dos 3 gigahertz em 2005, e ficaram aí desde então. Isto ocorre porque chips com clocks maiores geram calor demais.

Esse patamar na velocidade de clock ameaça acabar com a tendência que chamamos de Lei de Moore - a duplicação do número de transistores em um chip a cada dois anos. Para tentar sair desse planalto sem graça, e voltar a escalar novos picos de processamento, os fabricantes começaram a fabricar processadores com vários núcleos. Mas o relatório adverte que processadores multicore não são o bastante para salvar a Lei de Moore: a eficiência energética dos transistores atuais não pode ser melhorada muito mais, e o desempenho "irá se tornar limitado pelo consumo de energia dentro de uma década". E, para isso, só há uma saída, segundo o documento: inventar uma nova arquitetura para os transistores, ou seja, usar transistores melhores, que ainda não foram inventados.

E os processadores multicore também revelam que o outro calcanhar desse Aquiles computacional também é deficiente: os programas de computador ainda são feitos segundo o paradigma anterior, em que as tarefas eram executadas sequencialmente.

Para que supercomputadores e minicomputadores com processadores de múltiplos núcleos funcionem bem, é necessário projetar os softwares para que eles sejam capazes de executar as tarefas de forma paralela. Isso parece soar mais promissor, já que a programação paralela, ao contrário de uma nova arquitetura de transistores, já foi inventada. "A computação paralela oferece um caminho claro rumo ao futuro" para sustentar o crescimento na velocidade dos computadores, afirmou Samuel Fuller, que coordenou a elaboração do relatório.

Alguns processamentos científicos já trabalham bem em paralelo, como os simuladores, seja na previsão do clima ou de grandes explosões de supernovas. Até mesmo o Google já desenvolveu um conjunto de ferramentas de programação paralela, chamada MapReduce, para processar as grandes massas de dados coletadas pelo seu rastreador, que indexa a internet.

Mas o relatório adverte que a conversão da grande maioria dos softwares, escritos para serem executados sequencialmente, em aplicações paralelas, "será extremamente difícil". Isso exigirá novos processos de engenharia de software e novas ferramentas. E os programadores terão de passar por uma reciclagem completa para serem capazes de usá-los.

Nenhum comentário: