Como os supercomputadores resolvem problemas gigantes

0
Como os supercomputadores resolvem problemas gigantes


Os supercomputadores de hoje são maravilhas do poder computacional, e eles estão sendo usados ​​para resolver alguns dos maiores problemas científicos do mundo.

Os modelos atuais são dezenas de milhares de vezes mais rápidos do que a média do computador desktop. Eles alcançam essas velocidades extremamente rápidas via processamento paralelo, em que muitos processadores de computadores realizam cálculos simultaneamente. 

Os supercomputadores são usados ​​para tudo, desde a previsão do tempo até à modelagem do cérebro humano. O que define e diferencia os supercomputadores é o tamanho e a dificuldade das tarefas que eles podem enfrentar e resolver.

Os supercomputadores são muitas vezes construídos a partir dos mesmos componentes que os computadores normais, mas eles são integrados para que possam trabalhar juntos. Os primeiros supercomputadores foram desenvolvidos na década de 1960, projetados pelo engenheiro elétrico Seymour Cray da Control Data Corporation (CDC). 

Em 1964, a empresa lançou o CDC 6600, muitas vezes considerado o primeiro supercomputador do mundo. Cray depois formou a sua própria companhia, que fez o Cray-1 em 1976 e o Cray-2 em 1985. Estes primeiros supercomputadores tinham apenas alguns processadores, mas na década de 1990, os Estados Unidos e o Japão estavam já a usar milhares de processadores. 

O túnel de vento numérica da Fujitsu tornou-se o computador mais rápido em 1994 com 166 processadores, seguido pelo Hitachi SR2201, em 1996, com mais de 2.000 processadores. A Intel Paragon passou para a liderança em 1993. Em junho de 2013, o Tianhe-2 da China chegou ao lugar supercomputador mais rápido do mundo [saiba mais].

O desempenho do supercomputador é medido em "FAILS", abreviação de operações de ponto flutuante por segundo. As máquinas de hoje podem alcançar velocidades de petaflops - quatrilhões de flops.

O TOP500 é um ranking dos 500 supercomputadores mais poderosos do mundo. O chinês Tianhe-2 atinge 33,86 petaflops, enquanto que o Cray Titan atinge 17,59 petaflops, e o Sequoia da IBM fica em terceiro com 17,17 petaflops.

Os pesquisadores têm aproveitado o poder impressionante dos supercomputadores para trabalhar em problemas complexos em áreas que vão desde a astrofísica à neurociência. Estes gigantes computacionais têm sido usados ​​para responder a perguntas sobre a criação do universo durante o Big Bang. 

Pesquisadores do Texas Advanced Computing Center (TACC) simularam como as primeiras galáxias se formaram, e os cientistas do Centro de Pesquisa Ames da NASA em Mountain View, na Califórnia, simularam o nascimento de estrelas. Usando computadores como o Roadrunner da IBM em Los Alamos National Laboratory, os físicos têm sondado os mistérios da matéria escura, a misteriosa substância que compõe cerca de 25% da massa do universo.

A previsão do tempo é outra área que depende fortemente de supercomputação. Por exemplo, os meteorologistas usam o Ranger supercomputador TACC para determinar o caminho do furacão Ike, em 2008, aumentando a previsão de furacões de cinco dias em 15%. Os cientistas do clima usam supercomputadores para modelar a mudança climática global, um desafio que envolve centenas de variáveis.

Testes de armas nucleares foram proibidos nos Estados Unidos desde 1992, mas simulações de supercomputadores garantem que as armas nucleares do país permaneçam seguras e funcionais. O Sequoia da IBM no Lawrence Livermore National Laboratory, na Califórnia foi projetado para substituir testes de explosões nucleares com melhores simulações.

Cada vez mais, os neurocientistas têm voltado a sua atenção para a difícil tarefa de modelar o cérebro humano. O projeto Blue Brain na École Polytechnique Fédérale de Lausanne, na Suíça, liderada por Henry Markram, pretende criar um cérebro humano completo, virtual. 

Os cientistas do projeto estão usando um supercomputador IBM Blue Gene para simular as estruturas moleculares dos cérebros de mamíferos reais. Em 2006, o Blue Brain simulou com sucesso uma coluna completa de neurónios no cérebro de ratos.

O supercomputador por excelência consiste tipicamente de grandes datacenters cheios de muitas máquinas que estão fisicamente ligadas entre si. Contudo, a computação distribuída poderia também ser considerada uma forma de supercomputadores, que consiste em muitos computadores individuais ligados por uma rede (tal como a Internet), que dedicam uma porção da sua capacidade de processamento a um grande problema.

Um exemplo bem conhecido é o SETI@home (Search for Extraterrestrial Intelligence em casa), em que milhões de pessoas correm um programa nos seus computadores que procura por sinais de vida inteligente em sinais de rádio. Outra é "Folding at home", um projeto para prever a estrutura 3D de proteínas - os laboriosos biológicos que executam tarefas vitais em nosso corpo - a partir da sequência das cadeias moleculares de que são feitas.

No futuro, os supercomputadores irão chegar a capacidades "exascale" - cerca de 50 vezes mais rápidos do que os sistemas atuais. Isso vai exigir mais energia, por isso a eficiência energética provavelmente vai-se tornar um importante objetivo dos futuros sistemas. Outra tendência será integrar grandes quantidades de dados para aplicações como a descoberta de novos materiais e biotecnologia.
Temas

Postar um comentário

0Comentários
Postar um comentário (0)