Quando o Grande Colisor de Hádrons voltar a funcionar, dentro de alguns dias, os sistemas de TI do Cern terão de ser flexíveis para processar a torrente de informações | ||||||
por Larry Greenemeier | ||||||
Em vez de adicionar um pelotão de novos computadores, e possivelmente extrapolar a infraestrutura de tecnologia de informação e sua capacidade de energia e resfriamento, o CERN está testando um ambiente de servidores virtuais que, espera-se, esteja funcionando até o fim do ano. A virtualização de servidores, que envolve a utilização de softwares para segmentar a capacidade de armazenagem e processamento de uma máquina, tornou-se uma técnica popular nos últimos anos para fazer melhor uso de máquinas subutilizadas e aumentar a eficiência em centros de dados. O CERN planeja dividir seus 4 mil servidores (que usam cerca de 32.500 processadores) em cerca de 35 mil servidores virtuais até o fim do ano e administrar o fluxo restante com a ajuda de um software elaborado pela Platform Computing Corp., de Markham, Ontário. Durante os próximos dois ou três anos, o laboratório poderá dividir seus servidores em até 80 mil máquinas virtuais. Simplesmente adicionar mais máquinas aos centros de dados do CERN não era uma opção. ?Somos limitados pela quantidade de energia e resfriamento disponíveis?, afirma Tony Cass, líder do grupo de Infraestrutura e Operações do CERN. ?Queremos extrair até a última gota dos recursos que temos para usar em Física. Mesmo uma capacidade 10% maior significa muito mais rumo ao aperfeiçoamento dessa ciência.? Além do próprio acelerador, o LHC tem vários detectores de partículas ? incluindo o Atlas e o CMS ? que capturam os dados produzidos durante as colisões. ?Para produzir resultados físicos, primeiro os cientistas do Cern têm de transformar os 1s e 0s [referência aos códigos binários de computadores] produzidos pelos detectores em imagens significativas, que mostrem os rastros das diferentes partículas quânticas produzidas nas colisões?, informa Cass. ?Então precisam analisar essas imagens para compreender o que significam.? A captura e análise por parte dos detectores requer um poder computacional imenso, mas nem sempre em quantidades iguais. Às vezes é necessário processar inúmeras operações de cálculo para criar as imagens, outras vezes isso é necessário para analisá-las. Para alocar e realocar recursos de processamento, Cass e sua equipe têm de determinar quantos servidores seriam necessários para realizar uma determinada tarefa ? de análise, por exemplo. Se descobrirem que mais recursos computacionais são necessários em outro local, devem parar o trabalho de processamento de lote que está sendo feito nos servidores, reconfigurá-los e reiniciá-los. No entanto, os servidores virtuais podem ser alocados e realocados dinamicamente usando o software da Platform Computing, sem a necessidade de interromper um processamento já em progresso. O LHC, ligado pela primeira vez em setembro de 2008, foi projetado para acelerar prótons às energias mais altas já geradas por uma máquina, fazendo-os colidir de frente 30 milhões de vezes por segundo, com cada colisão gerando milhares de partículas quase à velocidade da luz. Se for bem sucedido, o LHC poderá ajudar os físicos a responder perguntas sobre a composição subatômica da massa e energia do Universo. Infelizmente, o primeiro funcionamento do LHC durou pouco mais de uma semana antes de ele ter de ser desligado por um problema com dois magnetos supercondutores. O dispositivo foi religado brevemente em novembro para conduzir uns poucos experimentos, mas esteve desligado desde dezembro, enquanto o Cern atualiza o equipamento. Mais de 10 mil pesquisadores em 85 países planejam usar o mais poderoso acelerador de partículas do mundo para testar as diferentes previsões que dizem respeito à Física de altas energias. Quando o LHC voltar a funcionar, espera-se que continue operando sem parar até o meio ou fim de 2011, o maior período de funcionamento de um acelerador na história do Cern, fundado em 1954. ?Os computadores dedicados ao LHC, que executam por volta de 120 mil tarefas de computação por dia, precisarão rodar em sua eficiência máxima para assegurar que a enchente de dados dos detectores possa ser rapidamente convertida em resultados físicos?, diz Cass. Uma tarefa, nesse contexto, é um pedido para processar uma certa quantidade de dados ? transformar a informação produzida por um detector em um dado período de tempo em imagens, por exemplo, ou examinar um grande número dessas imagens para analisá-las. ?A pressão sobre as equipes de computação vai aumentar assim que os dados de verdade chegarem e os físicos começarem a competir para produzir artigos para periódicos e conferências, especialmente se houver qualquer indício de descoberta?, lembra Cass. ?É um momento crítico para os detectores do LHC?. | ||||||
Todos os direitos reservados a Scientific American Brasil. |