Na luta pela supremacia na computação, a corrida não é entre máquinas — é contra o tempo

Eram apontados como o protótipo do futuro, um fotograma de um filme de ficção científica que projetava a inovação no tempo e fazia adivinhar anos longínquos onde os supercomputadores e os computadores quânticos assumiriam um papel de destaque. O presente tornou-se menos fictício e a realidade tem caminhado lentamente em direção a um futuro que, há décadas, parece escorrer por entre os dedos.

Com os avanços tecnológicos a debaterem-se a uma velocidade tantas vezes difícil de acompanhar, o que faz com que a supercomputação e a computação quântica avancem num compasso mais ponderado? A resposta não está na falta de inovação — mas na complexidade do caminho.

Recentemente, a empresa canadiana D-Wave Systems anunciou um marco que pode redefinir a narrativa: uma demonstração de supremacia quântica com base no modelo de quantum annealing, após 25 anos de investigação. Estaremos, agora, perante uma momento chave onde a computação quântica ganha terreno e demonstra o seu potencial prático? E a supercomputação? Ainda permanece na corrida?

A verdade é que pode mesmo nem existir corrida e estejamos perante uma sucessiva tentativa de lutar contra obstáculos de diferentes escalas que não podem, nem devem, ser colocados no mesmo baralho de cartas. Mas vamos por partes.

A demonstração de supremacia quântica apresentada pela D-Wave Systems não é a primeira e este marco já foi reivindicado antes por empresas como a Google, por exemplo. Mas apesar do avanço da computação quântica, os supercomputadores continuam a receber investimentos significativos, nomeadamente em Portugal -onde foi recentemente inaugurado, na Universidade do Minho, o supercomputador Deucalion. Isto levanta uma questão relevante: se os computadores quânticos poderão, em teoria, superar os clássicos em várias tarefas, por que razão continuam os supercomputadores a ocupar o centro das estratégias tecnológicas europeias?

António Luís Sousa, investigador do INESC TEC em domínios ligados à supercomputação e Coordenador Técnico para a operação do Deucalion, acredita que estamos perante áreas que não só não estão estagnadas, como não são concorrentes. A complementaridade é, aqui, um ponto chave, já que ambas operam com forças e áreas de aplicação distintas. “A maioria dos supercomputadores europeus terá, em breve, um computador quântico associado para poder delegar algumas tarefas computacionais, que poderão ser realizadas de forma mais eficiente neste tipo de computadores”, explica. Posição semelhante tem André Sequeira. O também investigador do INESC TEC atua mais na área da computação quântica e mostra-se convicto de que este reconhecimento de complementaridade é indispensável por proporcionar ganhos em problemas específicos. “Podemos usar supercomputadores para auxiliar na simulação de fenómenos físicos, na articulação e no desenvolvimento de algoritmia quântica, acelerando também o próprio desenvolvimento”, salienta.

A corrida de que tanto se fala, afinal, não faz sentido — nem sequer existe. Em vez de concorrentes, supercomputadores e computadores quânticos jogam em equipas diferentes, mas complementares. Os supercomputadores são máquinas extremamente poderosas, capazes de resolver uma vasta gama de problemas de forma muito eficiente. Já os computadores quânticos, que operam com qubits e exploram fenómenos como a superposição e o entrelaçamento, prometem resolver certos problemas muito específicos de forma exponencialmente mais rápida.

Na prática, não só um supercomputador não é substituído por um computador quântico, como pode ser uma peça-chave no seu funcionamento — ajudando, por exemplo, a simular ou controlar algoritmos quânticos. O futuro, garante António Luís Sousa, passará inevitavelmente por sistemas híbridos. “Uma das linhas de investigação atual é precisamente perceber de que forma deve ser feita esta hibridização — ou seja, a integração do computador quântico com o supercomputador”.

O caminho para o progresso

Associar progresso e inovação a imediatismo parece, em áreas com a complexidade da supercomputação e da computação quântica, um erro crasso que deixa de fora variáveis indispensáveis à equação. Aqui, a profundidade da investigação é a força motriz. Na supercomputação, António Luís Sousa defende que a progressão “não é necessariamente lenta, mas segue um ritmo ditado por diferentes desafios físicos, tecnológicos e económicos mais complexos do que aqueles enfrentados por outros setores da tecnologia”. Ainda assim, “cada avanço desta escola pode ter impactos profundos e duradouros, tornando necessário um constante investimento na investigação e desenvolvimento da área”.

“Na computação quântica, fatores como a decoerência quântica (perda de informação devido à interação com o ambiente), a necessidade de operação em temperaturas criogênicas (próximas de 0 Kelvin), e a correção de erros representam barreiras técnicas significativas”, assume André Sequeira. Ambos os domínios exigem avanços simultâneos ao nível do hardware, software e da própria infraestrutura, além de investimentos substanciais e de uma forte colaboração internacional. A corrida, afinal, não é entre máquinas — é contra o tempo e a complexidade dos próprios problemas. “Além disso, diferente do que sucede noutros domínios, a investigação e desenvolvimento de hardware em específico hardware quântico, exige laboratórios e instalações de grande dimensão, dotados de componentes específicos e de elevado custo, nomeadamente energético”, continua o investigador.

A eficiência energética é, de resto, um fator crítico para estas áreas. Embora os computadores quânticos prometam resolver certos problemas com muito menos recursos computacionais, a sua operação requer condições extremamente exigentes — como temperaturas próximas do zero — que implicam elevados consumos energéticos. Já nos supercomputadores, a principal preocupação prende-se com a escala do consumo elétrico. Reduzir a pegada energética mantendo a performance é, por isso, um grande desafio.

“Os maiores supercomputadores mundiais têm consumos na ordem dos 20MW, mas as previsões são que até ao final da década possa ser possível um aumento previsível da capacidade de processamento e possam existir supercomputadores com consumos na ordem dos 250MW”, explica António Luís Sousa. Em termos práticos, estamos a falar de um número equivalente ao consumo total de uma cidade com cerca de 150.000 habitantes. Por isso mesmo, o investigador   destaca a predominância de investigação para evitar o aumento do consumo energético, nomeadamente no “desenvolvimento de tecnologias de arrefecimento e de chips especializados como GPUs (os aceleradores gráficos que já temos hoje), TPUs (o tensor processor units, especializados para problemas de IA) e a continuação na aposta nos processadores ARM (da família dos que temos nos telemóveis) e que já estão presentes no nosso supercomputador nacional: o Deucalion”. O foco, assegura, “estará em criar sistemas mais poderosos, eficientes e sustentáveis”.

A falácia no investimento

É inegável que o investimento europeu em supercomputadores tem sido exponencial. Estaremos diante de uma aposta unilateral, em detrimento da computação quântica, ou será antes uma escolha estratégica, com abordagens complementares, cujos papéis são distintos, mas igualmente essenciais no panorama tecnológico?

“Não me parece que se possa afirmar que a Europa, e em particular a EuroHPC-JU, esteja a apostar em supercomputadores em detrimento de apostar em computadores quânticos”, defende António Luís Sousa, reforçando que a Europa tem, atualmente, 9 supercomputadores em produção e previstos 8 computadores quânticos. A falácia do investimento em apenas um dos domínios, desmonta-se com dados concretos. Os supercomputadores apresentam-se como uma realidade consolidada, com aplicações amplas e comprovadas em diversas áreas como, por exemplo, na previsão climática, simulação de fármacos, modelação financeira e inteligência artificial.

André Sequeira, acredita que a aposta em supercomputadores se justifica exatamente com a maturidade tecnológica destes sistemas na resolução de problemas críticos de forma eficiente. Em contraste, a computação quântica está ainda está em fase experimental. “Não existe atualmente uma tecnologia dominante como na computação clássica”, explica o investigador, “existem já protótipos com centenas de qubits em que apenas recentemente se provaram demonstrações práticas de “supremacia quântica”, porém em problemas muito restritos, como random circuit sampling ou otimização combinatorial”.

A certeza, garante, é que “é amplamente reconhecido pela maioria dos especialistas, que a computação quântica não é um substituto integral da supercomputação, mas sim um recurso computacional capaz de promover ganhos em problemas específicos”. António Luís Sousa vai mais longe e lembra que a principal diferença é que “a supercomputação tem aplicações práticas imediatas e pode gerar impacto económico e científico neste momento. Já a computação quântica é ainda uma aposta de longo prazo, com avanços importantes, mas sem previsões concretas de quando será totalmente funcional para aplicações comerciais em larga escala”.

Mas estamos ou não perante uma aposta exclusiva num dos domínios? Para ambos, a resposta é clara: não! Para António Luís Sousa, a aposta europeia na supercomputação não é em “detrimento da computação quântica, mas sim um investimento complementar e estratégico”. Há, sim, uma aposta onde há resultados agora, mas sem descurar o que poderá vir depois. “Enquanto a computação quântica amadurece, os supercomputadores continuam a ser essenciais para resolver desafios críticos da sociedade. A Europa também investe na computação quântica, mas com uma visão de longo prazo, enquanto a supercomputação oferece retorno imediato e consolidado”, explica.

O Quantum Flagship com investimento de 1.9 b€ nos últimos 5 anos é, para André Sequeira, a prova de que há, efetivamente, investimento nesta área e que estamos perante uma estratégia integrada que pretende garantir a eficácia do presente com visão de futuro. “Visa desenvolver tecnologias quânticas em paralelo, reconhecendo que ambas as áreas são complementares, incluindo o uso de supercomputadores para auxiliar na simulação de fenómenos físicos, na articulação e no desenvolvimento de algoritmia quântica, acelerando também o próprio desenvolvimento. Enquanto a computação quântica evolui, a Europa e outros países continuam a investir em HPC para reforçar a capacidade competitiva e inovadora em curto/médio prazo onde a computação quântica se tornará complementar e, no futuro, poderá integrar-se nestes centros de HPC onde será crucial para resolver certas tarefas, mas não todas”, continua.

 

O potencial por concretizar

O protótipo de futuro que depositou na supercomputação e na computação quântica a responsabilidade de conquistas extraordinárias assenta num potencial latente inegável. Os avanços significativos sucedem-se ao longo dos anos, a investigação aprofunda-se e as conclusões simplificam-se, mas a verdadeira capacidade destas tecnologias imerge timidamente e mantem-se longe de ser totalmente explorada. Mas o que é que falta?

A supercomputação é transversal a todas as atividades humanas e praticamente todas as áreas de atividade podem beneficiar do uso da supercomputação embora atualmente nem todas tirem partido dela. Algumas das áreas que atualmente tiram maior proveito da supercomputação incluem: previsão e modelagem climática, medicina, química, biologia, física, astrofísica, energia, exploração espacial, ciência dos materiais, finanças, análise de riscos, cibersegurança, inteligência artificial, entre outras.

“Os supercomputadores são, essencialmente, ferramentas de investigação científica e a necessidade de construir computadores cada vez maiores é porque os atuais não permitem dar a resposta adequada aos problemas que pretendemos resolver hoje, quer seja no tempo que demoram a resolver os problemas, quer na qualidade das respostas”, adianta António Luís Sousa. É, portanto, pertinente questionar se é realmente possível quantificar o potencial aproveitado, quando estamos diante de um trabalho contínuo, onde novos problemas surgem constantemente e as exigências de hardware e software evoluem sem cessar.

Na computação quântica, o caminho ainda agora começou e estamos no primeiro nível de desenvolvimento, a era “Noisy Intermediate-Scale Quantum”, “com qubits suscetíveis a ruído e sujeitos a decoerência rápida, o que limita a quantidade de operações lógicas antes de a informação se perder. A maioria dos protótipos conta entre 50 e 5.000 qubits físicos- 5k qubits apenas presentes em annealers que não são universais. Em gate-based um máximo de 1k – a IBM tem um plano de chegar a uma máquina de 4k qubits em 2025”, explica André Sequeira.

O panorama parece-lhe, ainda assim “entusiasmante”, pois se, “com tão poucas dezenas ou centenas de qubits, já começamos a vislumbrar benefícios, imagino o impacto quando se ultrapassarem os desafios de escalabilidade e correção de erros”.

O aproveitamento do potencial da supercomputação e da computação quântica levanta também novas questões no domínio da segurança digital, já que estas tecnologias poderão, num futuro próximo, alterar profundamente os mecanismos de encriptação e os paradigmas de proteção de dados em uso. O primeiro passo, para António Luís Sousa, parte dos próprios utilizadores. “Pela dimensão dos supercomputadores existirão desafios adicionais, mas diria que, a este nível, as preocupações não serão demasiado diferentes das que existem nas instituições de investigação, tal como o INESC TEC”, acrescenta.

Na computação quântica, a questão da segurança digital é particularmente sensível. “Algoritmos como o de Shor podem, em teoria, quebrar grande parte dos sistemas de criptografia assimétrica utilizados atualmente (RSA, ECC). Embora ainda não exista um computador quântico capaz de comprometer chaves de grande dimensão”, tranquiliza André Sequeira, garantindo que “governos e organizações já se preparam para este paradigma emergente, fomentando algoritmos de segurança resistentes a ataques quânticos, criptografia pós-quântica”. Com a salvaguarda adicional que a própria computação quântica e as tecnologias quânticas em geral, permitem, potencialmente, gerar também sistemas de criptografia mais robustos do que os convencionais.

A verdade é que, no atual estado da tecnologia, não se trata de escolher entre supercomputação ou computação quântica — e muito menos entre modelos quânticos diferentes. A diversidade de abordagens, como o quantum annealing da D-Wave ou os computadores quânticos universais da Google, reflete a complexidade dos desafios que temos pela frente. Problemas distintos exigem ferramentas distintas.

No fim, o futuro tecnológico não parece caminhar para uma substituição, mas sim para uma convergência. A realidade está longe de se assemelhar à ficção científica. O terreno segue partilhado e a única corrida que verdadeiramente importa — e que é real — é pela qualidade da inovação, pela solidez científica e pela capacidade de transformar avanços tecnológicos em soluções concretas para os desafios da atualidade.

 

PHP Code Snippets Powered By : XYZScripts.com
EnglishPortugal