A corrida em direção à computação quântica tolerante a falhas: AWS Ocelot, Microsoft Majorana 1, Google Willow, IBM Heron R2 e Zuchongzhi 3.0

Introdução

A computação quântica está entrando em uma nova fase marcada por cinco grandes anúncios de cinco potências quânticas — Zuchongzhi , Amazon Web Services (AWS) , Microsoft , Google e IBM — todos nos últimos 4 meses. Esses são apenas anúncios alimentados por exagero ou marcam um progresso real em direção à computação quântica útil, em larga escala e tolerante a falhas — e talvez sinalizem um cronograma acelerado para o “ Q-Day ”? Pessoalmente, estou otimista sobre esses anúncios. Cada um deles revela uma estratégia diferente e interessante para enfrentar o maior desafio do campo: a correção quântica de erros . A inovação combinada impulsiona o campo para a frente de uma maneira grande. Mas vamos nos aprofundar em alguns detalhes:

  • Ontem, a potência da computação quântica da China, as equipes de pesquisa Zuchongzhi,  revelaram o Zuchongzhi 3.0 , um novo processador quântico supercondutor com 105 qubits.
  • Poucos dias atrás, a AWS revelou o “Ocelot”, um protótipo de chip quântico construído em torno de qubits de gato bosônicos com correção de erros em seu próprio design.
  • Poucos dias antes, a Microsoft apresentou o “Majorana 1” (com grande repercussão na mídia, devo dizer), reivindicando o primeiro processador quântico usando qubits topológicos que prometem estabilidade inerente contra ruído.
  • Em dezembro passado, o Google anunciou seu chip “Willow” , que leva qubits transmon supercondutores a uma fidelidade sem precedentes, demonstrando pela primeira vez que adicionar qubits pode reduzir as taxas de erro exponencialmente (um limite fundamental para tolerância a falhas).
  • E em novembro do ano passado, a IBM anunciou o chip quântico “Heron R2” atualizado, que avança de forma semelhante a arquitetura de qubit supercondutor com mais qubits, acopladores ajustáveis ​​e mitigação de fontes de ruído, permitindo que circuitos com milhares de operações funcionem de forma confiável.

Esses desenvolvimentos são significativos porque abordam diretamente o obstáculo dos erros quânticos que limitou o progresso dos computadores quânticos. E eles fazem isso de maneiras diferentes. Ao melhorar a estabilidade do qubit e a correção de erros, eles estão coletivamente empurrando a indústria para mais perto da computação quântica prática, em larga escala e tolerante a falhas. Na corrida em direção a um computador quântico útil, o progresso é medido não apenas na contagem de qubits, mas na superação de problemas de ruído e escala — e é exatamente isso que esses anúncios visam.

Igualmente importante, essas descobertas ilustram abordagens diversas e complementares. Os qubits bosônicos da AWS visam reduzir a sobrecarga de correção de erros codificando informações em estados de osciladores. Os qubits topológicos da Microsoft buscam aproveitar estados exóticos da matéria para proteger intrinsecamente informações quânticas no nível de hardware. Google e IBM, embora ambos continuem com circuitos supercondutores, estão melhorando drasticamente a coerência e usando engenharia inteligente (códigos de superfície no caso do Google e acopladores ajustáveis ​​e otimizações de software no caso da IBM) para avançar em direção à operação tolerante a falhas. Zuchongzhi está ao mesmo tempo demonstrando as melhorias que podem ser alcançadas por melhor redução de ruído no design do circuito e melhor empacotamento de qubit.

Cada desenvolvimento é crítico à sua maneira. Juntos, eles representam um empurrão concertado em direção ao objetivo há muito buscado de um computador quântico prático – um que possa manter a coerência quântica por tempo suficiente, e em uma escala grande o suficiente, para resolver problemas reais além do alcance das máquinas clássicas.

Análise de cada anúncio

AWS Ocelot: Qubits Bosonic Cat e correção de erros integrada

Chip quântico Amazon AWS Ocelot

O anúncio da AWS do processador quântico Ocelot marca uma mudança de paradigma no design de hardware ao tornar a correção de erros quânticos um recurso primário do chip, em vez de uma reflexão tardia . Ocelot é um protótipo que consiste em dois chips de silício empilhados (cada um com ~1 cm²) com circuitos supercondutores fabricados em suas superfícies. Ele integra 14 componentes principais: cinco qubits de dados bosônicos “cat”, cinco circuitos de buffer não lineares para estabilizar esses estados cat e quatro qubits auxiliares para detectar erros. O termo qubit cat se refere a um qubit codificado em uma superposição quântica de dois estados coerentes de um oscilador harmônico (análogo ao famoso experimento mental de gato vivo/morto de Schrödinger). Cada qubit cat é realizado em um ressonador de micro-ondas (oscilador) de alta qualidade feito de tântalo supercondutor, projetado para ter estados de vida extremamente longa. A principal vantagem é que esses qubits exibem um forte viés de ruído: erros de inversão de bits (ou seja, inversões entre os dois estados coerentes do oscilador) são suprimidos exponencialmente aumentando o número de fótons no oscilador. Na verdade, a AWS relata tempos de erro de inversão de bits se aproximando de um segundo – mais de 1.000× mais longo do que a vida útil de um qubit supercondutor normal. Isso deixa o modo de erro primário restante como inversões de fase (erros de fase relativos entre os estados de base do cat), que ocorrem na ordem de dezenas de microssegundos. Ao reduzir drasticamente um tipo de erro no nível físico, o Ocelot pode concentrar recursos na correção do outro.

Para capturar e corrigir erros de inversão de fase, o Ocelot usa um código de repetição simples nos cinco qubits cat. Os qubits cat são organizados em uma matriz linear e emaranhados por meio de portas CNOT especialmente ajustadas com os quatro qubits ancilla transmon, que atuam como detectores de síndrome para erros de fase. Em essência, uma inversão de fase em qualquer qubit cat é detectada por meio de medições de verificação de paridade (habilitadas por essas ancillas), e as informações são codificadas redundantemente para que um único erro de fase possa ser identificado e corrigido (muito parecido com um código de repetição clássico que corrigiria uma inversão de bit). Enquanto isso, o circuito de buffer conectado a cada qubit cat e o design com viés de ruído das portas CNOT garantem que o processo de detecção de erros não introduza muitos erros de inversão de bit em troca. Essa concatenação de um código bosônico (para reduzir inversões de bit) com um código clássico simples (para corrigir inversões de fase) é o que a AWS chama de arquitetura de correção de erros com eficiência de hardware. Notavelmente, todo o qubit lógico (código de repetição de distância-5) no Ocelot usa apenas 5 qubits de dados + 4 ancillas = 9 qubits físicos no total, em comparação com 49 qubits físicos que um código de superfície de distância-5 padrão exigiria. O artigo da Nature da AWS relata que mudar de um código mais curto (distância 3) para o código de distância-5 completo reduziu significativamente a taxa de erro lógico (especialmente para inversões de fase) sem ser prejudicado por erros de inversão de bits adicionais. Na verdade, o erro lógico total por ciclo foi de aproximadamente 1,65% para o código de 5 qubits, essencialmente o mesmo que ~1,72% para o código de 3 qubits. Isso demonstra que o Ocelot manteve um grande viés em favor de erros de fase – a redundância adicionada suprimiu inversões de fase mais rápido do que qualquer nova oportunidade de inversão de bits poderia prejudicá-lo. Em termos práticos, Ocelot alcançou uma memória lógica totalmente corrigida de erros que abrange cinco qubits físicos, com uma taxa de erro líquida muito menor do que qualquer qubit individual.

Embora o Ocelot seja apenas um protótipo de qubit lógico, suas especificações são impressionantes. O Tbit-flip (tempo de vida do bit-flip) dos cat qubits é de ~1 s e o Tphase-flip de ~20 µs. Em comparação, um qubit transmon típico pode ter T1 e T2 na faixa de 0,02–0,1 ms (20–100 µs). Assim, os qubits do Ocelot são ordens de magnitude mais robustos contra bit-flips. A desvantagem é que os erros de fase permanecem frequentes, mas é exatamente isso que o código de repetição lida.

Um potencial desafio de escala para essa abordagem será implementar portas lógicas entre várias unidades lógicas cat-qubit – até agora, o Ocelot demonstra um qubit de memória (ele armazena um estado quântico com fidelidade aprimorada), mas não uma porta lógica entre dois qubits lógicos. Estender o esquema para um computador totalmente programável exigirá vincular muitos desses qubits codificados e orquestrar medições complexas de síndrome, tudo isso preservando o delicado viés de ruído. Isso exigirá maior integração (mais ressonadores, acopladores e circuitos de leitura) e provavelmente novas técnicas para gerenciar estados de número de fótons mais altos em muitos modos. Além disso, embora os códigos de repetição sejam simples, códigos de correção de erros mais poderosos (com maior distância) podem ser necessários para operações lógicas, o que pode aumentar a sobrecarga. A AWS, no entanto, está otimista – eles observam que, se essa abordagem bosônica for escalonada, um computador quântico totalmente tolerante a falhas pode precisar de apenas um décimo do número de qubits físicos que as arquiteturas convencionais exigiriam. O sucesso do Ocelot é uma prova de conceito de que qubits bosônicos podem ser integrados a um chip e superar qubits lógicos equivalentes baseados em transmon, potencialmente acelerando o cronograma para um computador quântico útil em vários anos.

Para mais informações, veja: AWS ataca o Quantum Stage com o chip Ocelot para qubits ultraconfiáveis .

Majorana 1 da Microsoft: Qubits topológicos e a busca por qubits estáveis

Microsoft Majorana 1

O chip Majorana 1 da Microsoft representa um avanço muito aguardado na computação quântica topológica. É o primeiro protótipo de processador quântico baseado em modos zero Majorana (MZMs) – quasipartículas exóticas que emergem nas extremidades de nanofios especialmente projetados e que se comportam como quasipartículas que são suas próprias antipartículas. Em teoria, pares desses MZMs podem codificar informações quânticas de uma forma não local que é inerentemente protegida de muitas formas de ruído. O chip Majorana 1 é um dispositivo do tamanho da palma da mão que abriga oito qubits topológicos em um único chip, fabricado com uma nova pilha de materiais de semicondutor de arsenieto de índio (InAs) e supercondutor de alumínio. Esses materiais formam o que a Microsoft chama de “topocondutores”, criando um estado supercondutor topológico quando resfriado e colocado em um campo magnético. Nesse estado, cada minúsculo nanofio (na ordem de 100 µm de comprimento) pode hospedar um par de modos zero Majorana em suas extremidades. Quatro MZMs (por exemplo, as extremidades de dois nanofios) juntos codificam o estado de um qubit de forma distribuída – essencialmente armazenando informações quânticas na paridade de elétrons compartilhados entre as extremidades do fio, em vez de em qualquer local único. Espera-se que essa codificação topológica seja altamente resistente a perturbações locais: um erro exigiria uma mudança global que alterasse a topologia (por exemplo, quebrando o par ou movendo um Majorana de uma extremidade para a outra), o que é energeticamente ou estatisticamente muito improvável. Como resultado, um qubit codificado em MZMs deve permanecer coerente por muito mais tempo do que um qubit convencional, sem correção de erro ativa – pelo menos para certos tipos de erros (notavelmente, inversões de bits na base protegida topologicamente).

Ao anunciar Majorana 1, a Microsoft revelou que, após quase duas décadas de pesquisa (!), eles finalmente conseguiram a criação e detecção de modos zero de Majorana em um dispositivo que permite operações de qubit. Os oito qubits do chip são organizados de uma forma que é projetada para ser escalável para milhões de qubits em um chip. Cada qubit é extremamente pequeno (cerca de 1/100 de milímetro, ou ~10 µm, em tamanho) e rápido de manipular por meio de controles eletrônicos. Uma das principais conquistas na publicação Nature que o acompanha foi uma demonstração de uma medição de paridade interferométrica de disparo único dos modos Majorana. Em termos mais simples, eles podem ler o estado conjunto de um par de MZMs (que revela o valor do qubit) de uma só vez, sem precisar fazer a média de muitas tentativas. Isso é crucial para usá-los como qubits. As descobertas revisadas por pares do artigo da Nature confirmam que a Microsoft criou as condições para os modos Majorana e mediu suas informações quânticas de forma confiável. No entanto, vale a pena notar uma ressalva importante: embora a Microsoft tenha anunciado a criação de um qubit topológico, os revisores da Nature incluíram um comentário de que os resultados “ não representam evidências da presença de modos zero de Majorana ” em si, mas demonstram uma arquitetura de dispositivo que poderia hospedá-los. Em outras palavras, a comunidade científica está cautelosa – eles querem uma prova mais definitiva de que o comportamento observado é realmente devido a MZMs. Para mais sobre essa controvérsia e outras controvérsias passadas com a equipe Majorana da Microsoft, veja meu artigo: Chip quântico baseado em Majorana da Microsoft – além do hype .

De uma perspectiva teórica, um qubit topológico estável é como o Santo Graal do hardware quântico. Suas implicações são profundas. Primeiro, a estabilidade por design poderia reduzir drasticamente a sobrecarga necessária para correção de erros – você pode não precisar executar constantemente medições de síndrome ou ter dezenas de qubits físicos protegendo um bit lógico, se o qubit físico já for extremamente imune a ruído. A Microsoft prevê escalar qubits Majorana de forma que um único chip possa hospedar na ordem de 1.000.000 de qubits. Eles argumentam que somente com tal escala massiva (habilitada pelo pequeno tamanho e controlabilidade digital de qubits topológicos) os computadores quânticos atingirão a complexidade para aplicações transformadoras. Um milhão de qubits topológicos, se cada um for muito mais confiável do que os qubits de hoje, poderia teoricamente executar os trilhões de operações necessárias para algoritmos úteis como quebrar moléculas complexas ou fatorar grandes números.

É preocupante, no entanto, que atualmente Majorana 1 tenha apenas oito qubits, e mesmo esses ainda não foram mostrados executando portas lógicas quânticas arbitrárias – o anúncio focou na inicialização e medição (controle de paridade) dos qubits. Os próximos passos provavelmente envolverão demonstrar operações de qubit como trançamento (troca de Majoranas para executar portas lógicas) e interações de dois qubits, e mostrar que essas operações obedecem às propriedades topológicas esperadas (por exemplo, certas portas sendo inerentemente tolerantes a falhas). Se qualquer uma dessas peças falhar – por exemplo, se fatores ambientais como envenenamento de quasipartículas perturbarem os MZMs com muita frequência – correção de erro adicional ainda seria necessária além da proteção topológica. A Microsoft reconheceu que nem todas as portas são protegidas topologicamente; por exemplo, a chamada porta T (uma operação não Clifford) ainda seria “barulhenta” e exigiria técnicas suplementares. Em resumo, Majorana 1 é uma aposta ousada em uma abordagem fundamentalmente diferente para a computação quântica. Após anos de contratempos e ceticismo, os últimos resultados da Microsoft começaram a convencer a comunidade de que os qubits topológicos podem finalmente ser reais. Se a alegação for válida, é um momento decisivo: um novo estado da matéria (supercondutor topológico) aproveitado para criar qubits que são naturalmente resilientes. Isso pode eventualmente se traduzir em processadores quânticos com desempenho efetivo muito maior, à medida que a sobrecarga de correção de erros é reduzida. No curto prazo, Majorana 1 será usado internamente para pesquisas futuras — ainda não está resolvendo nenhum problema útil — mas estabelece uma base teórica que pode ultrapassar outras tecnologias se for dimensionada conforme o esperado.

Para mais informações, veja: Chip quântico baseado em Majorana da Microsoft – além do hype .

Google Willow: Um processador Transmon de 105 qubits que atinge limites de correção de erros

Chip de computação quântica Google Willow

O chip quântico Willow do Google é o mais recente na linha de processadores supercondutores da equipe de IA quântica do Google e vem com duas grandes conquistas:

  1. aumenta significativamente a coerência e a fidelidade, de modo que adicionar mais qubits diminui a taxa geral de erros (cruzando o cobiçado limite de correção de erros) e
  2. demonstrou uma computação de altíssima complexidade em minutos que levaria um tempo astronomicamente longo para um supercomputador clássico.

Willow contém 105 qubits supercondutores da variedade transmon , dispostos em uma rede 2D adequada para o esquema de correção de erros de código de superfície. Os qubits são conectados por acopladores em um layout semelhante ao processador Sycamore de 54 qubits anterior do Google, mas com melhorias arquitetônicas notáveis. Uma atualização importante é que Willow retém a sintonia de frequência de qubits/acopladores (como Sycamore tinha) para interações flexíveis, ao mesmo tempo em que melhora drasticamente os tempos de coerência: o tempo médio de relaxamento de energia do qubit T1 em Willow é de cerca de 68 µs, comparado a ~20 µs em Sycamore. Essa melhoria de ~3× na coerência se deve em parte a melhores materiais e fabricação (o Google cita um novo design de qubit e mitigação de fontes de ruído) e em parte devido a técnicas de calibração aprimoradas (aproveitando o aprendizado de máquina e eletrônicos de controle mais eficientes). Em conjunto, as fidelidades de gate de dois qubits foram aproximadamente dobradas em comparação com a geração Sycamore. Se os gates CZ de Sycamore tiveram taxas de erro na ordem de 0,6%, os de Willow estão em torno de ~0,3% ou melhor (gates de qubit único têm fidelidade ainda maior). Esses números colocam Willow no regime dos melhores qubits supercondutores relatados em qualquer laboratório até o momento.

Crucialmente, esse aumento de hardware permitiu que o Google demonstrasse a correção de erro quântico escalável pela primeira vez. Usando o código de superfície (um código topológico de correção de erro quântico em uma grade 2D de qubits), a equipe codificou um qubit lógico em tamanhos crescentes de código: um patch 3×3 de qubits (código de distância 3), um patch 5×5 (distância 5) e um patch 7×7 (distância 7). Com cada aumento na distância do código, eles observaram uma supressão exponencial das taxas de erro – especificamente, cada passo acima reduziu a taxa de erro lógico em cerca de um fator de 2 (o erro lógico de um código 7×7 foi ~4× menor do que o de um código 3×3). Pelo maior código (49 qubits físicos codificando 1 qubit lógico), a vida útil do qubit lógico excedeu a do melhor qubit físico individual no chip. Isso significa que o qubit lógico é, na verdade, de qualidade superior a qualquer qubit físico puro — um marco conhecido como correção de erro quântico “além do ponto de equilíbrio”. Na linguagem da correção de erros, o Google cruzou o limite de tolerância a falhas: suas operações estão em um regime “abaixo do limite”, onde adicionar mais qubits ao código produz menos erros líquidos. Esta é a primeira vez que um sistema quântico supercondutor mostrou definitivamente esse comportamento em tempo real (tentativas anteriores não viram nenhuma melhoria no tamanho do código ou apenas uma melhoria marginal). Para obter informações mais detalhadas sobre a conquista da correção de erros do Google, consulte o artigo da Nature que acompanha o anúncio:  Correção de erro quântico abaixo do limite do código de superfície . Conseguir isso exigiu não apenas qubits excelentes, mas também decodificação e feedback em tempo real. O Google implementou ciclos rápidos de extração de síndrome de erro e algoritmos de decodificação (com a ajuda de algoritmos de computação clássica e ML personalizados) que podem identificar e corrigir erros em tempo real, mais rápido do que eles se acumulam. No artigo da Nature publicado junto com Willow, eles relatam que com o código 7×7, a probabilidade de erro lógico por ciclo foi cortada pela metade em comparação com o código 5×5, estabelecendo firmemente que eles estão operando no regime escalável. Em resumo, o Google Willow é a primeira plataforma onde a correção de erro quântico “funciona” na prática – alcançando o ponto em que maior realmente significa melhor em termos de matrizes de qubit.

Outra manchete do anúncio do Google foi uma demonstração de poder computacional bruto. Willow executou um benchmark de amostragem de circuito aleatório de tamanho sem precedentes, completando-o em cerca de 4,5 minutos. O Google afirma que o supercomputador Frontier (atualmente o mais rápido do mundo, com ~1,35 exaflops) levaria cerca de 10 25 anos para executar a tarefa equivalente. Essa separação massiva (quântica vs clássica) excede em muito a demonstração de “supremacia quântica” de 2019, onde a tarefa foi estimada em 10.000 anos em um supercomputador IBM. Na verdade, após otimizações, essa tarefa de 2019 foi reduzida para uma questão de dias em máquinas clássicas, mas o Google observa que para esse novo experimento, mesmo contabilizando futuras melhorias clássicas, a aceleração quântica está crescendo ” a uma taxa exponencial dupla ” conforme o tamanho do circuito aumenta. O benchmark envolveu emaranhar todos os 105 qubits em um padrão complexo e executar muitas camadas de portas aleatórias de dois qubits, um teste que é computacionalmente difícil para simulação clássica e leva o chip quântico aos seus limites. A capacidade de executar um circuito tão grande (mais de 5.000 operações de porta de dois qubits no total) foi habilitada pelas taxas de erro mais baixas do Willow e pela capacidade de correção de erros – de fato, a IBM havia executado um circuito similarmente grande (2.880 portas de dois qubits) em 2023 em seu Eagle de 127 qubits, mas exigiu uma mitigação pesada de erros para obter um resultado válido. O marco do Google indica que a supremacia quântica foi reafirmada em uma escala maior, e agora com uma máquina que está mais perto de ser corrigida por erros. É uma prova de que o aumento da contagem de qubits mais a redução de erros podem produzir resultados computacionais muito além do alcance clássico, reforçando a confiança de que o aumento de escala desbloqueará uma vantagem quântica útil.

Do ponto de vista arquitetônico, Willow não introduz novos tipos radicais de qubits — ainda é um chip transmon — mas mostra avanços incrementais que se fundem em um grande salto. As melhorias de coerência (68 µs T1, ~50–70 µs T2) vieram de atualizações de materiais como melhor substrato e tratamento de superfície e possivelmente usando bump-bonds de índio (embora não confirmado) para reduzir perdas. Os acopladores e qubits ajustáveis ​​permitem flexibilidade no isolamento de qubits quando ociosos e na redução de diafonia (uma técnica que a IBM também emprega em seus chips), o que contribui para menores taxas de erro. Além disso, o Google empregou software de controle avançado: calibrações automatizadas, aprendizado de máquina para ajuste fino de pulsos e um agente de aprendizado por reforço para otimizar o desempenho da correção de erros. A integração de todas essas peças é o que permitiu que Willow atingisse o regime abaixo do limite. Um desafio à frente para o Google é como continuar dimensionando a contagem de qubits enquanto mantém os erros baixos. O roteiro deles, como outros, exigirá modularidade – possivelmente conectando vários chips de mais de 100 qubits ou desenvolvendo wafers maiores – já que simplesmente dobrar qubits em um dado poderia reintroduzir ruído e dificuldades de fabricação. Mas a abordagem de código de superfície agora foi validada: se cada módulo puder ter, digamos, 1000 qubits com uma taxa de erro de 0,1%, pode-se começar a montar qubits lógicos de altíssima qualidade usando qubits físicos suficientes. A conquista do Google com Willow fornece uma meta quantitativa clara: um qubit lógico com erro de ~10 -3 (0,1%) por operação foi alcançado com 49 qubits; empurrar esse erro para baixo para, digamos, 10 -6 exigirá talvez algumas centenas de qubits físicos por qubit lógico. Willow é o trampolim que demonstra que a curva de escala se mantém conforme o esperado.

Em suma, o anúncio do Willow do Google é uma forte validação do caminho transmon/surface-code para tolerância a falhas: ele mostrou que com hardware aprimorado e codificação inteligente, agora é possível suprimir erros exponencialmente com o tamanho do sistema. Isso move o campo para mais perto da correção de erros quânticos prática e, junto com isso, mais perto de executar algoritmos úteis de forma confiável em uma máquina quântica.

Para mais informações, veja meu resumo do anúncio: Google anuncia o chip Willow Quantum .

IBM Heron R2: Arquitetura de acoplador ajustável e volume quântico aprimorado

Chip quântico IBM Heron 2

O anúncio da IBM do processador Heron R2 é uma evolução de seu hardware quântico supercondutor focado em aumentar a contagem de qubits, mantendo alto desempenho. O Heron R2 contém 156 qubits organizados na topologia de rede hexagonal pesada exclusiva da IBM. Este é um gráfico de conectividade de qubit onde cada qubit se conecta a no máximo 3 vizinhos em um padrão hexagonal com conexões ausentes, que a IBM usa para reduzir a diafonia e habilitar códigos de correção de erros eficientes. A família Heron é notável por introduzir acopladores ajustáveis ​​entre cada par de qubits conectados, um recurso visto pela primeira vez no Heron R1 (um chip de 133 qubits estreou no final de 2023). No R2, a IBM aumentou a contagem de qubits para 156 estendendo a rede e incorporando lições das melhorias de entrega de sinal do sistema Osprey de 433 qubits. O design do acoplador ajustável permite que a interação de dois qubits seja ligada ou desligada (e ajustada em força) dinamicamente, o que suprime bastante o acoplamento indesejado e as colisões de frequência quando várias operações estão acontecendo em paralelo. Isso efetivamente elimina muitos erros de “diafonia” que assolam as arquiteturas de acoplamento fixo. De acordo com a IBM, a Heron demonstrou uma melhoria de 3 a 5 vezes nas métricas de desempenho do dispositivo em comparação com sua geração anterior (a Eagle de 127 qubits), ao mesmo tempo em que “praticamente eliminava” a diafonia. Números específicos do Heron r1 (133 qubits) mostraram um volume quântico (QV) de 512 – uma medida que combina o número de qubits e a fidelidade do gate – que era um novo recorde para a IBM naquela época. O Heron R2 provavelmente leva isso ainda mais longe.

O chip Heron R2 também introduziu uma nova técnica de mitigação de “sistema de dois níveis” (TLS) em hardware. Defeitos de TLS nos materiais (como flutuadores microscópicos de dois níveis em superfícies ou interfaces) são uma causa conhecida de decoerência de qubit e erros esporádicos. A IBM construiu circuitos ou procedimentos de calibração no Heron R2 para detectar e mitigar o impacto do ruído TLS nos qubits. O resultado é uma estabilidade aprimorada das frequências de qubit e, por extensão, melhores tempos de fidelidade e coerência de gate. Embora a IBM não tenha citado publicamente a média T1/T2 para o Heron R2, sua ênfase na mitigação de TLS sugere que a coerência de cada qubit está mais consistentemente próxima dos limites superiores (potencialmente várias centenas de microssegundos). Eles também melhoraram os processos de leitura e redefinição (a IBM vem desenvolvendo leitura de qubit rápida e de alta fidelidade e reutilização de qubit via redefinição para acelerar os circuitos). Em termos de integração com software, o Heron R2 é entregue via Quantum Cloud da IBM e é totalmente compatível com melhorias de tempo de execução do Qiskit . Na verdade, a IBM destacou que, ao combinar o hardware Heron R2 com avanços de software como circuitos dinâmicos e compilação paramétrica, eles alcançaram um desempenho sustentado de 150.000 operações de camada de circuito por segundo (CLOPS) neste sistema. Este é um aumento dramático na velocidade de execução do circuito – em comparação, em 2022 seus sistemas executaram ~1k CLOPS, e no início de 2024 cerca de 37k CLOPS. CLOPS mais rápidos significam que os pesquisadores podem executar algoritmos mais profundos e complexos dentro do tempo de coerência dos qubits ou reunir mais estatísticas em menos tempo de relógio de parede.

A evidência mais concreta do avanço do Heron R2 foi o anúncio da IBM de que ele pode executar circuitos quânticos de forma confiável com até 5.000 portas de dois qubits. Isso é quase o dobro das 2.880 portas de dois qubits usadas no experimento de “utilidade quântica” de 2023 da IBM no chip Eagle. Nesse experimento (publicado na Nature), a IBM mostrou que um circuito complexo de muitos qubits poderia ser executado com fidelidade suficiente – usando mitigação de erros – para obter um resultado significativo além do alcance da simulação clássica de força bruta. Agora, com o Heron R2, circuitos quase duas vezes mais longos podem ser executados com precisão sem ajustes de hardware personalizados, usando a cadeia de ferramentas Qiskit padrão. Em outras palavras, o Heron R2 empurrou os processadores quânticos da IBM firmemente para o regime de “escala de utilidade”, onde eles podem explorar algoritmos que não são modelos de brinquedo. É importante ressaltar que essa capacidade de 5.000 portas foi alcançada por meio de melhorias de hardware (menores taxas de erro por porta) e mitigação de erros de software. A IBM menciona um “algoritmo de mitigação de erro tensor (TEM)” no Qiskit que foi aplicado. TEM é um método para reduzir erros em saídas de circuitos por meio de pós-processamento clássico e conhecimento do ruído, que a IBM integrou em seu tempo de execução. Então, o Heron R2, pareado com tais técnicas, pode executar circuitos longos 50× mais rápido do que era possível um ano antes, e com precisão suficiente para que as saídas sejam confiáveis.

Em termos de métricas brutas: o erro mediano de gate de dois qubits da IBM no Heron R2 não é explicitamente declarado no anúncio, mas dado o desempenho, é provável que seja da ordem de ~0,5% ou melhor, com alguns qubits atingindo fidelidade de 99,5–99,7%. Gates de qubit único geralmente estão acima de 99,9%. A topologia hexadecimal pesada tem um pouco menos de conectividade do que uma grade completa, mas tem uma vantagem para o código de superfície (que a IBM usa em alguns experimentos) porque forma naturalmente uma grade planar de dados e mede qubits quando dispostos adequadamente. A IBM vem testando códigos de superfície de pequena distância em chips anteriores e provavelmente fará o mesmo no Heron também. No entanto, a estratégia de curto prazo da IBM também enfatizou a mitigação de erros e a “utilidade quântica” em vez da correção completa de erros, o que significa que eles tentam encontrar maneiras de obter resultados úteis do hardware em mãos combinando-o com o processamento clássico. O Heron R2 é uma continuação dessa filosofia: melhorar o hardware apenas o suficiente para expandir os limites do que pode ser feito na era NISQ, enquanto estabelece as bases para um hardware verdadeiramente tolerante a falhas no futuro. A arquitetura Heron (com acopladores ajustáveis) é, de fato, o modelo para os próximos sistemas maiores e modulares da IBM. A IBM planeja conectar vários chips Heron por meio de interconexões flexíveis e um acoplador especial (codinome Flamingo) para escalar para processadores efetivos maiores. Eles já demonstraram um protótipo dessa abordagem modular, mostrando que dois chips Heron poderiam ser vinculados a um portão de emaranhamento em uma distância de ~metro com apenas uma pequena perda. Portanto, o Heron R2 não é apenas um dispositivo autônomo de 156 qubits, mas também um módulo na arquitetura de computador quântico System Two da IBM, que prevê a combinação de módulos para atingir milhares de qubits. Em resumo, o anúncio do Heron R2 da IBM é sobre refinamento e integração: mais qubits, melhor controle de ruído (acopladores ajustáveis ​​+ mitigação de TLS) e software mais rápido, tudo isso junto. O resultado é um processador quântico que amplia significativamente a capacidade da IBM de executar algoritmos complexos (aproximando-se do desafio de profundidade de qubit de 100×100 que eles representavam). Embora possa não ostentar um tipo de qubit fundamentalmente novo ou um avanço físico dramático, é um passo incremental crítico. Ele mostra que a IBM pode aumentar a escala sem sacrificar o desempenho, o que é essencial na marcha em direção a uma máquina tolerante a falhas.

Zuchongzhi 3.0: Avanço da China em Hardware Quântico Supercondutor

Zuchongzhi 3.0

Pesquisadores chineses revelaram oficialmente o Zuchongzhi 3.0, um processador quântico supercondutor de 105 qubits que estabelece um novo padrão em velocidade e escala computacionais. Em sua demonstração de estreia, o chip executou uma tarefa de amostragem de circuito aleatório de 83 qubits (32 camadas de profundidade) em apenas alguns minutos, produzindo resultados que levariam um supercomputador clássico de última geração da ordem de 6,4 bilhões de anos para simular. Isso representa uma aceleração estimada de 10 15 vezes sobre a computação clássica e uma melhoria de aproximadamente um milhão de vezes (6 ordens de magnitude) sobre o experimento Sycamore anterior do Google. O feito, publicado como um artigo de capa na Physical Review Letters , reforça o avanço da China na corrida pela vantagem computacional quântica, marcando a vantagem quântica mais forte alcançada até o momento em uma plataforma supercondutora.

O Zuchongzhi 3.0 apresenta atualizações significativas em relação ao seu antecessor de 66 qubits. O novo processador integra 105 qubits transmon em uma grade bidimensional com 182 acopladores (interconexões) para permitir padrões de emaranhamento mais complexos. Ele ostenta um tempo de coerência médio mais longo de cerca de 72 µs e operações de alta fidelidade (aproximadamente 99,9% para portas de qubit único e 99,6% para portas de dois qubits) – conquistas possibilitadas por melhorias de engenharia, como redução de ruído no design do circuito e melhor empacotamento de qubits. Essas inovações técnicas permitem que o Zuchongzhi 3.0 execute circuitos quânticos mais profundos do que os chips anteriores e até mesmo suporte experimentos iniciais de correção de erros quânticos. A equipe demonstrou elementos de memória de código de superfície (código de distância 7) neste chip e está trabalhando para atingir limites de correção de erros mais altos, destacando os novos recursos habilitados pela estabilidade e escala aprimoradas do processador.

Comparação técnica expandida

Cada uma dessas cinco abordagens de computação quântica traz algo único para a mesa. Nesta seção, tentarei comparar suas métricas técnicas e como elas contribuem para o objetivo abrangente da computação quântica tolerante a falhas.

Tipo e arquitetura de qubit

Os cinco processadores quânticos empregam três tecnologias distintas de qubit.

AWS Jaguatirica

O AWS Ocelot usa cat qubits supercondutores, onde cada qubit é codificado em dois estados coerentes de um ressonador de micro-ondas. Este design suprime intrinsecamente certos erros ao polarizá-los (erros de inversão de bits são fortemente suprimidos). O chip do Ocelot integra 14 componentes principais: 5 ressonadores cat-qubit servindo como qubits de dados, 5 circuitos de buffer para estabilizar esses qubits osciladores e 4 qubits ancilla supercondutores para detectar erros nos qubits de dados. Notavelmente, é uma arquitetura de qubit lógico eficiente em hardware: apenas 9 qubits físicos produzem um qubit lógico protegido graças ao viés de erro integrado do cat qubit. O chip é fabricado com processos de microeletrônica padrão (usando tântalo em ressonadores de silício) para escalabilidade. Em essência, a AWS pegou um circuito baseado em transmon e o ampliou com qubits osciladores bosônicos para criar uma memória quântica com preservação de viés.

Microsoft Majorana-1

Em contraste, o Microsoft Majorana-1 usa uma abordagem totalmente diferente: qubits topológicos baseados em modos zero de Majorana (MZMs). Esses qubits são realizados em um “supercondutor topológico” especial formado em nanofios de arsenieto de índio/alumínio em temperaturas criogênicas. Cada qubit (um chamado tetron) consiste em um par de nanofios hospedando quatro MZMs no total (dois MZMs por fio, nas extremidades). As informações quânticas são armazenadas não localmente na paridade de ocupação de elétrons entre dois MZMs, o que as torna inerentemente protegidas do ruído local. Os qubits Majorana são manipulados por meio de operações de trança ou esquemas baseados em medição equivalentes, em vez dos pulsos de porta usados ​​para transmons. Majorana-1 é um protótipo de 8 qubits (o que significa que pode hospedar 8 qubits topológicos) implementado como uma matriz 2D desses dispositivos baseados em nanofios. É o primeiro processador a demonstrar essa arquitetura Topological Core, que a Microsoft afirma poder ser dimensionada para milhões de qubits em um chip se a abordagem for comprovada. O desafio de ler o estado de um qubit topológico (já que a informação está “escondida” em uma paridade) é resolvido por um novo mecanismo de medição: acoplar as extremidades do nanofio a um pequeno ponto quântico e sondar com micro-ondas. A reflexão do sinal de micro-ondas muda dependendo se a paridade do qubit é par ou ímpar, permitindo a leitura única do estado do qubit Majorana.

Os três chips restantes – Google Willow , IBM Heron R2 e Zuchongzhi 3.0 – usam qubits transmon supercondutores, mas com arquiteturas de circuito diferentes.

Google Salgueiro

O Willow do Google é um processador supercondutor de 105 qubits que se baseia no design Sycamore anterior do Google. Os qubits são dispostos em uma grade plana 2D com acopladores ajustáveis ​​ou acoplamentos capacitivos fixos formando uma topologia de vizinho mais próximo. A rede do Willow é efetivamente uma grade retangular densa (matriz 15×7) semelhante a uma rede quadrada pesada, com uma coordenação média de ~3,5 acoplamentos por qubit. (Cada qubit interage com 3 ou 4 vizinhos, facilitando portas de dois qubits em paralelo.) O Google otimizou o design do Willow para alta conectividade e baixa diafonia – por exemplo, usando uma porta de dois qubits semelhante ao iSWAP que pode ser aplicada em muitos pares simultaneamente sem interferência excessiva. O chip Willow é fabricado em um processo multicamadas com circuitos de alumínio supercondutores em silício e inclui ressonadores de micro-ondas integrados para leitura de cada qubit.

IBM Heron R2

O IBM Heron R2 também é um processador transmon supercondutor, mas a IBM emprega sua arquitetura de rede hexagonal pesada exclusiva. O Heron R2 contém 156 qubits transmon dispostos de forma que cada qubit tenha no máximo 3 vizinhos (uma rede hexagonal pesada). Essa geometria deliberadamente “poda” a conectividade em relação a uma grade quadrada para reduzir a diafonia e os erros correlacionados. Crucialmente, o Heron usa elementos de acoplador ajustáveis ​​entre qubits. Esses acopladores (com base em circuitos de junção Josephson adicionais) podem ser ativados para mediar interações de dois qubits ou desativados para isolar efetivamente os qubits quando nenhuma porta é pretendida. Essa arquitetura de acoplamento ajustável suprime drasticamente interações indesejadas e diafonia durante períodos ociosos. A primeira revisão do Heron R1 tinha 133 qubits; o Heron R2 revisado expandiu para 156 qubits na mesma arquitetura. Cada qubit é acoplado a um ressonador dedicado para leitura de estado, e o chip apresenta entrega avançada de sinal (fiação e encapsulamento flexíveis de alta densidade) para controlar tantos qubits em paralelo. O design da IBM enfatiza a modularidade: chips Heron de 156 qubits são os blocos de construção para sistemas maiores, e vários chips Heron podem ser conectados por meio de links de micro-ondas no Quantum System Two da IBM para escalar além de um único dado.

USTC Zuchongzhi 3.0

O Zuchongzhi 3.0, desenvolvido pela USTC na China, também consiste em qubits transmon supercondutores em uma matriz planar. Ele tem 105 qubits dispostos em uma rede retangular 2D (15 linhas × 7 colunas). Ao contrário do hexadecimal pesado da IBM, o Zuchongzhi usa uma conectividade relativamente alta: cada qubit é acoplado a até 4 vizinhos mais próximos (exceto nas bordas), semelhante à abordagem do Google. Na verdade, o dispositivo é conhecido por ser bastante semelhante ao Willow do Google em termos de contagem de qubits e conectividade. Um aspecto distinto da arquitetura do Zuchongzhi 3.0 é sua integração flip-chip: ele é construído a partir de dois chips de safira unidos. Um chip contém os 105 qubits transmon e 182 circuitos de acoplamento (os acopladores no plano entre os qubits), e um segundo chip é montado no topo contendo toda a fiação de controle e ressonadores de leitura. Essa integração 3D separa as interconexões de controle densas do plano de qubit, reduzindo a interferência e permitindo um layout de qubit mais compacto. Os transmons são implementados usando fabricação de tântalo/alumínio supercondutor (a USTC introduziu material de tântalo para melhorar os fatores de qualidade). O uso de flip-chip e novos materiais no Zuchongzhi 3.0 mostra um forte foco de engenharia em aumentar a contagem de qubit supercondutor sem sacrificar a coerência.

Resumo dos tipos e arquiteturas de Qubit

Ocelot e Majorana-1 buscam designs radicais de qubit (bosônico e topológico, respectivamente) para incorporar resiliência de erro no nível de hardware, enquanto Willow, Heron R2 e Zuchongzhi 3.0 refinam a abordagem transmon bem estabelecida com layout inteligente e inovações de acoplamento. Os chips baseados em transmon reúnem as maiores contagens de qubit (105–156 qubits) e demonstraram benchmarks de circuitos complexos, enquanto os dispositivos cat-qubit e Majorana, embora menores em número de qubit, representam saltos de prova de conceito em direção a arquiteturas tolerantes a falhas construídas em física inovadora.

Tempos de Coerência (T1 e T2)

O tempo de coerência é uma métrica crítica para o desempenho do qubit, pois determina por quanto tempo um qubit pode reter informações quânticas. Existem duas escalas de tempo relevantes: T1, o tempo de relaxamento de energia (por quanto tempo o qubit permanece em um estado excitado antes de decair para o solo) e T2, o tempo de defasagem (por quanto tempo a coerência de fase de superposição é mantida). Em um qubit ideal de dois níveis, a população de estados excitados decai comoe−para/E1, e elementos fora da diagonal da matriz de densidade do qubit decaem comoe−para/E2. T1 e T2 mais longos são melhores, permitindo que mais operações sejam realizadas antes que erros ocorram. Os cinco chips mostram diferenças significativas em coerência, em grande parte decorrentes de suas diferentes implementações de qubit:

AWS Jaguatirica

A arquitetura do qubit cat atinge uma assimetria extrema em tempos de coerência. Ao codificar o qubit em um par de estados osciladores, os qubits de Ocelot exibem um tempo de erro de inversão de bits (T1) excedendo 10 segundos em demonstrações experimentais – várias ordens de magnitude mais longo do que os transmons comuns. Em outras palavras, transições espontâneas entre os estados lógicos |0⟩ e |1⟩ (que correspondem a dois estados coerentes distintos do ressonador) são extraordinariamente raras. Este T1 de 10+ s para inversões de bits é 4–5 ordens maior do que os qubits cat anteriores e muito maior do que qualquer T1 transmon. No entanto, isso tem um custo: a coerência de inversão de fase (T2) do qubit cat é muito mais curta, porque o ambiente pode causar mais facilmente a defasagem entre os dois estados de base cat. O tempo de inversão de fase relatado é da ordem de 5×10−7s (sub-microsegundo) em experimentos atuais de qubits de gato. Em essência, os qubits de Ocelot têm um ruído altamente enviesado: processos de inversão de bits são suprimidos por ~10 7 em relação à inversão de fase. Os circuitos de buffer em Ocelot são projetados para prolongar um pouco a coerência de fase, mas T2 ainda é muito mais curto que T1. Isso é aceitável, pois o sistema usará correção de erro ativa para lidar com erros de fase. O ponto-chave é que os qubits de Ocelot raramente perdem energia (T1 ~ 10 s), mas perdem a coerência de fase relativamente rápido, o que significa que suas superposições precisam de estabilização periódica.

Microsoft Majorana-1

Espera-se que os qubits Majorana sejam intrinsecamente duradouros porque os estados dos qubits são armazenados não localmente. No dispositivo Majorana-1 inicial, a equipe relatou que perturbações externas (por exemplo, eventos de envenenamento de quasipartículas que invertem a paridade) são raras: aproximadamente uma inversão de paridade por milissegundo em média. Podemos tratar isso como um T1 efetivo na ordem de 1 ms para o qubit topológico, o que significa que a probabilidade de um qubit mudar espontaneamente de estado é de cerca de10−3por milissegundo. Isso já é uma ordem de magnitude de vida útil maior do que os qubits supercondutores típicos. Isso implica, por exemplo, que durante uma operação de 1 µs, a chance de um erro induzido pelo ambiente é da ordem de10−6, que é muito baixo. Quanto ao T2, um qubit codificado topologicamente deve ser amplamente imune a muitos mecanismos de defasagem, já que perturbações de fase locais não alteram o estado de paridade global. O T2 prático pode ser limitado pelo acoplamento residual entre os modos Majorana ou flutuações no ajuste do dispositivo (por exemplo, ruído de campo magnético), mas valores quantitativos não foram totalmente divulgados. Os qubits Majorana demonstraram a capacidade de manter a superposição quântica sem decaimento em escalas de tempo experimentais mais curtas do que a vida útil da paridade de 1 ms, indicando T2 na ordem de pelo menos centenas de microssegundos no dispositivo atual. Em essência, Majorana-1 mostra coerência em escala de milissegundos — um salto significativo — graças à proteção topológica. (As primeiras medições tiveram ~1% de erro de leitura, o que é mais uma infidelidade de leitura do que um limite de coerência, e a equipe vê caminhos para reduzir ainda mais esse erro.)

Google Salgueiro

Willow representa uma grande melhoria na coerência em relação ao chip Sycamore anterior do Google. O Google relata tempos de coerência médios de T1 ≈ 98 µs e T2 (CPMG) ≈ 89 µs para os qubits no Willow. Isso é um aumento de cerca de 5× em relação à coerência de ~20 µs do Sycamore. Essa melhoria foi alcançada por meio de mudanças de materiais e design (por exemplo, usando fabricação aprimorada para reduzir defeitos do sistema de dois níveis e melhor blindagem para reduzir ruído). Um T1 de 98 µs significa que um qubit excitado perde energia com uma constante de tempo de quase 0,1 ms, e T2 de 89 µs indica que a coerência de fase é mantida quase pelo mesmo tempo. Esses números estão entre os mais altos relatados para chips supercondutores de grande escala. Crucialmente, a coerência de Willow é uniforme em seus 105 qubits – as médias implicam que a maioria dos qubits está nessa faixa, o que é importante para operações multi-qubit. Com coerência de ~100 µs e tempos de porta na ordem de dezenas de nanossegundos, os qubits de Willow podem sofrer na ordem de103operações antes da descoerência (na ausência de correção de erros). Essa longa coerência foi essencial para permitir que Willow executasse circuitos relativamente profundos e até mesmo experimentos de correção de erros com sucesso. Vale a pena notar que o Google empregou desacoplamento dinâmico e sequências CPMG (daí citar T2,CPMG) para estender o T2 efetivo para ~89 µs. O T2 verdadeiro (defasagem de Ramsey sem ecos) pode ser menor, mas por meio de técnicas de eco eles mitigam a defasagem não homogênea.

IBM Heron R2

A família Heron da IBM também alcançou tempos de coerência substanciais, embora a IBM frequentemente enfatize outras métricas (como fidelidade de gate) sobre T1/T2 bruto em divulgações públicas. O design heavy-hex e a introdução de uma camada de mitigação TLS no R2 visavam especificamente melhorar a coerência em todo o chip de 156 qubits. Ao reduzir defeitos do sistema de dois níveis e perdas de material, a IBM provavelmente tem muitos qubits com T1 na ordem de 100 µs ou mais. Em dispositivos IBM anteriores (por exemplo, chips Falcon de 27 qubits), T1 ~ 50–100 µs e T2 ~ 50 µs eram típicos. O Heron R2, sendo uma nova revisão, provavelmente empurrou o T1 ainda mais. De fato, uma fonte observa que as melhorias na fidelidade de gate de dois qubits do Heron vieram em parte de melhor coerência e estabilidade em todo o chip devido ao controle do ambiente TLS. Sem números oficiais da IBM neste texto, extrapolamos: a coerência do Heron R2 deve ser comparável ao alcance do Willow. O foco da IBM na uniformidade significa que não há qubits outliers com T1 muito baixo – eles projetam para um piso estável de desempenho. É razoável supor que T1, T2 no Heron estão em poucos × 101 Intervalo de µs (dezenas de microssegundos). A IBM relatou qubits individuais com T1 > 300 µs no passado, mas para a grande matriz da Heron, uma estimativa mais segura é T1 ~100 µs, T2 ~100 µs em média. Isso é apoiado pela introdução pela IBM de novas técnicas de filtragem e isolamento que “ melhoram a coerência e a estabilidade em todo o chip ”. Em resumo, os transmons do Heron R2 têm alta, mas talvez um pouco menor coerência do que o melhor do Willow (a IBM prioriza a redução de ruído e diafonia de outras maneiras também). O layout hexadecimal pesado em si ajuda na coerência ao minimizar o congestionamento de frequência e a interferência. Portanto, os tempos de coerência da IBM estão no mesmo patamar do Google – na ordem de10−4 s – garantindo que centenas a milhares de operações possam ser executadas por qubit antes da decoerência se a mitigação de erros for aplicada.

USTC Zuchongzhi 3.0

A equipe da USTC fez do aprimoramento da coerência uma meta importante no Zuchongzhi 3.0, e eles alcançaram uma melhoria marcante em relação ao seu chip anterior de 66 qubits. Eles relatam uma média de T1 ≈ 72 µs e T2 (CPMG) ≈ 58 µs nos 105 qubits. Esses valores, embora ligeiramente abaixo do Google Willow, ainda são muito altos para um dispositivo grande (para comparação, o Zuchongzhi 2.0 teve coerência significativamente menor, embora números exatos não tenham sido fornecidos neste snippet). A equipe credita várias estratégias de engenharia para essa melhoria: ajuste das geometrias do capacitor qubit para reduzir a perda dielétrica da superfície, atenuação criogênica aprimorada para cortar o ruído ambiental (aumentando o T2) e uso da fabricação de tântalo/alumínio para obter melhor qualidade do material. Eles também implementaram um processo de colagem de colisão de índio (flip-chip) que reduziu os contaminantes da interface e melhorou o T1 ao atenuar o efeito Purcell e outros canais de perda. Os resultados falam de um ato de equilíbrio cuidadoso: após adicionar mais qubits e acopladores, eles ainda aumentaram a coerência média (T1 ~72 µs) em relação à geração anterior. No entanto, como mostra a comparação publicada, o T1/T2 do Zuchongzhi 3.0, embora excelente, é um pouco menor que o do Willow (98/89 µs) – provavelmente devido à integração ligeiramente mais densa ou às diferenças de materiais. Ainda assim, com coerência de ~60–70 µs, os qubits do Zuchongzhi podem lidar com muitas operações dentro de sua janela de coerência. A equipe descobriu que esse aumento de coerência se traduziu diretamente em erros de gate mais baixos (as taxas de erro de qubit único e de dois qubits caíram de acordo).

Resumo dos Tempos de Coerência

Majorana-1 e Ocelot oferecem novas formas de coerência estendida: qubits Majorana com estabilidade de paridade de ~1 ms e qubits cat com um espantoso T1 de ~10 s (mas T2 curto). Os chips baseados em transmon (Willow, Heron R2, Zuchongzhi 3.0) todos alcançam T1,T2 na ordem de10−5para10−4segundos (dezenas de microssegundos a quase 0,1 ms), o que é o estado da arte para qubits supercondutores em sua escala. Esses tempos de coerência são longos o suficiente para que, se combinados com correção de erro quântico, erros de qubit possam ser significativamente suprimidos. De uma perspectiva matemática, se uma operação de porta levaparage um qubit temE2, o erro de decoerência por porta é aproximadamente1–experiência⁡(−parag/E2)≈parag/E2paraparag≪E2. Por exemplo, o tempo de porta de dois qubits de Willow de ~42 ns em um qubit comµE2≈89µeproduz um erro de defasagem intrínseco ~µ42ns/89microssegundos≈5×10−4, consistente com seu erro medido de dois qubits na ordem de10−3(já que erros de controle e T1 contribuem com pequenos erros adicionais). Cada plataforma levou a coerência a um regime suficiente para experimentos multi-qubit complexos: as plataformas supercondutoras fazem isso com materiais e design aprimorados, enquanto as plataformas cat e topológicas fazem isso por meio de codificações de qubit fundamentalmente diferentes que eliminam ou adiam certos canais de decaimento.

Taxas de erro e técnicas de correção de erros

Como as computações quânticas são tão sensíveis a erros, todas essas plataformas empregam estratégias para minimizar e corrigir erros no nível físico ou lógico. Nós distinguimos taxas de erro físico (erros por porta ou por tempo em qubits individuais) de taxas de erro lógico (erros em qubits codificados que usam muitos qubits físicos com um código de correção de erros). Um conceito-chave é o limite de tolerância a falhas: se as taxas de erro físico puderem ser empurradas abaixo de algum limite (em torno de 1% para muitos códigos como o código de superfície), então aumentar o tamanho do código suprimirá exponencialmente a taxa de erro lógico. Cada um dos cinco chips aborda esse desafio de forma diferente.

AWS Jaguatirica

Ocelot ataca o problema do erro enviesando o ruído do qubit para que um tipo de erro seja extremamente raro. Nos qubits cat do Ocelot, os erros de inversão de bits (erros X) são essencialmente eliminados no nível do hardware (tempo de inversão de bits ~10 s, conforme observado). Isso significa que a taxa de erro físico para inversões de bits é astronomicamente baixa (na ordem de10−8por segundo ou menos). Os erros dominantes restantes são inversões de fase (erros Z), que ocorrem com probabilidade muito maior (tempo de coerência de fase ~0,5 µs). No entanto, erros de fase podem ser detectados e corrigidos por um código mais simples, já que inversões de bits não ocorrem para agravar o problema. Ocelot essencialmente constrói correção de erro quântico na arquitetura qubit desde o início. Os 5 qubits cat mais 4 ancillas no chip implementam um pequeno código de correção de erro quântico que estabiliza continuamente o qubit lógico. Embora a AWS não tenha detalhado publicamente o código exato, é provável que seja um código de repetição ou código de verificação de paridade entre os qubits cat que detecta inversões de fase. O resultado é um qubit lógico com eficiência de hardware: a AWS obteve um qubit lógico de apenas 9 qubits físicos, em comparação com os milhares de qubits físicos que um código de superfície exigiria para obter estabilidade lógica semelhante.

Em termos percentuais, a AWS afirma que a abordagem da Ocelot reduz a sobrecarga do qubit para correção de erros em até 90%. Esta é uma tremenda economia de recursos. A desvantagem é que o qubit lógico atual da Ocelot é apenas um único qubit – a correção de erros é usada para manter esse qubit estável, mas o chip ainda não executa lógica multi-qubit. Ainda assim, demonstrar um qubit lógico com 9 qubits físicos é um avanço na correção de erros. A taxa de erro lógico alcançada não foi explicitamente declarada, mas presumivelmente o qubit lógico tem uma vida útil dramaticamente maior do que qualquer transmon único. A AWS também implementou as primeiras portas lógicas de preservação de viés de ruído nos qubits cat. Essas são portas projetadas para não misturar erros X e Z (para que um erro de fase em um qubit cat não cause acidentalmente uma inversão de bits). Ao “desligar” certos canais de erro nas operações de porta, eles mantêm o viés de erro intacto mesmo durante os cálculos.

Em resumo, a estratégia de Ocelot é evitar a maioria dos erros e então corrigir o resto. Ao combinar o qubit cat (que inerentemente corrige inversões de bits) com um pequeno código externo para erros de fase, o qubit lógico de Ocelot pode operar em um regime onde o erro lógico por circuito é extremamente baixo – potencialmente baixo o suficiente para algoritmos práticos com muito menos qubits do que outras abordagens precisariam.

Microsoft Majorana-1

A abordagem da Microsoft é fazer qubits que sejam quase livres de erros no nível físico usando proteção topológica. Em teoria, um qubit topológico em um dispositivo Majorana perfeito teria zero erros de inversão de bits ou inversão de fase (além de erros não locais muito infrequentes). Na prática, Majorana-1 mostrou que muitos dos mecanismos de erro usuais estão ausentes – por exemplo, o qubit não é afetado por ruído local que perturbaria um qubit convencional. A única operação que não é protegida topologicamente é o chamado T-gate (umπ/4phase gate), que requer a introdução de um recurso não topológico (injeção de estado mágico). Isso significa que, embora os portões Clifford possam ser feitos essencialmente sem erro por meio de sequências de trança ou medição, o portão T terá algum erro que deve ser corrigido por meio de codificação de nível superior. O qubit Majorana, portanto, empurra a maior parte da sobrecarga de correção de erro para um nível muito alto (necessário apenas para lidar com esses portões T). O desempenho medido até agora: a leitura inicial do qubit teve um erro de ~1% por medição, que pode ser melhorado refinando o sensor de ponto quântico, e as inversões de paridade do qubit são ~10−3por ms, conforme mencionado. Se interpretarmos isso em um sentido de erro por operação, considere um qubit Majorana passando por uma sequência de operações, cada uma com ~1 µs de duração: em 1 µs, a chance de um erro espontâneo é ~10−6(já que 1 µs é 1/1000 de 1 ms T1). Essa é uma probabilidade de erro físico incrivelmente baixa, muito abaixo do limite típico (que é em torno de10−2).

Então, os qubits Majorana operam firmemente no regime abaixo do limite no nível de qubit único. O plano da Microsoft é alavancar isso construindo qubits lógicos que exigem muito menos qubits físicos. Eles estimam que um milhão de qubits Majorana físicos podem render na ordem de um milhão de qubits lógicos – essencialmente um físico por lógico, porque cada um já é (quase) um qubit perfeito. Na prática, alguma pequena sobrecarga será necessária para os T-gates: provavelmente eles implementarão uma correção de erro leve ou destilação apenas para essas operações. Mas a sobrecarga é constante, não enorme, porque todos os outros gates são protegidos. Este é um cenário qualitativamente diferente de, digamos, abordagens supercondutoras onde cada operação em cada qubit deve ser corrigida por redundância. A frase usada é que os qubits Majorana podem ser “quase livres de erros” em operação. O artigo da Nature da Microsoft demonstrou a existência e o controle desses qubits topológicos (um grande passo), e o roteiro de acompanhamento (no arXiv) descreve como passar do atual dispositivo de 8 qubits para uma máquina escalável e tolerante a falhas.

Em resumo, a filosofia de correção de erros da Microsoft é construir qubits que precisam de muito menos correção. Ao atingir taxas de erro físico bem abaixo do limite (paridade inverte ~10−6por operação), eles evitam a necessidade de grandes códigos quânticos para a maioria das operações. Eles ainda precisarão corrigir os erros raros (por exemplo, usando códigos de repetição para capturar quaisquer inversões de paridade que ocorram e usando fábricas de estados mágicos para T-gates), mas a sobrecarga de recursos é muito menor. É por isso que eles afirmam que seu chip poderia resolver problemas em escala industrial “ em anos, não décadas ” – porque se a física se mantiver, eles não terão que esperar por um milhão de qubits físicos apenas para obter 100 qubits lógicos; eles podem usar esses qubits físicos diretamente como qubits úteis.

Google Salgueiro

A abordagem do Google permanece dentro do paradigma convencional de qubit transmon, mas empurra as taxas de erro físico para baixo o suficiente para atingir o limite e, em seguida, usa códigos de correção de erro quântico padrão (QEC). No Willow, as taxas de erro de porta física são impressionantemente baixas: erro de qubit único ≈0,035% e erro de dois qubits ≈0,14% em média. Essas taxas de erro (aproximadamente3.5×10−4e1.4×10−3por porta, respectivamente) estão abaixo ou no mesmo nível do limite do código de superfície (~1% para um código de superfície padrão, potencialmente alguns décimos de um por cento para modelos de ruído mais realistas). Isso significa que os qubits do Willow são bons o suficiente para que adicionar redundância reduza os erros, não os amplifique. O Google demonstrou isso explicitamente: eles implementaram a correção de erro quântico no Willow e em um dispositivo menor de 72 qubits, alcançando resultados marcantes. Em um experimento recente, eles realizaram um código de superfície de distância 5 usando 72 qubits e um código de superfície de distância 7 usando 105 qubits (o Willow completo). A taxa de erro lógico do código de distância 7 foi significativamente menor do que a do código de distância 5, confirmando que a condição de limite foi atendida. Na verdade, o Google relatou que seu qubit lógico de distância 5 atingiu o “ponto de equilíbrio” – o que significa que a taxa de erro do qubit lógico foi quase igual à taxa de erro do melhor qubit físico, e o qubit lógico de distância 7 durou o dobro do tempo do melhor qubit físico no chip. Este é um marco histórico: é a primeira vez que um qubit lógico superou os componentes físicos em um dispositivo de estado sólido. Matematicamente, no código de superfície o erro lógicoplógicodeve ser dimensionado aproximadamente comoplógico≈UM(pfísicapdebulhar)(e+1)/2para grande distância de códigoe. O Google observou exatamente essa supressão exponencial: à medida que eles passavam da distância 3 para 5 e para 7, o erro lógico caía em linha com um erro por porta de ~0,1abaixo do limite. Eles também executaram códigos de repetição até a distância 29 (usando muitos qubits para um código linear simples) e viram o erro lógico diminuindo até que rajadas de erros correlacionados muito raros (como raios cósmicos) definiram um piso eventual em cerca de um erro por hora para o maior código. Esses eventos correlacionados (que causam erros simultâneos em muitos qubits) não são markovianos e não foram corrigidos pelo código; o Google mitigou alguns melhorando a fabricação de chips (engenharia de lacunas para reduzir picos de erro induzidos por radiação em 10.000× foi mencionada em um comentário). Para fontes de erro comuns, no entanto, o QEC de Willow funcionou como esperado.

O resultado é que o Google demonstrou uma operação tolerante a falhas em um protótipo: eles podem armazenar informações quânticas por mais tempo com um qubit lógico do que qualquer qubit individual pode contê-las. O erro lógico por ciclo em seu código de distância-7 foi de cerca de2.8×10−3, aproximadamente metade do erro físico do melhor qubit. À medida que eles melhoram ainda mais a fidelidade do qubit físico e escalam para códigos maiores (distância 11, etc.), o erro lógico diminuirá exponencialmente. O Google usa o código de superfície (um código topológico 2D) para esses experimentos, o que requer uma matriz 2D de qubits com portas vizinhas mais próximas – exatamente o que o Willow fornece. Eles também construíram um decodificador personalizado de alta velocidade para acompanhar o tempo de ciclo de escala de ~MHz do código. Em resumo, a técnica de correção de erros do Willow é a tradicional: codificar qubits lógicos em muitos qubits físicos (um código de superfície de distância 7 usou 49 qubits físicos) e executar medições de síndrome para corrigir erros em tempo real.

O importante é que Willow cruzou o limite: erro físico de dois qubits 0,14% < 1% significa que erros lógicos podem ser suprimidos exponencialmente. Então, diferentemente de dispositivos anteriores que eram “muito barulhentos para corrigir”, os qubits de Willow são bons o suficiente para se beneficiar do QEC. Isso abre o caminho para o dimensionamento – embora muito mais qubits sejam necessários para fazer algo como executar um algoritmo tolerante a falhas, o Google provou o conceito em hardware real.

IBM Heron R2

A IBM também vem reduzindo constantemente as taxas de erros físicos, embora na época da estreia do Heron R2, a IBM não tivesse mostrado publicamente um qubit lógico superando os qubits físicos. O erro de porta de dois qubits da IBM no Heron é de cerca de 0,3% (99,7% de fidelidade) em média, e os erros de qubit único são da ordem de 0,03% (99,97% de fidelidade). Esses são comparáveis ​​aos números do Google, embora um erro de dois qubits ligeiramente maior. Isso coloca a IBM bem em torno do regime de limite também. A estratégia da IBM para correção de erros gira em torno do código de superfície no futuro, mas no curto prazo eles se concentraram na mitigação de erros e na “utilidade quântica” usando qubits não corrigidos. Como o Heron R2 pode executar circuitos com milhares de portas de dois qubits de forma confiável (consulte a seção Benchmarking), a IBM pode tentar algoritmos com profundidades rasas ou usar técnicas como extrapolação de ruído zero para mitigar erros em vez de corrigi-los completamente. Dito isso, o roteiro da IBM inclui explicitamente o escalonamento para computação quântica corrigida por erros. Eles têm desenvolvido o software e a infraestrutura clássica para QEC (por exemplo, decodificadores rápidos, bem como investigado variantes de rede hexagonal do código de superfície que mapeiam bem para layout de qubit hexadecimal pesado). A rede hexadecimal pesada é compatível com um código de superfície rotacionado, embora com alguns ajustes de limite devido à conectividade de grau 3. A IBM argumentou que o hexadecimal pesado na verdade reduz a sobrecarga para o código de superfície ao cortar o número de conexões que precisam ser gerenciadas, melhorando potencialmente o comportamento do limite ao reduzir erros correlacionados.

Os acopladores ajustáveis ​​no Heron ajudam a suprimir erros de diafonia, o que significa que os erros são mais locais e estocásticos – uma suposição subjacente à maioria dos códigos QEC. Por exemplo, quando os qubits estão ociosos, os acopladores estão desligados, reduzindo muito o erro não intencional de dois qubits (que pode, de outra forma, criar erros correlacionados que são mais difíceis para o QEC lidar).

Além disso, a IBM introduziu “mitigação de sistema de dois níveis (TLS)” no R2, que aborda uma fonte de ruído específica (defeitos espúrios interagindo com qubits). Ao estabilizar o ambiente TLS, eles reduzem flutuações que poderiam fazer com que vários qubits errem ao mesmo tempo.

Esses avanços são cruciais para abordar o limite de tolerância a falhas com um chip grande. Embora a IBM não tenha anunciado uma demonstração de codificação lógica de nível de qubit como o Google fez, eles fizeram experimentos QEC menores no passado (por exemplo, em dispositivos de 5 qubits eles mostraram código de repetição e detecção de erro de código pequeno Bacon-Shor). Podemos esperar que a IBM tente um qubit lógico em um sistema maior em breve. Na visão da IBM, a correção de erros será integrada a uma arquitetura modular – eles falam sobre códigos concatenados ou conectar patches de código de superfície em vários chips no futuro. A IBM também frequentemente cita o número de que cerca de 1.000 qubits físicos por qubit lógico podem ser necessários para aplicações reais com códigos de superfície. As taxas de erro do Heron R2 (~0,3%) ainda estão um pouco acima do limite ideal, então a IBM provavelmente está almejando reduzir os erros para ~0,1% ou menos nas próximas gerações (com materiais aprimorados, conforme indicado por sua pesquisa em andamento). Enquanto isso, a IBM se apoia na mitigação de erros: por exemplo, eles usam mitigação de erros de leitura e cancelamento de erros probabilísticos em software para melhorar a fidelidade efetiva do circuito sem QEC completo. Isso permitiu que eles fizessem coisas como executar com sucesso circuitos com 5.000 portas de dois qubits e ainda obter resultados significativos. Esses resultados não são totalmente corrigidos de erros, mas sim mitigados. A diferença é que a mitigação não fornece supressão exponencial de erros com tamanho, mas pode estender o que é classicamente simulável ou melhorar a precisão para tarefas específicas. Então, pode-se dizer que a IBM está atravessando a linha — empurrando qubits físicos o mais longe possível e usando qualquer técnica de redução de erros disponível, até que seu hardware esteja bom o suficiente para justificar o salto para QEC completo. Dadas as fidelidades do Heron R2, a IBM está muito perto dessa linha.

Em resumo, a taxa de erro por gate da IBM está se aproximando do limite, e seu foco está na redução sistemática de erros (diafonia, vazamento, eventos correlacionados) para atender a todos os critérios de tolerância a falhas. Assim que cruzarem esse limite decisivamente, eles empregarão os códigos QEC padrão (provavelmente um código de superfície em hexadecimal pesado) para produzir qubits lógicos. Seus projetos e roteiro consideraram isso, garantindo que a arquitetura possa suportar ciclos rápidos de medição de síndrome e escalar logicamente. A IBM também menciona frequentemente operações quânticas tolerantes a falhas até 2026 como uma meta, o que implica que os sucessores do Heron (por exemplo, o Osprey de 433 qubits e o Condor de 1121 qubits e além) incorporarão o QEC.

USTC Zuchongzhi 3.0

A equipe da USTC ainda não relatou a construção de um qubit lógico; em vez disso, eles se concentraram em demonstrar a vantagem computacional quântica (uma tarefa ultradifícil para computadores clássicos). No entanto, as características de erro do Zuchongzhi 3.0 estão na mesma liga que o Google/IBM, o que significa que ele é, em princípio, capaz de executar códigos QEC. O erro médio de porta de dois qubits no Zuchongzhi 3.0 é de ~0,38% (um pouco maior que os 0,3% da IBM ou os 0,14% do Google) e o erro de um único qubit é de ~0,10%. Eles estão logo abaixo do limite de 1%. Ao melhorar um pouco mais essas fidelidades (o que pode vir da otimização contínua de materiais que eles descreveram), eles também podem tentar experimentos de código de superfície. Em seu artigo arXiv, os pesquisadores da USTC observam que aumentar a coerência do qubit e reduzir os erros de porta diretamente ” empurra os limites das capacidades atuais do hardware quântico ” e estabelece as bases para explorar a correção de erros em circuitos maiores. Notavelmente, mesmo sem a correção completa de erros, eles executaram uma mitigação de erros flexível durante a amostragem do circuito aleatório: eles redefiniram os qubits com frequência (por meio de medição e reinicialização) para evitar o acúmulo de erros e realizaram verificação estatística das saídas para garantir que os erros não estivessem dominando os resultados.

Para correção de erros propriamente dita, a USTC pode alavancar códigos similares aos do Google (já que sua rede é compatível com código de superfície também). Eles têm expertise em correção de erros quânticos do lado fotônico (o grupo de Pan demonstrou alguns códigos bosônicos com fótons). Não seria surpreendente se um próximo marco da USTC fosse um qubit lógico corrigido de erros também.

Uma nota interessante: a arquitetura do Zuchongzhi 3.0 com flip-chip pode ser benéfica para QEC porque o segundo chip pode incorporar circuitos para isolamento rápido de feedforward ou crosstalk necessário em ciclos de correção de erros. Além disso, seu uso de reset ativo de qubits (por meio de gates) entre rodadas é essencialmente parte de um ciclo de correção de erros (reset de qubits ancilla).

Em resumo, embora o Zuchongzhi 3.0 não tenha demonstrado um qubit lógico, suas taxas de erro físico (~0,1–0,4%) são baixas o suficiente para estarem à beira do limite de correção de erro. A prioridade da equipe até agora era alcançar um experimento de vantagem quântica, mas as mesmas melhorias de hardware (T1, T2 mais longos, melhores portas) se traduzem diretamente em habilitar computações corrigidas de erro em um futuro próximo. Dado que Willow e Zuchongzhi são tão semelhantes, podemos esperar que se o Google pode fazer QEC de distância 7, o dispositivo da USTC poderia replicar um feito semelhante com algum refinamento. Os pesquisadores declaram explicitamente que seus avanços em coerência e fidelidade “abrem caminhos para investigar como aumentos na contagem de qubit e na complexidade do circuito podem aumentar a eficiência na resolução de problemas do mundo real” – o que sugere a correção de erros como um desses caminhos para algoritmos do mundo real.

Resumo das taxas de erro e técnicas de correção de erros

Dois paradigmas complementares surgiram entre esses cinco: (1) Redução de erro intrínseco: AWS e Microsoft reduzem drasticamente as taxas de erro físico pelo design de qubit (qubits cat, qubits topológicos), visando minimizar a carga sobre os códigos de correção de erro. (2) Correção de erro ativa: Google, IBM e USTC melhoram seus qubits supercondutores para o regime de limite e, em seguida, aplicam códigos de correção de erro quântico (como o código de superfície) para suprimir ainda mais os erros. Ambas as abordagens estão correndo em direção ao mesmo objetivo de computação quântica tolerante a falhas. Uma desigualdade de condição de limite simplespfísica<pdebulharsustenta ambos – AWS/Microsoft satisfazem isso ao fazerpfísicaextremamente pequeno para certos erros, e o Google/IBM/USTC satisfazem isso por engenhariapfísicaabaixo do conhecidopdebulhar∼1para códigos de superfície. Em última análise, todos os cinco esforços visam realizar qubits lógicos com taxas de erro baixas o suficiente para circuitos quânticos profundos e confiáveis. Já vemos Ocelot alcançando um qubit lógico funcional com uma redução de recursos de 85%, e Willow demonstrando uma memória lógica que supera qualquer qubit físico único. Essas são fortes validações de que a correção de erros – seja intensiva em hardware ou software – está prestes a tornar a computação quântica escalável.

Benchmarking e Métricas de Desempenho

Para comparar processadores quânticos, uma variedade de benchmarks e métricas são usados, desde métricas independentes de dispositivo como Quantum Volume até benchmarks específicos de tarefa como amostragem aleatória de circuitos. Consideraremos algumas medidas-chave de desempenho: volume quântico (QV), Circuit Layer Operations Per Second (CLOPS), benchmarking algorítmico (experimentos de vantagem quântica) e outros números de desempenho publicados como escalonamento de fidelidade em grandes circuitos.

Volume quântico

QV é uma métrica holística introduzida pela IBM que considera o número de qubits, a fidelidade do gate e a conectividade, encontrando o maior circuito aleatório de largura e profundidade iguais que o computador pode implementar com uma probabilidade de sucesso > 2/3. Um QV mais alto (que normalmente é relatado como2epara algum inteiroe) significa que a máquina pode lidar com circuitos emaranhados maiores de forma confiável.

IBM Heron R2

Entre nossos cinco chips, o IBM Heron R2 tem atualmente o maior QV relatado. A IBM anunciou que o Heron atingiu Quantum Volume = 512 (já que um Eagle de 127 qubits hexadecimais pesados ​​atingiu QV 128 antes, a melhor fidelidade do Heron o empurrou para 512). QV 512 corresponde à execução bem-sucedida de um circuito aleatório de 9 qubits de profundidade 9 (já que29=512). Isso indica que Heron pode emaranhar pelo menos 9 qubits profundamente com boa fidelidade.

Google Willow e USTC Zuchongzhi 3.0

Nem o Google nem a USTC relataram formalmente o QV para Willow ou Zuchongzhi, mas, dadas suas especificações, pode-se inferir. Willow com 105 qubits e 99,86% de fidelidade de dois qubits provavelmente poderia atingir um QV semelhante ou maior (talvez 512 ou 1024) se medido, porque tem ainda mais qubits para negociar pela profundidade do circuito. O Google normalmente se concentra em marcos específicos em vez de QV, mas as capacidades demonstradas (como um circuito aleatório completo de 105 qubits em profundidade > 30 no experimento de vantagem) excedem em muito o que o QV 512 implica. Na verdade, o QV se torna menos informativo na vanguarda, onde os benchmarks direcionados são mais ilustrativos (por exemplo, o Google pode dizer que seu volume quântico é efetivamente ilimitado para tarefas de amostragem aleatória, uma vez que eles superam o clássico por uma margem enorme).

AWS Jaguatirica

O QV do AWS Ocelot não é diretamente aplicável, pois atualmente ele realiza um qubit lógico – QV é definido para circuitos, então um único qubit lógico não pode gerar um circuito multi-qubit emaranhado. O conceito de QV se aplicará ao Ocelot somente quando ele for dimensionado para múltiplos qubits lógicos que podem executar um circuito não trivial. No entanto, pode-se considerar a vida útil ou a taxa de erro do qubit lógico como medidas de desempenho análogas (discutidas acima).

Microsoft Majorana-1

O QV do Microsoft Majorana-1 também ainda não é significativo – com 8 qubits físicos que estão em estágios experimentais iniciais, eles não executaram circuitos aleatórios. O propósito do Majorana-1 não é maximizar o QV neste estágio, mas validar o novo tipo de qubit. Então, em termos de QV: a IBM lidera com 512, e o Google/USTC provavelmente tem capacidades de circuito efetivas comparáveis ​​ou maiores, embora não o enquadrem em termos de QV. Vale a pena notar que outra empresa, a IonQ, reivindicou QVs muito altos (por exemplo, 2.097.152), mas isso é para sistemas de íons presos com menor velocidade de gate; nosso foco está nesses cinco chips. Entre esses cinco, o QV 512 do Heron R2 é uma referência concreta de sua contagem e fidelidade de qubits balanceados.

CLOPS (Operações de Camada de Circuito por Segundo)

Esta métrica definida pela IBM mede quantas camadas de um circuito parametrizado o sistema pode executar por segundo (incluindo overheads de compilação e feedback). Ela mede o throughput ou a velocidade de execução de circuitos quânticos.

IBM Heron R2

O IBM Heron R2 (no IBM Quantum System Two) atingiu um CLOPS de mais de 150.000 camadas por segundo. Este é um número impressionante, cerca de 50× maior do que o que a IBM tinha alguns anos antes. Ele reflete melhorias tanto no chip físico (fast gates, operação paralela) quanto na pilha de software (reutilização de qubit, melhor agendamento e um novo tempo de execução). Para contextualizar, um CLOPS de 150k significa que é possível executar 150k camadas de um circuito de 100 qubits em um segundo (se cada camada for um conjunto de operações de um e dois qubits nos 100 qubits). A IBM atingiu isso reduzindo os tempos ociosos entre as operações e introduzindo a compilação paramétrica (para que execuções repetidas de circuitos não precisem de recompilação completa).

Google Salgueiro

Nenhum dos outros fornecedores publicou oficialmente um CLOPS para seus dispositivos, mas qualitativamente: o processador do Google tem gates muito rápidos (veja a seção Gate Speed), então fisicamente ele poderia ter CLOPS altos, mas a pilha de software do Google não é tão abertamente avaliada quanto a da IBM. A IBM colocou ênfase em tornar todo o sistema rápido e fácil de usar (já que é acessível via nuvem para usuários) – daí métricas como CLOPS. A equipe do Google, focada principalmente em experimentos internos, pode não otimizar para executar tantos circuitos por segundo para usuários externos. Se considerarmos a capacidade bruta, os gates single-qubit de 25 ns e two-qubit de 42 ns do Google são mais rápidos do que os gates de ~35 ns e ~200 ns da IBM, então fisicamente o Google poderia fazer mais camadas por segundo no hardware. No entanto, o CLOPS inclui latência do compilador e da eletrônica de controle. A conquista de 150k CLOPS pela IBM foi devido ao controle clássico altamente otimizado e streaming de circuitos (eles mencionam novas otimizações de tempo de execução e movimentação de dados). É provável que o sistema do Google (como usado em seu laboratório) não seja otimizado para alto rendimento da mesma forma; ele é otimizado para grandes experimentos específicos.

USTC Zuchongzhi 3.0

Enquanto isso, o Zuchongzhi 3.0 da USTC – sendo um protótipo de pesquisa – provavelmente tem um rendimento relativamente baixo (eles levaram “algumas centenas de segundos” para coletar 1 milhão de amostras de um circuito aleatório de 83 qubits, o que implica na ordem de 10^3–10^4 camadas de circuito por segundo, não quase 150k). Mas, novamente, esse sistema não foi otimizado para o rendimento do usuário, ele foi otimizado para empurrar a contagem de qubits e a fidelidade.

AWS Ocelot e Microsoft Majorana-1

AWS Ocelot e Microsoft Majorana-1 também não estão no estágio de precisar de benchmarking CLOPS; Ocelot executa um qubit lógico (então CLOPS é discutível), e o foco do Majorana-1 é na estabilidade do qubit, não em executar muitos circuitos. Em resumo, a IBM lidera em throughput de computação quântica com 150k CLOPS no Heron R2, uma métrica que ressalta a integração de um chip rápido com uma pilha de software eficiente. Isso significa que o sistema da IBM pode executar, digamos, circuitos de algoritmos variacionais extremamente rápido, o que é útil para pesquisa e ofertas de nuvem comercial. Google e USTC não enfatizaram essa métrica, mas seus chips se destacam em outras áreas de benchmarking, conforme discutido a seguir.

Vantagem Quântica / Benchmarks de Tarefas Computacionais

Talvez o benchmark mais dramático seja resolver um problema que se acredita ser intratável para supercomputadores clássicos – frequentemente denominado “supremacia quântica” ou demonstração de vantagem quântica. Tanto o Google quanto a USTC se destacaram aqui com seus chips mais recentes:

Google Salgueiro

Willow realizou uma tarefa de amostragem de circuito aleatório (RCS) com 105 qubits e cerca de 24 ciclos (camadas) de portas aleatórias de dois qubits, gerando um grande número de amostras de bitstring. Eles relataram que Willow completou em cerca de 5 minutos uma computação que levaria o Frontier (o supercomputador mais rápido do mundo) uma estimativa1025anos para simular. São 10 septilhões de anos – bilhões de bilhões de anos, muito mais do que a idade do universo. Em termos práticos, isso estabelece firmemente uma vantagem computacional quântica – nenhum método clássico existente pode replicar esse experimento específico de amostragem de circuito aleatório. Esse experimento é essencialmente uma extensão do teste de supremacia do Google de 2019 (que era de 53 qubits, 20 ciclos). Com a maior fidelidade de Willow, eles poderiam ir para 105 qubits e circuitos mais profundos, enquanto ainda obtinham resultados estatisticamente significativos (verificados por benchmarking de entropia cruzada). Os resultados são surpreendentes: eles empurraram o limite da amostragem quântica em seis ordens de magnitude em dificuldade clássica além do estado da arte anterior (o experimento anterior de 56 qubits e 20 ciclos da USTC). Esta não é uma “aplicação” no sentido útil, mas é um benchmark crucial de poder computacional bruto. Ele mostra que Willow pode emaranhar mais de 100 qubits e executar >1.000 portas de dois qubits em um circuito complexo com fidelidade suficiente para que a saída tenha uma estrutura que pode ser medida. A fidelidade de todo o circuito foi baixa, mas detectável (uma pequena fração de um por cento, o que é esperado nessa escala), mas superou a simulação de força bruta por uma margem enorme.

USTC Zuchongzhi 3.0

O Zuchongzhi 3.0 também demonstrou vantagem quântica. Eles executaram um experimento RCS com circuitos de 83 qubits por 32 ciclos, coletando um milhão de amostras em apenas alguns minutos. Eles estimam que o supercomputador Frontier levaria6.4×109anos (6,4 bilhões de anos) para fazer o mesmo. Embora 6,4 bilhões de anos seja menos alucinante do que os 10^25 do Google, ainda se qualifica como uma demonstração de vantagem quântica por uma margem enorme. Na verdade, o chip anterior da USTC (Zuchongzhi 2.1) já havia reivindicado uma vantagem (com 66 qubits, 20 ciclos). A vantagem do Zuchongzhi 3.0 é mais robusta devido à maior fidelidade: ao aumentar a profundidade do circuito para 32 e a contagem de qubits para 83, eles tornaram a tarefa clássica exponencialmente mais difícil. O experimento quântico está aproximadamente no mesmo nível em escala do experimento do Google de 2019, e cerca de 2–3 ordens de magnitude além do que os algoritmos clássicos alcançaram depois de 2019. É digno de nota que o experimento de Willow foi ainda mais longe: 105 qubits, ciclos semelhantes, ultrapassando assim o Zuchongzhi 3.0 por um grande fator (daí a reivindicação de 10^25 anos do Google vs. 10^9 anos da USTC). O Quantum Computing Report comparou Willow e Zuchongzhi 3.0 e descobriu que Willow tinha uma ligeira vantagem nas principais métricas de qualidade de qubit, o que permitiu um experimento RCS maior e mais difícil. De fato, conforme listado anteriormente, a fidelidade média de dois qubits de Willow (99,86%) é maior do que a de Zuchongzhi (99,62%), dando a Willow uma vantagem na execução de circuitos mais profundos com fidelidade suficiente. Ambos os chips superaram os experimentos divulgados publicamente pela IBM neste domínio – a IBM não tentou um RCS nessa escala publicamente (a IBM fez um circuito “utilitário” de 127 qubits e profundidade 12 que era classicamente simulável com esforço, e a IBM defende o foco em tarefas úteis em vez de tarefas de supremacia inventadas).

IBM Heron R2

Em vez de perseguir a supremacia do RCS, a IBM demonstrou o que eles chamam de marco do “desafio 100×100” – executando um circuito com 100 qubits × 100 de profundidade (10.000 operações de porta de dois qubits) com resultados significativos. Na Quantum Developer Conference 2024, a IBM anunciou que pode executar circuitos com 5.000 portas de dois qubits (e de fato até 10.000 em alguns casos) no Heron R2 com saídas de alta fidelidade. Eles comparam isso ao experimento anterior de “utilidade quântica” no Eagle, que usou 2.880 portas de dois qubits. Alcançar 5.000 operações de emaranhamento sem que o resultado seja lixo completo é um grande negócio – significa que os erros não se acumularam muito rapidamente. A IBM não enquadrou isso como uma demonstração de supremacia, mas sim como habilitar circuitos de tamanho útil além do que o clássico pode simular exatamente. 100 qubits × 50 de profundidade (5k portas) está de fato além da simulação exata de força bruta (dimensão do espaço de Hilbert2100é enorme), embora aproximações clássicas ou amostragem pudessem lidar com certos tipos de circuitos desse tamanho se a estrutura do circuito fosse especial. A ênfase da IBM era que os clientes podem executar circuitos tão grandes no sistema de forma confiável agora, indicando um foco em algoritmos práticos de curto prazo (que geralmente envolvem muitas portas, mas exigem alguma fidelidade para obter um resultado). Então, o benchmark do Heron R2 é “circuito de porta de dois qubits de 5.000 executado com tempo de execução 50× mais rápido do que antes” – um sabor diferente de progresso do que a reivindicação de supremacia de 1e25 anos do Google, mas ainda importante. Isso mostra que a máquina da IBM entrou em um regime de complexidade (100 qubits, profundidade ~50–100) que está no nível ou um pouco além do que a simulação clássica pode fazer para circuitos arbitrários. O QV e o CLOPS da IBM já indicaram essa capacidade, e a demonstração de 5k portas confirma isso concretamente.

AWS Ocelot e Microsoft Majorana-1

Esses dois ainda não foram julgados por grandes benchmarks de circuito, pois estão no estágio de componente. A conquista de Ocelot é criar um qubit lógico estável, que pode ser comparado por tempo de memória ou erro lógico por sequência (o que presumivelmente é muito bom – possivelmente nenhum erro lógico visto em muitas operações, já que as inversões de bits estão ausentes). Alguém pode medir um “T1 lógico” ou “erro lógico por Clifford” para Ocelot como uma métrica de desempenho, mas esses números não são públicos. O benchmark de Majorana-1 é igualmente a demonstração de operações de trança/medição com <1% de erro e estabilidade de ms, conforme discutido. Então, por enquanto, AWS e Microsoft não podem reivindicar alto volume quântico ou resolução de problemas intratáveis; em vez disso, suas conquistas de “benchmark” estão no domínio de supressão de erro (redução de 90% na sobrecarga, primeiro qubit topológico do mundo, etc.).

Outros Benchmarks

Devemos mencionar a profundidade e a fidelidade do gate em algoritmos. O Google demonstrou que usando correção de erro de código de superfície, um qubit lógico de distância 7 pode preservar informações quânticas por >2× a duração de um qubit físico – essencialmente um benchmark de memória quântica. Além disso, eles mostraram que um gate codificado logicamente (um CNOT ou CZ lógico) pode ser executado com erro de ~0,14%, o que é uma métrica interessante: a fidelidade de um gate lógico corrigido por erro. Esse erro de CZ lógico de 0,143% (conforme relatado no resumo de Oezratty da pré-impressão do Google) “não é ruim”, como ele diz – está no mesmo nível dos erros de gate físico, indicando que a sobrecarga está começando a valer a pena. Outra métrica é a fidelidade de leitura – a precisão da medição de qubits. Da tabela anterior: a fidelidade de leitura de disparo único de Willow é de ~99,33%, a de Zuchongzhi é de 99,18%. A IBM não publicou um único número, mas em sua geração Eagle era em torno de 95–99% tipicamente; Heron provavelmente melhorou para similarmente >99%. Quanto maior a fidelidade de leitura, menos erros nas medições finais ou nas medições de síndrome de circuito médio para QEC. A leitura Majorana da Microsoft foi de 99% (erro de 1%) em testes iniciais, o que já é competitivo e espera-se que melhore. O AWS Ocelot provavelmente usa múltiplas medições ancilla; sua fidelidade de leitura lógica efetiva não foi declarada, mas presumivelmente alta também (eles podem fazer QEC repetidos até estarem confiantes do resultado).

Em termos de benchmarks práticos de algoritmos, nenhum desses chips resolveu definitivamente um problema útil melhor do que um computador clássico ainda – ainda estamos na fase preparatória. No entanto, a IBM e outras frequentemente executam pequenas instâncias de problemas algorítmicos para testar o desempenho:

A IBM , por exemplo, demonstrou um circuito de 127 qubits simulando uma equação diferencial (o experimento de “utilidade”) que produziu um resultado significativo que correspondia à teoria. Não era algo que os computadores clássicos não pudessem fazer, mas foi um trampolim mostrando que circuitos de 100 qubits podem produzir resultados físicos válidos (como observar um fenômeno físico) com mitigação de erros.

O Google usou chips anteriores para simular problemas simples de química (por exemplo, calcular a energia de uma molécula de luz por meio de algoritmos variacionais) e para observar fenômenos de física de muitos corpos (como criar um cristal de tempo em um sistema de spin acionado periodicamente). Essas eram simulações de prova de conceito. Com o poder aumentado de Willow, eles puderam tentar tarefas de simulação maiores (talvez simulando uma dinâmica modesta de reação química ou um modelo de spin maior) e ver assinaturas quânticas que são difíceis de obter classicamente.

O grupo da USTC , além de circuitos aleatórios, também fez amostragem de bósons gaussianos com fotônica e alguma química quântica simples em qubits supercondutores. Eles podem tentar usar o Zuchongzhi 3.0 para tarefas como estimativa de fase quântica em pequenas instâncias de problemas ou tarefas de otimização, embora nenhum resultado específico tenha sido anunciado ainda.

Uma ferramenta de benchmarking comum é o Quantum Volume, que abordamos, e outra é a capacidade de entrelaçamento (como quantos qubits podem ser entrelaçados em um estado GHZ). Normalmente, esses chips podem entrelaçar todos os seus qubits (por exemplo, gerar um estado GHZ de 100 qubits, embora a fidelidade cairia com mais qubits entrelaçados). Não tenho certeza se isso específico foi publicado, mas provavelmente.

Fidelidade do circuito em escala

A fidelidade de entropia cruzada do Google para o circuito completo de 105 qubits foi extremamente baixa (~1e-3 ou menor em probabilidade absoluta), mas isso é esperado – ainda assim foi o suficiente para demonstrar um sinal acima do ruído. O circuito 100×100 da IBM provavelmente teve alguma fidelidade agregada que permitiu extrair o resultado (talvez melhorado pela mitigação de erros). Essas métricas de alto nível são complexas, mas essencialmente tanto a IBM quanto o Google mostraram que podem executar circuitos no limite do que é classicamente possível e ainda obter uma resposta verificável.

Resumo de métricas de benchmarking e desempenho

Para resumir o cenário de benchmarking:

O IBM Heron R2 se destaca em volume quântico (512) e rendimento (CLOPS 150k) e demonstrou executar até 5.000 circuitos de porta (100 vezes a geração anterior) de forma confiável.

O Google Willow lidera em vantagem computacional quântica – resolvendo um problema de circuito aleatório muito fora do alcance do clássico (~10^25 vs ~10^9 anos para seus concorrentes). Ele também demonstrou operação lógica de qubit tolerante a falhas (código de distância-7) – um benchmark em desempenho de correção de erros.

O USTC Zuchongzhi 3.0 também obteve um grande experimento de vantagem quântica (custo clássico de 10^9 anos), destacando-o como um dos processadores mais poderosos, perdendo apenas para o Willow nessa medida específica até agora. Suas métricas de qualidade de qubit estão apenas um pouco atrás das do Willow, mas muito próximas.

AWS Ocelot e Microsoft Majorana-1 ainda não são medidos por grandes benchmarks de circuito, mas seu sucesso é medido por quão bem eles atingem marcos de correção de erros. A principal alegação de desempenho da AWS é a redução de 90% na sobrecarga de recursos de correção de erros (ou seja, precisando de um décimo dos qubits para um qubit lógico em comparação com esquemas convencionais). Isso pode ser visto como uma “figura de mérito” para eficiência de tolerância a falhas. A alegação de desempenho da Microsoft é ter construído um qubit que pode potencialmente escalar para um milhão com cada um ainda mantendo a coerência – efetivamente reivindicando um avanço no potencial de escalabilidade. Eles não deram benchmarks numéricos além da existência de modos zero Majorana e operação estável para um experimento em escala de hora. Mas em um sentido qualitativo, se extrapolarmos, um milhão de qubits Majorana a uma taxa de erro de ~0,1% teria um volume quântico astronômico e poderia, em teoria, quebrar a criptografia moderna ou simular química complexa sem precisar de códigos complexos – embora isso seja aspiracional neste momento.

Concluindo, os resultados do benchmarking ilustram que a IBM e o Google estão na vanguarda do desempenho geral da computação quântica – a IBM destacando a capacidade de circuito amplo e rápido (QV, CLOPS), o Google destacando feitos em correção de erros e supremacia quântica. O Zuchongzhi 3.0 da USTC está muito próximo, essencialmente igualando o Google em contagem de qubits e se aproximando em fidelidade, alcançando também uma forma de supremacia. A AWS e a Microsoft mostram seus pontos fortes em métricas mais especializadas relacionadas à correção de erros (sobrecarga lógica de qubits, estabilidade), que se traduzirão em desempenho quando forem ampliadas. Cada métrica fornece uma fatia diferente de desempenho: QV encapsula desempenho equilibrado, CLOPS enfatiza velocidade e experimentos de vantagem quântica testam o limite extremo do poder computacional. Juntos, eles pintam esses chips como os processadores quânticos mais avançados do mundo, cada um se destacando em diferentes eixos.

Fidelidade e velocidade do portão

A fidelidade (precisão) dos portões quânticos e sua velocidade (duração) afetam diretamente a capacidade de um computador quântico de executar algoritmos de forma confiável. Portões de alta fidelidade minimizam erros por operação, e portões rápidos permitem mais operações dentro do tempo de coerência. Compararemos o desempenho dos portões de 1 qubit e 2 qubit para os cinco chips, observando quaisquer designs ou inovações especiais de portões:

AWS Jaguatirica

Embora fidelidades de gate numéricas específicas para Ocelot não tenham sido publicadas, podemos discutir a natureza de seus gates. Ocelot implementa os primeiros gates de preservação de viés em qubits cat. Isso significa que as operações de gate são projetadas para não introduzir erros de bit-flip que ainda não estavam presentes. Em um sistema convencional, um gate de controle-X, por exemplo, poderia converter algum ruído de fase no qubit de controle em um bit flip no alvo. No Ocelot, esses gates são projetados (provavelmente por meio de sequências de pulso complexas no sistema de qubit cat multicomponente) para manter o viés de erro. Alcançar alta fidelidade ao fazer isso não é trivial, mas a AWS relata sucesso em “sintonizar” certos modos de erro. Sabemos pelo artigo da Nature que manipular a fase de um qubit cat pode ser feito sem quebrar sua proteção – eles demonstraram controle coerente (rotações de fase) enquanto ainda tinham tempos de bit-flip de 10 s. Isso implica que a fidelidade do gate de qubit único em qubits cat pode ser muito alta; essencialmente limitada pelo erro de fase durante o gate. Se uma rotação de qubit único leva, digamos, 100 ns, e T2 para fase é ~0,5 µs, então uma estimativa aproximada de fidelidade é1–100ns/500ns=0,80(80%) se feito ingenuamente. Mas provavelmente os buffers e técnicas de eco melhoram o T2 efetivo durante gates, produzindo fidelidade muito maior. Possivelmente eles usam técnicas de gate transparentes a erros que garantem que qualquer erro de fase seja rastreável.

A imprensa da AWS enfatiza a redução de erros em até 90%, sugerindo que as infidelidades de gate são uma ordem de magnitude menor do que seriam sem a abordagem cat. Como o Ocelot usa um pequeno qubit lógico, também se pode citar sua fidelidade de gate lógico – presumivelmente significativamente maior do que a fidelidade de gate de um transmon físico, já que 9 qubits físicos o apoiam. Se cada gate físico for, digamos, 99%, e a correção de erros corrigir a maioria das falhas individuais, um gate lógico pode ser ~99,9% eficaz. Não temos números exatos, mas está claro que o ponto de venda do Ocelot é menos erros por gate por design.

Sobre velocidade: portas de qubits de gato podem ser um pouco mais lentas do que portas padrão porque envolvem a manipulação de um estado de oscilador (o que pode exigir pulsos mais longos ou várias etapas). No entanto, a AWS indica que isso ainda é implementado em um microchip com técnicas padrão, então os tempos de porta provavelmente permanecem na faixa de nanossegundos a submicrossegundos. Talvez portas de qubit único em qubits de gato sejam dezenas de nanossegundos (comparáveis ​​a transmons), e portas de emaranhamento de dois qubits (como uma fase controlada entre qubits de gato) podem envolver operações ancilla intermediárias, levando talvez algumas centenas de nanossegundos. Como Ocelot é um protótipo, otimizar a velocidade não era o objetivo principal; atingir a fidelidade de preservação de viés era. Podemos esperar que, à medida que eles o refinarem, os tempos de porta sejam reduzidos para escalas de tempo supercondutoras típicas.

Microsoft Majorana-1

Em qubits Majorana, os gates são tipicamente feitos por meio de tranças físicas de MZMs (o que na prática significa mudar as conexões hamiltonianas em uma sequência) ou medindo certos operadores multi-qubit para decretar teletransporte de gate. Esses processos são geralmente mais lentos do que um único pulso de micro-ondas, mas podem ser feitos com alta fidelidade devido à proteção topológica. A abordagem da Microsoft envolve gates baseados em medição – usando medições projetivas de paridade para implementar lógica (isso está relacionado à injeção de estado mágico e computação baseada em medição). A leitura do qubit Majorana em si leva a ordem de alguns microssegundos (pois envolve reflectometria de micro-ondas) – as medições iniciais tiveram 1% de erro, o que é muito bom para uma primeira tentativa. Uma operação de trança topologicamente protegida coerente pode ser lenta: pode ser necessário variar adiabaticamente as tensões do gate em microssegundos para trocar Majoranas. No entanto, como nenhuma fase frágil precisa ser mantida localmente, essa lentidão não incorre em muito erro adicional (o T2 do qubit é efetivamente muito longo para operações protegidas). Então, pode-se trocar velocidade por fidelidade aqui. Se levar, por exemplo, 1 µs para executar uma operação de trança, tudo bem porque o qubit pode ficar parado por 1 ms sem inverter. Na verdade, os qubits Majorana têm uma proporção muito favorável de tempo de coerência para tempo de porta – possivelmenteµEportão∼1microssegundos,Ecoerência∼1EM, dando uma proporção de 1:1000, muito melhor que transmons (~1:100). Assim, mesmo que os gates sejam mais lentos, o erro por gate pode ser extremamente baixo.

A Microsoft ainda não citou as fidelidades de gate (já que fazer um gate de trança completo em Majorana-1 é provavelmente o próximo passo). Mas teoricamente, trocar dois Majoranas (o que produz um protegido topologicamenteeeuπ/4portão de fase no qubit) deve ser virtualmente livre de erros se feito adiabaticamente e isolado do ambiente. Os únicos erros viriam do aparecimento de quasipartículas (que é aquela taxa de inversão de paridade de ~1/ms) ou de imperfeições de controle que quebram a adiabaticidade. Dados seus resultados, pode-se especular portões de Clifford de qubit único (como umXouZno qubit topológico, que pode ser feito por meio de uma sequência de medições de paridade ou tranças) pode ter fidelidade >99,9%. O T-gate (não Clifford) não é protegido e envolveria injetar um estado com algum erro – eles podem realizar T-gates por meio de injeção de estado mágico com alguma sobrecarga. A fidelidade de um T-gate depende então da fidelidade da preparação de um estado mágico (que pode ser, digamos, 99% e então destilado para mais alto). Mas isso é mais uma preocupação futura ao fazer algoritmos completos.

Em termos de velocidade: portas baseadas em medição em Majorana-1 serão limitadas pelo tempo de medição (alguns microssegundos por medição de paridade). Então, uma sequência implementando um CNOT entre dois qubits topológicos pode levar talvez dezenas de microssegundos. Isso é mais lento do que um CNOT transmon de ~200 ns, mas se for 100x mais confiável, é uma troca que vale a pena. E como cada qubit topológico atua como um qubit lógico, você precisaria de muito menos deles – então você pode pagar por portas mais lentas se isso economizar milhares de operações físicas.

Em resumo, espera-se que a fidelidade de gate de qubit único do Majorana-1 seja extremamente alta (com exceção de gates T que precisam de métodos auxiliares), e gates de dois qubits provavelmente serão implementados por meio de sequências de medições confiáveis. A velocidade por gate é mais lenta (microssegundos), mas dada a coerência muito maior, as “operações de gate por tempo de coerência” podem realmente ser maiores do que em sistemas supercondutores (por exemplo, se T2 ~1 ms e gate ~5 µs, você poderia fazer ~200 operações topologicamente protegidas dentro da coerência, enquanto em um transmon T2 ~100 µs e gate ~20 ns, você poderia fazer ~5000 operações – então, na verdade, os transmons ainda permitem mais operações em contagem absoluta, mas essas operações carregam erros que precisam de correção).

Google Salgueiro

O chip Willow do Google tem velocidades de gate muito rápidas e excelentes fidelidades, representando talvez o auge atual do desempenho de gate supercondutor. A fidelidade média de gate de qubit único no Willow é de 99,965% (erro ~3,5×10^-4). Gates de qubit único (comoX/2rotações) em transmons são normalmente feitas com pulsos de micro-ondas de ~20–25 ns. De fato, o tempo de porta de qubit único de Willow é relatado em ~25 ns. Com T1 ~98 µs, o erro de decoerência em 25 ns é insignificante (~0,025%). O erro restante vem de imperfeições de controle (erros de amplitude e fase no pulso, diafonia, etc.), que eles ajustaram para o nível 1e-4 – um feito de calibração impressionante. Para portas de dois qubits, o Google usa uma variante da porta iSWAP (às vezes chamada deeuTROCARou Sycamore gate). Em Willow, a fidelidade do gate de dois qubits tem uma média de 99,86% (erro ~1,4×10^-3). Isso é notavelmente alto para um sistema tão grande – indicando acopladores e calibração uniformes de alta qualidade. O tempo do gate de dois qubits é de cerca de 42 ns. Isso é extremamente rápido para um gate de emaranhamento de dois qubits – em comparação, os gates de ressonância cruzada da IBM são de ~200 ns, e até mesmo seus gates CZ mais novos (em certos designs de acopladores ajustáveis) são de ~100 ns ou mais. O Google atinge 42 ns usando um acionamento direto de micro-ondas em um acoplamento ressonante entre qubits (essencialmente ativando uma interação de troca brevemente). A curta duração ajuda a limitar o erro de decoerência, mas requer precisão e sincronização. Executar todos os gates de dois qubits simultaneamente em uma camada é possível devido ao seu isolamento cuidadoso (Willow pode aplicar todos os acopladores em paralelo com apenas um leve impacto na fidelidade). Em um cenário de operação simultânea, eles mediram um erro médio de Pauli de dois qubits de 0,38%, que é maior do que o erro isolado (0,14%), mas ainda administrável. Essa queda de fidelidade paralela é devido à aglomeração espectral e à diafonia de micro-ondas quando muitos qubits são bloqueados ao mesmo tempo. O Google provavelmente otimiza a alocação de frequência de gate para minimizar essa interferência (daí suas alegações de melhorias em relação à geração anterior). Com essas velocidades de gate, o Willow pode executar na ordem de 1000 operações de gate de dois qubits dentro do tempo de coerência de cada qubit (~100 µs / 0,042 µs ≈ 2380 gates no máximo se sequencial em um par; na prática, operações paralelas e tempos ociosos reduzem o número, mas ainda é um número grande). As altas fidelidades significam que até mesmo circuitos grandes podem reter alguma fidelidade (para RCS, como observado, eles fizeram ~1000 gates de dois qubits no chip e ainda tiveram correlação mensurável com a saída ideal).

Outro aspecto é a velocidade e a fidelidade da leitura – Willow usa leitura dispersiva multiplexada com amplificação JPA, alcançando ~99,3% de fidelidade de leitura em talvez ~poucos microssegundos de tempo de integração. Isso está no mesmo nível da leitura da IBM (a IBM relatou ~95–99% de fidelidade em 0,5–1 µs em dispositivos anteriores). Então, a E/S da Willow também é bastante eficiente, o que ajudou a rapidamente colapsar o estado para reinicializações durante os ciclos de QEC.

Em termos de inovações: a principal inovação da Willow em gating é o iSWAP rápido de micro-ondas e melhorias na calibração simultânea de gate – permitindo muitos gates de uma vez com interferência mínima, o que é crítico para alto volume quântico e execução rápida de algoritmos. O chip também provavelmente usa alguma forma de gate ecoado de dois pulsos para cancelar certos erros (como pulsos CR de eco na IBM, o Google pode fazer eco para cancelar mudanças Stark de qubit único durante gates de dois qubits). No geral, a Willow lidera em velocidade de gate bruta entre esses chips e tem fidelidades na vanguarda do que foi alcançado em qualquer plataforma.

IBM Heron R2

O foco da IBM tem sido aumentar a fidelidade, mesmo que as velocidades do gate sejam moderadas. No Heron R2, a IBM ainda usa o gate de dois qubits de ressonância cruzada (CR) (um gate CZ ativado por micro-ondas por meio de um acoplador ajustável). No entanto, com a introdução de acopladores ajustáveis, eles podem efetivamente desligar as interações quando não estão em gate, o que reduziu mudanças de frequência indesejadas e diafonia, permitindo uma calibração mais precisa dos pulsos CR. A fidelidade do gate de dois qubits relatada é de 99,7% em média (erro ~3×10^-3). Alguns pares podem ser tão altos quanto 99,8–99,9% (a IBM geralmente destaca o melhor desempenho em dispositivos menores: por exemplo, 99,85% CZ em experimentos de 2 qubits). A fidelidade de qubit único ~99,97% (erro ~3×10^-4), semelhante à do Google. Os tempos de gate no IBM Heron: gates de qubit único (X/2) ~35–50 ns normalmente. Os tempos de gate CR de dois qubits estão em torno de ~200 ns em média agora. A IBM não publicou explicitamente as durações do gate do Heron, mas a partir de dispositivos anteriores e pequenas melhorias, pode-se inferir um intervalo de ~150–250 ns para um NOT controlado (pulso CR). O layout hexadecimal pesado da IBM reduz o número de vizinhos, simplificando a prevenção de colisões de frequência; combinados com acopladores ajustáveis, eles provavelmente podem encurtar um pouco os pulsos CR (porque podem aumentar o acoplamento durante o pulso de forma mais agressiva quando a diafonia é menor). A IBM também usa sequências de eco no gate CR (ecoando no qubit alvo) para cancelar erros Z e tem técnicas de calibração analítica para minimizar erros coerentes. O resultado é que, embora 200 ns seja muito mais longo do que os 42 ns do Google, o erro da IBM é apenas cerca de 2× maior – indicando que o gate mais longo é muito bem calibrado. A vantagem de um gate de 200 ns é possivelmente menos alargamento espectral (menor largura de Fourier), o que pode facilitar a diafonia. Mas isso significa que menos operações cabem no tempo de coerência (100 µs / 200 ns = 500 operações teoricamente, contra ~2380 para o caso do Google). A IBM atenua isso ao ciclar qubits entre períodos ociosos e ativos – acopladores heavy-hex e ajustáveis ​​garantem que, quando um qubit não está participando de um gate, ele esteja o mais ocioso e limitado à decoerência possível (sem ruído de acionamento adicional). Portanto, nem todos os qubits estão acumulando erro de gate simultaneamente. Os gates de qubit único da IBM também são extremamente bons (99,97%). Eles têm cerca de 35 ns (eles geralmente usam pulsos DRAG em formato de derivativos para minimizar o vazamento, que eles calibram meticulosamente). A IBM atingiu T1s longos o suficiente (alguns em 100 µs+) para que portas de 35 ns sejam erros insignificantes de decoerência (~0,035/1000 = 3,5e-5). Então o erro 3e-4 é principalmente de imperfeições de pulso/diafonia, que a IBM trabalha continuamente para reduzir. Como a leitura da IBM também é de alta fidelidade e mais rápida agora, eles podem fazer medições de circuito médio para reinicializações ou QEC com confiabilidade decente (não tão alta quanto a referência do Google — a leitura da IBM pode ter um pouco menos de fidelidade por qubit, mas eles fazem leituras repetidas para purgar entropia conforme necessário).

Uma inovação no Heron R2 é a “mitigação TLS” que melhorou a coerência e, assim, melhorou indiretamente a estabilidade da fidelidade do gate em todo o chip. Outra é que a IBM introduziu a calibração em nível de sistema de muitos qubits – usando técnicas como calibração Floquet e ajuste de parâmetros escaláveis ​​para lidar com o sistema de 156 qubits. Isso contribuiu para a uniformidade de 99,7% de fidelidade em 156 qubits, o que é impressionante (muito parecido com a uniformidade de Willow).

A IBM também está explorando gates alternativos (há pesquisas sobre CZ direto via polarização de acoplador ajustável). É possível que alguns gates de dois qubits no Heron R2 sejam realmente implementados como um CZ direto, polarizando o acoplador ajustável por ~100 ns para induzir uma interação ZZ efetiva. Se for assim, isso pode ser responsável pela alta fidelidade e pode encurtar o tempo do gate em relação ao CR. A documentação da IBM indica que gates nativos incluem CZ em certos processadores. Se o Heron suportar um CZ direto, isso pode ser mais rápido (~100 ns) e de alta fidelidade. Os dados do BlueQubit não diferenciam, mas dizem “CZ” 99,7%. Isso sugere que a IBM pode realmente estar usando CZ (que é simétrico, diferente do CR, que é unidirecional, mas pode ser compilado em um CNOT). Um gate CZ de 100–150 ns com fidelidade de 99,7% é comparável ao CR.

A conectividade hexadecimal pesada da IBM é um pouco menos ideal para alguns algoritmos (já que grau 3 vs grau 4 significa um pouco mais de sobrecarga de troca para certos mapeamentos de gráficos), mas é uma troca deliberada por fidelidade.

No geral, a fidelidade de gate da IBM é um pouco menor que a do Google, mas no mesmo patamar, e suas velocidades de gate são mais lentas (aproximadamente 5× mais lentas que gates de dois qubits). A IBM compensa com orquestração superior (paraleliza o que pode, feedback clássico rápido, etc.).

USTC Zuchongzhi 3.0

O desempenho do gate do chip chinês é muito próximo ao do Google, como mostrado na comparação direta. Fidelidade de qubit único ~99,90% (erro 1e-3) e fidelidade de dois qubits ~99,62% (erro 3.8e-3). Eles estão um pouco abaixo dos 99,965% e 99,86% do Willow, mas não muito. Os tempos de gate foram dados como 28 ns para gates de 1 qubit, 45 ns para gates de dois qubits – essencialmente a mesma ordem do Google (25 ns, 42 ns).

A equipe chinesa usa um esquema semelhante de portas do tipo iSWAP ativadas por micro-ondas. Eles mencionam especificamente uma “porta do tipo iSWAP” com calibração aprimorada que atinge aqueles 0,38% de erro médio quando todas as portas são simultâneas. Então, o estilo de porta de Zuchongzhi é presumivelmente muito parecido com o do Google: trocas rápidas e ressonantes. Uma diferença: sua conectividade é uma grade completa (grau 4), mas eles têm um pouco mais de decoerência (T2 58 µs vs 89 µs), o que pode ser o motivo de seu erro ser um pouco maior. Além disso, eles podem não ter exatamente a mesma mitigação de erro no chip (o Google tem anos de experiência em ajuste com certa modelagem de pulso de fluxo, etc.). Ainda assim, 99,6% de fidelidade para portas de dois qubits é de classe mundial. Com tempos de porta de 45 ns, eles também podem executar ~1000 portas dentro de T1.

A fidelidade de leitura em Zuchongzhi é de cerca de 99,18%, ligeiramente menor que os 99,33% de Willow, o que pode influenciar algoritmos multi-round. Mas para tarefas não QEC como RCS, isso não é um fator limitante. A equipe da USTC também fez algo inteligente: eles ajustaram sua programação de gate para padrões específicos (sequência ABCD-CDAB) que minimizaram a diafonia e inseriram desacoplamento dinâmico para qubits ociosos que melhoraram a fidelidade geral de circuitos profundos. Tudo isso demonstra uma compreensão avançada do controle em nível de gate.

Então, os gates do Zuchongzhi 3.0 estão essencialmente no mesmo nível do melhor do Google/IBM – fidelidade apenas marginalmente menor, que eles provavelmente continuarão a melhorar. O fato de que dois grupos independentes (Google e USTC) alcançaram erros de dois qubits abaixo de 1% com gates de ~40 ns é um sinal encorajador de que a abordagem é reproduzível e não exclusiva de um laboratório.

Inovações Relevantes

O design de porta de preservação de viés da AWS é uma inovação que permite a correção de erros com menos qubits.

As operações de leitura Majorana e trançamento prospectivo da Microsoft são inovações na obtenção de portas que não perturbam o sistema (e essencialmente empurram a complexidade clássica do controle para a camada de medição).

A inovação do Google foi atingir fidelidade exponencialmente decrescente com tamanho de sistema que corresponde a modelos de erro independentes – o que significa que eles validaram que seus erros de gate são principalmente locais e não correlacionados, seguindo um simples decaimento de fidelidade exponencial conforme os circuitos crescem. Isso sugere que não há fontes de erro desconhecidas surgindo em escala, o que é uma grande conquista na uniformidade de calibração. Scott Aaronson observou que a queda de fidelidade exponencial observada pelo Google e pela IBM é exatamente o que você esperaria de erros de gate independentes. Isso é, na verdade, uma afirmação de que seus números de fidelidade de gate se mantêm em circuitos maiores e os erros não se agravam mais do que o esperado.

Os acopladores ajustáveis ​​e a rede hexadecimal pesada da IBM são uma inovação arquitetônica que reduziu drasticamente certos erros (como deslocamentos de qubit do espectador e diafonia). Isso tornou seus gates mais robustos quando muitos são executados em um chip. Por exemplo, a IBM mostrou que os acopladores hexadecimais pesados ​​eliminaram colisões de frequência que atormentavam os processadores anteriores e permitiram a execução de gates em paralelo com erro mínimo adicionado.

A integração flip-chip da USTC pode ser vista como uma inovação que permite que eles executem mais qubits com portas rápidas sem interferência de sinal. Eles mencionam, por exemplo, que o flip-chip permitiu que eles aumentassem a força de acoplamento (para portas mais rápidas) enquanto usavam um filtro passa-banda para evitar o efeito Purcell, mantendo assim T1 alto.

Resumo de Gate Fidelity e Speed

O Willow do Google e o Zuchongzhi 3.0 da USTC têm os portões mais rápidos (~dezenas de ns) com erros em torno de 0,1–0,3%, permitindo operações extremamente rápidas. O Heron R2 da IBM tem portões de dois qubits ligeiramente mais lentos (~100–200 ns), mas com erro muito baixo ~0,3%, e portões de um qubit essencialmente nos limites físicos de erro de 10^-4. Os portões do AWS Ocelot são personalizados, mas presumivelmente já no regime de erro <1%, dado o qubit lógico efetivo formado – o mais importante é que eles preservam o viés de erro especial do qubit. O Majorana-1 da Microsoft promete operações Clifford quase sem erros, embora em escalas de tempo de microssegundos, com apenas portões especiais precisando de assistência. Todos os chips visam um produto de alta fidelidade de portão × velocidade – aproximadamente, pode-se multiplicar (fidelidade de portão)^(número de portões por coerência) para ter uma ideia de quão complexo um circuito eles podem manipular. Google e IBM se esforçam para conseguir executar milhares de portas dentro da coerência com apenas alguns por cento de probabilidade de erro total. Foi exatamente isso que permitiu o sucesso do circuito 100×100 da IBM e a supremacia do circuito profundo do Google. Também vemos que aumentar a contagem de qubits não comprometeu drasticamente a qualidade da porta individual – Willow em 105 qubits ainda tem ~0,1% de erros, Heron em 156 qubits ~0,3%. Isso indica que os sistemas de controle e protocolos de calibração foram bem dimensionados, o que é um sinal crítico para futuros chips maiores.

Escalabilidade e Integração

Um aspecto crucial da tecnologia quântica é quão prontamente cada abordagem pode escalar para números maiores de qubits e como integrar esses qubits em um sistema funcional. Examinamos as perspectivas e estratégias de escala para cada um dos cinco:

AWS Jaguatirica

O Ocelot foi projetado com escalabilidade em mente, alavancando microfabricação padrão e uma abordagem modular para correção de erros. O chip Ocelot atual é um protótipo de qubit lógico; escalá-lo significa replicar muitas dessas unidades de qubit lógico e conectá-las. A AWS enfatizou que a arquitetura do Ocelot pode ser fabricada usando processos emprestados da microeletrônica clássica, como deposição de filme fino de tântalo para ressonadores de alto Q no chip. Isso implica que fazer chips com dezenas ou potencialmente centenas de qubits de cat (mais ancillas) é viável com a infraestrutura de fabricação existente.

A grande vitória da Ocelot é a redução de recursos: eles estimam precisar de apenas ~100.000 qubits físicos para construir um computador quântico tolerante a falhas útil, em vez de ~1.000.000, como geralmente estimado para outras abordagens. Essa melhoria de ~10× significa que a meta de escala é uma ordem de magnitude menos exigente. Se cada chip Ocelot puder hospedar, digamos, 10 qubits lógicos (apenas como exemplo, se fosse um chip um pouco maior com 10 grupos de 14 componentes), então 10.000 desses chips seriam necessários para atingir 100k qubits físicos. Esse ainda é um número enorme, mas a AWS é uma empresa de infraestrutura de nuvem confortável com a implantação de um grande número de processadores em data centers. Eles poderiam ter como objetivo agrupar muitos módulos quânticos pequenos (cada um com alguns qubits lógicos) e colocá-los em rede (talvez por meio de interconexões ópticas ou de micro-ondas).

No curto prazo, o próximo passo seria demonstrar dois qubits lógicos em um chip entrelaçados, o que exigiria escalar de 14 componentes de qubit para talvez 28+ (para dois blocos lógicos mais ancillas de conexão). Não há nenhuma barreira fundamental citada para fazer isso – a área do chip pode dobrar, a fiação de controle aumentará, mas como cada qubit cat é um oscilador, múltiplos podem possivelmente compartilhar alguma infraestrutura como amplificadores de leitura.

Além disso, a AWS observa que os chips construídos na arquitetura Ocelot “ podem custar tão pouco quanto um quinto das abordagens atuais ” devido à necessidade de menos qubits. Custos mais baixos sugerem uma escala mais simples no rendimento da produção – se apenas 9 qubits produzem um qubit lógico, então mesmo que um ou dois qubits tenham imperfeições, a correção de erros pode tolerá-lo.

Também sabemos que o Ocelot é implementado em uma geometria plana usando transmons e ressonadores, que é inerentemente escalável para algumas centenas de elementos em um chip (IBM e Google colocam ~100 qubits em um chip de alguns cm²; a AWS poderia fazer algo semelhante). O desafio da integração será conectar muitos ressonadores e transmons para controle sem diafonia; a parceria da AWS com a Caltech provavelmente tem lidado com a conexão de capacitâncias cruzadas e coisas do tipo na rede de qubits de cat.

Outro aspecto é a integração 3D: processadores clássicos usam bilhões de componentes por causa de camadas 3D; chips quânticos são, em sua maioria, planares agora. A AWS poderia potencialmente empilhar chips ou usar múltiplas camadas para conectividade (como flip-chip, como a USTC fez). Como seus qubits de cat são osciladores que exigem acoplamento capacitivo, integrar muitos deles pode exigir fiação 3D cuidadosa para evitar colisões de frequência. No entanto, a AWS provavelmente pode alavancar as mesmas estratégias de fiação 3D que a IBM e a USTC têm (como linhas de alimentação em um chip, qubits em outro).

Em resumo, a abordagem da Ocelot parece escalável na fabricação (sem materiais exóticos, usa fábrica supercondutora comprovada) e escalável na arquitetura (cada qubit lógico usa um número fixo e pequeno de qubits físicos). O grande a fazer é escalonar o número de qubits: de 9 físicos para milhares, o que eles conseguirão por replicação e mosaico. A visão final da AWS é um computador quântico modular onde qubits corrigidos por erros são as unidades básicas – a Ocelot acelera o alcance disso ao precisar de menos qubits físicos por unidade. Embora haja desafios de engenharia (como empacotar muitos ressonadores de micro-ondas e lidar com o aumento da carga de calor em um refrigerador de diluição para mais linhas de controle), eles são semelhantes aos enfrentados na abordagem transmon supercondutora, então as soluções serão transferidas (por exemplo, multiplexadores criogênicos, etc.). A AWS acredita explicitamente que a arquitetura Ocelot pode ” acelerar nosso cronograma para um computador quântico prático em ~5 anos “, indicando confiança de que o dimensionamento não levará tanto tempo quanto outros métodos.

Microsoft Majorana-1

A abordagem da Microsoft aposta em escalabilidade extrema, se a física der certo. Eles alegam que o Topological Core baseado em Majorana pode integrar até um milhão de qubits em um único chip. A razão pela qual isso é plausível é que os elementos qubit (nanofios, portas, pontos quânticos) são todos estruturas semicondutoras que podem ser definidas por litografia, muito parecidas com circuitos de transistores clássicos. Na verdade, construir um milhão de qubits topológicos é similar em complexidade a construir um chip de computador moderno com milhões de transistores – embora com restrições adicionais de criogenia e homogeneidade de material.

O avanço recente da Microsoft foi a criação de um material “supercondutor topológico” (chamado topocondutor) que hospeda MZMs de forma confiável. Essa inovação de material (heteroestruturas InAs/Al com gating) pode potencialmente ser dimensionada pelo wafer, usando técnicas da indústria de semicondutores. De fato, a Microsoft vem desenvolvendo processos de fabricação para fazer matrizes de dispositivos de nanofios em wafers de 300 mm. O chip Majorana 1 tem 8 qubits; a próxima geração pode ter, digamos, 16 ou 32. Eles preveem um roteiro de 4 gerações: (1) dispositivo de qubit único (demonstrado agora), (2) dispositivo de dois qubits com operações de trança (provavelmente o próximo), (3) uma pequena rede (talvez ~>10 qubits) para mostrar um qubit lógico com T-gates, (4) um dimensionamento para um plano completo de qubits (que pode ser centenas ou mais).

A natureza dos qubits topológicos significa que as taxas de erro não explodem ao dimensionar: cada qubit é amplamente independente, exceto quando deliberadamente acoplado por meio de circuitos de medição. Portanto, adicionar mais qubits adiciona principalmente mais fiação e portas de controle. Um desafio é que os qubits Majorana precisam de um campo magnético global para estar no regime topológico – isso significa que o chip inteiro deve estar sob um campo magnético uniforme (~0,5 T talvez). Isso complica a integração com componentes supercondutores (algumas peças podem precisar ser blindadas ferromagneticamente ou usar materiais que funcionam sob campo). Eles provavelmente escolheram materiais que são resilientes (por exemplo, filme fino de alumínio se torna supercondutor, mas com campo crítico suprimido, talvez compensado pela geometria).

Para dimensionamento, a Microsoft também terá que integrar eletrônicos de controle CMOS em temperaturas criogênicas para lidar com milhões de eletrodos de porta de qubit – eles têm pesquisas nessa direção (usando crio-CMOS para multiplexar muitas linhas de controle).

Outro aspecto da integração é conectar qubits distantes: em um chip de um milhão de qubits, nem todo qubit pode ser conectado diretamente (isso seria um pesadelo de fiação). Em vez disso, eles provavelmente usarão uma arquitetura semelhante a uma grade 2D ou blocos modulares de qubits conectados por uma rede de roteamento (o que pode ser feito por meio de troca de emaranhamento baseada em medição entre blocos adjacentes).

O roteiro para o artigo de computação quântica tolerante a falhas no arXiv descreve uma abordagem de array (provavelmente semelhante a um código de superfície, mas com qubits topológicos como nós). De fato, eles mencionam 4 gerações culminando em um array de qubits topológicos com correção de erros no topo para lidar com os erros de T-gate restantes. O milhão estimado de qubits pode se referir a “blocos de construção” físicos de Majorana que equivaleriam a, digamos, ~1000 qubits lógicos se ainda precisassem de alguma correção de erros. No entanto, os qubits de Majorana têm, sem dúvida, a melhor perspectiva de escala se funcionarem totalmente: como cada qubit é de alta fidelidade, você pode agrupar muitos deles sem introduzir uma grande sobrecarga, e eles são construídos com nanofabricação convencional.

Do lado da engenharia, a Microsoft precisará garantir uniformidade – cada um dos milhões de nanofios deve se comportar consistentemente, o que é uma tarefa difícil (variações no semicondutor, desordem, etc. podem fazer com que alguns qubits falhem). No entanto, os fabricantes de chips clássicos rotineiramente gerenciam bilhões de transistores com certo rendimento; a Microsoft aproveitará essa expertise e também incorporará redundância (talvez inclua estruturas sobressalentes que podem ser transformadas em qubits se alguns falharem, análogo à redundância em chips de memória).

A integração também envolve a escala do criostato: um milhão de qubits provavelmente não caberá em um único refrigerador de diluição pequena se cada um tiver conexões separadas. Mas se a multiplexação crio-CMOS for usada, eles poderiam cortar drasticamente o número de fios. Alternativamente, eles podem distribuir qubits em vários criomódulos conectados por meio de interconexões quânticas (semelhante a como a IBM prevê a ligação de módulos de 1121 qubits). Mas a Microsoft parece almejar um chip monolítico com muitos qubits – talvez usando empacotamento avançado para incorporar chips de controle no mesmo refrigerador. Eles exibiram um cabo planar de 55 qubits em Majorana 1 para controlar portas; escalonar isso para milhares pode exigir fiação multicamadas.

Em resumo, os qubits Majorana têm um caminho claro para a escalabilidade em princípio: confiar em técnicas da indústria de semicondutores para produzir em massa dispositivos qubit, usar controle eletrônico digital (pulsos de voltagem, medições) em vez de pulsos de micro-ondas puramente analógicos e explorar o fato de que menos qubits são necessários para a mesma lógica devido à estabilidade inerente. A equipe Station Q da Microsoft visa essencialmente fazer a transição do hardware quântico de “experimento físico” para “processador projetado” usando componentes topologicamente robustos. Se eles tiverem sucesso, a escalabilidade pode ultrapassar os outros (eles podem pular para centenas ou milhares de qubits de uma só vez quando o design for comprovado, porque é mais sobre repetir unidades em um chip, não lutar contra a escala de decoerência). O risco é que se qualquer parte da fabricação do qubit não for escalável (por exemplo, se o rendimento dos qubits topológicos for baixo por chip), isso pode complicar o plano. Mas, dados os resultados recentes da Nature confirmando a existência da fase e dos MZMs, o otimismo é justificado. Em suma, a arquitetura do Majorana-1 é conceitualmente uma das mais escaláveis, visando chips integrados de milhões de qubits, embora esteja em um estágio inicial de demonstração.

Google Salgueiro

A estratégia de dimensionamento do Google tem sido incremental até agora – eles foram de 9 qubits (primeiros experimentos do Bristlecone) para 54 qubits (Sycamore) para 72 qubits (sem uso total, eles construíram um chamado “Bristlecone”, mas tinha menor fidelidade), depois para 70 qubits (usado em 2021, quantum supremacy 2.0) e agora 105 qubits (Willow). Cada etapa envolveu o aumento da contagem de qubits enquanto ajustava o design para manter a fidelidade. O Google provavelmente continuará dobrando a contagem de qubits ou algo assim em chips futuros, desde que a fidelidade permaneça alta. No entanto, os qubits supercondutores enfrentam alguns limites de dimensionamento físico: a fiação de controle e a diafonia crescem conforme a contagem de qubits aumenta. O Willow com 105 qubits já tem um arranjo denso de linhas de controle.

O Google usa uma conectividade de grade 2D, que é mais pesada em conexão do que o hexadecimal pesado esparso da IBM. Isso significa que cada qubit tem no máximo 4 vizinhos — ótimo para algoritmos, mas também mais acopladores (Willow tinha 104 acopladores para 105 qubits presumivelmente, talvez mais). A abordagem de empacotamento 3D flip-chip é uma maneira de lidar com o dimensionamento: a USTC o usou para 66 e 105 qubits; a IBM usa vias through-silicone e roteamento multicamadas em seu empacotamento. O Google não detalhou publicamente seu empacotamento, mas é provável que eles também estejam migrando para o flip-chip. (Um indicador: o relatório chinês observou que seu dispositivo é semelhante ao do Google e tem a mesma contagem de qubits e rede, sugerindo que o Google possivelmente também fez o flip-chip para Willow integrar mais qubits, ou eles encontraram outra maneira de enfiar 105 qubits em uma camada por fiação mais inteligente). Para maior dimensionamento, a computação quântica modular é uma abordagem que o Google provavelmente adotará. Eles publicaram pesquisas sobre interconexões quânticas (por exemplo, usando fótons para conectar qubits supercondutores distantes). Espera-se que em algum momento, em vez de um chip com, digamos, 1000 qubits (o que pode ser desafiador em um criostato devido à carga de calor e tamanho da fiação), eles possam usar 10 chips de 100 qubits cada, conectados por micro-ondas ou links ópticos. De fato, outros esforços (como o programa Quantum Logical Qubit da IARPA dos EUA) estão explorando módulos multichip para qubits supercondutores. O Google poderia conectar chips por meio de linhas coaxiais usando chips de ponte de acopladores ajustáveis ​​(como a pesquisa da HQAN sobre isso) ou por meio da conversão de micro-ondas em sinais ópticos (eles têm projetos nesse espaço).

Em termos de integração, o Google construiu seu próprio centro de dados quânticos com vários criostatos e controle automatizado – para escalar experimentos, eles provavelmente farão paralelismo em vários sistemas criogênicos para pesquisa de correção de erros (por exemplo, distribuir qubits lógicos em hardware para confiabilidade). No entanto, para resolver um problema maior, é necessário conectar qubits dentro de um sistema. O cronograma do Google sugere que eles pretendem atingir um cálculo útil corrigido de erros até o final da década. Eles não publicaram um roteiro preciso de qubit (ao contrário da IBM), mas pode-se inferir: eles precisarão da ordem de alguns milhares de qubits físicos para um circuito lógico (se cada qubit lógico usar ~50 qubits físicos com distância ~11 código para obter erro muito baixo, e então você precisa de talvez 100 qubits lógicos para algum algoritmo interessante). Então, escalar de 105 para alguns milhares de qubits físicos é um fator de 20–50. Conseguir isso em um chip pode ser feito por uma abordagem de tiling: possivelmente usando um tamanho de matriz maior (se o chip atual tiver talvez 2 cm x 2 cm, eles podem ir para 4 cm x 4 cm e densidade dupla com flip-chip, etc.). Mas matrizes extremamente grandes podem sofrer problemas de rendimento. Outra abordagem: arquitetura modular – por exemplo, quatro chips de 256 qubits cada conectados por meio de acopladores curtos (como em um módulo multichip). A pesquisa da USTC tem até uma abordagem para conectar dois chips com acoplamento galvânico por meio de um ressonador de barramento comum. O Google poderia fazer um “módulo multichip integrado” similarmente, onde os chips ficam em um interposer que fornece acoplamento ressonante entre eles. Não há evidências de que eles tenham feito isso ainda, mas é um próximo passo lógico se eles quiserem ultrapassar ~200 qubits. Até agora, o Google priorizou a melhoria da qualidade do qubit em vez do número bruto, o que era sensato para atingir erros abaixo do limite. Agora que esse limite foi atingido, aumentar a contagem de qubits se torna a prioridade para obter mais qubits lógicos. Eles têm o benefício de que cada qubit adicionado é de alta qualidade. Mas também, conforme a contagem aumenta, problemas como a falta de homogeneidade (pequenas variações que exigem ajuste de frequência exclusivo para cada qubit para evitar colisões) se tornam mais difíceis – mas eles conseguiram 105, o que provavelmente exigiu escolher cuidadosamente cada frequência de qubit para evitar aglomeração espectral. Em 1000 qubits, a aglomeração de frequência é um desafio sério (apenas uma certa quantidade de espectro na banda de 4-8 GHz). Eles podem incorporar alocação de frequência mais sofisticada (talvez usando mais espaçamento de frequência e sacrificando alguns acoplamentos, ou adicionando mais capacidade de ajuste, como usar acopladores ajustáveis ​​mais extensivamente para aliviar colisões de frequência). A abordagem heavy-hex foi a solução da IBM para isso; o Google pode adotar capacidade de ajuste parcial ou ajustar a rede. É notável que o dispositivo da USTC sendo semelhante ao do Google e tendo tido sucesso sugere que o dimensionamento fundamental para ~100 qubits está ok. Mas o próximo salto pode precisar de mudanças arquitetônicas.

Em termos de integração de eletrônica de controle: em 100 qubits, o Google já usa eletrônica de temperatura ambiente com muitas linhas coaxiais. Para 1000 qubits, a crioeletrônica (multiplexadores no chip ou FPGA crio controlando múltiplos canais) pode ser necessária para evitar uma enorme carga de calor e complexidade. O Google provavelmente está pesquisando isso (assim como a IBM e outras).

Resumindo, o Google pode escalar para algumas centenas de qubits em um chip com a tecnologia atual (prova de Willow), mas indo além, eles precisarão de chips maiores ou módulos multichip e embalagens mais avançadas. Sua equipe é grande e tem os recursos, então provavelmente eles têm protótipos em andamento para chips de 200-250 qubits com fidelidade semelhante. A integração da correção de erros também muda as demandas de escala: uma vez que os erros físicos são baixos o suficiente, escalar qubits aumenta principalmente o número de qubits lógicos ou a distância do código, o que melhora diretamente a capacidade. A demonstração do Google de conectar 105 qubits em um único código corrigido por erro (distância-7) é um passo em direção ao uso de muitos qubits juntos para um qubit lógico. Eles escalarão essa distância para talvez 11, 13, etc., o que pode usar algumas centenas de qubits físicos para um qubit lógico. Esse é um dimensionamento interno (usando mais qubits por código). Eles mostraram que códigos maiores funcionam melhor, então eles provavelmente tentarão um código de superfície de distância-11 em seguida (precisa de 241 qubits físicos para um lógico, se estiver usando um patch 2D completo). Willow tinha 105, então talvez o próximo chip possa mirar em ~225 qubits para realizar um qubit lógico de distância-11. Conseguir isso com bom rendimento e uniformidade é o próximo teste. Dado seu histórico, eles provavelmente conseguirão (talvez com mais um chip de geração ou combinando dois chips Willow).

Concluindo, a plataforma supercondutora do Google é moderadamente escalável – até algumas centenas de qubits em chip com esforço de engenharia, mas além disso, serão necessárias escalas multichip ou novas técnicas de integração. Eles estão pesquisando ativamente modularização e interconexões quânticas, então a escala de longo prazo é viável (eles podem alavancar a fotônica para chips de rede, ironicamente mesclando expertise de sua supremacia quântica fotônica também).

IBM Heron R2

A IBM tem um roteiro de escalonamento muito explícito. O Heron R2 (156 qubits) faz parte do plano de arquitetura quântica modular deles. A IBM já construiu um chip de 433 qubits (Osprey) e planeja um chip de 1121 qubits (Condor) até 2024/2025, embora esses chips maiores possam não ter uma fidelidade tão alta quanto o Heron (eles podem ser mais experimentais inicialmente).

A principal estratégia da IBM para dimensionamento é a modularidade: eles introduziram o Quantum System Two, que pode abrigar vários módulos criogênicos conectados por acoplamentos controlados ou mesmo links fotônicos. Na visão da IBM, dimensionar para milhões de qubits exigirá vincular muitos clusters menores de qubits – eles projetam que até 2030 terão tamanhos de circuito da ordem de 1 milhão em sua visão. No curto prazo, a abordagem da IBM é dimensionar por chips Heron em mosaico. Eles mencionam que o Heron r2 “é a base do Flamingo” que “ associará vários desses processadores a um link de micro-ondas conectando-os ”. Isso implica que a próxima geração (Flamingo) será um módulo multichip (talvez 3 chips Heron em um sistema). De fato, a IBM apresentou um arranjo de 3 chips em uma demonstração recente: um sistema Heron 3x, provavelmente envolvendo um sistema combinado de 3×156 ≈ 468 qubits (se totalmente conectado). A rede hexagonal pesada é particularmente propícia para uma abordagem de tiling: pode-se imaginar que cada chip Heron é um tile, e entre os chips, há acopladores ligando qubits de limite. Como cada qubit tem no máximo 3 vizinhos, um qubit de limite pode dedicar um link de vizinho a um qubit em outro chip sem aumentar seu grau além de 3.

A IBM também vem desenvolvendo técnicas de comunicação quântica – por exemplo, eles têm uma parceria com a Universidade de Chicago em portas de longo alcance mediadas por cavidades. Possivelmente, o Flamingo usa barramentos de cavidades para conectar chips no mesmo refrigerador ou linhas coaxiais. Até 2025+, a IBM planeja o Condor de 1121 qubits que ainda pode ser um único chip (talvez usando um wafer enorme ou uma nova tecnologia de fiação), mas é mais provável que seja dividido em sub-redes menores, se necessário. A IBM discute ainda a vinculação de várias unidades de 1121 qubits por meio de fibra óptica para computação quântica distribuída até 2030 (visão de supercomputação centrada em quantum). Portanto, o caminho de dimensionamento da IBM é uma combinação de chips maiores e chips de vinculação.

Eles já enfrentaram desafios de integração: sua embalagem usa interpositores multicamadas para trazer ~1000 conexões para o chip, e eles fizeram gerenciamento térmico para mais de 400 linhas coaxiais em uma geladeira (para Osprey). Eles também foram pioneiros na multiplexação de sinais criogênicos para reduzir a contagem de linhas. A estrutura hexagonal pesada permite usar a mesma frequência para múltiplos qubits mais facilmente, reduzindo o problema de aglomeração de frequência porque menos qubits são acoplados diretamente (menos restrições espectrais de todos para todos). Então eles podem escalar qubits sem ficar sem frequências distintas tão rapidamente – essa é uma vantagem de integração sutil, mas fundamental para escalar.

A IBM também investe em melhorias de fabricação – por exemplo, usando integração 3D (vias de silício para obter sinais para qubits do lado de trás do chip), o que elimina a necessidade de ligações de fios que limitam a geometria. Eles mostraram a capacidade de colocar muitos qubits e acopladores com bom rendimento (127 no Eagle, 433 no Osprey, embora os dados de fidelidade do Osprey ainda não sejam totalmente conhecidos). O dimensionamento do Osprey do Eagle foi feito expandindo para um chip maior com mais linhas de leitura multiplexadas, e o Condor presumivelmente por expansão adicional e fiação 3D. Mas depois do Condor, eles mudam para modular – porque ir monolítico além de ~1000 pode ser impraticável. É por isso que a abordagem modular da Heron é crucial: ela configura um modelo para conectar vários chips. De fato, eles relataram demonstrar portas de emaranhamento em dois chips (com nova tecnologia de acoplador). Alcançar portas interchip de alta fidelidade será um marco importante (provavelmente exigindo sincronização e possivelmente nova calibração para esses links entre chips). A vantagem da IBM é que eles preveem combinar isso com sua forte integração de computação clássica (feedback rápido, etc.), então um sistema modular IBM pode agir como um grande computador quântico para o usuário. Por exemplo, você pode ter 4 chips Heron conectados, cada um executando parte de um código de superfície para um qubit lógico maior, etc.

Em termos de espaço, o criostato do IBM System Two é projetado grande o suficiente para abrigar vários chips e as interconexões. Eles usam um refrigerador de diluição hexagonal de 1 m de largura que pode montar vários módulos de chip dentro. Então, fisicamente, eles estão prontos para hospedar milhares de qubits por clustering. Então, a perspectiva de escalabilidade da IBM é: 1000+ módulos únicos de qubit até meados da década de 2020 (Condor), então conectando vários módulos para atingir a escala de 10k-100k até o final da década de 2020 até 2030. O foco da IBM na correção de erros também significa que eles provavelmente não escalarão para milhões de qubits físicos sem uma redução significativa de erros permitindo uma correção de erros mais fácil – mas seu plano é usar esses milhares de qubits físicos para demonstrar qubits lógicos e uma vantagem quântica lógica. Se as taxas de erro continuarem caindo, eles não precisarão de números exorbitantes de qubits físicos para resolver alguns problemas. Mas, em última análise, a computação quântica útil em larga escala ainda implica milhares de qubits lógicos, que no código de superfície poderiam ser milhões de qubits físicos. A aposta da IBM é que a arquitetura modular mais as melhorias contínuas de fidelidade permitirão montar esses milhões a partir de peças de tamanho gerenciável. A conectividade hexadecimal pesada é especialmente boa para ladrilhos: a IBM pode fabricar, por exemplo, um wafer com vários ladrilhos de 156 qubits e, em seguida, cortá-los e montá-los com acopladores conectando-os – bem parecido com como os processadores clássicos multi-core conectam vários dies. Eles já fizeram basicamente uma montagem de 3-Heron. O próximo pode ser uma montagem de 6-Heron para obter ~936 qubits.

Sobre integração: a longa experiência da IBM em empacotamento (vias through-silicone, bump bonding, crio-cabos) é um ponto forte – eles demonstram consistentemente etapas complexas de integração um ou dois anos à frente dos outros (como o primeiro a quebrar a barreira dos 100 qubits, o primeiro a usar integração 3D em larga escala em quantum). Portanto, a abordagem da IBM é altamente escalável em termos de engenharia, embora precise de uma abordagem de cluster além de ~1000 qubits.

USTC Zuchongzhi 3.0

A abordagem da equipe chinesa para dimensionamento é semelhante à do Google/IBM (já que é a mesma tecnologia), com um forte foco em melhorias de fabricação e integração 3D. A principal inovação de dimensionamento do Zuchongzhi 3.0 foi a pilha flip-chip de 2 chips para integrar mais qubits e acopladores sem perda de desempenho. Essa técnica permitiu que eles colocassem 105 qubits (com 182 acopladores) em uma rede bastante densa, enquanto ainda os controlavam efetivamente. Eles provavelmente continuarão usando flip-chip para quaisquer dispositivos maiores. O chefe do grupo, Pan Jianwei, indicou na imprensa que planejam continuar aumentando os números de qubits e talvez também implementar a correção de erros em breve. A China tem um plano quântico nacional, então presumivelmente dimensionar para 200-300 qubits está em seu roteiro. Podemos esperar um Zuchongzhi 4.0 com ~200+ qubits se eles resolverem alguns problemas técnicos (Zuchongzhi 2.0 tinha 66 qubits, 3.0 pulou para 105, talvez 4.0 pudesse mirar 200-300). Eles também podem experimentar diferentes topologias; até agora eles usaram uma grade retangular (15×7 com alguns qubits não utilizados para evitar os ruins, presumivelmente). Possivelmente eles poderiam tentar um dado maior com 20×10 ~200 qubits se os rendimentos permitirem. Usando flip-chip, eles também poderiam integrar ainda mais acopladores ou circuitos de controle. Eles mencionam co-design de leitura multiplexada etc., o que indica que eles incorporarão técnicas para gerenciar a fiação conforme eles escalam. Outro aspecto é que a USTC também poderia tentar a ligação multichip. O grupo de Pan historicamente faz comunicação quântica fotônica, então eles têm experiência em sistemas de ligação. Eles podem tentar um link de fibra óptica entre dois refrigeradores de diluição para entrelaçar dois chips — embora isso seja mais a longo prazo e não seja necessário até que cada chip sature o que um refrigerador pode conter (o que em 100 qubits ainda não aconteceu). Para o curto prazo, é provável que se concentrem em escala monolítica mais correção de erros no chip. Eles também indicaram interesse em demonstrar algoritmos mais complexos (como resolver equações lineares ou simular dinâmica quântica) em seu hardware de próxima geração, o que pode exigir mais qubits ou pelo menos usar os existentes de forma inteligente com medições de circuito médio (o que precisa de QEC ou infraestrutura de feedback). O desafio de integração para a USTC é que eles estão alcançando a eletrônica de controle e o software — historicamente, seu foco era realizar experimentos únicos (como tarefas de amostragem). Para escalar para uma máquina de uso geral, eles precisam de melhores estruturas (compiladores, automação de calibração, etc.). Eles estão trabalhando nisso (o relatório de computação quântica sugere que eles têm um portal da Global Quantum Initiative etc. para mais dados). Em termos de hardware, eles mostraram que podem replicar as conquistas do Google – o que significa que construíram a competência para escalar fabricações. Eles colaboram com o Instituto de Microeletrônica para fabricação de chips; tendo feito chips de 66 e 105 qubits, sugere que eles têm um processo sólido. Se eles resolverem uniformidade e materiais ainda mais (talvez adotando algumas das técnicas da IBM, como metal de tântalo,o que eles fizeram), eles podem continuar aumentando a contagem de qubits. Não está claro se eles têm um plano formal para atingir X qubits até o ano Y, mas as pressões competitivas provavelmente os empurrarão: se a IBM for 433 e 1121, e o Google talvez for 200+, a USTC tentará não ficar para trás. Então, possivelmente, um chip de 200+ qubits da USTC pode sair em um ou dois anos. Eles também provavelmente implementarão a correção de erros quânticos com esses qubits – o que pode limitar o dimensionamento efetivo por um tempo (usando mais qubits para qubits lógicos em vez de contagem bruta para tarefas brutas). A comunidade quântica chinesa também tem grupos separados trabalhando em redes quânticas multinós (por exemplo, entrelaçando qubits supercondutores distantes por meio de conversores de micro-ondas para óptico). Então, no futuro, eles poderiam conectar vários refrigeradores de diluição também. A abordagem é semelhante à visão da IBM de uma rede quântica de processadores. Mas para chegar a milhares ou milhões de qubits, todos, incluindo a USTC, precisarão enfrentar fiação e calor: isso significa multiplexadores crio-CMOS, E/S óptica para alta largura de banda em baixo calor, etc. Não ouvimos falar dos esforços chineses em crio-CMOS, mas dada sua ênfase na integração vertical, eles podem estar desenvolvendo seus próprios chips de controle criogênico. Outro aspecto é o financiamento: a China está investindo pesadamente em quantum, o que é um bom presságio para que eles sejam capazes de tentar projetos de integração em larga escala e custosos.

Em resumo, a arquitetura de Zuchongzhi é tão escalável quanto a do Google, pois é quase a mesma – transmons planares melhorados por flip-chip e materiais. Eles escalarão aumentando gradualmente o tamanho e a complexidade do chip, enquanto mantêm os erros sob controle por meio dessas melhorias de fabricação. Eles já notaram que melhorias na coerência e redução de erros correlacionados são necessárias à medida que escalam – e implementaram medidas para isso. A técnica flip-chip é uma de suas principais contribuições para escalar qubits supercondutores e provavelmente será usada em qualquer dispositivo de próxima geração (por exemplo, adicionando uma terceira camada de chip para roteamento de sinal ainda mais complexo, se necessário). Eles também inovaram em esquemas de redefinição para lidar com ruído térmico com várias rodadas de medição – o que sugere que eles estão pensando em problemas de escala como populações excitadas residuais (um problema conhecido que cresce com o número de qubits, pois mais qubits = mais chance de alguém ser termicamente excitado no início). Eles suprimiram isso ativamente com um esquema de medição tripla e feedback antes de executar os circuitos. Esse tipo de melhoria no nível do sistema mostra que eles estão se preparando para fazer a máquina operar de forma confiável à medida que ela cresce.

Resumo de Escalabilidade e Integração

Cat qubits (AWS) : Unidades modulares de qubits lógicos pequenos, replicadas em massa. Elas reduzem drasticamente a sobrecarga por qubit lógico, tornando a escala para computação quântica útil mais acessível (100k físico para algo útil vs milhões). A fabricação escalável por meio de processos de microeletrônica é uma vantagem.

Qubits topológicos (Microsoft) : Integração monolítica de muitos qubits usando tecnologia de semicondutores. Se concretizado, poderia saltar para contagens de qubits extremamente grandes (milhões) em um chip sem precisar de correção de erros complexa para a maioria dos erros. O desafio está mais em materiais e rendimento, que eles estão enfrentando com ciência de materiais especializada.

Transmons supercondutores (Google/IBM/USTC) : Chips incrementalmente maiores mais interconexões modulares. Eles dependem de empacotamento aprimorado (integração 3D) e, eventualmente, de múltiplos chips em rede. A IBM está na vanguarda da modularidade (chips de ligação), o Google e a USTC se concentraram primeiro na fidelidade de chip único, mas provavelmente adotarão estratégias modulares em breve. Essa abordagem é comprovada até ~100s de qubits agora e espera-se que atinja ~1000 qubits por módulo dentro de alguns anos (roteiro da IBM). Para ir além, todos planejam usar links quânticos entre chips (IBM explicitamente, Google provavelmente com seu conhecimento fotônico, USTC possivelmente com seu histórico de comunicação quântica).

Integração com clássico : Todas as abordagens exigirão uma integração criogênica mais sofisticada conforme a contagem de qubits aumenta. A IBM e o Google estão trabalhando em crioeletrônica (IBM com a equipe de Zurich em amplificadores, Google com Horton et al. em processadores criogênicos). A abordagem da Microsoft reduz as linhas de micro-ondas analógicas (já que seus qubits são controlados por tensões de porta CC em grande parte), o que poderia tornar a integração clássica mais simples em escala – uma vantagem sutil de escalabilidade que geralmente não é destacada: qubits topológicos podem ser mais eficientes em termos de fios , porque você não precisa de um canal AWG gerando pulsos de GHz para cada qubit; em vez disso, você pode definir uma tensão estável ou aumentar lentamente algum parâmetro global para trançamento e usar alguns canais de leitura de micro-ondas. Se for assim, controlar um milhão de qubits Majorana pode ser mais fácil do que um milhão de transmons de uma perspectiva de fiação.

Taxa de erro vs escala : Há também a noção de limite tolerante a falhas fornecendo um gateway de escalabilidade – uma vez abaixo do limite, você pode escalar qubits lógicos arbitrariamente adicionando mais qubits físicos com sobrecarga gerenciável. O Google e a IBM cruzando o limite significa que eles podem escalar a contagem de qubits lógicos adicionando qubits físicos linearmente (com sobrecarga do código de superfície). AWS/Microsoft evitam alta sobrecarga, então, uma vez que eles têm qubits suficientes para executar tarefas significativas, escalar ainda mais aumenta principalmente a capacidade ou resolve problemas maiores diretamente. Então, de uma visão de escalabilidade computacional, todas as cinco abordagens atingiram ou visam atingir em breve o ponto em que adicionar mais qubits se traduz em ganho computacional exponencial (por meio de QEC). Por exemplo, a IBM em 1000 qubits físicos (se toda a qualidade for alta) poderia fazer talvez ~10 qubits lógicos; em 1.000.000 físicos (1000x), eles poderiam, em teoria, obter ~10, talvez 100 qubits lógicos dependendo do código e da sobrecarga – o suficiente para alguns algoritmos interessantes. AWS/Microsoft podem se safar precisando de apenas 100k ou algo assim físicos para tantos lógicos. Google/USTC podem ser semelhantes à IBM em necessidades.

Montagem prática : Em última análise, construir um computador quântico com milhões de qubits será um enorme projeto de engenharia semelhante à construção de um novo supercomputador ou linha de fabricação de chips. A IBM e a Microsoft (e talvez o Google) têm a infraestrutura de escala industrial para tentar isso. A China provavelmente dedicará grandes esforços de laboratório ou novos institutos para isso também. As abordagens como Ocelot e Majorana visam reduzir a escala desse projeto significativamente, resolvendo a correção de erros de forma elegante, e é por isso que são empolgantes, mesmo que estejam atrasadas na contagem de qubits atualmente.

Capacidades Computacionais e Casos de Uso

Cada um desses processadores quânticos de ponta não é apenas uma novidade experimental; eles estão sendo desenvolvidos com certas aplicações-alvo ou demonstrações de capacidade prática em mente. Discutiremos para quais tipos de problemas ou casos de uso cada chip é mais adequado (atualmente ou no futuro), e quaisquer aplicações práticas ou demonstrações pioneiras no mundo que eles tenham alcançado ou estejam almejando.

AWS Jaguatirica

Em sua forma atual, Ocelot é essencialmente uma demonstração de uma memória quântica tolerante a falhas – um qubit lógico que pode armazenar informações quânticas por mais tempo e de forma mais confiável do que um qubit físico. Esta é uma capacidade fundamental e não uma aplicação por si só. No entanto, é o bloco de construção para computação quântica tolerante a falhas escalável, que por sua vez habilita todos os algoritmos quânticos famosos. Então, a importância do Ocelot é que ele aproxima qubits práticos e corrigidos por erros. Em termos de casos de uso de curto prazo, um único qubit lógico poderia ser usado para testar algoritmos que precisam de memória quântica (por exemplo, estimativa de fase em um qubit ou um pequeno nó repetidor quântico para experimentos de rede quântica). Mas o objetivo real é escalar para muitos qubits lógicos e enfrentar grandes problemas: a AWS menciona explicitamente “ resolver problemas de importância comercial e científica além dos computadores convencionais de hoje ” como a missão. Isso inclui coisas como descoberta mais rápida de medicamentos, design de novos materiais, problemas de otimização, criptografia, etc. Com o Ocelot, a AWS está mirando diretamente na computação quântica tolerante a falhas – o que significa que eles querem construir uma máquina que possa executar algoritmos profundos como fatoração de Shor ou busca de Grover em grandes bancos de dados, ou simular sistemas químicos complexos com precisão, todos os quais exigem profundidades de circuito longas (portanto, correção de erros). Ao reduzir a sobrecarga, eles planejam atingir tais capacidades mais cedo. Concretamente, uma vez que a AWS possa produzir, digamos, ~50 qubits lógicos com arquitetura semelhante à do Ocelot, eles poderiam tentar algoritmos como:

Simulação quântica : simular moléculas para encontrar novos catalisadores ou medicamentos. Por exemplo, simular o mecanismo de reação de uma enzima complexa ou um modelo supercondutor de alta temperatura – tarefas com as quais os computadores clássicos lutam. A tolerância a falhas é necessária para atingir a precisão química para moléculas além de ~50 elétrons. A abordagem de Ocelot poderia eventualmente permitir isso com menos qubits físicos.

Criptoanálise : executar o algoritmo de Shor para fatorar números grandes (chaves RSA). Isso requer milhares de qubits lógicos e bilhões de operações. A redução de erros da AWS aborda diretamente a necessidade de menos qubits, tornando essa meta (ainda distante, mas eventualmente) mais atingível. Se o esquema de Ocelot for escalável, talvez fatorar um número RSA de 2048 bits possa precisar da ordem de 100k cat qubits físicos em vez de mais de um milhão de transmons, ao alcance de um futuro data center quântico da AWS.

Otimização : Enquanto os dispositivos NISQ tentam otimizar por meio do algoritmo de otimização aproximada quântica (QAOA) ou recozimento quântico, eles frequentemente encontram problemas de profundidade de erro. Um computador quântico tolerante a falhas pode executar o algoritmo de Grover ou algoritmos de otimização mais sofisticados para obter uma aceleração quadrática na pesquisa ou resolver certas heurísticas de otimização NP-hard com melhor desempenho. Com qubits lógicos do tipo Ocelot, pode-se executar circuitos QAOA mais profundos de forma confiável ou implementar amplificação de amplitude para melhor amostragem. A AWS provavelmente tem clientes interessados ​​em, por exemplo, otimização da cadeia de suprimentos, otimização de portfólio, melhorias de aprendizado de máquina, etc., que um computador quântico robusto pode abordar acelerando tarefas de otimização combinatória ou amostragem de alta dimensão.

Quantum AI/Álgebra Linear : A AWS pode integrar o quantum com sua nuvem clássica para tarefas de ML. Um QC tolerante a falhas pode implementar algoritmos como HHL (quantum linear system solving) ou PCA quântico que podem potencialmente dar acelerações exponenciais na análise de estruturas de dados. Mas estes requerem circuitos estáveis ​​com muitos qubits e portas – novamente no domínio que a abordagem da Ocelot está almejando. Então, futuros sistemas baseados em Ocelot podem ser usados ​​para problemas de álgebra linear em larga escala que aparecem no aprendizado de máquina (como resolver sistemas lineares enormes mais rápido do que o clássico).

A estratégia da AWS é ser a provedora de computação quântica por meio de sua nuvem (Amazon Braket). Então, um caso de uso essencial é disponibilizar esses recursos quânticos avançados corrigidos por erros como um serviço para empresas e pesquisadores. Ocelot é um passo em direção a isso: uma “API de qubit lógico”, por assim dizer. Podemos imaginar um serviço AWS no futuro em que os usuários alocam um certo número de qubits lógicos e executam algoritmos sem se preocupar com erros subjacentes — Ocelot está habilitando esse modelo reduzindo drasticamente a contagem de qubit necessária. Então, em resumo, Ocelot é mais adequado para habilitar algoritmos tolerantes a falhas no início . Ele não resolve um problema do mundo real por si só ainda, mas é um facilitador crucial. A provável primeira demonstração prática que a AWS pode fazer com os descendentes de Ocelot é mostrar uma memória de qubit lógico superando qualquer qubit físico (o que presumivelmente eles têm ou farão, semelhante ao ponto de equilíbrio do Google, mas de uma maneira diferente). Então, talvez demonstre um portão lógico simples ou dois qubits lógicos executando um pequeno algoritmo (como um CNOT lógico e talvez um algoritmo de 2 qubits como destilação de emaranhamento). Os casos de uso definitivos – quebra de criptografia, design de materiais, etc. – estão no horizonte assim que eles escalarem. A AWS frequentemente menciona “acelerar o cronograma em 5 anos” – o que implica que eles acreditam que com essa tecnologia eles poderiam atingir essas principais aplicações, digamos, no início da década de 2030 em vez do final da década de 2030.

Microsoft Majorana-1

O programa quântico da Microsoft se comercializa explicitamente como visando a computação quântica de “escala industrial” para resolver problemas significativos em anos, não décadas. O chip baseado em Majorana, se escalar como esperado, seria capaz de integrar milhões de qubits que poderiam potencialmente lidar com alguns dos algoritmos quânticos mais exigentes. Os principais casos de uso previstos incluem:

Criptografia e Segurança: Com um milhão de qubits topológicos, alguém poderia executar o algoritmo de Shor em chaves grandes de forma bastante direta (especialmente porque a sobrecarga para correção de erros é baixa). A Microsoft menciona quebrar códigos criptográficos como um dos objetivos quando qubits suficientes estiverem disponíveis. Isso está ligado à necessidade de criptografia pós-quântica; ironicamente, a Microsoft também pesquisa algoritmos criptográficos, mas se eles tiverem sucesso em computadores quânticos Majorana, eles podem realmente quebrar os criptosistemas atuais (RSA, ECC) no futuro. Alguém pode pensar em qubits Majorana como pavimentando o caminho para um CRQC (computador quântico criptograficamente relevante) mais cedo.

Química e materiais: Projetar novos medicamentos, catalisadores e materiais é frequentemente citado pela Microsoft. Eles falam sobre combater a poluição, desenvolver novos medicamentos, prever propriedades de materiais. Por exemplo, simular a fixação de nitrogênio (para projetar fertilizantes melhores) ou química de captura de carbono pode exigir a simulação de moléculas como FeMoco (uma molécula grande), que está além da simulação clássica. Um computador quântico com milhares de qubits estáveis ​​poderia potencialmente simular tais moléculas exatamente, levando a avanços em energia limpa ou tecnologia climática. Da mesma forma, projetar supercondutores de alta temperatura ou novos materiais de bateria simulando fases quânticas da matéria é outra aplicação dos sonhos.

Escalando soluções quânticas existentes: Existem algoritmos quânticos para otimização (como otimização binária irrestrita quadrática resolvida por QAOA), aprendizado de máquina (máquinas de vetor de suporte quântico, etc.) e outros que atualmente não podem ser executados em escala útil em hardware NISQ. Se a abordagem da Microsoft produzir uma máquina com, digamos, 1000 qubits quase sem erros, eles poderiam lidar com instâncias maiores desses problemas diretamente. Por exemplo, resolver um grande problema de otimização (como otimizar o fluxo de tráfego em uma cidade ou logística da cadeia de suprimentos para uma empresa global) pode se tornar viável. Eles mencionaram resolver problemas “significativos” para os clientes em um prazo mais curto como uma meta.

A Microsoft frequentemente enfatiza o desenvolvimento full-stack: eles estão preparando software (Azure Quantum, linguagem Q#) que fará interface com o hardware quando estiver pronto. Isso significa que eles provavelmente têm alguns algoritmos específicos em mente que desejam executar em suas máquinas. Eles publicaram um artigo em 2023 sobre algoritmos quânticos para química e materiais (com estimativas de qubits necessários) – tais algoritmos (como estimativa de fase quântica para energias moleculares) estão no topo de sua lista.

Uma capacidade única dos qubits topológicos é a confiabilidade – se cada qubit for estável por longos períodos, circuitos muito profundos podem ser executados. Isso abre algoritmos como correção de erro quântico dos próprios qubits lógicos para um nível ainda mais alto (concatenação para erro extremamente baixo) ou circuitos de simulação longos que iteram muitas vezes. Por exemplo, alguns algoritmos quânticos exigem processamento iterativo (como solucionadores de sistemas lineares quânticos com muitas iterações); estes se beneficiariam da longa coerência.

Em termos de aplicações demonstradas até agora, Majorana-1 ainda está no estágio de demonstração de física. Eles ainda não resolveram nenhum problema algorítmico com ele, já que acabaram de confirmar a existência do qubit. Os próximos passos podem ser mostrar uma operação de qubit topologicamente protegida (como uma trança resultando em uma fase determinística – que é como um portão robusto) e então potencialmente demonstrar um algoritmo simples como uma busca Deutsch-Jozsa ou Grover de 2 qubits em um pequeno banco de dados, mas feito de forma tolerante a falhas. Esses seriam problemas de brinquedo, mas mostrariam a viabilidade de operações de lógica quântica com os novos qubits.

Olhando para o futuro, se os qubits Majorana escalarem para muitos, a Microsoft poderia pular diretamente para resolver coisas para as quais outros precisariam de correção de erros. Por exemplo, fatorar um número de 256 bits pode exigir talvez 1000 qubits Majorana com alguma sobrecarga (se a injeção de porta T fosse necessária, talvez alguns milhares). Isso é muito menos do que os milhões de transmons físicos que um concorrente pode precisar. Então, uma potencial primeira aplicação real de um computador quântico baseado em Majorana poderia de fato ser fatorar um grande número ou calcular um logaritmo discreto, essencialmente quebrando uma instância específica de RSA ou ECC. Esta seria uma conquista de manchete com significado prático (demonstrando a necessidade de mudar para criptografia pós-quântica).

Outra aplicação menor de curto prazo: detecção quântica/memória qubit topológica. Como os qubits Majorana são estáveis, pode-se imaginar usar um único qubit Majorana como uma memória para armazenar um estado quântico (como de um sensor ou outro sistema quântico) por um período estendido e então recuperá-lo. Isso está mais no lado da rede quântica – como um elemento de memória repetidor quântico. A tecnologia da Microsoft poderia contribuir nisso: um qubit Majorana poderia manter o emaranhamento até que fosse necessário, o que é útil para redes emaranhadas de longa distância (embora sua leitura atual seja local, com alguma integração, ele poderia se conectar a links fotônicos).

Em resumo, os computadores quânticos baseados em Majorana são projetados para os problemas computacionais mais difíceis : quebrar criptografia, modelar com precisão moléculas e materiais complexos e resolver problemas de otimização em larga escala ou álgebra linear que estão muito além do alcance clássico. A Microsoft diz explicitamente que um computador quântico topológico de tamanho suficiente ” será capaz de resolver problemas significativos em escala industrial “, o que inclui coisas como produção aprimorada de fertilizantes (abordando a fome mundial), descoberta de novos medicamentos mais rapidamente (saúde) e talvez até mesmo aceleração do aprendizado de máquina (imagine executar algoritmos quânticos para acelerar o treinamento de modelos de IA). Sua ênfase em “anos, não décadas” é ousada – eles estão essencialmente sugerindo que podem atingir alguns desses em, digamos, <10 anos. Se sua abordagem funcionar totalmente, isso pode estar dentro do razoável. Mas, a partir de agora, o caso de uso demonstrado do Majorana-1 está limitado a ser um qubit estável – o próximo ano ou dois revelará mais à medida que eles publicarem resultados em operações multi-qubit.

Google Salgueiro

O foco do caso de uso do Google tem sido duplo: mostrar vantagem quântica (o que eles fizeram com amostragem aleatória) e impulsionar em direção a uma “computação além da clássica útil” relevante para problemas do mundo real. Eles declararam abertamente que o próximo desafio é demonstrar uma computação além da clássica que realmente tenha relevância prática, por exemplo, em ciência de materiais ou aprendizado de máquina, usando os chips da geração Willow.

Atualmente, o Google usa seus chips para:

Experimentos de supremacia quântica : Isso não foi útil por si só, mas provou um ponto.

Experimentos de correção de erros quânticos : Este é um trampolim para algoritmos futuros, mostrando que eles podem preservar informações por mais tempo.

Simulações de física : o Google fez experimentos como simular um cristal de tempo discreto em um processador quântico (com 20 qubits no Sycamore) – esta é uma aplicação de física (estudando uma fase de não equilíbrio da matéria). Com a coerência mais longa de Willow e mais qubits, eles poderiam simular sistemas quânticos maiores ou observar novos fenômenos na dinâmica quântica que a simulação clássica não pode. Por exemplo, eles podem simular o caos quântico em um sistema de spin de 100 qubits ou fazer um cálculo de química quântica maior do que antes.

Algoritmos básicos : Eles implementaram pequenas instâncias de algoritmos como a busca de Grover e QAOA em chips anteriores (principalmente como demos). Com Willow, eles poderiam executá-los em mais qubits ou em maior profundidade. Por exemplo, eles podem tentar QAOA para um problema de corte máximo em um gráfico grande o suficiente para que algoritmos clássicos tenham dificuldades, para ver se alguma vantagem surge. Ou executar uma versão do algoritmo HHL para resolver um sistema linear que está um pouco além de uma força bruta clássica. Esses seriam pequenos passos em direção à computação quântica útil e podem não superar os métodos clássicos ainda, mas eles preparam o cenário.

Os objetivos finais do Google são semelhantes aos de outros:

Química quântica : Pichai (CEO do Google) mencionou possíveis avanços como o desenvolvimento de novos fertilizantes ou a otimização de baterias como motivadores para a computação quântica. O Google AI e o Google Research têm equipes trabalhando em algoritmos de simulação quântica para química. Podemos ver o Google usar o Willow ou seus sucessores para simular uma molécula como diazeno ou etileno com interação de configuração completa, algo que apenas pequenos clusters clássicos podem fazer agora. Eventualmente, eles visariam algo como FeMoco (sítio ativo da nitrogenase) ou um mecanismo de reação complexo.

Aprendizado de máquina : o Google tem a equipe do TensorFlow Quantum explorando ML híbrido quântico-clássico. Um caso de uso poderia ser usar um computador quântico para acelerar partes de um pipeline de ML, por exemplo, usar kernels quânticos para classificação em um conjunto de dados que é difícil para kernels clássicos ou usar amostragem quântica para ajudar a treinar uma máquina de Boltzmann. Se eles encontrarem uma vantagem, eles poderiam incorporá-la às ofertas de IA do Google (por exemplo, sistemas de recomendação assistidos por quantum ou modelos generativos quânticos). Isso é de longo prazo, mas a dupla força do Google em IA e QC significa que eles estão bem posicionados para tentar aplicações de aprendizado de máquina quântica quando o hardware permitir.

Otimização/Finanças : Embora o Google não tenha como alvo as finanças tão explicitamente quanto a IBM (que trabalha com bancos para análise de risco quântico), esses são algoritmos gerais que qualquer QC pode fazer. O Google poderia demonstrar, por exemplo, uma otimização de portfólio de prova de conceito com QAOA além de 5 qubits, ou uma otimização de agendamento (como suas próprias tarefas de otimização de roteamento de tráfego ou servidor) usando uma abordagem quântica.

Materiais e física : O Google pode usar seu QC para simular modelos de matéria condensada – por exemplo, explorando a supercondutividade de alta temperatura simulando o modelo Fermi-Hubbard em uma rede de qubits. Eles publicaram um artigo científico simulando uma versão simplificada com 4×4 = 16 qubits em Sycamore. Com os 100 qubits de Willow, eles poderiam simular uma rede de Hubbard maior de 10×10, o que poderia gerar insights sobre correlações de elétrons relevantes para supercondutores. Essa é uma pesquisa de física de ponta com implicações práticas para o design de materiais.

Em termos de usos práticos demonstrados até agora: nenhum que resolva um problema do mundo real não resolvido anteriormente. Mas o Google indicou algumas metas de marco:

Vantagem quântica em uma tarefa útil : talvez demonstrando que para um problema específico (como amostragem de uma distribuição quântica relevante para um problema de química ou resolução de uma pequena instância de uma otimização combinatória) o quântico se sai melhor do que a heurística clássica. Se eles conseguirem isso, seria uma grande validação para aplicabilidade no mundo real. Eles estão ativamente perseguindo essa “supremacia quântica útil”.

A parceria do Google com a Volkswagen no passado observou a otimização do fluxo de tráfego em um annealer D-Wave (que não era claramente melhor, mas eles experimentaram). Com um QC de portão como o Willow, eles podem revisitar essa otimização logística de uma forma algorítmica diferente.

Outro caso de uso interessante é a memória quântica corrigida de erros como serviço : se o Google aperfeiçoar os qubits lógicos, eles poderão conceber a oferta de memória quântica segura ou serviços de verificação (como geração de números aleatórios verificáveis, com os quais eles já fizeram experimentos com um chip quântico gerando aleatoriedade certificável, o que é útil em criptografia) – esse foi um dos resultados do experimento de amostragem aleatória (ele gerou bits aleatórios com um certificado de fidelidade).

Por enquanto, a coisa mais prática que o Google fez foi gerar esses bits aleatórios certificados (que alguns argumentam que poderiam ser usados ​​para chaves criptográficas, mas dado o tempo de amostragem e a sobrecarga, ainda não é comercial). Eles também colaboraram com outros para usar a computação quântica para computações científicas específicas (como simular a cinética química de uma reação).

Em resumo, o Willow do Google é mais adequado para tarefas de curto prazo em simulação quântica e para demonstrar o caminho para a tolerância a falhas . Eles provavelmente o usarão ou suas próximas iterações para:

  • Investigando a física quântica (transições de fase quântica, dinâmica)
  • Demonstrações de algoritmos quânticos em pequena escala (para validar algoritmos na prática, como algoritmos variacionais para pequenos problemas)
  • Abrindo caminho para algoritmos de correção de erros (eles já mostraram qubits lógicos, o próximo passo é executar uma operação lógica ou um algoritmo em um qubit lógico).

Uma vez que eles tenham um punhado de qubits lógicos, os casos de uso prováveis ​​serão simulação de precisão (por exemplo, calcular uma energia molecular para precisão química, que é algo que o clássico não pode fazer além de pequenas moléculas). Essa poderia ser uma primeira demonstração útil, impactando as comunidades de química e ciência de materiais ao fornecer um resultado que eles não conseguiriam de outra forma. O Google tem uma parceria com o Fermilab em simulações quânticas para física, então talvez simular uma pequena teoria de gauge de rede (relevante para a física de partículas) também poderia ser um alvo – o que seria uma contribuição científica fora da computação em si.

IBM Heron R2

A abordagem da IBM para casos de uso é muito ampla e orientada ao usuário, graças à sua IBM Quantum Network de parceiros (laboratórios de pesquisa, empresas explorando soluções quânticas). Eles têm buscado ativamente casos de uso em química, finanças e otimização/IA com seu hardware inicial por meio da experiência quântica e Qiskit Runtime.

Atualmente, a IBM obteve algum sucesso em:

Química quântica : a IBM demonstrou a maior simulação quântica da energia do estado fundamental de uma molécula usando 127 qubits (embora com mitigação de erro pesada) – eles simularam parte de um modelo de spin que imita o comportamento de uma molécula (eles chamam isso de experimento de “utilidade” que estava relacionado à química de baterias). Eles trabalharam com a Daimler em química quântica para baterias e com a JSR em química quântica para materiais. Embora ainda sejam exploratórios, a IBM pretende eventualmente integrar a computação quântica ao fluxo de trabalho de descoberta química. A capacidade do Heron R2 de executar circuitos de 5.000 portas significa que eles podem fazer simulações mais precisas ou ansätze variacionais mais profundas do que antes, o que pode gerar melhores resultados para esses clientes.

Finanças : A IBM colabora com instituições financeiras como JPMorgan e Mitsubishi UFJ para explorar a precificação de opções e análise de risco usando algoritmos quânticos (como estimativa de amplitude quântica para simulação de Monte Carlo). Uma pequena aceleração foi demonstrada pela IBM na precificação de opções ao fazer estimativa de amplitude com mitigação de erro em um sistema de 7 qubits versus Monte Carlo clássico. No futuro, com um computador quântico corrigido para erros, a estimativa de amplitude pode dar acelerações quadráticas em Monte Carlo (importante para cálculos de risco, otimização de portfólio, etc.). Então a IBM vê a análise de risco financeiro, otimização de portfólio, precificação de derivativos como casos de uso chave. Eles fizeram protótipos no hardware atual (como uma prova de conceito de 2 qubits de aceleração quadrática na precificação de derivativos).

Cadeia de Suprimentos e Otimização : A IBM trabalhou no uso de QAOA para problemas de agendamento (por exemplo, otimizando operações de estaleiro com a Mitsubishi Heavy Industries ou otimização de rede de telecomunicações com a Vodafone). Sua abordagem geralmente usa máquinas atuais para resolver pequenas instâncias e comparar com as clássicas, para aprender como melhorar algoritmos. Uma vez que eles tenham máquinas maiores (como Heron R2 e além), eles podem lidar com instâncias maiores. Eles preveem que com mais de 1000 qubits de alta qualidade, QAOA ou outros algoritmos podem atingir regimes onde os métodos clássicos têm dificuldades (especialmente se combinados com pós-processamento clássico inteligente).

Aprendizado de máquina : a IBM explorou kernels quânticos e classificadores variacionais. Eles estão de olho no processamento quântico de linguagem natural e outros métodos inovadores de ML (um de seus pesquisadores criou algoritmos QNLP testados em hardware pequeno). Com mais qubits, eles poderiam incorporar conjuntos de dados maiores no espaço de Hilbert para tarefas de classificação ou fazer mapeamento de recursos que os kernels clássicos não conseguem replicar facilmente.

Computação científica : a IBM colabora com laboratórios nacionais na simulação de física. Por exemplo, simular modelos de rede em física nuclear ou simular turbulência (aplicando algoritmos quânticos a equações diferenciais) são tópicos que eles analisam. Eles também usaram um dispositivo anterior de 65 qubits para simular uma teoria de campo quântico simples (teoria de calibre Z2 em rede pequena). Com 156 qubits, eles poderiam simular uma rede maior ou um modelo mais complexo.

HPC assistido por quantum : a visão da IBM de supercomputação centrada em quantum significa integrar processadores quânticos como aceleradores em fluxos de trabalho de HPC clássicos. Um cenário concreto: usar um módulo quântico para computar algo como uma função de partição ou um elemento de matriz que é difícil para o clássico, dentro de uma simulação maior. Isso pode ser aplicado em modelagem climática ou códigos de HPC de design de materiais.

A primeira aplicação prática provável da IBM pode vir na forma de vantagem quântica em um problema específico da indústria . Eles estão tentando coisas como:

  • Provando uma vantagem quântica na precificação de opções ou cálculo de risco financeiro. Por exemplo, se eles podem fazer um Monte Carlo de alta dimensão mais rápido com uma rotina quântica em uma máquina com correção de erros do que o melhor Monte Carlo clássico em um supercomputador, isso seria uma aplicação clara (os bancos poderiam precificar derivativos complexos mais rápido ou com mais precisão).
  • Simular com precisão uma molécula ou material de tamanho médio – algo como a taxa de reação de um catalisador químico, que os químicos não conseguem obter apenas com a simulação clássica. Alcançar precisão química em tal simulação impactaria diretamente a engenharia química.
  • Otimizar um sistema do mundo real – como otimizar a programação de trens para uma ferrovia nacional ou o roteamento da cadeia de suprimentos para um varejista global melhor do que os métodos clássicos de pesquisa operacional. Se fizerem isso, poderão economizar dinheiro real e ser um sucesso comercial. Isso provavelmente precisa de qubits corrigidos por erros para um impulso substancial, mas talvez um cenário de médio prazo sejam algoritmos híbridos que produzem boas soluções aproximadas com ajuda quântica.

A IBM vem preparando clientes por meio de seu programa Quantum Accelerator para estarem prontos para usar soluções quânticas assim que elas superarem as clássicas. Eles frequentemente mencionam “aplicações de vantagem quântica” esperadas na década de 2020 em áreas como descoberta de medicamentos e risco financeiro. Então eles claramente miram nesses campos.

Enquanto isso, a IBM também realizou casos de uso divertidos, como geração de música quântica ou jogos quânticos (para divulgação), mas esses não são usos práticos, apenas educacionais.

Atualmente, a IBM tem mais de 5.000 circuitos de fidelidade de porta, o que significa que eles podem começar a lidar com circuitos mais profundos exigidos por algoritmos como estimativa de amplitude (que precisam de circuitos profundos). Eles mostraram recentemente uma aceleração de 50x na execução desses circuitos, o que significa que por meio de melhorias e fidelidade do CLOPS, eles basicamente podem fazer em algumas horas o que costumava levar dias em hardware anterior. Isso sugere que, no curto prazo, a IBM pode ser capaz de executar algo como uma estimativa de amplitude de 100 iterações para um problema financeiro – o que seria uma pequena demonstração de vantagem quântica se eles conseguissem superar o erro de amostragem clássico no mesmo tempo de computação.

A IBM também enfatiza a mitigação de erros como uma forma de obter resultados úteis mais cedo. Eles recentemente usaram a mitigação de erros para executar um circuito de 127 qubits e 60 camadas para estimar uma quantidade física com algum sucesso. Esse é um tipo de computação útil (se essa quantidade fosse algo necessário em uma simulação).

Portanto, o plano da IBM é um continuum: usar a mitigação de erros no hardware atual para fazer o máximo possível em otimização de química/materiais/finanças e, então, fazer a transição para hardware com correção de erros (como no final da década de 2020) para desbloquear soluções completas.

Os principais casos de uso continuam sendo:

  • Química (novos catalisadores, materiais para baterias ou semicondutores)
  • Finanças (risco, otimização, detecção de fraudes, talvez via ML)
  • Cadeia de suprimentos/logística (grandes problemas de otimização, por exemplo, otimização de rotas para entrega, otimização de processos de fabricação)
  • IA/ML (menos enfatizado pela IBM em comparação ao Google, mas eles exploram, por exemplo, modelos generativos quânticos para dados).

A ampla abordagem da IBM com parcerias significa que podemos ver um de seus parceiros anunciar um resultado aprimorado quântico em seu domínio como uma das primeiras aplicações do mundo real. Por exemplo, talvez um parceiro da IBM em materiais automotivos encontre uma nova liga leve por orientação de simulação quântica, ou um banco encontre uma estratégia de portfólio ligeiramente melhor por meio de análise de risco quântico. Essas podem ser melhorias incrementais no início, mas mesmo uma pequena vantagem em finanças ou materiais pode ser valiosa.

USTC Zuchongzhi 3.0

O foco principal até agora tem sido demonstrações fundamentais (vantagem quântica em amostragem aleatória). No entanto, o programa quântico da China certamente também visa impactos no mundo real, especialmente em:

Criptografia : A China está muito interessada em comunicação quântica e segurança (eles têm um satélite quântico, redes QKD, etc.). Um computador quântico poderoso (como as futuras iterações de Zuchongzhi) poderia quebrar a criptografia convencional – uma razão pela qual eles investem em computadores quânticos e criptografia pós-quântica. Então, como outros, fatoração e log discreto são casos de uso eventuais. Pesquisadores chineses otimizaram algoritmos como fatoração; eles certamente tentariam se o hardware permitisse.

Produtos farmacêuticos e materiais : a China tem uma grande indústria farmacêutica e de materiais, e um computador quântico poderia ajudar a descobrir novos medicamentos ou melhores materiais (como catalisadores para energia verde, que é uma prioridade nacional para metas de pico de carbono). A USTC provavelmente aplicará algoritmos quânticos para simular estruturas moleculares ou dinâmicas de reação em conjunto com seus químicos. Eles têm fortes departamentos de química e física possivelmente colaborando. Por exemplo, simular reações químicas complexas relevantes para a química industrial (síntese de amônia, redução de CO2) poderia ser uma aplicação.

IA : O governo chinês tem uma grande iniciativa em IA. O aprendizado de máquina quântica pode ser atraente se puder dar uma vantagem. Alguns grupos chineses trabalham em redes neurais quânticas e coisas assim. Se Zuchongzhi melhorar, eles podem tentar executar modelos de rede neural quântica (como máquinas de Boltzmann quânticas ou modelagem de sequência quântica). Mas isso ainda é acadêmico; nenhuma vantagem clara foi demonstrada.

Otimização : A China tem enormes redes de logística (por exemplo, suas redes de entrega e fabricação). Um computador quântico poderia ser aplicado para otimizar a programação de fábricas, roteamento de tráfego ou gerenciamento de rede elétrica. A academia chinesa (como CAS e outras) também faz pesquisas sobre algoritmos de otimização quântica. Possivelmente eles testarão isso em seu hardware para problemas governamentais relevantes específicos (como otimizar horários de trens de alta velocidade ou algo assim).

Pesquisa científica : Simular a física da matéria condensada (como supercondutores de Tc alto ou ímãs frustrados) pode ser um objetivo científico, já que a China investe pesadamente em pesquisa de física. Se seu QC puder simular um modelo que produza insights sobre um fenômeno (como por que um certo material superconduz a uma temperatura X), isso seria um avanço científico com eventuais implicações tecnológicas (projetar novos supercondutores).

No momento, o conhecido “aplicativo” de Zuchongzhi estava realizando uma tarefa (amostragem aleatória) extremamente além do alcance clássico – que, curiosamente, foi lançada como uma forma de gerar números aleatórios certificados (assim como a saída do Google). Em um contexto chinês, números aleatórios de altíssima qualidade poderiam ser usados ​​para segurança nacional (por exemplo, one-time pads, mas você precisaria que eles confiassem no método de geração). Então, talvez eles considerem usar as saídas do circuito aleatório do computador quântico como uma fonte aleatória (embora eles tenham QKD, etc., então eles têm outras fontes aleatórias).

Eles publicaram um artigo onde descrevem o RCS de um milhão de amostras como “ estabelecendo firmemente um novo padrão em vantagem computacional quântica ” e mencionam que ele abre as portas para investigar “complexidade de circuitos na resolução de problemas do mundo real”. Isso sugere que agora que eles atingiram esse marco técnico, eles querem mudar para a complexidade de circuitos do “mundo real”, o que significa tarefas mais estruturadas.

Com 105 qubits, eles poderiam tentar uma pequena simulação de química como o Google fez. Talvez eles façam isso, para não ficarem para trás nessa área.

Além disso, os projetos nacionais da China provavelmente incentivam o uso da computação quântica para coisas como design de medicamentos (especialmente novos antibióticos ou antivirais) – o que é estratégico – ou novos materiais para fabricação e defesa.

Eles também investem em institutos de IA quântica (por exemplo, a Baidu tem uma divisão de computação quântica com foco em ML quântico). Possivelmente, empresas de tecnologia chinesas como a Baidu ou a Alibaba podem colaborar para usar protótipos Zuchongzhi para tarefas como otimização de sistema de recomendação ou análise de dados para mostrar uma “vantagem quântica em IA”.

Por enquanto, o Zuchongzhi da USTC é uma ferramenta de pesquisa. Ele não fez um cálculo prático além de provar um ponto. Mas as capacidades que ele mostrou (muitos qubits emaranhados, fidelidade moderada) podem ser direcionadas para uma demonstração em simulação quântica em breve. Suspeito que um marco futuro pode ser:

  • Simular um modelo de spin (como o modelo Ising ou XY) com >60 qubits e medir algo como magnetização ou transição de fase que a simulação clássica não consegue fazer facilmente nesse tamanho, fornecendo assim novos insights de física.
  • Implementar um código de correção de erros (como distância de código de superfície 3 ou 5) para mostrar que eles também podem fazer QEC. Esta não é uma aplicação, mas uma etapa necessária para qualquer aplicação futura – provavelmente em curto prazo.
  • Tentando QAOA ou Grover em um pequeno conjunto de dados reais para ver se eles podem superar o clássico para aquele caso específico.

Como a China também tem um forte interesse estatal em superar as conquistas ocidentais, eles podem ter como objetivo ser os primeiros em alguma demonstração. Eles já igualaram o Google em supremacia quântica. Talvez eles tentem ser os primeiros a demonstrar, por exemplo, um algoritmo inteiro fatorando um grande número (talvez não RSA 2048, mas algo que supere recordes anteriores usando uma combinação de pré/pós-processamento clássico e etapas quânticas). Se eles puderem fatorar, digamos, um número de 9 ou 10 dígitos usando Shor’s (o que ninguém fez ainda totalmente corrigido de erros), isso seria uma grande notícia, embora ainda não ameace o RSA. Isso mostraria a progressão em direção a esse objetivo.

Outro interesse fundamental é a comunicação quântica e as redes : eles podem integrar seu computador quântico com linhas de comunicação quântica, como teletransportar um estado de um fóton para os qubits supercondutores ou vice-versa. Esta seria uma demonstração ligando a computação quântica com a comunicação quântica (algo que o Ocidente também tenta, mas a China lidera em QKD de longa distância, então eles podem tentar incorporar um repetidor quântico com um pequeno nó de computador quântico para corrigir erros na distribuição de emaranhamento).

Em resumo, os usos futuros do Zuchongzhi 3.0 se alinham com os do Google/IBM : simulação quântica de química e materiais, otimização para processos industriais e criptografia. Como é um projeto de laboratório nacional, eles se concentrarão em coisas com impacto científico ou estratégico. As próximas aplicações provavelmente ainda estarão dentro da pesquisa – por exemplo, resolver um problema científico que estava em aberto. Então, em longo prazo, pegar carona nisso para resultados práticos (como se eles simulassem um material e encontrassem um novo catalisador que reduzisse o consumo de energia industrial em 10%, isso seria uma grande vitória prática).

Eles não se envolveram com a indústria tão abertamente quanto a IBM (nenhuma menção de empresas chinesas usando suas máquinas até agora, até onde eu saiba), mas isso pode acontecer a portas fechadas com empresas estatais ou algo assim. Possivelmente a rede elétrica chinesa ou uma grande empresa química pode testar discretamente algoritmos quânticos com a equipe da USTC.

Resumo das capacidades computacionais e casos de uso

No geral, em todos os cinco: Os casos de uso final convergem: quebra de criptografia (segurança nacional), descoberta de novos materiais/medicamentos (benefício econômico e social), otimização (logística, finanças, etc. – economizando dinheiro ou tempo diretamente) e aprendizado de máquina/IA (melhoria de algoritmos que são essenciais para a tecnologia).

O cronograma é diferente: AWS e Microsoft têm menos qubits agora, mas visam chegar a esses usos finais focando em saltos de tolerância a falhas. IBM e Google têm mais qubits agora e estão tentando usos intermediários com mitigação de erros enquanto constroem em direção à tolerância a falhas um pouco mais gradualmente.

Muitos dos usos demonstrados até agora são científicos ou de prova de conceito (nenhum computador quântico realmente resolveu um problema comercial melhor do que um computador clássico até agora). Mas dentro dos próximos anos, esperamos ver as primeiras instâncias de vantagem quântica para um problema útil – talvez uma simulação química dando um resultado não obtido classicamente, ou uma otimização onde o quântico dá um resultado heurístico melhor do que os clássicos conhecidos. Cada um desses sistemas está pronto para contribuir para isso:

  • A IBM pode mostrar vantagem em uma otimização ou simulação por meio de mitigação pesada de erros ou correção antecipada de erros.
  • O Google pode fazer isso por meio de uma simulação cuidadosa e além do clássico de um sistema físico ou de um problema combinatório, usando sua vantagem em fidelidade.
  • A AWS/Microsoft pode fazer isso mais tarde, mas de forma mais decisiva, por meio de qubits corrigidos por erros, se sua tecnologia amadurecer (como executar um algoritmo de Shor completo em um número não trivial ou simular com precisão um sistema químico complexo).
  • A USTC pode surpreender ao alavancar a contagem de qubits e a fidelidade decente para tentar uma nova demonstração de vantagem quântica em alguma tarefa estruturada (como álgebra linear quântica).

Por fim, vale a pena notar um spin-off prático: geração de números aleatórios via circuitos de supremacia quântica (Google e USTC mencionam isso). Isso poderia ser comercializado como um serviço (bits aleatórios certificados para criptografia). É um nicho, mas uma aplicação direta de sua capacidade atual. É discutível o quão “prático” isso é (já que existem métodos mais simples para obter bits aleatórios), mas se alguém precisa de números comprovadamente imprevisíveis com suposições mínimas, os circuitos de supremacia quântica podem fornecer isso.

Concluindo, cada um dos cinco chips mais recentes contribui para que a computação quântica passe de pura demonstração a uma ferramenta para resolver problemas reais:

  • AWS Ocelot – foca na confiabilidade para eventualmente executar qualquer algoritmo que exija circuitos longos (possibilitando grandes avanços em criptografia, química, etc., em menos qubits).
  • Microsoft Majorana-1 – visa escalabilidade massiva para aplicações igualmente amplas (com a esperança de abordar alguns dos problemas computacionais mais difíceis da humanidade, como descoberta de medicamentos e ciência de materiais, dentro de uma década).
  • Google Willow – atualmente um animal de carga para explorar física quântica e protótipos de algoritmos, com o objetivo de curto prazo da primeira vantagem quântica útil (provavelmente em simulação ou computação especializada) e o objetivo de longo prazo de um computador universal tolerante a falhas para todas as aplicações.
  • IBM Heron R2 – atualmente alimentando experimentos em campos variados por meio de seu ecossistema; eles provavelmente estarão entre os primeiros a integrar a computação quântica em fluxos de trabalho de negócios reais (como análise de risco ou design de material) de forma limitada, mas significativa, talvez dentro de alguns anos se sua mitigação de erros e progresso de escala permitirem uma ligeira vantagem sobre o clássico em alguns casos de nicho. A longo prazo, a IBM claramente visa a computação universal tolerante a falhas para amplas aplicações como modelagem climática, otimização global, etc., entregues via nuvem.
  • USTC Zuchongzhi 3.0 – até agora usado para benchmarks fundamentais, mas com o apoio de um esforço nacional que se voltará para a aplicação da computação quântica a problemas estratégicos (química para energia, criptografia, materiais avançados para tecnologia e defesa, etc.). Em alguns anos, poderemos ver computadores quânticos chineses usados ​​para, digamos, simular um novo material de célula solar de alta eficiência ou otimizar uma rede de suprimentos complexa, como demonstração de recuperação ou superação de esforços ocidentais em computação quântica útil.

Cada chip, por meio de seus avanços, aproxima a comunidade da era em que os computadores quânticos saem dos laboratórios e entram na solução de problemas impactantes na ciência, indústria e segurança nacional. A sinergia de melhorar a contagem de qubits, coerência e correção de erros é um bom presságio para alcançar essas cobiçadas aplicações práticas em um futuro próximo.

Implicações para o Dia Q

Os avanços coletivos da AWS, Microsoft, Google, IBM e Zuchongzhi fortalecem significativamente a perspectiva de alcançar a supremacia quântica (ou computação além da clássica) em problemas práticos e aceleram a aproximação do que os especialistas em segurança cibernética chamam de “Dia Q”, o dia em que um computador quântico pode quebrar a criptografia de chave pública .

Q-Day se refere a quando um computador quântico pode quebrar criptografia padrão como RSA ou ECC executando o algoritmo de Shor para fatoração ou log discreto. Para quebrar, digamos, RSA de 2048 bits, as estimativas frequentemente citam a necessidade de algo em torno de 20 milhões de qubits ruidosos, ou talvez alguns milhares de qubits lógicos corrigidos por erros com longa coerência.

Antes desses desenvolvimentos recentes, muitos especialistas previram um cronograma de pelo menos uma década ou duas para essa escala — geralmente em meados da década de 2030 ou além. Como esses anúncios afetam isso? Eles certamente indicam um progresso mais rápido em direção a qubits mais estáveis. A alegação da Microsoft de um chip de um milhão de qubits, se concretizada nos próximos 5 a 10 anos, seria uma virada de jogo — um milhão de qubits topológicos pode ser capaz de quebrar o RSA com muito menos do que isso em qubits lógicos (já que cada qubit topológico já é como um qubit lógico). Mesmo que a Microsoft esteja otimista, seu sucesso pelo menos estimularia os concorrentes. A redução de sobrecarga da AWS em 10× significa que, em vez de precisar, hipoteticamente, de 1 milhão de qubits físicos para um forte ataque criptográfico, pode-se precisar de apenas 100k (se sua abordagem puder ser dimensionada para portas lógicas, o que ainda precisa ser comprovado). A demonstração de limite do Google é mais incremental, mas basicamente prova que o paradigma necessário para que um computador quântico criptograficamente relevante funcione: você pode dimensionar qubits supercondutores com correção de erros.

Agora é uma questão de engenharia atingir o tamanho necessário. A integração e a abordagem modular da IBM visam diretamente a escalabilidade — a IBM fala abertamente sobre sistemas de mais de um milhão de qubits combinando módulos na próxima década (seu roteiro prevê atingir 1121 qubits em 2024 com o Condor, e depois em sistemas modulares). Com todo esse ímpeto, algumas previsões podem mudar um pouco mais cedo. Onde antes muitos pensavam que um CRQC poderia não aparecer até ~2035 ou mais tarde, agora estou prevendo o início da década de 2030. Esses novos desenvolvimentos provavelmente aumentam essa probabilidade. Já, agências governamentais (como o NIST e a NSA nos EUA) estão migrando para a criptografia pós-quântica em antecipação a possíveis avanços antes de 2030.

É importante ressaltar que ainda há um longo caminho entre demonstrar um punhado de qubits lógicos e fatorar um número de 2048 bits . Para executar o algoritmo de Shor para RSA-2048, uma estimativa está precisando de cerca de 4.000 qubits lógicos com taxas de erro em torno de 10 -15 e bilhões de operações de gate. O experimento do Google mostrou erro ~10 -3 com 1 qubit lógico; eles precisariam chegar a ~10 -15, que é outra supressão de 12 ordens de magnitude – exigindo mais qubits e mais níveis de codificação ou concatenação mais longa. No entanto, esses desenvolvimentos sugerem que os blocos de construção estão se unindo: se a abordagem de uma empresa vacilar, a de outra pode ter sucesso. Por exemplo, se os qubits supercondutores não conseguem atingir a escala necessária a tempo, mas os qubits Majorana conseguem, o resultado (um grande computador quântico) ainda acontece. Ou qubits bosônicos poderiam complementar a supercondução para reduzir drasticamente a sobrecarga. Há até mesmo um cenário em que essas inovações se combinam – que o usuário especificamente nos pediu para considerar: E se essas empresas integrassem as melhores inovações umas das outras?

Se AWS, Microsoft, Google, IBM e Zuchongzhi de alguma forma juntassem seus avanços, alguém poderia imaginar uma máquina híbrida com, digamos, os qubits topológicos da Microsoft como base (para memória estável), os algoritmos de código de superfície do Google rodando sobre eles para lidar com quaisquer erros residuais, os qubits bosônicos da AWS usados ​​para memórias de alto desempenho ou links de comunicação (já que os modos bosônicos também podem ser usados ​​para comunicação em princípio) e a integração modular e de software da IBM conectando tudo isso. Tal máquina poderia, em teoria, comprimir drasticamente a linha do tempo. Por exemplo, o chip de um milhão de qubits da Microsoft (se alcançado) mais a correção de erros comprovada do Google poderia produzir milhares de qubits lógicos bem rápido (já que se cada 1 de 4 Majoranas for um qubit com erro 10 -6 , alguém poderia então corrigir esses códigos de superfície para 10 -15 com talvez uma distância de ~3 ou 5, já que eles já são muito bons). O know-how da IBM na construção de grandes sistemas criogênicos e coprocessadores clássicos rápidos seria essencial para controlar uma matriz de milhões de qubits (nenhum laboratório executou tantos qubits; a experiência da IBM com 433 e integração multichip ajudaria). Os qubits bosônicos da AWS podem ser particularmente úteis na camada de leitura e comunicação: por exemplo, estados cat podem ser usados ​​para distribuir o emaranhamento de uma forma protegida contra erros entre módulos (isso é especulativo, mas estados cat foram considerados para comunicação quântica devido ao seu viés de erro).

Na realidade, é claro, as empresas estão competindo e cada abordagem é um tanto incompatível para integrar diretamente (transmons vs Majoranas vs ressonadores são todos hardwares diferentes). Mas conceitualmente, a integração das melhores ideias já está acontecendo no nível intelectual. Por exemplo, a IBM e o Google podem adotar portas de preservação de viés (uma ideia dos qubits bosônicos) em suas configurações de transmon usando drives multifótons. O Google e a AWS podem adotar algumas ideias de correção de erros topológicos (como cirurgia de rede) que a IBM foi pioneira em software. A Microsoft pode usar um arranjo de qubits Majorana semelhante a um código de superfície (eles mencionam que o chip é capaz de ser agrupado, provavelmente significando que eles ainda usarão algum código planar em qubits Majorana para corrigir esses erros T não topológicos). Portanto, a polinização cruzada de inovações pode acelerar o progresso independentemente da integração direta de hardware. Se uma abordagem tiver desempenho claramente superior, outras também podem mudar para ela.

Em resumo, esses cinco avanços coletivamente movem a agulha significativamente para a frente em direção a um computador quântico criptograficamente relevante. Eles atacam o problema de lados diferentes: taxas de erro para baixo (Google/IBM, Zuchongzhi), sobrecarga para baixo (AWS) e contagem de qubit para cima (Microsoft). Se todos os três acontecerem simultaneamente — mesmo moderadamente — o cronograma para um CRQC encurta. Onde alguém poderia ter dito em 2020 que faltaria de 15 a 20 anos, agora alguém poderia dizer talvez de 6 a 8 anos, com uma chance diferente de zero de <6 anos se algumas suposições ousadas se concretizarem. Isso ressalta por que o mundo já está em transição para a criptografia pós-quântica. Nenhuma dessas empresas está explicitamente tentando quebrar a criptografia (seus objetivos declarados são mais sobre aplicações úteis em química, materiais, IA, etc.), mas o subproduto de seu sucesso serão máquinas que podem executar o algoritmo de Shor. Como precaução, governos e indústria estão agindo como se o Dia Q pudesse chegar já no início da década de 2030. Os anúncios da AWS, Microsoft, Google, IBM e Zuchongzhi dão mais credibilidade a essas precauções – eles mostram que os obstáculos fundamentais à computação quântica em larga escala (estabilidade, correção de erros, interconexões) estão sendo superados um por um, mais rápido do que muitos esperavam.

Previsões e Perspectivas Futuras

Dados os rápidos avanços sinalizados por esses anúncios, os próximos anos na computação quântica estão prestes a ser transformadores. Aqui, fornecerei uma previsão para o cronograma da vantagem quântica e correção de erros, e como as colaborações entre setores (ou a falta delas) podem moldar o progresso.

Linha do tempo para vantagem quântica

Podemos esperar demonstrações incrementais de vantagem quântica dentro dos próximos 2–3 anos em problemas especializados. Com os qubits corrigidos por erros do Google Willow agora superando os não corrigidos, é provável que a equipe do Google aborde em seguida um problema de interesse prático (talvez simulando uma pequena reação química ou resolvendo um problema de otimização simplificado) usando seus qubits codificados. Isso seria um trampolim de “além do clássico” para “comercialmente relevante”.

A IBM, por outro lado, pode alavancar seus processadores de 127 qubits e 433 qubits com mitigação avançada de erros para mostrar uma vantagem quântica em áreas como aprendizado de máquina ou otimização combinatória (por exemplo, executar um algoritmo variacional que converge para uma solução melhor do que uma heurística clássica dentro de um determinado tempo). A IBM já sugeriu vantagem quântica em certas simulações de circuitos; estender isso para um marco claro em nível de aplicativo é plausível até 2025 ou 2026.

Ocelot, da AWS, sugere que se eles puderem construir alguns qubits lógicos com códigos cat, eles poderão ser usados ​​para um algoritmo simples (mesmo algo como uma pequena pesquisa em banco de dados ou um algoritmo de Grover com correção de erros) para mostrar uma vantagem em nível de qubit lógico até meados da década.

O cronograma da Microsoft é talvez o mais incerto: se Majorana 1 for dimensionado com sucesso para, digamos, dezenas de qubits até 2026–27, e se cada um deles for estável, eles podem demonstrar um protótipo de computador quântico topológico resolvendo um problema com muito menos qubits do que os concorrentes (porque cada qubit é inerentemente mais poderoso). No entanto, dados os atrasos anteriores, uma perspectiva cautelosa colocaria uma demonstração prática da Microsoft em direção ao final da década de 2020.

Correção prática de erros

A correção prática de erros (ou seja, sustentar um qubit lógico por meio de muitas operações com baixo erro) está agora no horizonte.

O resultado do Google foi uma grande prova, mas para usá-lo em algoritmos, eles precisarão executar portas lógicas entre qubits lógicos (emaranhando qubits lógicos, etc.). A perspectiva é que dentro de ~5 anos (até 2029), veremos uma pequena rede de, digamos, 3–10 qubits lógicos trabalhando juntos com correção de erros completa. Isso poderia atingir algo como um CNOT lógico entre dois qubits codificados com maior fidelidade do que qualquer CNOT físico. Alcançar isso marcará o verdadeiro alvorecer da computação tolerante a falhas.

A IBM provavelmente está em um cronograma semelhante; seu roteiro sugeriu mirar em uma demonstração de um circuito quântico tolerante a falhas (envolvendo qubits lógicos) por volta de 2027–2028. A estratégia modular da IBM pode permitir que eles dediquem um chip Heron a um qubit lógico, outro chip a um segundo qubit lógico e os conectem – mostrando portas de dois qubits corrigidas por erros.

A AWS, se continuar com a abordagem bosônica concatenada, pode ter até então alguns módulos semelhantes ao Ocelot para entrelaçar, essencialmente realizando um gate lógico entre qubits codificados bosônicos. O cronograma pode ser semelhante — no final desta década.

Escala de dispositivos

Até 2030, prevejo que os processadores quânticos terão rotineiramente centenas a milhares de qubits físicos com correção de erros ativa. A IBM falou publicamente sobre um chip de 1121 qubits (Condor) em 2024, e passar para sistemas modulares depois disso. É concebível que até 2027–2030, a IBM possa ter um sistema de mais de 10.000 qubits físicos (por exemplo, 10 módulos de ~1k qubits cada). Se as taxas de erro continuarem a cair, isso pode corresponder a algo em torno de 50–100 qubits lógicos (dependendo das distâncias de código usadas).

O Google provavelmente também estará na faixa de alguns milhares de qubits físicos até 2030 se dobrar a contagem de qubits a cada ~2 anos (105 em 2024, ~200-300 até 2026, ~500-1000 até 2028, etc.).

A ambição da Microsoft de um chip de um milhão de qubits pode estar mais distante (talvez na década de 2030, se tudo correr bem), mas poderemos ver chips topológicos menores, mas ainda grandes (digamos, 1.000 qubits topológicos) até 2030 se sua abordagem mostrar um progresso consistente após esse obstáculo inicial.

A abordagem da AWS pode não exigir números absolutos de qubits tão cedo, mas para executar cálculos eles precisarão de múltiplos qubits lógicos — possivelmente eles visarão um protótipo de registro lógico (digamos 5 qubits lógicos) até o final da década, que com sua reivindicação de sobrecarga de 10× pode ser ~50 qubits de cat físicos (mais ancillas) — que poderia ser um dispositivo com talvez ~100 qubits físicos no total. Então, ironicamente, a AWS pode atingir alguma tolerância a falhas com menos qubits, embora cada um seja mais complexo.

Tolerância a falhas no início da década de 2030

O consenso na comunidade com a qual estou falando, reforçado por esses anúncios, é que teremos computação quântica tolerante a falhas demonstrável (o que significa que você pode executar um algoritmo quântico para muitas etapas arbitrariamente sem acumular erros, usando qubits lógicos) no início da década de 2030. Possivelmente por volta de 2030 ± 2 anos, poderemos ver o primeiro algoritmo totalmente corrigido de erros executado — algo como fatorar um número pequeno (não o tamanho RSA, mas talvez um número de 8 ou 16 bits com o algoritmo de Shor usando qubits lógicos, puramente como uma demonstração de tolerância a falhas). A partir daí, é uma questão de dimensionar a contagem de qubits lógicos.

O impacto da colaboração entre setores será crucial para moldar esse cronograma. Se essas empresas continuarem a compartilhar insights (por meio de publicações, conferências e até mesmo parcerias diretas, como programas de acesso à nuvem), é provável que o campo evite becos sem saída e erros duplicados, acelerando o progresso. Por exemplo, se a abordagem topológica da Microsoft encontrar um obstáculo, uma discussão aberta pode ajudar a resolvê-lo ou informar outros para ajustar o curso. Se, hipoteticamente, os qubits bosônicos da AWS mostrarem um desempenho superior, a IBM ou o Google poderiam incorporar modos bosônicos como um elemento de memória em seus processadores (já vemos alguma convergência: o Google experimentou códigos de correção de erros bosônicos em seu chip Sycamore no passado, e a IBM está pesquisando modos osciladores em paralelo aos transmons). Essa hibridização poderia encurtar o caminho para um computador quântico de larga escala.

Também é possível que, à medida que as apostas aumentam (com vislumbres de vantagem comercial), as empresas possam se tornar um pouco mais cautelosas. No entanto, dada a complexidade do desafio, acredito que as colaborações se aprofundarão: podemos ver, por exemplo, parcerias em que o hardware de uma empresa executa as ferramentas de software de outra. Um cenário especulativo, mas não implausível: a IBM e a Microsoft poderiam colaborar onde o hardware quântico da IBM é usado para testar o protocolo de correção de erros de qubit topológico da Microsoft (se a Microsoft ainda não tiver qubits suficientes, eles podem simular aspectos em máquinas IBM). Ou a nuvem da AWS pode hospedar os processadores do Google para usuários acadêmicos selecionados — afinal, a AWS já hospeda dispositivos quânticos de outras empresas. Esse uso cruzado confundiria as linhas competitivas, mas poderia impulsionar o campo mais rapidamente.

A computação quântica nos próximos anos provavelmente também verá o envolvimento de governos e grandes consórcios, fomentando a colaboração. Os EUA, a UE e a China têm grandes iniciativas quânticas que incentivam a cooperação academia-indústria. IBM, Google e outros fazem parte dos centros da US National Quantum Initiative, onde trabalham lado a lado e com as universidades. Essas interações garantem que, mesmo que as estratégias corporativas sejam diferentes, o conhecimento científico se dissemine.

Para resumir uma linha do tempo:

  • 2025 : Mais demonstrações de “prova de conceito” de correção de erros (por exemplo, código de superfície de distância-9 do Google, pequeno algoritmo em qubits lógicos da IBM). Possivelmente a Microsoft mostra uma operação básica de trança ou porta de dois qubits em qubits Majorana. A AWS pode mostrar coerência de qubit cat aprimorada ou uma operação lógica em dois qubits Ocelot.
  • 2026-2027 : Primeiras instâncias de vantagem quântica em problemas úteis (por exemplo, simulação de química quântica superando métodos clássicos). A IBM ou o Google podem anunciar que executaram um algoritmo de curta profundidade com qubits lógicos que os clássicos não conseguem simular com precisão. Portas de dois qubits corrigidas por erros provavelmente são demonstradas de forma confiável. Hardware em torno de 1000 qubits físicos se torna disponível na nuvem com taxas de erro de ~0,1% ou melhores.
  • 2028-2030 : Computação tolerante a falhas alcançada em pequena escala. Por exemplo, executar um algoritmo simples como a busca de Grover com qubits lógicos para muitas iterações, provando que o circuito pode ser tão longo quanto necessário. Talvez fatorar um pequeno número com o algoritmo de Shor usando qubits corrigidos por erros como um marco público. Escala de hardware: 10k+ qubits físicos para IBM/Google; talvez >100 qubits estáveis ​​para Microsoft se a topologia funcionar; AWS demonstrando um processador bosônico multi-qubit lógico. Pelo menos uma dessas plataformas pode estar executando >10^6 operações de porta quântica de forma confiável por meio de correção de erros.
  • 2030-2032 : Se tudo correr bem, é quando se pode ver uma demonstração criptograficamente relevante (como fatorar um número RSA de 128 bits, algo além do trivial, mas ainda não ameaçador, RSA de 2048 bits). Pode envolver uma combinação de muitos qubits lógicos e pós-processamento clássico pesado, mas sinalizará que o caminho para a grande escala é meramente de engenharia e dimensionamento naquele ponto.

Ao longo dessa linha do tempo, colaborações da indústria como contribuições de código aberto, benchmarks conjuntos, etc., podem economizar tempo. Se as empresas fossem isoladas e secretas, alguém poderia adicionar alguns anos extras para redescobrir métodos. Felizmente, a tendência tem sido em direção à abertura. Como resultado, o cenário otimista de um grande avanço quântico até 2030 não está fora de alcance. Por outro lado, se uma abordagem promissora falhar (por exemplo, se os qubits de Majorana não forem viáveis), as outras fornecem opções de fallback — a diversidade de abordagens na verdade aumenta a probabilidade de que pelo menos uma tenha sucesso no prazo.

Conclusão

Os próximos anos provavelmente verão os computadores quânticos evoluírem de dispositivos experimentais para máquinas protocomerciais com a capacidade de resolver alguns problemas mais rápido do que os supercomputadores clássicos (vantagem quântica em meados/final da década de 2020) e, então, para computadores verdadeiramente tolerantes a falhas, lidando com problemas de amplo alcance (no início da década de 2030). Os cinco anúncios da AWS, Microsoft, Google, IBM e Zuchongzhi iluminaram cinco caminhos diferentes em direção a esse final de jogo. Será emocionante observar se um caminho vencerá ou se eles convergirão. Dado o espírito colaborativo até agora, é plausível que o computador quântico definitivo incorpore lições e tecnologias de todos eles. Cada inovação — qubits bosônicos, qubits topológicos, transmons de alta fidelidade, arquiteturas modulares — aborda uma parte do quebra-cabeça. Ao integrar o melhor de cada um, seja em uma máquina ou por meio de uma teoria unificada de computação quântica, o campo pode atingir o marco de um computador quântico de larga escala e com correção de erros mais cedo do que muitos esperam. O que antes parecia uma possibilidade teórica distante agora tem um roteiro concreto, embora desafiador, e os desenvolvimentos de 2024–2025 adicionaram um impulso considerável à jornada.

Marin Ivezic

Tradução do texto : https://postquantum.com/quantum-computing/fault-tolerant-quantum-race/

No responses yet

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *