Dentro brevemente
- Pesquisas recentes mostram como o aprendizado de máquina quântica (QML) pode ser usado para detectar anomalias em dados do Grande Colisor de Hádrons (LHC), o que pode levar à descoberta de uma nova física além do Modelo Padrão.
- Os pesquisadores usaram máquinas de kernel quântico e algoritmos de cluster em computadores quânticos IBM, mostrando que os modelos quânticos podem superar os métodos clássicos na identificação de eventos raros quando recursos quânticos adicionais, como qubits e emaranhados, são usados.
- Ao utilizar aprendizagem não supervisionada, o método QML permite buscas independentes, reduzindo vieses em sinais predefinidos e aumentando as chances de encontrar eventos inesperados em colisões energéticas de partículas.
- Foto: Wikimedia Commons (Vieamusanta sob licença Creative Commons Attribution-Share Alike 4.0 International)
O Large Hadron Collider (LHC) é um instrumento alucinante projetado para sondar o núcleo da realidade. Os dados que ele gera não são apenas alucinantes, mas muitas vezes são tão ricos e complexos que ultrapassam os processos computacionais tradicionais de análise e visualização dessas informações.
Uma equipe de cientistas da ETH Zurique e cientistas liderados pelo CERN relatam que a busca contínua por novos fenômenos no Grande Colisor de Hádrons (LHC) requer métodos computacionais avançados para lidar com a grande quantidade de dados gerados por colisões de partículas de alta energia. Os métodos convencionais de aprendizagem automática ajudaram a analisar estes dados, mas as novas tecnologias informáticas, como a aprendizagem automática quântica (QML), estão a mostrar potencial para melhorar o processo, tornando-o mais eficiente e revelando padrões nunca antes vistos.
Agora, num estudo recente publicado na Nature, os cientistas dizem que o QML pode ser usado para procurar novas físicas além do Modelo Padrão (BSM) e – talvez “seja necessário um quantum para conhecer um quantum” – usar a computação quântica para melhorar a detecção. de anomalias em dados do LHC.
A pesquisa se concentra no uso de algoritmos de aprendizado de máquina quântica não supervisionados para detecção de anomalias, um método projetado para identificar eventos incomuns em um conjunto de dados que podem indicar uma nova física. Esses algoritmos são implementados usando hardware quântico da IBM, que melhora a capacidade dos computadores quânticos de processar dados de maneiras muito diferentes dos computadores clássicos.
Os resultados sugerem que algoritmos quânticos podem fornecer uma vantagem significativa na identificação de eventos raros no ambiente caótico de colisões de partículas energéticas.
O desafio de descobrir uma nova física
No cerne da física de partículas moderna está o Modelo Padrão, uma teoria bem estabelecida que explica as partículas e forças fundamentais do universo. No entanto, o Modelo Padrão está incompleto – não explica fenómenos como a matéria escura, a origem da massa dos neutrinos ou as forças por detrás da energia escura. Os físicos do LHC colidem prótons com energias extremamente altas para recriar condições semelhantes às do universo primitivo, na esperança de descobrir novas partículas ou energias que possam responder a estas questões não resolvidas.
Tradicionalmente, os algoritmos de aprendizado de máquina usados no LHC são treinados em simulações de interações conhecidas de partículas, permitindo-lhes distinguir entre eventos típicos de fundo e sinais fictícios da nova física. No entanto, estes algoritmos são supervisionados – baseiam-se em dados rotulados e são concebidos para detectar sinais específicos e predefinidos. Isto reduz a sua capacidade de identificar eventos inesperados, uma vez que são tendenciosos em relação aos tipos de eventos que são treinados para ver.
Para resolver esta limitação, os investigadores utilizaram um método de aprendizagem não supervisionado, que não requer dados rotulados. Em vez de procurar um sinal específico, este método detecta qualquer evento que se desvie significativamente das expectativas. Este método, denominado detecção de anomalias, é particularmente útil em situações em que os físicos procuram sinais desconhecidos de uma nova física, que podem não se enquadrar nos modelos existentes.
Como o aprendizado de máquina quântica pode ajudar
A computação quântica é um campo em rápido desenvolvimento que utiliza as propriedades únicas da mecânica quântica para realizar certos cálculos com muito mais rapidez do que os computadores clássicos. Uma das principais características da computação quântica é o conceito de qubits – os bits quânticos, ao contrário dos bits clássicos, podem existir em muitos estados probabilísticos, devido à ocorrência de superposição. Qubits também podem estar emaranhados, o que significa que o estado de um qubit se correlaciona com o estado de outro, independentemente da distância entre eles. Essas propriedades permitem que os computadores quânticos explorem múltiplas soluções para um problema de uma forma que os computadores clássicos não conseguem.
Neste estudo, os pesquisadores usaram máquinas de kernel quântico e algoritmos de agrupamento quântico para processar os dados do LHC. Esses modelos quânticos são treinados para detectar anomalias em uma versão compactada dos dados, conhecida como região latente, produzida pelo autoencoder. Um autoencoder é um tipo de rede neural que reduz o tamanho dos dados, simplificando-os e preservando informações importantes. Os pesquisadores projetaram o autoencoder para acomodar as limitações do hardware quântico atual, que só pode lidar com conjuntos de dados relativamente pequenos.
Os pesquisadores demonstraram a eficácia dos modelos quânticos aplicando-os aos computadores quânticos da IBM. Especificamente, eles usaram o processador quântico ibm_toronto da IBM, um dispositivo baseado em qubits supercondutores – um tipo de qubit que opera em temperaturas extremamente baixas para manter a coerência quântica. Isso permitiu à equipe testar seus algoritmos de detecção de anomalias quânticas em hardware quântico real, em vez de depender apenas de simulações, escreve a equipe no artigo.
Kernels quânticos e algoritmos de cluster
A pesquisa se concentra em dois tipos de modelos quânticos para detecção de anomalias: máquinas de kernel quântico e algoritmos de clustering quântico.
Uma máquina kernel é um tipo de algoritmo usado em aprendizado de máquina para tarefas como classificação. Em uma máquina de kernel quântico, os dados são incorporados em estados quânticos e as relações entre os pontos de dados são analisadas usando propriedades exclusivas da mecânica quântica, como o emaranhamento. A máquina de kernel quântico neste estudo foi projetada para encontrar padrões nos dados do LHC que pudessem indicar a existência de uma nova física. A equipe descobriu que à medida que aumentavam o número de qubits e o nível de emaranhamento, o desempenho da máquina do kernel quântico melhorava, superando os modelos clássicos na detecção de anomalias.
Algoritmos de agrupamento quântico, como Quantum K-means e Quantum K-medians, agrupam pontos de dados com base em sua similaridade, de acordo com a pesquisa. Esses algoritmos funcionam de maneira semelhante aos seus equivalentes clássicos, mas utilizam a capacidade dos computadores quânticos para processar grandes quantidades de dados simultaneamente. Neste estudo, algoritmos de agrupamento são utilizados para identificar padrões no espaço latente, que podem indicar a presença de eventos BSM.
Resultados e Resultados
As descobertas deste estudo sugerem que o QML tem um grande potencial para descobrir novas físicas no LHC. A máquina de kernel quântico, em particular, mostrou desempenho superior em relação aos métodos clássicos, especialmente à medida que o número de qubits e o nível de emaranhamento quântico aumentam. Os pesquisadores descobriram que à medida que mais recursos quânticos são usados, a capacidade do modelo de detectar anomalias melhora.
É importante ressaltar que a equipe observa que eles foram capazes de executar seus modelos quânticos no hardware quântico da IBM, mostrando que essas técnicas podem ser usadas em ambientes do mundo real, apesar das atuais limitações dos computadores quânticos. No geral, a pesquisa fornece um vislumbre do potencial da computação quântica para desempenhar um papel importante na física de altas energias, particularmente na busca de novas partículas e energias além do Modelo Padrão.
Direções futuras
Embora o estudo demonstre o potencial do QML para detecção difusa em dados do LHC, ainda há muito espaço para pesquisas futuras. Uma área importante é testar outros algoritmos clássicos, como redes tensores, para ver se eles conseguem atingir o mesmo desempenho ou melhor. Além disso, estudos futuros poderiam investigar modelos QML projetados especificamente para a estrutura única de dados físicos de alta energia, o que poderia melhorar o desempenho.
Atualmente, a computação quântica ainda está em seus estágios iniciais e enfrenta problemas com ruído inerente que torna a computação quântica menos confiável do que suas contrapartes clássicas. Portanto, o método dos investigadores pode ser difícil de medir de forma prática. No entanto, à medida que o hardware quântico continua a melhorar, a equipa escreve que o QML pode tornar-se uma ferramenta cada vez mais valiosa para os investigadores na sua busca por uma nova física.
O estudo foi realizado em colaboração com pesquisadores de diversas instituições. Vasilis Belis e Günther Dissertori são afiliados ao Instituto de Física de Partículas e Astrofísica da ETH Zurique. Kinga Anna Woźniak, Ema Puljak, Michele Grossi, Maurizio Pierini e Sofia Vallecorsa trabalham na Organização Europeia para a Pesquisa Nuclear (CERN). Além disso, Woźniak também é afiliado à Faculdade de Ciência da Computação da Universidade de Viena, e Puljak é afiliado ao Departamento de Física da Universitat Autònoma de Barcelona. Panagiotis Barkoutsos e Ivano Tavernelli são da IBM Quantum, IBM Research — Zurique, enquanto Florentin Reiter trabalha no Institute for Quantum Electronics da ETH Zurich.