A inovação é fundamental para enfrentar desafios globais prementes, como as alterações climáticas e os avanços na computação da próxima geração. No entanto, os métodos computacionais e experimentais existentes enfrentam limitações significativas na avaliação eficiente de um grande ambiente químico. Embora a IA tenha surgido como uma ferramenta poderosa para a descoberta de materiais, a falta de dados publicamente disponíveis e de modelos abertos e pré-treinados tem sido um grande gargalo. Os cálculos da Teoria do Funcional da Densidade (DFT), importantes para o estudo da estabilidade de materiais e estruturas, são computacionalmente caros, limitando seu uso à exploração de grandes campos de pesquisa.
Pesquisadores da Meta Fundamental AI Research (FAIR) apresentaram o conjunto de dados Open Materials 2024 (OT24), que contém mais de 110 milhões de cálculos DFT, tornando-o um dos maiores conjuntos de dados disponíveis publicamente neste domínio. Eles também introduziram o modelo EquiformerV2, uma rede neural de grafos (GNN) de última geração treinada no conjunto de dados OTt24, alcançando os melhores resultados na tabela de classificação Matbench Discovery. O conjunto de dados inclui várias configurações atômicas retiradas de estruturas de equilíbrio e de não-equilíbrio. Os modelos pré-treinados correspondentes são capazes de prever propriedades como estabilidade do solo e resistência estrutural com alta precisão, fornecendo uma base sólida para a comunidade de pesquisa mais ampla.
O conjunto de dados OTt24 contém mais de 118 milhões de estruturas atômicas rotuladas com energia, força e estresse celular. Essas estruturas são construídas usando técnicas como amostragem de Boltzmann, dinâmica molecular ab-initio (AIMD) e relaxamento de estruturas de movimento. O conjunto de dados enfatiza estruturas de não equilíbrio, confirmando que os modelos treinados no OTt24 não são adequados para estruturas dinâmicas e distantes do equilíbrio. A estrutura básica do conjunto de dados consiste em grande parte da tabela periódica, com foco em seres não vivos. Os modelos EquiformerV2, treinados em OTt24 e outros conjuntos de dados como MPtraj e Alexandria, mostraram alta eficiência. Por exemplo, modelos treinados com objetivos adicionais de eliminação de ruído mostraram melhorias no desempenho preditivo.
Quando testado no benchmark Matbench Discovery, o modelo EquiformerV2 treinado usando OTt24 alcançou uma pontuação F1 de 0,916 e um erro absoluto médio (MAE) de 20 meV/átomo, estabelecendo novos benchmarks para prever a estabilidade dos materiais. Esses resultados foram significativamente melhores em comparação com outros modelos da mesma classe, destacando o benefício do treinamento prévio em um conjunto de dados grande e heterogêneo como o OMat24. Além disso, os modelos foram treinados apenas no conjunto de dados MPtraj, um conjunto de dados relativamente pequeno, e tiveram um bom desempenho devido a técnicas eficazes de aumento de dados, como a remoção de ruído. Métricas detalhadas mostraram que os modelos OTt24 pré-treinados superaram os modelos convencionais em precisão, especialmente em configurações irregulares.
A introdução do conjunto de dados OTt24 e modelos associados representa um avanço significativo na ciência dos materiais assistida por IA. Os modelos fornecem a capacidade de prever propriedades críticas, como resistência estrutural, com alto grau de precisão, tornando-os muito úteis para acelerar a descoberta de materiais. É importante ressaltar que esta versão de código aberto permite que a comunidade de pesquisa aproveite esses avanços, avançando o papel da IA na abordagem dos desafios globais por meio da inovação.
O conjunto de dados e modelos OTt24, disponíveis no Hugging Face, bem como bancos de testes para modelos pré-treinados, fornecem um recurso importante para pesquisadores de IA em ciência de materiais. A equipe Meta da FAIR Chem disponibilizou esses recursos sob licenças permissivas, permitindo uma descoberta e uso mais amplos. Além disso, uma atualização da equipe OpenCatalyst sobre X pode ser encontrada aqui, fornecendo mais contexto sobre como os modelos estão ultrapassando os limites da previsão da estabilidade do material.
Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal.. Não se esqueça de participar do nosso Mais de 50k ML SubReddit.
[Upcoming Live Webinar- Oct 29, 2024] Melhor plataforma para modelos ajustados: mecanismo de inferência Predibase (avançado)
Asif Razzaq é o CEO da Marktechpost Media Inc. Como empresário e engenheiro visionário, Asif está empenhado em aproveitar o poder da Inteligência Artificial em benefício da sociedade. Seu mais recente empreendimento é o lançamento da Plataforma de Mídia de Inteligência Artificial, Marktechpost, que se destaca por sua ampla cobertura de histórias de aprendizado de máquina e aprendizado profundo que parecem tecnicamente sólidas e facilmente compreendidas por um amplo público. A plataforma possui mais de 2 milhões de visualizações mensais, o que mostra sua popularidade entre o público.
Ouça nossos podcasts e vídeos de pesquisa de IA mais recentes aqui ➡️