Como a IA melhora a simulação com técnicas de amostragem inteligentes | Notícias do MIT
Inteligência artificial

Como a IA melhora a simulação com técnicas de amostragem inteligentes | Notícias do MIT

Imagine que você tenha a tarefa de enviar um time de jogadores de futebol ao campo para verificar as condições da grama (que seria o trabalho deles, é claro). Se você escolher seus locais aleatoriamente, eles poderão se agrupar em alguns lugares, enquanto outros serão completamente ignorados. Mas se você lhes der uma estratégia, como espalhá-los uniformemente pelo campo, poderá obter uma imagem mais precisa da grama.

Agora, imagine que você precisa espalhar não apenas em duas dimensões, mas em dezenas ou centenas. Esse é o desafio que os pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) estão enfrentando. Eles desenvolveram uma abordagem orientada por IA para “amostragem de baixa variância”, um método que melhora a precisão da simulação ao distribuir pontos de dados uniformemente em todo o ambiente.

A principal inovação está na utilização de redes neurais de grafos (GNNs), que permitem que os pontos se “conectem” e se organizem para melhor correspondência. Sua abordagem marca um desenvolvimento importante em simulações em áreas como robótica, finanças e ciência da computação, especialmente no tratamento de problemas complexos e complexos, que são importantes para simulações precisas e cálculos numéricos.

“Em muitos problemas, quando você consegue distribuir os pontos uniformemente, você pode simular com precisão sistemas complexos”, disse T. Konstantin Rusch, autor principal do novo artigo e pós-doutorado no MIT CSAIL. “Desenvolvemos um método chamado Message-Passing Monte Carlo (MPMC) para gerar pontos uniformemente distribuídos, utilizando técnicas geométricas de aprendizagem profunda. Isto também nos permite gerar pontos que enfatizam as dimensões mais importantes para o problema em questão, uma área muito importante em muitas aplicações. As redes neurais subjacentes ao modelo permitem que os pontos “conversem” entre si, conseguindo uma melhor correspondência do que os métodos anteriores. “

Seu trabalho foi publicado na edição de setembro da revista Anais da Academia Nacional de Ciências.

Leve-me para Monte Carlo

A ideia dos métodos de Monte Carlo é aprender sobre um sistema simulando com amostras aleatórias. Amostragem é a seleção de um subconjunto da população para estimar as características de toda a população. Historicamente, já estava em uso no século XVIII, quando o matemático Pierre-Simon Laplace o empregou para estimar a população da França sem contar cada pessoa.

Sequências de baixa variância, que são sequências com baixa variância, ou seja, alta uniformidade, como Sobol', Halton e Niederreiter, há muito tempo são o padrão ouro para amostragem quase aleatória, alternando amostras aleatórias com amostras de baixa variância. Eles são amplamente utilizados em áreas como computação gráfica e finanças contábeis, em tudo, desde opções de preços até avaliação de risco, onde o preenchimento dos espaços em branco por pontos correspondentes pode levar a resultados mais precisos.

A estrutura MPMC proposta pela equipe converte amostras aleatórias em pontos com alta similaridade. Isto é feito processando as amostras aleatórias com um GNN que minimiza alguma medida de variância.

Um grande desafio de usar IA para gerar altas pontuações de similaridade é que a forma tradicional de medir pontuações de similaridade não é muito rápida de calcular e difícil de trabalhar. Para resolver isso, a equipe mudou para uma medição mais rápida e flexível chamada contraste L2. Para problemas de alta dimensão, onde este método por si só não é suficiente, eles utilizam uma nova abordagem que se concentra na dimensionalidade dos pontos. Dessa forma, eles podem criar conjuntos de pontos mais adequados para aplicações específicas.

Os resultados vão além da educação, diz o grupo. Nas finanças contábeis, por exemplo, a simulação é altamente dependente da qualidade dos pontos amostrais. “Com esses tipos de métodos, as pontuações aleatórias são geralmente ineficientes, mas as nossas pontuações geradas pela GNN levam a uma maior precisão”, disse Rusch. “Por exemplo, consideramos um problema clássico de computação de 32 dimensões, onde nossa pontuação MPMC superou os métodos de amostragem aleatória de última geração por um fator de quatro a 24.”

Robôs de Monte Carlo

Nos robôs, o planejamento de trajetória e movimento geralmente depende de algoritmos baseados em amostras, que orientam os robôs através de processos de tomada de decisão em tempo real. O paralelismo aprimorado do MPMC pode levar a uma navegação robótica mais eficiente e à adaptação em tempo real para coisas como direção autônoma ou tecnologia de drones. “Na verdade, em uma pré-impressão recente, mostramos que nossa pontuação MPMC atinge uma melhoria quatro vezes maior em relação aos métodos anteriores de baixo contraste quando aplicada a problemas de planejamento de movimento de robôs do mundo real”, disse Rusch.

“As sequências tradicionais de baixa diferença foram um enorme avanço no seu tempo, mas o mundo tornou-se mais complexo, e os problemas que resolvemos agora existem frequentemente em ordens de magnitude de 10, 20 ou mesmo 100”, disse Daniela Rus, CSAIL. diretor e professor de engenharia elétrica e ciência da computação do MIT. “Precisávamos de algo mais inteligente, algo mais flexível à medida que o tamanho crescia. GNNs são uma mudança de paradigma na forma como geramos conjuntos de pontos de baixa variação. Ao contrário dos métodos tradicionais, onde os pontos são gerados de forma independente, as GNNs permitem que os pontos 'conversem' entre si para que a rede aprenda a posicionar os pontos de uma forma que minimize sobreposições e lacunas – problemas comuns com métodos comuns.”

No futuro, a equipe planeja tornar a pontuação do MPMC ainda mais acessível a todos, abordando a limitação atual de treinar um novo GNN com um número fixo de pontos e tamanhos.

“A maior parte da matemática em uso utiliza uma variedade de valores, mas o cálculo geralmente nos permite usar um número limitado de pontos”, disse Art B. Owen, professor de matemática da Universidade de Stanford, que não esteve envolvido na pesquisa. “O campo diferencial centenário usa álgebra abstrata e teoria dos números para definir pontos de amostragem eficazes. Este artigo utiliza redes neurais gráficas para detectar pontos de entrada com baixa variância em comparação com distribuições contínuas. Essa abordagem já está muito próxima do conhecido conjunto de baixas diferenças para pequenos problemas e mostra-se muito promissora para a convergência tridimensional das finanças computacionais. Podemos esperar que esta seja a primeira de muitas tentativas de usar métodos neurais para encontrar bons pontos para colocar em cálculos numéricos.”

Rusch e Rus foram coautores do artigo com o pesquisador da Universidade de Waterloo Nathan Kirk, o professor DeepMind de IA da Universidade de Oxford e ex-membro do CSAIL Michael Bronstein, e a professora de ciências atuariais da Universidade de Waterloo Christiane Lemieux. Sua pesquisa é apoiada, em parte, pelo programa AI2050 da Schmidt Futures, Boeing, Laboratório de Pesquisa da Força Aérea dos Estados Unidos e Acelerador de Inteligência Artificial da Força Aérea dos Estados Unidos, Fundação Nacional Suíça de Ciência, Conselho de Pesquisa em Ciências Naturais e Engenharia do Canadá, e a bolsa de pesquisa líder mundial EPSRC Turing AI.



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *