A inteligência artificial avançou ao incorporar princípios biológicos, como a evolução, em modelos de aprendizado de máquina. Algoritmos evolutivos, inspirados na seleção natural e na modificação genética, são frequentemente usados para melhorar sistemas complexos. Esses algoritmos melhoram o número de soluções possíveis ao longo de gerações com base na robustez, levando a uma melhor adaptação a ambientes desafiadores. Da mesma forma, os modelos de difusão em IA funcionam eliminando gradualmente o ruído de dados de entrada ruidosos para obter resultados sistemáticos. Esses modelos melhoram iterativamente os pontos de dados iniciais ruidosos, levando-os a resultados mais consistentes, semelhantes à distribuição dos dados de treinamento. A combinação destas duas áreas tem o potencial de gerar novos métodos que utilizem os pontos fortes de ambos os métodos, melhorando assim o seu desempenho.
Um dos principais desafios da computação evolutiva é a sua tendência de convergir prematuramente para uma única solução em ambientes complexos e de alta dimensão. Algoritmos evolutivos tradicionais, como Estratégia de Evolução de Adaptação de Matriz de Covariância (CMA-ES) e Gradientes de Política de Exploração de Parâmetros (PEPG), resolvem com sucesso problemas simples, mas muitas vezes ficam presos na otimização local quando aplicados a situações complexas. Essa limitação torna difícil para esses algoritmos explorarem diferentes soluções possíveis. Como resultado, muitas vezes não conseguem manter a diversidade necessária para resolver com sucesso tarefas de desenvolvimento de múltiplos métodos, destacando a necessidade de métodos mais avançados que possam equilibrar teste e exploração.
Os métodos evolutivos tradicionais, como CMA-ES e PEPG, utilizam processos de seleção, cruzamento e mutação para melhorar a aptidão dos indivíduos ao longo de gerações sucessivas. No entanto, esses algoritmos precisam de ajuda para funcionar bem ao lidar com espaços de aptidão multidimensionais ou de alta dimensão. Por exemplo, o CMA-ES tende a convergir para uma única solução mesmo que muitas regiões de alta intensidade estejam na área de busca. Esta limitação deve-se principalmente à sua incapacidade de manter a diversidade de soluções, o que torna um desafio a adaptação a problemas complexos de otimização com muitas soluções possíveis. Para superar essas limitações, há necessidade de algoritmos flexíveis e robustos que possam lidar com tarefas de otimização complexas e diversas.
Pesquisadores do Allen Discovery Center da Tufts University, do Institute for Theoretical Physics da TU Wien e do Wyss Institute da Harvard University apresentam um novo método chamado Diffusion Evolution. Este algoritmo combina os princípios dos modelos de evolução e difusão, tratando a evolução como um processo de extração de ruído. A equipe de pesquisa mostrou que o algoritmo poderia incorporar conceitos evolutivos como seleção natural, mutação genética e isolamento reprodutivo. Com base nessa ideia, a equipe introduziu o método Latent Space Diffusion Evolution, que reduz o custo computacional ao mapear espaços de parâmetros de alta dimensão em espaços latentes de baixa dimensão. Esta técnica permite uma pesquisa mais eficiente, mantendo a capacidade de encontrar soluções diferentes e ótimas para todas as situações complexas de fitness.
O algoritmo Diffusion Evolution combina exclusivamente as etapas iterativas de modelos de difusão e processos de seleção natural. Ao mapear espaços de parâmetros de alta dimensão em espaços latentes de baixa dimensão, o método realiza uma busca altamente eficiente, identificando muitas soluções diferentes no mesmo espaço de busca. Este método melhora a robustez do algoritmo, tornando-o adequado para diversos desafios de otimização. O uso da separação espacial sutil ajuda a superar a lenta convergência dos métodos tradicionais e dos problemas espaciais, levando a uma convergência mais rápida e a uma maior diversidade de soluções. Esta abordagem permite que o algoritmo mantenha flexibilidade na exploração de ambientes de pesquisa complexos sem comprometer o desempenho.
Em uma série de experimentos, os pesquisadores compararam a evolução da difusão com outros algoritmos evolutivos proeminentes, como CMA-ES, OpenES e PEPG, usando várias funções de benchmarking: Rosenbrock, Beale, Himmelblau, Ackley e Rastrigin. Para tarefas como Himmelblau e Rastrigin, que apresentam muitas pontuações corretas, o Diffusion Evolution mostrou sua capacidade de encontrar diversas soluções, mantendo altas pontuações de aptidão. Por exemplo, na tarefa de Ackley, Diffusion Evolution alcançou uma entropia média de 2,49 com uma pontuação de aptidão de 1,00, sendo o CMA-ES o melhor desempenho, que alcançou uma alta entropia de 3,96, mas com baixos valores de aptidão, indicando que muitos méritos foram perturbados. picos. Além disso, experimentos mostraram que a Diffusion Evolution requer menos iterações para alcançar melhores soluções do que CMA-ES e PEPG. Por exemplo, Latent Space Diffusion Evolution reduziu significativamente as etapas computacionais em espaços de alta dimensão, lidando com operações com até 17.410 parâmetros com sucesso.
Para tarefas de aprendizagem por reforço, como a estimativa de um sistema de pólos de carrinho, o algoritmo Diffusion Evolution mostrou resultados promissores. O sistema consiste em um carrinho com uma vara apoiada nele, e o objetivo é manter a vara o maior tempo possível, movendo o carrinho para a esquerda ou para a direita com base em informações como posição e velocidade. A equipe de pesquisa usou uma rede neural de duas camadas com 58 parâmetros para controlar o carrinho, e o algoritmo alcançou uma recompensa cumulativa de 500 de forma consistente, indicando desempenho eficaz. Isso mostra que o Diffusion Evolution pode lidar com sucesso com ambientes complexos de aprendizagem por reforço, destacando sua aplicação prática em situações do mundo real.
Concluindo, o algoritmo Diffusion Evolution melhora muito a computação evolutiva ao combinar o poder dos modelos de difusão. Essa abordagem melhora a capacidade de manter uma variedade de soluções e melhora as habilidades gerais de resolução de problemas em tarefas complexas de otimização. Ao introduzir a Evolução da Difusão Espacial Latente, os pesquisadores forneceram uma estrutura robusta capaz de resolver problemas de alta dimensão com custo computacional reduzido. O sucesso do algoritmo em várias tarefas de benchmark e tarefas de aprendizagem por reforço demonstra seu potencial para revolucionar a computação natural em IA e além.
Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal.. Não se esqueça de participar do nosso Mais de 50k ML SubReddit
[Upcoming Event- Oct 17 202] RetrieveX – Conferência de recuperação de dados GenAI (promovida)
Nikhil é consultor estagiário na Marktechpost. Ele está cursando dupla graduação em Materiais no Instituto Indiano de Tecnologia, Kharagpur. Nikhil é um entusiasta de IA/ML que pesquisa constantemente aplicações em áreas como biomateriais e ciências biomédicas. Com sólida formação em Ciência de Materiais, ele explora novos desenvolvimentos e cria oportunidades para contribuir.