Pesquisadores do Google AI e da UNC Chapel Hill apresentam REVTINK: uma estrutura de IA para combinar o pensamento retrógrado em modelos de linguagem em larga escala para melhorar o desempenho e a eficiência
Inteligência artificial

Pesquisadores do Google AI e da UNC Chapel Hill apresentam REVTINK: uma estrutura de IA para combinar o pensamento retrógrado em modelos de linguagem em larga escala para melhorar o desempenho e a eficiência


Pensar é essencial para a resolução de problemas, permitindo que as pessoas tomem decisões e encontrem soluções. Dois tipos principais de pensamento são usados ​​na resolução de problemas: pensamento progressivo e pensamento retrógrado. Pensar no futuro envolve trabalhar desde uma pergunta até uma solução, usando etapas incrementais. Em contraste, o pensamento retrógrado começa com uma solução possível e remonta à questão original. Esta abordagem é benéfica para tarefas que requerem validação ou verificação de erros, pois ajuda a identificar inconsistências ou etapas perdidas no processo.

Um dos principais desafios da inteligência artificial é a integração de métodos de raciocínio, especialmente o raciocínio retroativo, em modelos de aprendizado de máquina. Os sistemas atuais baseiam-se numa visão de futuro, gerando respostas a partir de um conjunto de dados específico. Contudo, esta abordagem pode resultar em erros ou soluções incompletas, pois o modelo necessita verificar e corrigir o seu raciocínio. A introdução do raciocínio retroativo em modelos de IA, especialmente em modelos de grandes linguagens (LLMs), oferece uma oportunidade para melhorar a precisão e a confiabilidade desses sistemas.

As abordagens existentes para pensar nos LLMs concentram-se mais na visão de futuro, onde os modelos dão respostas baseadas no conhecimento. Outras técnicas, como a filtragem de informações, tentam melhorar o raciocínio ajustando modelos com etapas de raciocínio apropriadas. Esses métodos são frequentemente usados ​​durante testes, onde as respostas geradas pelo modelo são verificadas cruzadamente usando raciocínio retroativo. Embora isto melhore a precisão do modelo, o pensamento retrospectivo não deve ser incluído no processo de construção do modelo, o que limita os benefícios potenciais deste processo.

Pesquisadores da UNC Chapel Hill, Google Cloud AI Research e Google DeepMind introduziram o Enhanced Thinking Framework (REVTINK). Desenvolvido pelas equipes Google Cloud AI Research e Google DeepMind, REVTINK integra o pensamento diretamente por trás do treinamento LLM. Em vez de usar o raciocínio retroativo como ferramenta de validação, esta estrutura o incorpora no processo de treinamento, ensinando modelos para lidar com tarefas de raciocínio progressivo e retrógrado. O objetivo é criar um processo de consulta poderoso e eficaz que possa ser usado para gerar respostas para uma variedade de tarefas.

A estrutura REVTINK treina modelos em três tarefas diferentes: gerar pensamento progressivo a partir de uma pergunta, uma questão retrógrada a partir de uma solução e pensamento retrógrado. Ao aprender a pensar nas duas direções, o modelo se torna mais apto a lidar com tarefas complexas, especialmente aquelas que exigem um processo de validação passo a passo. A abordagem dupla de pensamento progressivo e retrógrado melhora a capacidade do modelo de avaliar e melhorar seus resultados, levando, em última análise, a uma melhor precisão e à redução de erros.

Os testes de desempenho do REVTINK mostraram melhorias significativas em relação aos métodos convencionais. A equipe de pesquisa testou a estrutura em 12 conjuntos de dados diferentes, que incluíam tarefas relacionadas ao pensamento lógico, resolução de problemas matemáticos e tarefas lógicas. Comparado ao desempenho zero shot, o modelo obteve uma melhoria média de 13,53%, demonstrando sua capacidade de compreender e gerar melhor respostas para questões complexas. A estrutura REVTINK superou os métodos robustos de mineração de dados em 6,84%, destacando seu desempenho superior. Além disso, o modelo mostrou-se mais eficaz com o uso da amostra. São necessários muito poucos dados de treinamento para alcançar esses resultados, tornando-se uma opção mais eficiente do que os métodos tradicionais que dependem de grandes conjuntos de dados.

Em termos de métricas específicas, o desempenho do modelo REVTINK em diferentes domínios também demonstrou a sua multimodalidade. O modelo apresentou uma melhoria de 9,2% nas tarefas de raciocínio lógico em relação aos modelos convencionais. Mostrou um aumento de 14,1% na precisão do raciocínio lógico, indicando sua forte capacidade de raciocinar sobre situações cotidianas. A eficiência do método também se destacou, exigindo 20% menos dados de treinamento e superando benchmarks anteriores. Esta eficiência torna o REVTINK uma opção atraente para aplicações onde os dados de treinamento podem ser limitados ou caros.

O lançamento do REVTINK marca um grande avanço na forma como os modelos de IA lidam com tarefas cognitivas. O modelo pode gerar respostas mais precisas usando menos recursos, incorporando o raciocínio retroativo ao processo de treinamento. A capacidade da estrutura de melhorar o desempenho em vários domínios – especialmente com pequenos dados – demonstra o seu potencial para revolucionar o pensamento da IA. No geral, REVTINK promete criar sistemas de IA mais confiáveis ​​que lidam com uma variedade de tarefas, desde problemas matemáticos até tomadas de decisões no mundo real.


Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal.. Não se esqueça de participar do nosso SubReddit de 60k + ML.

🚨 [Must Attend Webinar]: 'Transforme provas de conceito em aplicativos e agentes de IA prontos para produção' (Promovido)


Nikhil é consultor estagiário na Marktechpost. Ele está cursando dupla graduação em Materiais no Instituto Indiano de Tecnologia, Kharagpur. Nikhil é um entusiasta de IA/ML que pesquisa constantemente aplicações em áreas como biomateriais e ciências biomédicas. Com sólida formação em Ciência de Materiais, ele explora novos desenvolvimentos e cria oportunidades para contribuir.

🚨🚨 WEBINAR DE IA GRATUITO: 'Acelere suas aplicações LLM com deepset e Haystack' (promovido)





Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *