Logic-of-Caught: Aprimorando o raciocínio lógico em modelos de grandes linguagens, estendendo a lógica proposicional
Inteligência artificial

Logic-of-Caught: Aprimorando o raciocínio lógico em modelos de grandes linguagens, estendendo a lógica proposicional


Os Modelos de Linguagem em Grande Escala (LLMs) fizeram avanços significativos em várias tarefas de Processamento de Linguagem Natural, mas ainda enfrentam dificuldades com matemática e raciocínio lógico complexo. A informação da Cadeia de Pensamento (CoT) emergiu como um método promissor para desenvolver habilidades de pensamento, ligando etapas intermediárias. No entanto, os LLMs tendem a apresentar raciocínios não confiáveis, onde as conclusões não correspondem à cadeia de raciocínio gerada. Este desafio levou os pesquisadores a explorar métodos de pensamento complexos e métodos neurosimbólicos. Esses métodos visam simular processos de pensamento humano e combinar o pensamento simbólico com LLMs. Apesar desses avanços, os métodos existentes enfrentam limitações, principalmente a questão da perda de informações durante a extração de expressões lógicas, o que pode levar a processos de raciocínio central incorretos.

Os pesquisadores desenvolveram vários métodos para melhorar as habilidades de pensamento dos LLMs. As informações do CoT e suas variantes, como Zero-shot CoT e Self-Consistency CoT, melhoram o pensamento lógico ao dividir problemas complexos em etapas intermediárias. Outros métodos, como o Least-To-Most e o Divide-and-Conquer, concentram-se na resolução de problemas. Árvore de Pensamentos e Gráfico de Pensamentos apresentam topologias de raciocínio complexas. Os métodos neuro-simbólicos combinam LLMs e pensamento simbólico para lidar com pensamentos não confiáveis. Estes incluem LReasoner, LogicAsker, Logic-LM, SatLM e LINC, que combinam formalização lógica, solucionadores simbólicos e LLMs para melhorar o poder de raciocínio e superar problemas de perda de informação.

Pesquisadores da Universidade de Ciência e Tecnologia da China, Instituto de Automação, Academia Chinesa de Ciências, Universidade Beihang e JD.com apresentam Lógica de Captura (LoT)uma abordagem diferente da informação projetada para resolver o problema da perda de informação nos métodos neuro-simbólicos existentes. O LoT extrai proposições e expressões lógicas do contexto de entrada, expande-as usando regras de raciocínio lógico e traduz as expressões expandidas para linguagens naturais. Esta definição lógica estendida foi preservada. Ao preservar as informações originais e adicionar informações lógicas em linguagem natural, o LoT evita depender inteiramente de solucionadores simbólicos e minimiza a perda de informações. O método é compatível com as técnicas de notificação existentes, permitindo uma integração perfeita. Experimentos em todos os cinco conjuntos de dados de raciocínio lógico mostram a eficácia do LoT em aumentar significativamente o desempenho de vários métodos de raciocínio, incluindo Cadeia de Pensamento, Autoconsistência e Árvore de Pensamentos.

A estrutura LoT inclui três seções principais: Domínio Lógico, Extensão Lógica e Interpretação Lógica. Na fase de Citação Lógica, os LLMs identificam sentenças com relações lógicas condicionais e extraem símbolos proposicionais e expressões lógicas do contexto de entrada. A seção Extensão Lógica usa um programa Python para estender essas expressões lógicas usando regras lógicas predefinidas. Finalmente, a classe Logical Translation usa LLMs para converter expressões lógicas estendidas de volta em definições de linguagem natural. Essas definições são então incorporadas às informações de entrada originais, criando informações totalmente novas para os LLMs. Este processo preserva o contexto original ao mesmo tempo que o expande com informações lógicas adicionais, orientando efetivamente o processo de pensamento do LLM sem depender apenas de soluções simbólicas ou arriscar a perda de informações.

O reconhecimento LoT melhora significativamente o desempenho dos métodos existentes em todos os cinco conjuntos de dados de raciocínio lógico. LoT+CoT-SC(5) sempre supera os outros métodos, pois LoT+SC atinge a maior precisão no conjunto de dados FOLIO com GPT-4. LoT supera métodos básicos em 35 de 40 comparações, mostrando sua integração e desempenho perfeitos. Pouca melhoria ocorre ao combinar LoT com CoT ou CoT-SC devido à sobreposição de habilidades. Algumas limitações são observadas nos conjuntos de dados RuleTaker e ProofWriter com GPT-4, causadas por problemas de extração de dados. No geral, o desempenho independente do LoT iguala ou supera o do CoT, destacando as suas fortes capacidades de raciocínio.

LoT é um método robusto de desenvolvimento simbólico que aborda a perda de informação através de métodos neuro-simbólicos. Ao derivar informações lógicas estendidas do contexto da entrada usando lógica proposicional, o LoT desenvolve informações autênticas para melhorar as habilidades de pensamento lógico dos LLMs. Sua compatibilidade com estratégias de informação existentes, como Cadeia de Pensamento, Autoconsistência e Árvore de Pensamentos, permite uma integração perfeita. Experimentos mostram que o LoT melhora significativamente o desempenho de vários métodos de inferência em vários conjuntos de dados de inferência. Os trabalhos futuros centrar-se-ão na exploração de relações mais lógicas e regras de raciocínio, bem como no apoio a métodos mais informativos para o desenvolvimento de competências de pensamento lógico em LoT.


Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal..

Não se esqueça de participar do nosso Mais de 50k ML SubReddit


Asjad é consultor estagiário na Marktechpost. Ele está cursando B.Tech em engenharia mecânica no Instituto Indiano de Tecnologia, Kharagpur. Asjad é um entusiasta do aprendizado de máquina e do aprendizado profundo que pesquisa regularmente a aplicação do aprendizado de máquina na área da saúde.





Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *