Modelos de linguagem em larga escala (LLMs) mostraram capacidades notáveis no tratamento de tarefas que exigem muito conhecimento com suas informações de parâmetros armazenadas nos parâmetros do modelo. No entanto, as informações armazenadas podem estar incorretas ou desatualizadas, levando à adoção de métodos de recuperação e aprimoramento de ferramentas que fornecem informações situacionais externas. Um sério desafio surge quando essas informações de contexto entram em conflito com as informações dos parâmetros do modelo, causando comportamento indesejado e resultados incorretos. Os LLMs preferem informações de estado às informações de parâmetros, mas durante as colisões, as soluções existentes que exigem interações adicionais do modelo levam a tempos de latência elevados, tornando-as impraticáveis para aplicações do mundo real.
Os métodos existentes para compreender e controlar o comportamento do LLM seguiram várias direções importantes, incluindo engenharia de representação, conflitos de informação e codificador automático esparso (SAEs). A engenharia de representação emergiu como uma estrutura de alto nível para a compreensão do comportamento do LLM em escala. Inclui interpretação mecânica que analisa componentes individuais da rede, como circuitos e neurônios, mas luta com objetos complexos. Além disso, existem três tipos de conflitos de informação: entre conteúdo, memória de contexto e conflitos de memória. Além disso, SAEs foram desenvolvidos como ferramentas de análise post hoc para identificar características distintas dentro de representações LLM, mostrando-se promissoras na identificação de circuitos sobrepostos e permitindo a geração controlada de texto através de características monossemânticas.
Pesquisadores da Universidade de Edimburgo, da Universidade Chinesa de Hong Kong, da Universidade Sapienza de Roma, da University College London e da Miniml.AI propuseram o SPARE (Sparse Auto-Encoder-based Representation Engineering), uma forma de o engenheiro representar o treinamento sem treinamento. O método utiliza codificadores automáticos pré-treinados para controlar o comportamento de seleção de informações em LLMs. Resolve eficazmente conflitos de informação em tarefas de resposta a perguntas de domínio aberto, identificando fatores de desempenho que governam a seleção de informações e planejando a ativação interna durante a tomada de decisões. SPARE supera os métodos de engenharia de representação existentes em 10% e os métodos de decodificação exclusivos em 15%.
O desempenho do SPARE é avaliado usando vários modelos, incluindo Llama3-8B, Gemma2-9B com SAEs públicos pré-treinados e Llama2-7B com SAEs pré-treinados. O método é testado em dois conjuntos de dados de resposta a consultas de código aberto que apresentam conflitos de informações: NQSwap e Macnoise. O teste usa codificação gananciosa em configurações de geração aberta. As comparações de desempenho são feitas com vários métodos de engenharia para representação do tempo do projeto, incluindo TaskVec, ActAdd, SEA (versões lineares e não lineares) e métodos de codificação alternativos, como DoLa e CAD. Além disso, os pesquisadores também compararam o uso da aprendizagem em contexto (ICL) para orientar a seleção de conhecimento.
SPARE supera os métodos de engenharia de representação existentes TaskVec, ActAdd e SEA, mostrando desempenho superior no gerenciamento do uso de informações contextuais e paramétricas em comparação aos métodos existentes. Além disso, supera as técnicas de codificação dinâmica, como DoLa e CAD, que apresentam bom desempenho ao melhorar o uso de informações de contexto, mas enfrentam os desafios de controlar informações de parâmetros. A capacidade do SPARE de adicionar e remover funcionalidades específicas resulta em um controle mais preciso de ambos os tipos de informação. Além disso, o SPARE supera os métodos indiretos de controle de tempo, como o ICL, destacando sua eficiência e eficácia. Estes resultados enfatizam o potencial do SPARE para aplicações que requerem controle em tempo real sobre o comportamento do LLM.
Concluindo, os pesquisadores apresentam o SPARE, que aborda o desafio dos conflitos de informações de contexto de memória em LLMs, avaliando a distribuição residual do modelo e usando engenharia de representação não treinável. A implementação de um método para controlar o comportamento de seleção de conhecimento sem sobrecarga computacional representa um grande avanço na gestão do conhecimento LLM. Contudo, existem limitações, incluindo a dependência do método em SAEs pré-treinados e o foco atual em atividades específicas de ODQA. Apesar dessas limitações, a capacidade do SPARE de melhorar a precisão da seleção de informações e ao mesmo tempo manter a eficiência o torna uma solução promissora para gerenciar conflitos de informações em sistemas LLM ativos.
Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal.. Não se esqueça de participar do nosso SubReddit de 55k + ML.
[Upcoming Live Webinar- Oct 29, 2024] A melhor plataforma para modelos ajustados: mecanismo de inferência Predibase (atualizado)
Sana Hassan, estagiária de consultoria na Marktechpost e estudante de pós-graduação dupla no IIT Madras, é apaixonada pelo uso de tecnologia e IA para enfrentar desafios do mundo real. Com um profundo interesse em resolver problemas do mundo real, ele traz uma nova perspectiva para a intersecção entre IA e soluções da vida real.
Ouça nossos podcasts e vídeos de pesquisa de IA mais recentes aqui ➡️