Os programas de recomendação são importantes para conectar os usuários a conteúdos, produtos ou serviços relevantes. Métodos de recuperação densa têm sido um pilar neste campo, usando um modelo de sequência para calcular representações de objetos e usuários. Porém, esses métodos requerem grandes recursos computacionais e de armazenamento, pois exigem a incorporação de tudo. À medida que os conjuntos de dados crescem, estes requisitos tornam-se onerosos, limitando a sua escalabilidade. A recuperação generativa, outra emergente, reduz os requisitos de armazenamento ao prever índices de objetos com modelos generativos. Apesar de seu poder, ele enfrenta problemas de desempenho, especialmente ao lidar com itens não legais – novos itens com interação limitada do usuário. A falta de um quadro unificado que integre os pontos fortes destas abordagens destaca uma lacuna na abordagem dos compromissos entre enumeração, retenção e qualidade das recomendações.
Pesquisadores da Universidade de Wisconsin, Madison, Unidade ELLIS, LIT AI Lab, Institute for Machine Learning, JKU Linz, Áustria, e Meta AI introduziram o LIGER (LeveragIng Dense Retrieval for Generative Retrieval), um modelo de recuperação híbrido que combina a eficiência do computador. de recuperação de produção com precisão de recuperação densa. LIGER refina o conjunto de candidatos gerado pela recuperação produtiva com técnicas de recuperação densa, alcançando um equilíbrio entre eficiência e precisão. O modelo suporta representações de objetos baseadas em IDs semânticos e atributos baseados em texto, combinando os pontos fortes de ambos os paradigmas. Ao fazer isso, o LIGER reduz a sobrecarga computacional e de armazenamento, ao mesmo tempo que aborda as lacunas de desempenho, especialmente em casos que envolvem partidas a frio.
Detalhes técnicos e benefícios
LIGER usa um codificador Transformer bidirecional junto com o decodificador de saída. O componente de recuperação densa inclui representações de texto de objetos, IDs semânticos e incorporações espaciais, que são otimizadas usando perda de similaridade de cosseno. O componente gerador usa pesquisa de feixe para prever os IDs semânticos de objetos subsequentes com base no histórico de interação do usuário. Esta combinação permite que o LIGER mantenha o desempenho de recuperação eficaz que produz enquanto aborda suas limitações com partidas a frio. O processo do modelo híbrido, que primeiro recupera um conjunto candidato por recuperação iterativa e depois o refina por recuperação densa, reduz efetivamente as demandas computacionais, mantendo a qualidade da recomendação. Além disso, ao integrar representações textuais, o LIGER integra-se bem em objetos não observados, abordando uma limitação importante dos modelos gerados anteriormente.
Resultados e detalhes
Os testes LIGER em todos os conjuntos de dados de referência, incluindo Amazon Beauty, Sports, Toys e Steam, mostram melhorias consistentes em relação a modelos de última geração como TIGER e UniSRec. Por exemplo, o LIGER obteve uma pontuação Recall@10 de 0,1008 para partidas a frio no conjunto de dados Amazon Beauty, em comparação com 0,0 do TIGER. No conjunto de dados Steam, o Recall@10 do LIGER para partidas a frio atingiu 0,0147, superando novamente o desempenho de 0,0 do TIGER. Estas descobertas demonstram a capacidade do LIGER de combinar técnicas de produção e recuperação com sucesso. Além disso, à medida que aumenta o número de candidatos recuperados pelos métodos de produção, o LIGER reduz a lacuna de desempenho com recuperação densa. Essa adaptabilidade e eficiência o tornam adequado para diversas situações de recomendação.
A conclusão
LIGER oferece uma combinação cuidadosa de recuperação compacta e produtiva, enfrentando desafios de eficiência, durabilidade e manuseio de partida a frio. Sua arquitetura híbrida equilibra eficiência computacional com recomendações de alta qualidade, tornando-a uma solução eficiente para sistemas de recomendação modernos. Ao preencher lacunas nos métodos existentes, o LIGER constitui a base para uma maior exploração dos modelos híbridos disponíveis, incentivando a inovação nos sistemas de recomendação.
Confira Papel. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Não se esqueça de participar do nosso SubReddit de 60k + ML.
🚨 PRÓXIMO WEBINAR GRATUITO DE IA (15 DE JANEIRO DE 2025): Aumente a precisão do LLM com dados artificiais e inteligência experimental–Participe deste webinar para obter insights práticos sobre como melhorar o desempenho e a precisão do modelo LLM e, ao mesmo tempo, proteger a privacidade dos dados.
Asif Razzaq é o CEO da Marktechpost Media Inc. Como empresário e engenheiro visionário, Asif está empenhado em aproveitar o poder da Inteligência Artificial em benefício da sociedade. Seu mais recente empreendimento é o lançamento da Plataforma de Mídia de Inteligência Artificial, Marktechpost, que se destaca por sua ampla cobertura de histórias de aprendizado de máquina e aprendizado profundo que parecem tecnicamente sólidas e facilmente compreendidas por um amplo público. A plataforma possui mais de 2 milhões de visualizações mensais, o que mostra sua popularidade entre o público.
🧵🧵 [Download] Avaliação do relatório de trauma do modelo de linguagem principal (estendido)