Incorporar e regredir: uma abordagem adaptativa de aprendizado de máquina para otimização bayesiana usando descida de string baseada em contexto
Inteligência artificial

Incorporar e regredir: uma abordagem adaptativa de aprendizado de máquina para otimização bayesiana usando descida de string baseada em contexto


A Otimização Bayesiana, amplamente utilizada em projetos experimentais e otimização de caixa preta, tradicionalmente depende de modelos de regressão para prever o desempenho de soluções dentro de espaços de busca fixos. No entanto, a maioria dos métodos de regressão são específicos da tarefa devido a suposições de modelagem e limitações de entrada. Esse problema é particularmente comum na regressão baseada em aprendizagem, que depende do ajuste de um tensor de comprimento fixo. Avanços recentes em LLMs mostram-se promissores na superação dessas limitações, incorporando candidatos ao espaço de pesquisa como strings, permitindo que regressores gerais flexíveis generalizem entre tarefas e se estendam além das limitações dos métodos de regressão tradicionais.

A Otimização Bayesiana usa regressores para resolver problemas de otimização de caixa preta, equilibrando exploração e aproveitamento. Tradicionalmente dominados por regressores do Processo Gaussiano (GP), os esforços recentes concentraram-se na melhoria dos hiperparâmetros GP usando treinamento prévio ou engenharia de recursos. Embora as abordagens de redes neurais, como os Transformers, forneçam mais flexibilidade, elas são limitadas por tamanhos de entrada fixos, limitando seu uso a tarefas com entradas fixas. Um desenvolvimento recente sugere a incorporação de uma série de representações candidatas no espaço de busca para maior flexibilidade de operação. Essa abordagem permite que regressores eficientes e treináveis ​​lidem com diversas entradas, sequências longas e previsões precisas em diferentes escalas, melhorando o desempenho da otimização.

Pesquisadores da UCLA, Google DeepMind e Google propõem um paradigma “Incorporar e Regressar” para regressão de conteúdo usando incorporações de strings de modelos de linguagem pré-treinados. A conversão de todas as entradas em representações de string permite a regressão de otimização Bayesiana de uso geral para todas as diversas tarefas, como simulação, clustering e otimização de parâmetros. Sua estrutura usa incorporação baseada em LLM para mapear strings para vetores de comprimento fixo de regressores baseados em tensores, como modelos Transformer. O pré-treinamento em grandes conjuntos de dados off-line permite a estimativa de incerteza para alvos abstratos. A estrutura, desenvolvida por meio de técnicas de exploração experimental, fornece resultados semelhantes aos algoritmos de otimização baseados em processos gaussianos de última geração.

O método usa um regressor baseado em concentração para otimizar bayesiano, mapear entradas de unidade para vetores de comprimento de concentração com um modelo de linguagem. Essa incorporação é processada pelo Transformer para prever resultados, executar uma função de detecção para medir testes e exploração. O modelo, pré-treinado em tarefas offline, usa dados históricos para fazer previsões conscientes da incerteza. Durante a inferência, a saída média e o desvio orientam a otimização. Este método é computacionalmente eficiente, utilizando um codificador T5-XL e um pequeno Transformer, exigindo recursos moderados de GPU. Esta estrutura atinge tais previsões, mantendo um baixo custo de pensar em transformadores e incorporações eficientes.

O experimento mostra a flexibilidade do método Shuffle-and-Regress em uma ampla gama de tarefas, concentrando-se em sua ampla aplicabilidade, em vez de otimização para domínios específicos. O algoritmo foi avaliado em uma variedade de problemas, incluindo funções sintéticas, de conjunto e de hiperparâmetros, com desempenho estimado em múltiplas execuções. Os resultados mostram que o método lida efetivamente com uma combinação de parâmetros contínuos e escalonados em cenários de otimização. Esta abordagem destaca seus pontos fortes em vários ambientes de desenvolvimento, fornecendo uma solução flexível para diferentes tipos de problemas sem exigir otimização específica de domínio.

Concluindo, o método Sumeka-then-Regress mostra a flexibilidade da regressão de strings baseada no contexto da Otimização Bayesiana em todos os diferentes problemas, alcançando resultados semelhantes aos métodos GP padrão enquanto lida com tipos de dados complexos, como permutações e combinações. Pesquisas futuras poderiam se concentrar no desenvolvimento de um modelo global para regressão de conteúdo, pré-treinando-o em vários domínios e melhorando recursos estruturais, como métodos de aprendizagem para efeitos de Transformador. Aplicações adicionais podem incluir informações personalizadas e pesquisas de código, que dependem de algoritmos mais lentos. Examinar o uso dessa abordagem na modelagem de recompensa e conveniência baseadas em processos na correspondência de idiomas também é promissor.


Confira Papel e GitHub. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Se você gosta do nosso trabalho, você vai gostar do nosso jornal.. Não se esqueça de participar do nosso Mais de 50k ML SubReddit.

[Upcoming Live Webinar- Oct 29, 2024] Aprenda como aumentar o rendimento de inferência em 4x e reduzir os custos de provisionamento em 50% com Turbo LoRA, FP8 e escalonamento automático de GPU (atualizado)


Sana Hassan, estagiária de consultoria na Marktechpost e estudante de pós-graduação dupla no IIT Madras, é apaixonada pelo uso de tecnologia e IA para enfrentar desafios do mundo real. Com um profundo interesse em resolver problemas do mundo real, ele traz uma nova perspectiva para a intersecção entre IA e soluções da vida real.

Ouça nossos podcasts e vídeos de pesquisa de IA mais recentes aqui ➡️





Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *