Os pesquisadores de corte apresentam o trabalho que chama LLMS: eliminando o alívio do SQL para melhorar a precisão da informação e da eficiência
Inteligência artificial

Os pesquisadores de corte apresentam o trabalho que chama LLMS: eliminando o alívio do SQL para melhorar a precisão da informação e da eficiência


Os detalhes são essenciais para os dados formais de manutenção e restauração para apoiar os negócios de negócios, pesquisas e solicitações de negócios. As informações das perguntas geralmente requerem SQL, variando os programas e podem ser complexas. Embora o ILLMS forneça energia automatizada, muitos métodos dependem da linguagem ambiental no SQL, geralmente levam a erros devido às variações da sintaxe. A API baseada na API baseada no trabalho aparece como uma maneira alternativa, permitindo que o LLMS se comunique com dados sistemáticos de maneira eficaz em diferentes sistemas de dados.

Neste estudo, um problema abordado para melhorar a precisão e eficiência das questões de dados realizadas pelo LLM. As soluções Pert-SQL existentes tendem a lutar:

  • Diferentes programas para gerenciamento de dados (DBMS) usam seus idiomas SQL, dificultando a obtenção de LLMs em todas as plataformas.
  • Muitas das perguntas do mundo real incluem filtros, integrados, e a transformação da fucea, que os modelos atuais os tratam facilmente.
  • É importante garantir que as perguntas pretendam preparar conjuntos de bancos de dados, especialmente em casos envolvendo estruturas de dados multi-projetadas.
  • O desempenho do LLM em um banco de dados formal varia dependendo da dificuldade da questão. O emprego requer bancos regulares de teste.

O banco de dados baseado no LLM depende completamente da tradução de texto para SQL, onde os modelos transformam a linguagem natural nas questões do SQL. Os benchmarks são como WikisQL, Spider e precisão de aves com base na geração SQL, mas não interferem com informações sistemáticas. Esses métodos geralmente lutam com perguntas de pesquisa, formas de edifícios e a faixa de rastreamento. Como os edifícios do banco de dados são muito mais diferentes, é necessário um método mais flexível – um move mais do que a dependência do SQL do assassino.

Investigadores da Igreja, IA da IA, e de manhã enviam um método de chamada sistemática para questionar as informações sem depender do SQL. Essa abordagem descreve as funções da pesquisa, filtros, integração e grupos, para melhorar a precisão e reparar erros de texto para SQL. Eles promovem DBGorilla Benchmark Examinando trabalhar e testar oito LLMs, incluindo GPT-4O, Claude 3,5 sonetos e Gemini 1.5 Pro. Ao remover a dependência do SQL, esse método melhora as flutuações, tornando as interações de dados mais confiáveis ​​e grandes.

O DBGorilla é um conjunto de 315 perguntas em todos os cinco bancos de dados, cada um contendo três coleções relacionadas. Os dados adicionam entre números, texto e filtros booleanos e combinações como uma soma, AVG e contagem. Trabalhando testado usando a correspondência direta do jogo, o medicamento de sintaxe no Astralax (AST) e a coleta da precisão da rota. O DBGorilla testou LLMs em uma área controlada, diferentemente dos benchmarks baseados em bancada, confirmando questões sistemáticas da API, incluindo SQL RAW.

A pesquisa examinou oito operações do LLMS em todos os três principais assuntos:

  1. Combine os pontos específicos
  2. O alinhamento do AST
  3. Coletando a correção da rota

Claude 3,5 soneto alcançou os pontos mais altos, como 74,3%, seguidos pela tela GPT-4O em 73,7%, GEMT-4O e GEMINI 1.5. Os edifícios booleanos foram tratados com maior precisão, até 87,5%, e a documentação indicando ativo indica baixa precisão, os modelos geralmente os confundem. A precisão do sistema de coleta foi consistente, com modelos altamente operacionais para uma precisão de 96% e 98%. Ao analisar a questão é o problema, o GPT-4O recebeu 87,5% de perguntas precisas que exigem apenas uma objeção, mas% das perguntas complexas, incluindo vários parâmetros, incluem vários parâmetros incluem vários parâmetros, eles envolvem muitos parâmetros.

Os pesquisadores conduzem outros testes de avaliação o impacto do gerenciamento de telecomunicações. Para permitir que o LLMS execute a função de entrega reduza a precisão lenta, com uma pontuação direta de 71,2%. As chamadas separadas se aplicaem a conjuntos de conjuntos individuais tiveram um pequeno impacto, que pontuou 72,3%. Em vez de trabalhar com uma geração de resposta fixa, forneceu os mesmos resultados, com a precisão de 72,8%. A atividade de resistência à chamada é gradualmente impactada, mas a estrutura estruturada continua a se aplicar regularmente a uma configuração diferente.

Em conclusão, a pesquisa mostrou que a chamada necessária fornece outros métodos visuais de perguntas das escrituras para SQL. A principal detecção, incluindo:

  1. A maior precisão de uma geração fixa: modelos altos encontrados na precisão de 74%, excedendo muitos bancadas de texto para SQL.
  2. Banco de dados Recondo o desempenho da Reabase
  3. Desafios com ativos de texto: o LLMS lutou para distinguir entre as perguntas planejadas de classificação e pesquisa, indicando a área de desenvolvimento.
  4. A diversidade de chamadas da função tem pouco efeito no trabalho e diferentes configurações de trabalho, incluindo telefones similares de base mental, tiveram apenas pequenos resultados.

Enquete o papel. Todo o crédito deste estudo é pesquisado para este projeto. Além disso, não se esqueça de seguir Sane e junte -se ao nosso Estação de telégrafo incluindo LinkedIn grtópico. Não se esqueça de se juntar ao nosso 75k + ml subreddit.

🚨 Registre a plataforma de IA de código aberto: 'Sistema de código aberto interestagente com muitas fontes para testar o programa difícil' (Atualizado)


O Asphazzaq é um Markteach Media Inc. De acordo com um negócio e desenvolvedor de visualização, a ASIFI está comprometida em integrar uma boa inteligência social. Sua última tentativa é lançada pelo lançamento do Plano de Química para uma Inteligência, Marktechpost, uma prática íntima devastadora de um aprendizado de máquina e problemas de aprendizado profundo que são de forma clara e facilmente compreendida. A plataforma está aderindo a mais de dois milhões de visitas à lua, indicando sua popularidade entre o público.

✅ [Recommended] Junte -se ao nosso canal de telégrafo



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *