A Zyphra lançou oficialmente o Zamba2-7B, um modelo de microlíngua de última geração que promete desempenho sem precedentes na faixa de parâmetros 7B. Este modelo supera os concorrentes existentes, incluindo Mistral-7B, Gemma-7B do Google e Llama3-8B da Meta, tanto em qualidade quanto em velocidade. O Zamba2-7B foi projetado especificamente para ambientes que exigem recursos de …
Zyphra lança Zamba2-7B: um modelo de microlinguagem de última geração
A Zyphra lançou oficialmente o Zamba2-7B, um modelo de microlíngua de última geração que promete desempenho sem precedentes na faixa de parâmetros 7B. Este modelo supera os concorrentes existentes, incluindo Mistral-7B, Gemma-7B do Google e Llama3-8B da Meta, tanto em qualidade quanto em velocidade. O Zamba2-7B foi projetado especificamente para ambientes que exigem recursos de …
Salesforce AI Research propõe verificador baseado em conjunto de dados para melhorar a consistência da consultoria LLM
Os modelos linguísticos de grande escala (LLMs) muitas vezes não conseguem realizar o raciocínio em várias etapas de forma consistente e precisa, especialmente em tarefas complexas, como resolução de problemas matemáticos e codificação. Apesar dos desenvolvimentos recentes, os LLMs têm dificuldade em encontrar e aprender com os erros porque são altamente treinados para encontrar soluções …
OpenR: uma estrutura de IA de código aberto para aprimorar o raciocínio com grandes modelos de linguagem
Os principais modelos linguísticos (LLMs) fizeram progressos significativos na produção linguística, mas as suas capacidades de raciocínio continuam inadequadas para resolver problemas complexos. Tarefas como questões de matemática, codificação e ciências continuam a representar o maior desafio. Desenvolver as habilidades de pensamento dos LLMs é importante para desenvolver suas habilidades além da simples produção de …
Avaliação Abrangente de Modelos de Linguagem de Visão (VHELM): Estendendo a Estrutura HELM para VLMs
Um dos desafios mais urgentes na avaliação de Modelos de Visão-Linguagem (VLMs) está relacionado à falta de benchmarks abrangentes que testem todo o espectro de capacidades do modelo. Isto ocorre porque a maioria das análises existentes são limitadas por se concentrarem apenas numa parte das tarefas relevantes, como visualizar ou responder a perguntas, em detrimento …
F5-TTS: um sistema de conversão de texto em fala totalmente adaptável baseado em correspondência de fluxo e transformador de difusão (DiT)
Os desafios atuais nos sistemas de conversão de texto em fala (TTS) giram em torno das limitações inerentes aos modelos automáticos e de sua complexidade para alinhar com precisão o texto à fala. A maioria dos modelos TTS convencionais exigem complexidades como modelagem de duração, alinhamento de fonemas e codificadores de texto dedicados, que adicionam …
Expondo vulnerabilidades em benchmarks automatizados de LLM: a necessidade de fortes mecanismos anti-trapaça
Benchmarks automatizados como AlpacaEval 2.0, Arena-Hard-Auto e MTBench ganharam popularidade na avaliação de LLMs devido à sua acessibilidade e escalabilidade em comparação com a avaliação humana. Esses benchmarks usam anotações automáticas baseadas em LLM, que estão bem alinhadas com as preferências humanas, para fornecer avaliação oportuna de novos modelos. No entanto, as taxas máximas de …
Este artigo sobre IA apresenta uma pesquisa abrangente de técnicas de modelagem em grande escala
A fusão de modelos é uma técnica avançada de aprendizado de máquina que visa combinar o poder de vários modelos especializados em um modelo único e mais poderoso. Esta técnica permite que o sistema se beneficie do conhecimento de vários modelos, ao mesmo tempo que reduz a necessidade de treinamento de modelos individuais em larga …
Pesquisadores da Moore Threads AI apresentam TurboRAG: uma nova abordagem de IA para melhorar a velocidade de reconhecimento de RAG
A alta latência no tempo até o primeiro token (TTFT) é um grande desafio para sistemas de geração aumentada de recuperação (RAG). Os sistemas RAG existentes, que combinam e processam vários trechos de texto retornados para gerar respostas, exigem uma grande quantidade de computação, levando a atrasos. A enumeração repetida de buffers de valores-chave (KV) …
MatMamba: um novo modelo de espaço regional que se baseia no Mamba2, incorporando uma estrutura de ninho estilo Matryoshka
O dimensionamento de modelos de alto nível para aplicações do mundo real geralmente requer o treinamento de diferentes tamanhos de modelos para se adaptarem a diferentes ambientes de computação. No entanto, treinar múltiplas versões de forma independente é computacionalmente caro e leva a ineficiências em aplicações onde modelos de tamanho médio são ideais. As soluções …