A Otimização Bayesiana, amplamente utilizada em projetos experimentais e otimização de caixa preta, tradicionalmente depende de modelos de regressão para prever o desempenho de soluções dentro de espaços de busca fixos. No entanto, a maioria dos métodos de regressão são específicos da tarefa devido a suposições de modelagem e limitações de entrada. Esse problema é …
MMed-RAG: um sistema de geração de recuperação adaptativa – uma ferramenta avançada que transforma a precisão em tempo real em modelos de linguagem de visão médica em vários domínios
A IA teve um grande impacto nos cuidados de saúde, especialmente no diagnóstico de doenças e no planeamento de tratamentos. Outra área que recebe atenção é o desenvolvimento de Modelos Médicos de Grande Visão e Linguagem (Med-LVLMs), que combinam dados visuais e textuais para ferramentas de diagnóstico avançadas. Esses modelos têm demonstrado grande potencial para …
AQUI: Uma estrutura de aprendizado profundo que alcança modelagem de alta precisão de uma ampla gama de sistemas dinâmicos, injetando simetria de reversão de tempo como um viés indutivo.
Sistemas dinâmicos são modelos matemáticos que descrevem como um sistema muda devido a interações ou forças físicas. Esses programas são importantes para a compreensão de várias coisas em todos os campos da ciência, como física, biologia e engenharia. Por exemplo, eles modelam dinâmica de fluidos, mecânica celeste e movimento de robôs. O principal desafio na …
SecCodePLT: uma plataforma integrada para avaliar riscos de segurança no código GenAI
Os modelos de IA para geração de código (Code GenAI) estão se tornando cada vez mais importantes no desenvolvimento de software automatizado que demonstra a capacidade de escrever, depurar e raciocinar com código. No entanto, a sua capacidade de gerar código automaticamente levanta preocupações sobre vulnerabilidades de segurança. Esses modelos podem introduzir inadvertidamente códigos inseguros, …
Meta AI lança Meta Lingua: um LLM pequeno e rápido para biblioteca de inferência de treinamento e pesquisa
O treinamento e a implantação de modelos linguísticos de grande escala (LLMs) são complexos, exigindo recursos computacionais significativos, conhecimento técnico e acesso a infraestruturas de alto desempenho. Estas barreiras limitam a reprodutibilidade, aumentam o tempo de desenvolvimento e tornam os testes um desafio, especialmente em instituições de ensino superior e pequenos centros de investigação. Abordar …
Compreensão em nível local e compressão de informações em redes neurais profundas
As redes neurais profundas são ferramentas poderosas que levam ao aprendizado de padrões complexos, mas entender como elas compactam os dados de entrada em representações significativas continua sendo um problema de pesquisa desafiador. Pesquisadores da Universidade da Califórnia, em Los Angeles, e da Universidade de Nova York propõem uma nova métrica, chamada localidade, para medir …
Baichuan-Omni: um modelo de linguagem multimodal 7B de código aberto para processamento de imagem, vídeo, áudio e texto
Avanços recentes em Grandes Modelos de Linguagem (LLMs) remodelaram o cenário da inteligência artificial (IA), abrindo caminho para a criação de Modelos Multimodais de Grandes Linguagens (MLLMs). Esses modelos avançados estendem o poder da IA além do texto, permitindo a compreensão e o processamento de conteúdos como imagens, áudio e vídeo, representando um grande avanço …
Agente como juiz: uma estrutura de IA avançada para avaliação escalonável e precisa de sistemas de IA com feedback contínuo e julgamentos em nível humano.
Os sistemas de agentes desenvolveram-se rapidamente nos últimos anos, mostrando a capacidade de resolver tarefas complexas que imitam processos de tomada de decisão semelhantes aos humanos. Esses sistemas são projetados para realizar análises passo a passo de tarefas intermediárias e semelhantes às humanas. No entanto, um dos maiores desafios neste domínio é avaliar eficazmente estes …
Meta AI lança Meta Spirit LM: um modelo de linguagem multilíngue de código aberto para mixagem de texto para fala
Um dos principais desafios no desenvolvimento de sistemas avançados de conversão de texto em fala (TTS) é a falta de fala durante a transcrição e geração de fala. Tradicionalmente, modelos de linguagem em larga escala (LLMs) são usados para construir pipelines TTS que convertem fala em texto usando reconhecimento automático de fala (ASR), processam-no usando …
Microsoft Open-Sources bitnet.cpp: uma estrutura de inferência LLM supereficiente de 1 bit que roda diretamente em CPUs
O rápido crescimento dos principais modelos linguísticos (LLMs) trouxe capacidades incríveis, mas também destacou desafios significativos relacionados com a utilização de recursos e escalabilidade. Os LLMs normalmente exigem ampla infraestrutura de GPU e grandes quantidades de energia, tornando-os caros para serem executados e mantidos. Isto limitou principalmente a sua acessibilidade a pequenas empresas ou utilizadores …