A lacuna de confiança da IA: compreendendo o papel crítico dos humanos no desenvolvimento da IA

A lacuna de confiança da IA: compreendendo o papel crítico dos humanos no desenvolvimento da IA

Este site utiliza cookies para melhorar a sua experiência enquanto navega no site. Destes, os cookies classificados como necessários são armazenados no seu navegador, pois são essenciais para o funcionamento dos elementos básicos do site. Também utilizamos cookies de terceiros que nos ajudam a analisar e compreender como utiliza este website. Estes cookies só serão …

SpeechBrain: um kit de ferramentas de fala baseado em PyTorch

SpeechBrain: um kit de ferramentas de fala baseado em PyTorch

O processamento de fala e áudio é importante para modelos que incorporam dados de fala, especialmente para lidar com tarefas complexas, como reconhecimento de fala, síntese de texto para fala, reconhecimento de locutor e aprimoramento de fala. O principal desafio reside na diversidade e complexidade dos sinais de fala, que são influenciados por fatores como …

NVIDIA AI lança OpenMathInstruct-2: conjunto de dados de ajuste de instruções matemáticas com 14 milhões de pares de solução de problema gerados usando o modelo Llama3.1-405B-Instruct

NVIDIA AI lança OpenMathInstruct-2: conjunto de dados de ajuste de instruções matemáticas com 14 milhões de pares de solução de problema gerados usando o modelo Llama3.1-405B-Instruct

Os modelos linguísticos fizeram grandes avanços no raciocínio matemático, com os dados sintéticos desempenhando um papel importante no seu desenvolvimento. No entanto, o campo enfrenta desafios significativos devido à natureza de código fechado de grandes conjuntos de dados estatísticos. Esta falta de privacidade levanta preocupações sobre a fuga de dados e elimina a dependência de …

Revisitando RNNs de Redes Neurais Regulares: Pequenos LSTMs e GRUs para Treinamento Paralelo Eficiente

Revisitando RNNs de Redes Neurais Regulares: Pequenos LSTMs e GRUs para Treinamento Paralelo Eficiente

Redes neurais regulares (RNNs) têm sido fundamentais no aprendizado de máquina para resolver problemas baseados em sequências, incluindo previsão de séries temporais e processamento de linguagem natural. As RNNs são projetadas para lidar com sequências de comprimentos variados, mantendo um estado interno que captura informações a cada passo de tempo. No entanto, esses modelos muitas …

NVIDIA AI apresenta FACTS: uma estrutura completa para chatbots empresariais baseados em RAG

NVIDIA AI apresenta FACTS: uma estrutura completa para chatbots empresariais baseados em RAG

No ambiente acelerado de hoje, os chatbots empresariais estão a tornar-se ferramentas essenciais para melhorar a produtividade dos funcionários, fornecendo acesso instantâneo a informações organizacionais. No entanto, a jornada para construir sistemas de geração aumentada de recuperação (RAG) eficientes, escaláveis ​​e seguros está repleta de desafios. A pesquisa mais recente da NVIDIA oferece uma solução …

Lotus: um modelo de base visual baseado em segmentação para previsão de geometria densa

Lotus: um modelo de base visual baseado em segmentação para previsão de geometria densa

A previsão de geometria densa em visão computacional envolve a estimativa de propriedades como a profundidade e a normalidade de cada pixel na imagem. A previsão precisa da geometria é importante para aplicações como robótica, direção automatizada e realidade aumentada, mas os métodos atuais geralmente exigem treinamento extensivo em conjuntos de dados rotulados e têm …

Testando aprendizagem por reforço no contexto em LLMs com autoencoders esparsos

Testando aprendizagem por reforço no contexto em LLMs com autoencoders esparsos

Grandes modelos de linguagem (LLMs) demonstraram habilidades notáveis ​​para aprendizagem baseada em conteúdo em uma variedade de domínios, incluindo tradução, aprendizagem de tarefas e aprendizagem por reforço. No entanto, os mecanismos subjacentes a estas competências, particularmente na aprendizagem por reforço (RL), permanecem pouco compreendidos. Os pesquisadores tentaram determinar como os LLMs aprendem a realizar ações …

LOONG: um novo gerador de vídeo LLM autoregressivo que pode gerar vídeos de minutos de duração

LOONG: um novo gerador de vídeo LLM autoregressivo que pode gerar vídeos de minutos de duração

A geração de vídeo por LLMs é um campo emergente com uma trajetória de crescimento promissora. Embora os Modelos Autoregressivos de Grandes Linguagens (LLMs) tenham tido muito sucesso na geração de tokens sequenciais e longos no processamento de linguagem natural, seu uso na geração de vídeos é limitado a vídeos curtos de alguns segundos. Para …

O que acontece quando os modelos de difusão e autorregressivos se encontram? Este artigo sobre IA revela uma geração com distribuição integrada

O que acontece quando os modelos de difusão e autorregressivos se encontram? Este artigo sobre IA revela uma geração com distribuição integrada

Modelos generativos baseados em processos de difusão têm se mostrado muito promissores na conversão de áudio em dados, mas enfrentam desafios significativos em termos de flexibilidade e eficiência. Os modelos de distribuição existentes muitas vezes dependem de representação fixa de dados (por exemplo, com base em pixels) e cronogramas de ruído uniformes, o que limita …

MOSEL: Uma recolha de dados de fala de código aberto para o treino de modelos baseados na fala em línguas da UE

MOSEL: Uma recolha de dados de fala de código aberto para o treino de modelos baseados na fala em línguas da UE

Embora os conjuntos de dados de fala existentes sejam fortemente tendenciosos para o inglês, muitas línguas da UE são mal mantidas em termos de dados de fala acessíveis e de alta qualidade. Essa falta de recursos leva a modelos de IA que entendem e processam melhor o inglês do que outros idiomas em tarefas como …