Um novo estudo realizado por investigadores do MIT e da Penn State University mostra que, se modelos linguísticos em grande escala fossem utilizados na vigilância doméstica, recomendariam chamar a polícia mesmo quando os vídeos de vigilância não mostrassem actividade criminosa. Além disso, os modelos pesquisados eram inconsistentes quando os vídeos sinalizavam para intervenção policial. Por …
DFDG: aprimora o aprendizado integrado One-Shot com dois geradores sem dados para melhorar o desempenho do modelo e reduzir a sobreposição de dados
Os métodos de destilação de conhecimento livre de dados (DFKD) transferem conhecimento de professores para modelos de alunos sem dados reais, usando geração de dados artificiais. Os métodos não adversários usam heurística para criar dados semelhantes aos originais, enquanto os métodos adversários usam o aprendizado adversário para explorar pontos de distribuição. O One-Shot Federated Learning …
Source2Synth: uma nova abordagem de IA para geração e edição de dados sintéticos com base em fontes de dados reais
Modelos de Linguagem em Grande Escala (LLMs) mostraram desempenho notável em tarefas como Processamento de Linguagem Natural, geração e síntese de texto. Porém, ainda enfrentam grandes dificuldades nas situações mais complexas. São tarefas que exigem o uso de ferramentas para resolver problemas, lidar com dados estruturados ou realizar raciocínios complexos em várias etapas. Por exemplo, …
Autores Pesquisadores apresentam Writing at the Edges (WiM): um novo padrão conceitual para grandes modelos de linguagem projetados para melhorar o gerenciamento de longas sequências de entrada em tarefas orientadas para recuperação
A inteligência artificial (IA) e o processamento de linguagem natural (PNL) registaram avanços significativos nos últimos anos, particularmente no desenvolvimento e implementação de modelos linguísticos de grande escala (LLMs). Esses modelos são úteis para diversas tarefas, como criar texto, responder perguntas e resumir documentos. No entanto, embora os LLMs tenham mostrado um potencial notável, eles …
DreamHOI: uma nova abordagem de IA para a geração de interfaces humanas virtuais em 3D usando descrições de texto e tipos de classificação
Os primeiros esforços em modelagem 3D focaram na reconstrução de visão única usando modelos específicos de fase. Desenvolvimentos recentes utilizam geradores de imagem e vídeo pré-treinados, especialmente modelos de distribuição, para permitir a geração de código aberto. O ajuste fino de conjuntos de dados de múltiplas visualizações melhorou os resultados, mas persistiram desafios na geração …
Quão bem os modelos de IA podem capturar sons emocionais? Este artigo sobre IA revela SALMON: um conjunto para avaliação de modelos de linguagem acústica
Um grande desafio no campo dos Modelos de Linguagem de Fala (SLMs) é a falta de métricas de avaliação abrangentes que vão além da modelagem básica do conteúdo textual. Embora os SLMs tenham mostrado um progresso significativo na produção de fala coerente e gramaticalmente correta, sua capacidade de modelar características acústicas como emoção, ruído de …
Desidentificação de dados de saúde: alcançando conformidade em 2024 e além
O fortalecimento da infraestrutura digital das organizações de saúde envolve complexidade e investimentos pesados. Desde a implementação de pilhas de tecnologia complexas até desafios de desenvolvimento de talentos, superar os obstáculos é uma tarefa árdua. Uma vez que os dados de saúde são considerados um dos mais sensíveis, cabe às partes interessadas na área da …
Uma revisão sistemática da literatura: estratégias para desenvolver e acelerar LLMs
Os principais modelos linguísticos (LLMs) tiveram um sucesso notável no processamento de linguagem natural (PNL). Grandes modelos de aprendizagem profunda, especialmente arquiteturas baseadas em transformadores, cresceram exponencialmente em tamanho e complexidade, atingindo bilhões a bilhões de parâmetros. No entanto, eles apresentam desafios significativos nos recursos de computação e no uso de memória. Mesmo as GPUs …
NiNo: um novo método de aprendizado de máquina para acelerar o treinamento de redes neurais usando interação de neurônios e nowcasting
No aprendizado profundo, a otimização de redes neurais tem sido uma importante área de foco. O treinamento de grandes modelos, como transformadores e redes de comunicação, requer recursos computacionais e tempo significativos. Os pesquisadores têm testado técnicas avançadas de desenvolvimento para tornar esse processo mais eficiente. Tradicionalmente, otimizadores adaptativos como Adam têm sido usados para …
Comet apresenta Opik: uma ferramenta completa de código aberto para testes LLM ponta a ponta, rastreamento rápido e testes de pré-implantação com integração perfeita.
O cometa foi revelado Opikuma plataforma de código aberto projetada para melhorar a visualização e avaliação de modelos linguísticos de grande escala (LLMs). Esta ferramenta foi projetada para desenvolvedores e cientistas de dados monitorarem, testarem e rastrearem aplicativos LLM desde o desenvolvimento até a produção. Opik fornece uma lista abrangente de recursos que simplificam o …