Um aumento na IA significa um aumento nos custos de infraestrutura. A investigação de grandes dimensões e complexa exerce pressão económica sobre as instituições, uma vez que a computação de alto desempenho (HPC) custa muito caro. A HPC é financeiramente onerosa e tem um impacto negativo no consumo de energia e no ambiente. Até 2030, …
KVSharer: um método de aprendizado de máquina plug-and-play compartilha cache KV entre camadas para obter compactação inteligente de camadas
Nos últimos tempos, modelos linguísticos de grande escala (LLMs) construídos na arquitetura Transformer mostraram capacidades notáveis em múltiplas tarefas. No entanto, esses recursos impressionantes geralmente vêm com um grande aumento no tamanho do modelo, levando a grandes custos de memória da GPU durante a inferência. O repositório KV é uma técnica popular usada na inferência …
Melhorando o raciocínio da inteligência artificial abordando as limitações do Softmax na tomada de decisões inteligentes com estratégias térmicas dinâmicas
A capacidade de gerar conclusões precisas com base na entrada de dados é crítica para um raciocínio robusto e um desempenho confiável em sistemas de Inteligência Artificial (IA). A função softmax é um recurso importante que oferece suporte a essa funcionalidade em modelos modernos de IA. Uma grande parte da análise discriminante de chaves de …
Promptfoo: uma ferramenta de IA para avaliação, avaliação e aplicações LLM para colaboração com a equipe vermelha
Promptfoo é uma interface de linha de comando (CLI) e uma biblioteca projetada para melhorar o teste e a segurança de aplicativos de modelo de linguagem grande (LLM). Ele permite que os usuários criem dados robustos, configurações de modelo e sistemas de geração aumentada de recuperação (RAG) por meio de benchmarks específicos de casos de …
Llama-3-Nanda-10B-Chat: um modelo de linguagem hindi grande e produtivo aberto com parâmetros 10B com recursos de PNL de ponta e tokenização avançada
O Processamento de Linguagem Natural (PNL) concentra-se na construção de modelos de computador para interpretar e construir a linguagem humana. Com o desenvolvimento de modelos baseados em transformadores, os modelos linguísticos de grande escala (LLMs) mostraram capacidades impressionantes de PNL para o inglês, permitindo aplicações que vão desde resumo de texto e análise de sentimentos …
AMD Open Source AMD OLMo: uma série de modelos de linguagem 1B totalmente de código aberto treinada do zero pela AMD em GPUs AMD Instinct™ MI250
No mundo em rápida evolução da inteligência artificial e do aprendizado de máquina, a necessidade de soluções poderosas, flexíveis e acessíveis cresceu exponencialmente. Engenheiros, investigadores e entusiastas da tecnologia enfrentam frequentemente desafios quando se trata de tecnologia de ponta sem serem limitados por ecossistemas fechados. A maioria dos modelos de linguagem existentes, mesmo os mais …
CHESTNUT: um conjunto de dados de QoS para ambientes Mobile Edge
A Qualidade de Serviço (QoS) é uma métrica muito importante usada para avaliar o desempenho dos serviços de rede em ambientes de borda móvel, onde os dispositivos móveis solicitam frequentemente serviços de servidores de borda. Inclui dimensões como largura de banda, atraso, jitter e taxa de perda de pacotes de dados. No entanto, a maioria …
AUTO-CEI: um currículo iterativo e uma abordagem especializada para aumentar a precisão das respostas dos LLMs e controlar as taxas de rejeição em vários domínios de consultoria
Modelos linguísticos de larga escala (LLMs) são cada vez mais utilizados em tarefas complexas de raciocínio, que exigem que forneçam respostas precisas a uma variedade de situações desafiadoras. Essas tarefas incluem raciocínio lógico, cálculos complexos e aplicações de programação complexas, que exigem a capacidade de realizar raciocínio em várias etapas e resolução de problemas em …
Este artigo de IA revela o funcionamento interno da incorporação de posição rotativa em transformadores
Rotary Positional Embeddings (RoPE) é uma técnica avançada em inteligência artificial que melhora a codificação espacial em modelos de transformadores, especialmente para dados sequenciais, como linguagem. Os modelos de transformadores lutam naturalmente com a ordenação posicional porque lidam com cada token individualmente. Os pesquisadores exploraram métodos de incorporação que incluem as posições dos tokens em …
SmolLM2 lançado: uma nova série (0.1B, 0.3B e 1.7B) de modelos de linguagem pequena para aplicativos móveis e além do Meta Llama 3.2 1B
Nos últimos anos, a proliferação de modelos linguísticos de grande escala (LLMs) mudou drasticamente a forma como abordamos as tarefas de processamento de linguagem natural. No entanto, estes desenvolvimentos não estão isentos de problemas. O uso generalizado de grandes LLMs, como GPT-4 e LLaMA da Meta, revelou suas limitações quando se trata de eficiência de …