Google AI acaba de lançar TimesFM-2.0 (JAX e Pytorch) no Hugging Face com aumento significativo de precisão e mais comprimento de conteúdo
Inteligência artificial

Google AI acaba de lançar TimesFM-2.0 (JAX e Pytorch) no Hugging Face com aumento significativo de precisão e mais comprimento de conteúdo


A previsão de séries temporais desempenha um papel importante em vários campos, incluindo finanças, saúde e ciências climáticas. No entanto, alcançar previsões precisas ainda é um grande desafio. Métodos tradicionais como ARIMA e suavização exponencial costumam ser difíceis de generalizar entre domínios ou de lidar com as complexidades de dados de alta dimensão. Os métodos atuais de aprendizagem profunda, embora promissores, muitas vezes exigem grandes conjuntos de dados rotulados e grandes recursos computacionais, tornando-os fora do alcance de muitas organizações. Além disso, estes modelos muitas vezes não têm flexibilidade para lidar com diferentes granularidades temporais e horizontes de previsão, limitando ainda mais o seu desempenho.

O Google AI lançou recentemente o TimesFM-2.0, um novo modelo básico de previsão de séries temporais, agora disponível em Hugging Face para implementações JAX e PyTorch. Esta versão traz melhorias na precisão e amplia a duração do conteúdo de pico, fornecendo uma solução robusta e flexível para desafios de previsão. O TimesFM-2.0 baseia-se no seu antecessor, incorporando melhorias arquitetônicas e usando um corpus de treinamento diversificado, garantindo desempenho robusto em uma ampla gama de conjuntos de dados.

A disponibilidade aberta do modelo Hugging Face ressalta o esforço do Google AI para apoiar a colaboração dentro da comunidade de IA. Pesquisadores e engenheiros podem ajustar ou usar o TimesFM-2.0, fazendo melhorias nos processos de previsão de séries temporais.

Inovação Tecnológica e Benefícios

TimesFM-2.0 inclui diversas melhorias que melhoram suas capacidades de previsão. Sua arquitetura somente decodificador foi projetada para acomodar vários comprimentos de histórico, horizontes de previsão e granularidade de tempo. Técnicas como patches de entrada e patches de mascaramento permitem treinamento e interpretação eficientes, ao mesmo tempo que oferecem suporte à previsão implícita – um recurso raro entre os modelos preditivos.

Uma de suas principais características é a capacidade de prever horizontes longos, gerando grandes patches de saída, reduzindo a sobrecarga computacional da decodificação autorregressiva. O modelo é treinado em um rico conjunto de dados que inclui dados do mundo real de fontes como Google Trends e visualizações de páginas da Wikimedia, bem como conjuntos de dados sintéticos. Esses diversos dados de treinamento equipam o modelo para reconhecer um amplo espectro de padrões temporais. O pré-treinamento com mais de 100 bilhões de pontos de tempo permite que o TimesFM-2.0 ofereça desempenho semelhante aos modelos supervisionados de última geração, muitas vezes sem a necessidade de ajustes especiais.

Com 200 milhões de parâmetros, o modelo equilibra eficiência computacional e precisão preditiva, tornando-o útil para implantação em diversos cenários.

Resultados e detalhes

Os testes empíricos destacam o desempenho robusto do modelo. Em configurações zero-shot, o TimesFM-2.0 supera consistentemente as estruturas tradicionais e de aprendizagem profunda em uma variedade de conjuntos de dados. Por exemplo, no arquivo Monash – uma coleção de 30 conjuntos de dados cobrindo uma variedade de granularidades e domínios – o TimesFM-2.0 alcançou os resultados mais elevados em termos de erro médio absoluto (MAE), os modelos de melhor desempenho, como N-BEATS e DeepAR.

Nos benchmarks Darts, que combinam conjuntos de dados estáticos com padrões sazonais complexos, o TimesFM-2.0 apresentou resultados competitivos, muitas vezes correspondendo aos métodos de melhor desempenho. Da mesma forma, a análise dos conjuntos de dados do Informer, como os conjuntos de dados de temperatura do transformador, mostrou a eficácia do modelo no tratamento de horizontes longos (por exemplo, 96 e 192 passos).

TimesFM-2.0 lidera a tabela de classificação GIFT-Eval em métricas de precisão de previsão de localização e probabilidade.

Estudos de ablação enfatizaram o impacto de escolhas específicas de design. Aumentar o comprimento do patch de saída, por exemplo, reduz o número de etapas automáticas, melhorando a eficiência sem sacrificar a precisão. A inclusão de dados sintéticos revelou-se importante para lidar com a granularidade mal representada, como conjuntos de dados trimestrais e anuais, melhorando a robustez do modelo.

A conclusão

O lançamento do TimesFM-2.0 pelo Google AI representa um avanço significativo na previsão de séries temporais. Ao combinar escalabilidade, precisão e flexibilidade, o modelo aborda desafios comuns de previsão com uma solução eficiente e eficaz. A sua disponibilidade em código aberto convida a comunidade científica a explorar o seu potencial, estimulando a inovação neste domínio. Seja usado para modelagem financeira, previsão do tempo ou análise de saúde, o TimesFM-2.0 equipa as organizações para tomar decisões informadas com confiança e precisão.


Confira Papel e modelo na mesma face. Todo o crédito deste estudo vai para os pesquisadores deste projeto. Além disso, não se esqueça de nos seguir Twitter e junte-se ao nosso Estação telefônica de novo LinkedIn Gracima. Não se esqueça de participar do nosso SubReddit de 60k + ML.

🚨 PRÓXIMO WEBINAR GRATUITO DE IA (15 DE JANEIRO DE 2025): Aumente a precisão do LLM com dados artificiais e inteligência experimentalParticipe deste webinar para obter insights práticos sobre como melhorar o desempenho e a precisão do modelo LLM e, ao mesmo tempo, proteger a privacidade dos dados.


Aswin AK é consultor da MarkTechPost. Ele está cursando seu diploma duplo no Instituto Indiano de Tecnologia, Kharagpur. Ele é apaixonado por ciência de dados e aprendizado de máquina, o que traz consigo uma sólida formação acadêmica e experiência prática na solução de desafios de domínio da vida real.

✅ [Recommended Read] Nebius AI Studio se expande com modelos de visão, novos modelos de linguagem, incorporados e LoRA (Aprimorado)



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *