Abstract:
|
A modelagem de séries temporais pode ser realizada por meio de métodos estatísticos e computacionais, sendo sua análise de suma importância, uma vez que auxiliam os gestores na tomada de decisões. Com os avanços das técnicas de Inteligência Artificial, é possível elaborar modelos cada vez mais precisos, uma vez que utilizam algoritmos capazes de aprender a partir de dados e, assim, realizar tarefas complexas, como reconhecimento de padrões, classificação, regressão, entre outras. A partir de um conjunto de dados, um modelo de aprendizagem de máquina é treinado para identificar padrões e, com isso, é capaz de realizar previsões em novos dados. Neste sentido, o presente projeto teve como objetivo principal analisar modelos pré-treinados para séries temporais univariadas, aplicadas a diferentes conjuntos de dados. Para isso, foi realizada uma análise comparativa entre diversas tipologias. Os modelos analisados incluem métodos estatísticos clássicos (ARIMA, SARIMA, Prophet), assim como abordagens baseadas em aprendizado profundo (LSTM, NBEATS, NHEATS, AutoMLP, AutoNBEATS, AutoNHITS) e modelos pré-treinados (NHITS pré-treinado e TimeGPT). Para explorar a eficácia desses modelos na captura de padrões temporais e avaliar seus desempenhos, foram utilizadas as seguintes métricas: Erro Percentual Médio Absoluto (MAPE), Raiz Quadrada Média do Erro (RMSE) e Erro Absoluto Médio (MAE). Os resultados mostram que o desempenho dos modelos depende de sua implementação, das técnicas utilizadas e da quantidade de dados disponíveis, variando na melhor eficácia preditiva entre cada conjunto de dados. Todavia, no geral, as abordagens baseadas em deep learning pré-treinadas apresentam bons resultados em todos os conjuntos amostrais analisados. |