Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais

DSpace Repository

A- A A+

Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais

Show full item record

Title: Análise de algoritmos de roteamento e topologias de redes-em-chip para inferência paralela em redes neurais
Author: Araújo, André Isaias de Jesus Gondim
Abstract: Este trabalho investiga a aplicação de redes-em-chip (NoCs) na execução paralelizada de redes neurais artificiais, com foco na análise comparativa de algoritmos de roteamento e topologias de interconexão. Com o aumento da complexidade dos sistemas embarcados e a demanda crescente por soluções de computação neuromórfica, torna-se necessário avaliar arquiteturas que ofereçam desempenho, escalabilidade e eficiência energética. Neste contexto, foi implementada uma rede neural dedicada à classificação do conjunto de dados Íris, composta por quatro entradas, duas camadas ocultas e uma saída multiclasse. A inferência foi inicialmente realizada em ambiente de CPU tradicional, utilizando bibliotecas de aprendizado de máquina em Python, estabelecendo uma base sequencial de comparação. Em seguida, a mesma rede foi modelada em uma arquitetura de NoC com 16 elementos de processamento (PEs), onde cada neurônio foi mapeado em um PE distinto. As simulações foram conduzidas na ferramenta Noxim, considerando quatro algoritmos de roteamento na topologia Mesh (XY, West-First, Odd-Even e DyAD-T) e o algoritmo Delta nas topologias multietapa Butterfly e Ômega. A análise baseou-se em métricas clássicas como latência média, throughput e consumo energético, extraídas dos arquivos de saída das simulações. Os tempos de inferência foram estimados por meio de uma aproximação entre delay e throughput, considerando uma frequência de operação de 1 GHz e execução paralelizada dos PEs. Os resultados indicaram ganho expressivo de desempenho das NoCs em relação à CPU, com tempos de inferência até cinco ordens de magnitude inferiores. O algoritmo XY obteve o melhor resultado na topologia Mesh, enquanto a topologia Ômega apresentou leve superioridade em relação à Butterfly. O estudo confirma a viabilidade do uso de NoCs para acelerar tarefas de inferência em redes neurais, destacando seu potencial para aplicações embarcadas que exigem baixo consumo de energia e elevada taxa de processamento. Além disso, o trabalho contribui com uma abordagem prática para avaliar o impacto da escolha do roteamento e da topologia no desempenho de sistemas neuromórficos.This work investigates the application of networks-on-chip (NoCs) in the parallelized execution of artificial neural networks, focusing on a comparative analysis of routing algorithms and interconnection topologies. With the increasing complexity of embedded systems and the growing demand for neuromorphic computing solutions, it becomes necessary to evaluate architectures that offer performance, scalability, and energy efficiency. In this context, a neural network dedicated to the classification of the Iris dataset was implemented, composed of four input neurons, two hidden layers, and a multiclass output. Inference was initially performed in a traditional CPU environment using Python machine learning libraries, establishing a sequential comparison baseline. The same network was then modeled on a NoC architecture with 16 processing elements (PEs), where each neuron was mapped to a distinct PE. Simulations were conducted using the Noxim tool, considering four routing algorithms on the Mesh topology (XY, West-First, Odd-Even, and DyAD-T), and the Delta algorithm on multistage topologies Butterfly and Omega. The analysis was based on classical metrics such as average latency, throughput, and energy consumption, extracted from the simulation output files. Inference times were estimated through an approximation between delay and throughput, assuming a 1 GHz operating frequency and parallel execution of the PEs. The results showed significant performance gains for NoCs compared to the CPU, with inference times up to five orders of magnitude lower. The XY algorithm achieved the best result on the Mesh topology, while the Omega topology showed slightly better performance than Butterfly. The study confirms the feasibility of using NoCs to accelerate inference tasks in neural networks, highlighting their potential for embedded applications that require low power consumption and high processing throughput. Furthermore, the work contributes a practical approach to assessing the impact of routing and topology choices on the performance of neuromorphic systems.
Description: TCC (graduação) - Universidade Federal de Santa Catarina, Campus Blumenau, Engenharia de Controle e Automação.
URI: https://repositorio.ufsc.br/handle/123456789/265701
Date: 2025-05-28


Files in this item

Files Size Format View Description
TCC_AndreAraujo.pdf 2.195Mb PDF View/Open TCC - André Araújo

This item appears in the following Collection(s)

Show full item record

Search DSpace


Browse

My Account

Statistics

Compartilhar