TÉCNICAS DE OTIMIZAÇÃO DE REDES NEURAIS PROFUNDAS PARA APLICAÇÕES EM SISTEMAS EMBARCADOS
Palavras-chave:
Quantização, Deep Learning, TinyML, Dispositivos Embarcados, Otimização de ModelosResumo
O Aprendizado de Máquina (Machine Learning - ML) e, em especial, o Aprendizado Profundo (Deep Learning - DL), têm se destacado como tecnologias cruciais na Inteligência Artificial (AI) devido à sua capacidade de melhorar continuamente a partir de grandes quantidades de dados. Embora a execução desses modelos geralmente exija recursos computacionais significativos, como GPUs e TPUs, a crescente demanda por aplicações com baixa latência e alta privacidade tem impulsionado o desenvolvimento de técnicas para executar modelos de ML em dispositivos embarcados. Este trabalho investiga métodos de compressão, quantização e otimização de modelos de redes neurais para torná-los mais eficientes e viáveis em dispositivos com recursos limitados, como microcontroladores de ultrabaixa potência. Ao explorar essas técnicas, o estudo visa aprimorar a execução de modelos de ML em dispositivos embarcados, contribuindo para a expansão do paradigma TinyML e o processamento de dados de dispositivos IoT, promovendo benefícios como baixa latência, eficiência energética e maior segurança dos dados.