Please use this identifier to cite or link to this item: http://repositorio.cesupa.br:8080/jspui/handle/prefix/465
Type: Trabalho de Conclusão de Curso
Title: Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas
Author: Barros, Lucas Lima de Aragão
Advisors: Souza, Daniel Leal
Resumo: Este trabalho explora – através de técnicas de otimização hiperparamétrica – a possibilidade de melhorar a eficácia das redes neurais, que têm experimentado uma grande popularização em várias áreas. O foco é avaliar uma nova abordagem para otimização de hiperparâmetros, sendo uma das principais dificuldades no desenvolvimento dessas redes. Tradicionalmente, a definição desses hiperparâmetros ocorre de forma estocástica ou por cálculos matemáticos. O objetivo é aprimorar o processo, permitindo uma definição mais precisa dos valores, com menores perdas (Loss). Estas soluções baseiam-se em uma revisão da literatura sobre otimização de hiperparâmetros em Redes Neurais (e.g. CNN, Fully Connected), abordando conceitos fundamentais e técnicas como Grid Search, Random Search e SMBO. A metodologia inclui a escolha de ferramentas, estratégia de validação cruzada e abordagens específicas de busca, como Gaussian Regression ou busca em grade. Os experimentos detalhados envolvem a otimização dos hiperparâmetros das Redes Neurais, com apresentação de conjuntos de dados, configurações de modelos, protocolos de treinamento e resultados quantitativos. Apesar de suas limitações e da necessidade de mais estudos, este trabalho demonstra a viabilidade e o potencial da combinação de técnicas avançadas para otimização de hiperparâmetros em Redes Neurais, oferecendo contribuições e instigando novas direções de pesquisa na busca por maior eficácia em diversas aplicações destas redes. A discussão analisa os efeitos das configurações de hiperparâmetros, identifica limitações e aborda possíveis razões para os resultados obtidos. Por fim, a conclusão resume os principais insights, contribuições específicas e direções futuras, enquanto as referências garantem a fundamentação do trabalho.
Abstract: This work explores - through hyperparameter optimization techniques - the possibility of improving the effectiveness of neural networks, which have experienced widespread popularity in various fields. The focus is to evaluate a new approach to hyperparameter optimization, which is one of the main challenges in the development of these networks. Traditionally, the definition of these hyperparameters occurs stochastically or through mathematical calculations. The goal is to refine the process, allowing a more precise definition of values, with lower losses. These solutions are based on a review of the literature on hyperparameter optimization in Neural Networks (e.g., CNN, Fully Connected), addressing fundamental concepts and techniques such as Grid Search, Random Search, and SMBO. The methodology includes the choice of tools, cross-validation strategy, and specific search approaches, such as Gaussian Regression or grid search. The detailed experiments involve optimizing the hyperparameters of Neural Networks, presenting datasets, model configurations, training protocols, and quantitative results. Despite its limitations and the need for further studies, this work demonstrates the feasibility and potential of combining advanced techniques for hyperparameter optimization in Neural Networks, offering contributions and stimulating new research directions in the search for greater efficacy in various applications of these networks. The discussion analyzes the effects of hyperparameter settings, identifies limitations, and addresses possible reasons for the obtained results. Finally, the conclusion summarizes the main insights, specific contributions, and future directions, while the references ensure the work's foundation.
Keywords: Redes neurais artificiais
Hiperparâmetros
Machine learning
Inteligência Artificial
Otimização de hiperparâmetros
Inferência bayesiana
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA
Language: por
Country: Brasil
Publisher: Centro Universitário do Estado do Pará
Institution Initials: CESUPA
Citation: BARROS, Lucas Lima de Aragão. Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas. 2023. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Centro Universitário do Estado do Pará, Belém, 2023.
Access Type: Acesso Aberto
Attribution-NonCommercial-NoDerivs 3.0 Brazil
URI: http://repositorio.cesupa.br:8080/jspui/handle/prefix/465
Issue Date: 7-Dec-2023
Appears in Collections:Trabalho de Conclusão de Curso - TCC

Files in This Item:
File Description SizeFormat 
TC - Lucas Barros.pdf1.36 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons