Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas
dc.contributor.advisor | Souza, Daniel Leal | |
dc.contributor.advisor-co1 | Mollinetti, Marco Antônio Florenzano | |
dc.contributor.advisor-co1Lattes | http://lattes.cnpq.br/1246642827046945 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/6059334260016388 | pt_BR |
dc.contributor.referee1 | Nascimento, Polyana Santos Fonseca | |
dc.contributor.referee1Lattes | http://lattes.cnpq.br/6889523334917369 | pt_BR |
dc.contributor.referee2 | Oliveira, Roberto Célio Limão de | |
dc.contributor.referee2Lattes | http://lattes.cnpq.br/4497607460894318 | pt_BR |
dc.creator | Barros, Lucas Lima de Aragão | |
dc.date.accessioned | 2024-05-29T18:11:07Z | |
dc.date.available | 2024-05-29T18:11:07Z | |
dc.date.issued | 2023-12-07 | |
dc.description.abstract | This work explores - through hyperparameter optimization techniques - the possibility of improving the effectiveness of neural networks, which have experienced widespread popularity in various fields. The focus is to evaluate a new approach to hyperparameter optimization, which is one of the main challenges in the development of these networks. Traditionally, the definition of these hyperparameters occurs stochastically or through mathematical calculations. The goal is to refine the process, allowing a more precise definition of values, with lower losses. These solutions are based on a review of the literature on hyperparameter optimization in Neural Networks (e.g., CNN, Fully Connected), addressing fundamental concepts and techniques such as Grid Search, Random Search, and SMBO. The methodology includes the choice of tools, cross-validation strategy, and specific search approaches, such as Gaussian Regression or grid search. The detailed experiments involve optimizing the hyperparameters of Neural Networks, presenting datasets, model configurations, training protocols, and quantitative results. Despite its limitations and the need for further studies, this work demonstrates the feasibility and potential of combining advanced techniques for hyperparameter optimization in Neural Networks, offering contributions and stimulating new research directions in the search for greater efficacy in various applications of these networks. The discussion analyzes the effects of hyperparameter settings, identifies limitations, and addresses possible reasons for the obtained results. Finally, the conclusion summarizes the main insights, specific contributions, and future directions, while the references ensure the work's foundation. | pt_BR |
dc.description.resumo | Este trabalho explora – através de técnicas de otimização hiperparamétrica – a possibilidade de melhorar a eficácia das redes neurais, que têm experimentado uma grande popularização em várias áreas. O foco é avaliar uma nova abordagem para otimização de hiperparâmetros, sendo uma das principais dificuldades no desenvolvimento dessas redes. Tradicionalmente, a definição desses hiperparâmetros ocorre de forma estocástica ou por cálculos matemáticos. O objetivo é aprimorar o processo, permitindo uma definição mais precisa dos valores, com menores perdas (Loss). Estas soluções baseiam-se em uma revisão da literatura sobre otimização de hiperparâmetros em Redes Neurais (e.g. CNN, Fully Connected), abordando conceitos fundamentais e técnicas como Grid Search, Random Search e SMBO. A metodologia inclui a escolha de ferramentas, estratégia de validação cruzada e abordagens específicas de busca, como Gaussian Regression ou busca em grade. Os experimentos detalhados envolvem a otimização dos hiperparâmetros das Redes Neurais, com apresentação de conjuntos de dados, configurações de modelos, protocolos de treinamento e resultados quantitativos. Apesar de suas limitações e da necessidade de mais estudos, este trabalho demonstra a viabilidade e o potencial da combinação de técnicas avançadas para otimização de hiperparâmetros em Redes Neurais, oferecendo contribuições e instigando novas direções de pesquisa na busca por maior eficácia em diversas aplicações destas redes. A discussão analisa os efeitos das configurações de hiperparâmetros, identifica limitações e aborda possíveis razões para os resultados obtidos. Por fim, a conclusão resume os principais insights, contribuições específicas e direções futuras, enquanto as referências garantem a fundamentação do trabalho. | pt_BR |
dc.identifier.citation | BARROS, Lucas Lima de Aragão. Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas. 2023. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Centro Universitário do Estado do Pará, Belém, 2023. | pt_BR |
dc.identifier.uri | https://repositorio.cesupa.br/handle/prefix/465 | |
dc.language | por | pt_BR |
dc.publisher | Centro Universitário do Estado do Pará | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.graduation-course | Bacharelado em Ciência da Computação | pt_BR |
dc.publisher.initials | CESUPA | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
dc.subject | Redes neurais artificiais | pt_BR |
dc.subject | Hiperparâmetros | pt_BR |
dc.subject | Machine learning | pt_BR |
dc.subject | Inteligência Artificial | pt_BR |
dc.subject | Otimização de hiperparâmetros | pt_BR |
dc.subject | Inferência bayesiana | pt_BR |
dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA | pt_BR |
dc.title | Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas | pt_BR |
dc.type | Trabalho de Conclusão de Curso | pt_BR |
Arquivos
Pacote Original
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- TC - Lucas Barros.pdf
- Tamanho:
- 1.33 MB
- Formato:
- Adobe Portable Document Format
- Descrição: