Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas

dc.contributor.advisorSouza, Daniel Leal
dc.contributor.advisor-co1Mollinetti, Marco Antônio Florenzano
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/1246642827046945pt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/6059334260016388pt_BR
dc.contributor.referee1Nascimento, Polyana Santos Fonseca
dc.contributor.referee1Latteshttp://lattes.cnpq.br/6889523334917369pt_BR
dc.contributor.referee2Oliveira, Roberto Célio Limão de
dc.contributor.referee2Latteshttp://lattes.cnpq.br/4497607460894318pt_BR
dc.creatorBarros, Lucas Lima de Aragão
dc.date.accessioned2024-05-29T18:11:07Z
dc.date.available2024-05-29T18:11:07Z
dc.date.issued2023-12-07
dc.description.abstractThis work explores - through hyperparameter optimization techniques - the possibility of improving the effectiveness of neural networks, which have experienced widespread popularity in various fields. The focus is to evaluate a new approach to hyperparameter optimization, which is one of the main challenges in the development of these networks. Traditionally, the definition of these hyperparameters occurs stochastically or through mathematical calculations. The goal is to refine the process, allowing a more precise definition of values, with lower losses. These solutions are based on a review of the literature on hyperparameter optimization in Neural Networks (e.g., CNN, Fully Connected), addressing fundamental concepts and techniques such as Grid Search, Random Search, and SMBO. The methodology includes the choice of tools, cross-validation strategy, and specific search approaches, such as Gaussian Regression or grid search. The detailed experiments involve optimizing the hyperparameters of Neural Networks, presenting datasets, model configurations, training protocols, and quantitative results. Despite its limitations and the need for further studies, this work demonstrates the feasibility and potential of combining advanced techniques for hyperparameter optimization in Neural Networks, offering contributions and stimulating new research directions in the search for greater efficacy in various applications of these networks. The discussion analyzes the effects of hyperparameter settings, identifies limitations, and addresses possible reasons for the obtained results. Finally, the conclusion summarizes the main insights, specific contributions, and future directions, while the references ensure the work's foundation.pt_BR
dc.description.resumoEste trabalho explora – através de técnicas de otimização hiperparamétrica – a possibilidade de melhorar a eficácia das redes neurais, que têm experimentado uma grande popularização em várias áreas. O foco é avaliar uma nova abordagem para otimização de hiperparâmetros, sendo uma das principais dificuldades no desenvolvimento dessas redes. Tradicionalmente, a definição desses hiperparâmetros ocorre de forma estocástica ou por cálculos matemáticos. O objetivo é aprimorar o processo, permitindo uma definição mais precisa dos valores, com menores perdas (Loss). Estas soluções baseiam-se em uma revisão da literatura sobre otimização de hiperparâmetros em Redes Neurais (e.g. CNN, Fully Connected), abordando conceitos fundamentais e técnicas como Grid Search, Random Search e SMBO. A metodologia inclui a escolha de ferramentas, estratégia de validação cruzada e abordagens específicas de busca, como Gaussian Regression ou busca em grade. Os experimentos detalhados envolvem a otimização dos hiperparâmetros das Redes Neurais, com apresentação de conjuntos de dados, configurações de modelos, protocolos de treinamento e resultados quantitativos. Apesar de suas limitações e da necessidade de mais estudos, este trabalho demonstra a viabilidade e o potencial da combinação de técnicas avançadas para otimização de hiperparâmetros em Redes Neurais, oferecendo contribuições e instigando novas direções de pesquisa na busca por maior eficácia em diversas aplicações destas redes. A discussão analisa os efeitos das configurações de hiperparâmetros, identifica limitações e aborda possíveis razões para os resultados obtidos. Por fim, a conclusão resume os principais insights, contribuições específicas e direções futuras, enquanto as referências garantem a fundamentação do trabalho.pt_BR
dc.identifier.citationBARROS, Lucas Lima de Aragão. Otimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículas. 2023. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Centro Universitário do Estado do Pará, Belém, 2023.pt_BR
dc.identifier.urihttps://repositorio.cesupa.br/handle/prefix/465
dc.languageporpt_BR
dc.publisherCentro Universitário do Estado do Parápt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.graduation-courseBacharelado em Ciência da Computaçãopt_BR
dc.publisher.initialsCESUPApt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectRedes neurais artificiaispt_BR
dc.subjectHiperparâmetrospt_BR
dc.subjectMachine learningpt_BR
dc.subjectInteligência Artificialpt_BR
dc.subjectOtimização de hiperparâmetrospt_BR
dc.subjectInferência bayesianapt_BR
dc.subject.cnpqCIENCIAS EXATAS E DA TERRApt_BR
dc.titleOtimização de hiperparâmetros de redes neurais por inferência Bayesiana com enxame de partículaspt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR

Arquivos

Pacote Original

Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
TC - Lucas Barros.pdf
Tamanho:
1.33 MB
Formato:
Adobe Portable Document Format
Descrição: