Use este identificador para citar ou linkar para este item:
http://www.repositorio.ufal.br/jspui/handle/123456789/9851
Tipo: | Dissertação |
Título: | Otimização de hiperparâmetros do XGBoost utilizando meta-aprendizagem |
Título(s) alternativo(s): | Optimization of XGBoost hyperparameters using meta-learning |
Autor(es): | Marinho, Tiago Lima |
Primeiro Orientador: | Pimentel, Bruno Almeida |
metadata.dc.contributor.referee1: | Costa, Evandro de Barros |
metadata.dc.contributor.referee2: | Lopes, Roberta Vilhena Vieira |
metadata.dc.contributor.referee3: | Nascimento, Diego Carvalho do |
Resumo: | Com a evolução computacional, houve um crescimento no número de algoritmos de aprendizagem de máquina e em paralelo, foram se tornando cada vez mais robustos. Este crescimento nos algoritmos de aprendizagem de máquina, ocasionou uma complexidade maior na configuração dos algoritmos, com o intuito de aumentar a precisão. Com isso, a escolha dos hiperparâmetros mais adequados para um determinado conjunto de dados, pode ser uma tarefa custosa tanto em questão de tempo, quanto em questão de dinheiro. Sendo assim, é necessário que hajam maneiras mais rápidas e práticas para achar hiperparâmetros que vão configurar cada algoritmo individualmente. Este trabalho visa utilizar da Meta-Aprendizagem como uma solução viável para a recomendação de hiperparâmetros para o recente algoritmo de aprendizagem de máquina XGBoost, a fim de que haja uma redução de custos computacionais, visando também a redução de custo para as empresas. Este trabalho utilizou de 198 conjuntos de dados, seguindo a ideia de validação cruzada leave-one-out para os experimentos, fazendo assim, com que cada um dos conjuntos de dados fossem testados em comparação a todos os outros disponíveis. Além disso, foram utilizados 3 conjuntos de Meta-Características disponíveis na literatura: general, statistical e info-theory para a fase de caracterização de cada um dos conjuntos de dados fazendo assim, com que houvesse uma comparação de similaridade entre os conjuntos de dados para que dessa forma, pudesse ser aplicado a Meta-Aprendizagem e ter por fim, a recomendação de cada um dos hiperparâmetros. Os resultados obtidos foram promissores, fazendo com que em alguns casos, 86.36% dos testes tivessem resultados positivos, ou seja, a acurácia do XGBoost utilizando a Meta-Aprendizagem, tivesse um resultado melhor do que os hiperparâmetros padrões utilizados pelo XGBoost em 86.36% dos casos. Outro ponto que é importante concluir em torno dos resultados, é que a Meta-Aprendizagem visa utilizar a similaridade entre os conjuntos de dados para a recomendação dos hiperparâmetros; com isso, a similaridade dos conjuntos de dados tendiam a dar hiperparâmetros mais efetivos. |
Abstract: | With computional evolution, there was a growth in the number of machine learning algorithms and in parallel, they became more complex and robust. With the growth of this complexity, it was increasingly necessary to focus on the configuration of algorithms, in accordance with their hyperparameters, with the aim of increasing the precision in the result of each one of them: which is not a trivial task. Thus, choosing the most suitable hyperparameters for a given data set can be a costly task both in terms of time and money. Thus, it is necessary that there are faster and more practical ways to find hyperparameters that will set up each algorithm individually. This work aims to use Meta-Learning as a viable solution for the recommendation of hyperparameters for the recent XGBoost machine learning algorithm, in order to reduce computional costs, also aiming at reducing costs for companies. This work used 198 datasets, following the idea of leave-one-out cross-validation for the experiments, thus making each of the datasets tested in the experiment against all others. In addition, were used 3 sets of Meta-Features available in the literature: general, statistical and info-theory for the characterization phase of each one of the datasets to compare the similarity among them. The experimental results attested the success of the application of the heuristics using Meta-Learning for their recommendation, Thus, initially a characterization of the data sets was made using three sets of Meta-Features, so that there was a way to compare the similarity between them and thus apply Meta-Learning to recommend the hyperparameters between the data sets used in the experiments. The results obtained were promising, making that in some cases, 86.36% of the tests had positive results, that is, the accuracy of XGBoost using Meta-Learning, had a better result than the standard hyperparemeters used by XGBoost in 86.36% of cases. |
Palavras-chave: | Meta-aprendizagem Aprendizagem de máquina Custo Ciência de dados XGBoost Meta-learning Recommendation systems |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal de Alagoas |
Sigla da Instituição: | UFAL |
metadata.dc.publisher.program: | Programa de Pós-Graduação em Informática |
Citação: | MARINHO, Tiago Lima. Otimização de hiperparâmetros do XGBoost utilizando meta-aprendizagem. 2022. 71 f. Dissertação (mestrado em Informática) – Programa de Pós-Gradugação em Informática, Instituto de Computação, Universidade Federal de Alagoas, Maceió, 2021. |
Tipo de Acesso: | Acesso Aberto |
URI: | http://www.repositorio.ufal.br/jspui/handle/123456789/9851 |
Data do documento: | 16-dez-2021 |
Aparece nas coleções: | Dissertações e Teses defendidas na UFAL - IC |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Otimização de hiperparâmetros do XGBoost utilizando meta-aprendizagem.pdf | 2.34 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.