00 CAMPUS ARISTÓTELES CALAZANS SIMÕES (CAMPUS A. C. SIMÕES) IC - INSTITUTO DE COMPUTAÇÃO TRABALHOS DE CONCLUSÃO DE CURSO (TCC) - GRADUAÇÃO - IC Trabalhos de Conclusão de Curso (TCC) - Bacharelado - ENGENHARIA DE COMPUTAÇÃO- IC
Use este identificador para citar ou linkar para este item: http://www.repositorio.ufal.br/jspui/handle/123456789/16767
Tipo: Trabalho de Conclusão de Curso
Título: Aprendizado federado e mecanismos de privacidade diferencial para preservar dados sensíveis em treinamento de modelos de machine learning
Autor(es): Tomé, João Pedro Brito
Primeiro Orientador: Barbosa, Erick de Andrade
metadata.dc.contributor.referee1: Leite, Glauber Rodrigues
metadata.dc.contributor.referee2: Nascimento, Jobson de Araujo
Resumo: A medida que os dispositivos m´oveis continuam a evoluir, seus recursos de detecção e processamento atingiram níveis de sofisticação sem precedentes. Juntamente com os avanços na aprendizagem profunda, esse progresso abriu diversas oportunidades para aplicativos de alto impacto, principalmente em áreas como saúde e sistemas automotivos. A abordagem tradicional do aprendizado de máquina (ML) baseado em nuvem requer a agregação de dados em um servidor ou data center centralizado. No entanto, essa abordagem levanta problemas críticos de latência, comunicação ineficiente e privacidade de dados. As tecnologias predominantes de ML em redes m´oveis e distribuídas ainda exigem a divulgação de dados pessoais a partes externas. Recentemente, o conceito de Federated Learning (FL) foi introduzido em face da legislação de proteção de dados cada vez mais rigorosa e das crescentes preocupações com a privacidade. No FL, os dispositivos finais usam seus dados locais para treinar um modelo de ML solicitado pelo servidor. Em seguida, os dispositivos enviam atualizações ao modelo, em vez dos dados brutos, para o servidor para agregação. O Federated Learning (FL) tem o potencial de ser uma tecnologia revolucionária em redes móveis, pois permite o treinamento colaborativo de um modelo de ML e, ao mesmo tempo, preserva a privacidade do cliente. No entanto, informações privadas ainda podem ser descobertas por meio da análise de parâmetros carregados de clientes, por exemplo, pesos treinados em redes neurais profundas. O FL é suscetível a ataques de inferência, que podem ter origem em qualquer parte que contribua para o processo de treino. Nesse sentido, a Differential Privacy (DP) ´e uma técnica que introduz ruído estatístico controlado nos dados, impedindo a inferência de informações específicas de um participante, mesmo em circunstâncias adversas. Neste trabalho, a DP foi utilizada em combinação com diferentes mecanismos de ruído, como o laplaciano e o gaussiano, para analisar como a DP afeta a precisão do modelo enquanto tenta mitigar esses ataques durante o treino em ambiente de Aprendizagem Federada. Esta integração visa alcançar um equilíbrio entre a privacidade e o desempenho do modelo.
Abstract: As mobile devices continue to evolve, their sensing and processing capabilities have reached unprecedented levels of sophistication. Coupled with advances in deep learning, this progress has opened up diverse opportunities for high-impact applications, particularly in areas such as healthcare and automotive systems. The traditional approach to cloud-based machine learning (ML) requires the aggregation of data on a centralised server or data centre. However, this approach raises critical issues of latency, inefficient commu nication and data privacy. The prevailing technologies for ML in mobile and distributed networks still require the disclosure of personal data to external parties. Recently, the concept of Federated Learning has been introduced in the face of increasingly stringent data protection legislation and growing privacy concerns. In FL, end devices use their local data to train an ML model that is then required by the server. The devices then send updates to the model, rather than the raw data, to the server for aggregation. Federated Learning (FL) has the potential to be a revolutionary technology in mobile networks as it enables collaborative training of an ML model while preserving client privacy. However, private information can still be discovered by analysing parameters loaded from clients, for example, weights trained on deep neural networks. FL is susceptible to inference attacks, which can originate from any party that contributes to the training process. In this sense, Differential Privacy (DP) is a technique that introduces controlled statistical noise into the data, preventing the inference of participant-specific information, even in adverse circumstances. In this work, DP was used in combination with different noise mechanisms, such as Laplacian and Gaussian, to analyse how DP affects model accuracy while trying to mitigate these attacks during training in a Federated Learning environment. This integration aims to achieve a balance between privacy and model performance.
Palavras-chave: Aprendizado federado
Aprendizado de máquina
Privacidade de dados
Differential privacy
Federated Learning
Differential Privacy
Data Privacy
Inference Attacks
Machine Learning
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Idioma: por
País: Brasil
Editor: Universidade Federal de Alagoas
Sigla da Instituição: UFAL
metadata.dc.publisher.department: Curso de Ciências da Computação - Bacharelado
Citação: TOMÉ, João Pedro Brito. Aprendizado federado e mecanismos de privacidade diferencial para preservar dados sensíveis em treinamento de modelos de machine learning. 2025. 33 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) – Instituto de Computação, Universidade Federal de Alagoas, Maceió, 2024.
Tipo de Acesso: Acesso Aberto
URI: http://www.repositorio.ufal.br/jspui/handle/123456789/16767
Data do documento: 5-dez-2024
Aparece nas coleções:Trabalhos de Conclusão de Curso (TCC) - Bacharelado - ENGENHARIA DE COMPUTAÇÃO- IC



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.