Use este identificador para citar ou linkar para este item:
http://www.repositorio.ufal.br/jspui/handle/123456789/16767
Tipo: | Trabalho de Conclusão de Curso |
Título: | Aprendizado federado e mecanismos de privacidade diferencial para preservar dados sensíveis em treinamento de modelos de machine learning |
Autor(es): | Tomé, João Pedro Brito |
Primeiro Orientador: | Barbosa, Erick de Andrade |
metadata.dc.contributor.referee1: | Leite, Glauber Rodrigues |
metadata.dc.contributor.referee2: | Nascimento, Jobson de Araujo |
Resumo: | A medida que os dispositivos m´oveis continuam a evoluir, seus recursos de detecção e processamento atingiram níveis de sofisticação sem precedentes. Juntamente com os avanços na aprendizagem profunda, esse progresso abriu diversas oportunidades para aplicativos de alto impacto, principalmente em áreas como saúde e sistemas automotivos. A abordagem tradicional do aprendizado de máquina (ML) baseado em nuvem requer a agregação de dados em um servidor ou data center centralizado. No entanto, essa abordagem levanta problemas críticos de latência, comunicação ineficiente e privacidade de dados. As tecnologias predominantes de ML em redes m´oveis e distribuídas ainda exigem a divulgação de dados pessoais a partes externas. Recentemente, o conceito de Federated Learning (FL) foi introduzido em face da legislação de proteção de dados cada vez mais rigorosa e das crescentes preocupações com a privacidade. No FL, os dispositivos finais usam seus dados locais para treinar um modelo de ML solicitado pelo servidor. Em seguida, os dispositivos enviam atualizações ao modelo, em vez dos dados brutos, para o servidor para agregação. O Federated Learning (FL) tem o potencial de ser uma tecnologia revolucionária em redes móveis, pois permite o treinamento colaborativo de um modelo de ML e, ao mesmo tempo, preserva a privacidade do cliente. No entanto, informações privadas ainda podem ser descobertas por meio da análise de parâmetros carregados de clientes, por exemplo, pesos treinados em redes neurais profundas. O FL é suscetível a ataques de inferência, que podem ter origem em qualquer parte que contribua para o processo de treino. Nesse sentido, a Differential Privacy (DP) ´e uma técnica que introduz ruído estatístico controlado nos dados, impedindo a inferência de informações específicas de um participante, mesmo em circunstâncias adversas. Neste trabalho, a DP foi utilizada em combinação com diferentes mecanismos de ruído, como o laplaciano e o gaussiano, para analisar como a DP afeta a precisão do modelo enquanto tenta mitigar esses ataques durante o treino em ambiente de Aprendizagem Federada. Esta integração visa alcançar um equilíbrio entre a privacidade e o desempenho do modelo. |
Abstract: | As mobile devices continue to evolve, their sensing and processing capabilities have reached unprecedented levels of sophistication. Coupled with advances in deep learning, this progress has opened up diverse opportunities for high-impact applications, particularly in areas such as healthcare and automotive systems. The traditional approach to cloud-based machine learning (ML) requires the aggregation of data on a centralised server or data centre. However, this approach raises critical issues of latency, inefficient commu nication and data privacy. The prevailing technologies for ML in mobile and distributed networks still require the disclosure of personal data to external parties. Recently, the concept of Federated Learning has been introduced in the face of increasingly stringent data protection legislation and growing privacy concerns. In FL, end devices use their local data to train an ML model that is then required by the server. The devices then send updates to the model, rather than the raw data, to the server for aggregation. Federated Learning (FL) has the potential to be a revolutionary technology in mobile networks as it enables collaborative training of an ML model while preserving client privacy. However, private information can still be discovered by analysing parameters loaded from clients, for example, weights trained on deep neural networks. FL is susceptible to inference attacks, which can originate from any party that contributes to the training process. In this sense, Differential Privacy (DP) is a technique that introduces controlled statistical noise into the data, preventing the inference of participant-specific information, even in adverse circumstances. In this work, DP was used in combination with different noise mechanisms, such as Laplacian and Gaussian, to analyse how DP affects model accuracy while trying to mitigate these attacks during training in a Federated Learning environment. This integration aims to achieve a balance between privacy and model performance. |
Palavras-chave: | Aprendizado federado Aprendizado de máquina Privacidade de dados Differential privacy Federated Learning Differential Privacy Data Privacy Inference Attacks Machine Learning |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal de Alagoas |
Sigla da Instituição: | UFAL |
metadata.dc.publisher.department: | Curso de Ciências da Computação - Bacharelado |
Citação: | TOMÉ, João Pedro Brito. Aprendizado federado e mecanismos de privacidade diferencial para preservar dados sensíveis em treinamento de modelos de machine learning. 2025. 33 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) – Instituto de Computação, Universidade Federal de Alagoas, Maceió, 2024. |
Tipo de Acesso: | Acesso Aberto |
URI: | http://www.repositorio.ufal.br/jspui/handle/123456789/16767 |
Data do documento: | 5-dez-2024 |
Aparece nas coleções: | Trabalhos de Conclusão de Curso (TCC) - Bacharelado - ENGENHARIA DE COMPUTAÇÃO- IC |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Aprendizado federado e mecanismos de privacidade diferencial para preservar dados sensíveis em treinamento de modelos de machine learning.pdf | 2.25 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.