Полный текст
XML JATS
Аннотация
Постановка задачи. В условиях растущего объема чувствительных данных и ужесточения требований к их защите традиционные централизованные методы машинного обучения становятся неприемлемыми из-за рисков утечек и нарушения конфиденциальности. Особенно остро эта проблема стоит в таких сферах, как здравоохранение и финансы, где передача персональных данных на центральный сервер недопустима. Одним из перспективных решений является федеративное обучение, позволяющее обучать глобальные модели без передачи исходных данных, однако сохранение баланса между точностью модели и уровнем приватности остается ключевым вызовом. Методы: для решения задачи предложен подход, сочетающий алгоритм агрегации FedAvg с механизмами дифференциальной приватности, включая обрезку градиентов и добавление гауссовского шума на стороне клиентов. Экспериментальная валидация проведена на наборе данных MNIST с использованием сверточной нейронной сети при различных параметрах дифференциальной приватности. Результаты: при оптимальных настройках (σ=0,5; ε≈3) достигнута точность 97,80 %, что лишь на 1 % уступает централизованному обучению (98,79 %). Безопасная агрегация с 10 клиентами за пять раундов показала точность 93,21 %. Анализ выявил четкую зависимость точности от параметров приватности, что позволяет гибко настраивать систему под конкретные требования. Практическая значимость: предложенная методика обеспечивает прозрачную и воспроизводимую оценку компромисса «точность ‒ приватность», что делает ее применимой для внедрения в реальные системы с чувствительными данными; результаты могут быть использованы в качестве базы для адаптации федеративного обучения в медицинских, финансовых и других критически важных приложениях, где конфиденциальность является приоритетом.
Ключевые слова федеративное обучение, дифференциальная приватность, машинное обучение, защита данных, компромисс «точность ‒ приватность», безопасная агрегация.
Библиографическая ссылка на статью
Аль-Свейти М. А. М., Ким З. В., Маршев Д. В. Федеративное обучение с сохранением конфиденциальности: баланс между точностью и защитой данных в распределенном машинном обучении // Информационные технологии и телекоммуникации. 2025. Т. 13. № 2. С. 52‒68. DOI: 10.31854/2307-1303-2025-13-2-52-68. EDN: YHQXCK
Reference for citation
Al Sweity M. A. M., Kim Z., Marshev D. Privacy-Preserving Federated Learning: Balancing Accuracy and Data Protection in Distributed Machine Learning // Telecom IT. 2025. Vol. 13. Iss. 2. PP. 52‒68 (in Russian). DOI: 10.31854/2307-1303-2025-13-2-52-68. EDN: YHQXCK
|
Литература
1. McMahan B., Moore E., Ramage D., Hampson S., Aguera y Arcas B. Communication-Efficient Learning of Deep Networks from Decentralized Data // Proceedings of Machine Learning Research. 2017. Vol. 54. PP. 1273–1282.
2. Bonawitz K., Ivanov V., Kreuter B., Marcedone A., McMahan H. B., et al. Practical Secure Aggregation for Privacy-Preserving Machine Learning // Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (30 October – 3 November 2017, Dallas, USA). 2017. PP. 1175–1191. DOI: 10.1145/3133956.313398
3. Dwork C., McSherry F., Nissim K., Smith A. Calibrating Noise to Sensitivity in Private Data Analysis // Journal of Privacy and Confidentiality. 2016. Vol. 7. Iss. 3. PP.17–51. DOI: 10.29012/jpc.v7i3.405
4. Li T., Sahu A. K., Talwalkar A., Smith, V. Federated Learning: Challenges, Methods, and Future Directions // IEEE Signal Processing Magazine. 2020. Vol. 37. Iss. 3. PP. 50–60. DOI: 10.1109/msp.2020.2975749. EDN: BFBNOW
5. Kairouz P., McMahan H. B., Avent B., Bellet, A., Bennis, M., et al. Advances and Open Problems in Federated Learning // Foundations and Trends in Machine Learning. 2021. Vol. 14. Iss. 1–2. PP. 1–210. DOI: 10.1561/2200000083. EDN: LTBKDC
6. Konečný J., McMahan H. B., Ramage D., Richtárik P. Federated Optimization: Distributed Machine Learning for On-Device Intelligence. 2016. DOI: 10.48550/arXiv.1610.02527. URL: https://arxiv.org/pdf/1610.02527 (дата обращения 07.05.2025)
7. Karimireddy S. P., Kale S., Mohri M., Reddi S., Stich S., et al. SCAFFOLD: Stochastic Controlled Averaging for Federated Learning // Proceedings of the 37th International Conference on Machine Learning (Online). Proceedings of Machine Learning Research. 2020. Vol. 19. PP. 5132–5143.
8. Abadi M., Chu A., Goodfellow I., McMahan H. B., Mironov I., et al. Deep Learning with Differential Privacy // Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (24–28 October, 2016, Vienna, Austria). PP. 308–318. DOI: 10.1145/2976749.2978318
9. Shokri R., Shmatikov V. Privacy-Preserving Deep Learning // Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (12–16 October 2015, Denver, USA). PP. 1310–1321. DOI: 10.1145/2810103.2813687
10. Papernot N., Song S., Mironov I., Raghunathan A., Talwar K., et al. Scalable Private Learning with Pate. 2018. DOI: 10.48550/arXiv.1802.08908. URL: https://arxiv.org/pdf/1802.08908 (дата обращения 15.06.2025)
11. Geyer R. C., Klein T., Nabi M. Differentially Private Federated Learning: A Client Level Perspective. 2017. DOI: 10.48550/arXiv.1712.07557. URL: https://arxiv.org/pdf/1712.07557 (дата обращения 16.06.2025)
12. Gentry C. Fully Homomorphic Encryption Using Ideal Lattices // Proceedings of the Forty-First Annual ACM Symposium on Theory of Computing (STOC, 31 May – 2 June 2009, Bethesda, USA). PP. 169–178. DOI: 10.1145/1536414.1536440
|