Сообщение

Главная

Федеративное обучение с сохранением конфиденциальности: баланс между точностью и защитой данных в распределенном машинном обучении

orcid Аль-Свейти Малик А. М., orcid Ким Злата Валерьевна, orcid Маршев Даниил Владимирович

Санкт-Петербургский государственный университет телекоммуникаций им. проф. М. А. Бонч-Бруевича,
Санкт-Петербург, 193232, Российская Федерация

DOI  10.31854/2307-1303-2025-13-2-52-68

EDN YHQXCK

 Полный текст

XML JATS


Аннотация

Постановка задачи. В условиях растущего объема чувствительных данных и ужесточения требований к их защите традиционные централизованные методы машинного обучения становятся неприемлемыми из-за рисков утечек и нарушения конфиденциальности. Особенно остро эта проблема стоит в таких сферах, как здравоохранение и финансы, где передача персональных данных на центральный сервер недопустима. Одним из перспективных решений является федеративное обучение, позволяющее обучать глобальные модели без передачи исходных данных, однако сохранение баланса между точностью модели и уровнем приватности остается ключевым вызовом. Методы: для решения задачи предложен подход, сочетающий алгоритм агрегации FedAvg с механизмами дифференциальной приватности, включая обрезку градиентов и добавление гауссовского шума на стороне клиентов. Экспериментальная валидация проведена на наборе данных MNIST с использованием сверточной нейронной сети при различных параметрах дифференциальной приватности. Результаты: при оптимальных настройках (σ=0,5; ε≈3) достигнута точность 97,80 %, что лишь на 1 % уступает централизованному обучению (98,79 %). Безопасная агрегация с 10 клиентами за пять раундов показала точность 93,21 %. Анализ выявил четкую зависимость точности от параметров приватности, что позволяет гибко настраивать систему под конкретные требования. Практическая значимость: предложенная методика обеспечивает прозрачную и воспроизводимую оценку компромисса «точность ‒ приватность», что делает ее применимой для внедрения в реальные системы с чувствительными данными; результаты могут быть использованы в качестве базы для адаптации федеративного обучения в медицинских, финансовых и других критически важных приложениях, где конфиденциальность является приоритетом.


Ключевые слова
федеративное обучение, дифференциальная приватность, машинное обучение, защита данных, компромисс «точность ‒ приватность», безопасная агрегация.

Библиографическая ссылка на статью

Аль-Свейти М. А. М., Ким З. В., Маршев Д. В. Федеративное обучение с сохранением конфиденциальности: баланс между точностью и защитой данных в распределенном машинном обучении // Информационные технологии и телекоммуникации. 2025. Т. 13. № 2. С. 52‒68. DOI: 10.31854/2307-1303-2025-13-2-52-68. EDN: YHQXCK


Reference for citation

Al Sweity M. A. M., Kim Z., Marshev D. Privacy-Preserving Federated Learning: Balancing Accuracy and Data Protection in Distributed Machine Learning // Telecom IT. 2025. Vol. 13. Iss. 2. PP. 52‒68 (in Russian). DOI: 10.31854/2307-1303-2025-13-2-52-68. EDN: YHQXCK



Литература

1. McMahan B., Moore E., Ramage D., Hampson S., Aguera y Arcas B. Communication-Efficient Learning of Deep Networks from Decentralized Data // Proceedings of Machine Learning Research. 2017. Vol. 54. PP. 1273–1282.

2. Bonawitz K., Ivanov V., Kreuter B., Marcedone A., McMahan H. B., et al. Practical Secure Aggregation for Privacy-Preserving Machine Learning // Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (30 October – 3 November 2017, Dallas, USA). 2017. PP. 1175–1191. DOI: 10.1145/3133956.313398

3. Dwork C., McSherry F., Nissim K., Smith A. Calibrating Noise to Sensitivity in Private Data Analysis // Journal of Privacy and Confidentiality. 2016. Vol. 7. Iss. 3. PP.17–51. DOI: 10.29012/jpc.v7i3.405

4. Li T., Sahu A. K., Talwalkar A., Smith, V. Federated Learning: Challenges, Methods, and Future Directions // IEEE Signal Processing Magazine. 2020. Vol. 37. Iss. 3. PP. 50–60. DOI: 10.1109/msp.2020.2975749. EDN: BFBNOW

5. Kairouz P., McMahan H. B., Avent B., Bellet, A., Bennis, M., et al. Advances and Open Problems in Federated Learning // Foundations and Trends in Machine Learning. 2021. Vol. 14. Iss. 1–2. PP. 1–210. DOI: 10.1561/2200000083. EDN: LTBKDC

6. Konečný J., McMahan H. B., Ramage D., Richtárik P. Federated Optimization: Distributed Machine Learning for On-Device Intelligence. 2016. DOI: 10.48550/arXiv.1610.02527. URL: https://arxiv.org/pdf/1610.02527 (дата обращения 07.05.2025)

7. Karimireddy S. P., Kale S., Mohri M., Reddi S., Stich S., et al. SCAFFOLD: Stochastic Controlled Averaging for Federated Learning // Proceedings of the 37th International Conference on Machine Learning (Online). Proceedings of Machine Learning Research. 2020. Vol. 19. PP. 5132–5143.

8. Abadi M., Chu A., Goodfellow I., McMahan H. B., Mironov I., et al. Deep Learning with Differential Privacy // Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (24–28 October, 2016, Vienna, Austria). PP. 308–318. DOI: 10.1145/2976749.2978318

9. Shokri R., Shmatikov V. Privacy-Preserving Deep Learning // Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (12–16 October 2015, Denver, USA). PP. 1310–1321. DOI: 10.1145/2810103.2813687

10. Papernot N., Song S., Mironov I., Raghunathan A., Talwar K., et al. Scalable Private Learning with Pate. 2018. DOI: 10.48550/arXiv.1802.08908. URL: https://arxiv.org/pdf/1802.08908 (дата обращения 15.06.2025)

11. Geyer R. C., Klein T., Nabi M. Differentially Private Federated Learning: A Client Level Perspective. 2017. DOI: 10.48550/arXiv.1712.07557. URL: https://arxiv.org/pdf/1712.07557 (дата обращения 16.06.2025)

12. Gentry C. Fully Homomorphic Encryption Using Ideal Lattices // Proceedings of the Forty-First Annual ACM Symposium on Theory of Computing (STOC, 31 May – 2 June 2009, Bethesda, USA). PP. 169–178. DOI: 10.1145/1536414.1536440

 

cc-by Статья распространяется по лицензии Creative Commons Attribution 4.0 License.

cc0  Метаданные статьи распространяются по лицензии CC0 1.0 Universal

 

 
войти

Авторизация