Abstract
<jats:p>Зростання ризиків компрометації персональних даних у цифрових мережах зумовлює актуальність впровадження формальних гарантій конфіденційності у рекомендаційні сервіси. У роботі проведено комплексне дослідження впливу механізмів диференційної приватності на ефективність алгоритмів колаборативної фільтрації та матричної факторизації, зокрема з використанням методу сингулярного розкладу як базового інструменту побудови латентних представлень. Для оцінки стійкості моделей до атак на інверсію та несанкціоноване відновлення даних реалізовано модифікації методів із використанням адитивних шумів Лапласа та Ґауса, інтегрованих у процес навчання. Експериментальна база дослідження базується на метаданих платформи RAWG.io, що дозволило створити реалістичне середовище моделювання поведінки користувачів. Проведено серію експериментів для аналізу нелінійної залежності між параметром бюджету приватності ε та точністю прогнозів за метриками Precision@10 та середньоквадратичної похибки RMSE. Емпірично встановлено наявність суттєвого компромісу між корисністю системи та приватністю: при слабкому рівні захисту (ε = 5.0) модель зберігає високу релевантність (Precision = 0.81), тоді як оптимальний баланс досягається в діапазоні ε = 1.0–2.0, де точність становить 55—65 %. Граничне посилення конфіденційності (ε = 0.1) призводить до деградації показників до 0.39—0.46 через домінування стохастичного шуму. Доведено вищу стійкість SVD-фільтрації до шумового впливу порівняно з контентно-орієнтованими підходами завдяки здатності алгоритму зберігати структурні закономірності у латентному просторі. Висновки підтверджують можливість інтеграції механізмів диференційної приватності у комерційні рекомендаційні системи за умови коректного калібрування рівня шуму. Перспективи подальших досліджень пов’язані з розробкою адаптивних механізмів додавання шуму з урахуванням щільності та розрідженості даних.</jats:p>