حریم خصوصی کاربران در الگوریتمهای یادگیری ماشین: تهدیدها و راهکارها
Publish Year: 1404
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 9
This Paper With 11 Page And PDF Format Ready To Download
- Certificate
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
TSTACON02_095
تاریخ نمایه سازی: 26 بهمن 1404
Abstract:
در سال های اخیر گسترش چشمگیر کاربرد الگوریتم های یادگیری ماشین در حوزه های مختلف باعث افزایش وابستگی این الگوریتم ها به داده های شخصی کاربران شده است. این موضوع نگرانی های جدی در زمینه حفظ حریم خصوصی کاربران ایجاد کرده و موجب شده است توجه پژوهشگران به این حوزه جلب شود به نحوی که مطالعات متعددی در زمینه تهدیدهای مرتبط با حریم خصوصی و روش های مقابله با آنها صورت گرفته است. علی رغم مزایای قابل توجه مدل های یادگیری ماشین، ساختار این الگوریتم ها به گونه ای است که می توانند منجر به افشای اطلاعات خصوصی شوند. مقاله حاضر به مرور نظام مند منابع علمی معتبر در این حوزه و دسته بندی تهدیدها و راهکارهای مقابله با آنها می پردازد. در این راستا بیش از ۳۰ مقاله علمی منتشر شده بین سال های ۲۰۱۴ تا ۲۰۲۵ بررسی و ۱۵ مقاله کلیدی انتخاب شده اند. یافته های این مطالعه در چهار دسته اصلی از تهدیدها شامل حمله استنتاج، عضویت، وارونگی مدل، حملات کانال جانبی و مسموم سازی داده ها سازماندهی شده است. همچنین روش های مقابله مانند حریم خصوصی تفاضلی و یادگیری فدرال بررسی شده و میزان کارایی هر کدام مقایسه شده است. نتایج حاصل نشان می دهد که هیچ یک از روش ها به تنهایی قادر به رفع تمامی تهدیدها نیستند و استفاده ترکیبی از چندین راهکار می تواند رویکرد موثرتری برای حفاظت از حریم خصوصی در سیستم های یادگیری ماشین فراهم آورد. یافته های این پژوهش می تواند راهنمایی برای پژوهشگران و توسعه دهندگان سیستم های هوشمند در جهت طراحی مدل های امن تر باشد.
Keywords:
امنیت مدل های هوش مصنوعی , حریم خصوصی تفاضلی , حریم خصوصی داده ها , حملات حریم خصوصی , یادگیری ماشین
Authors
لیلا سامان آذری
فارغ التحصیل کارشناسی ارشد مهندسی کامپیوتر – گرایش هوش مصنوعی، دانشگاه تبریز، تبریز، ایران