حریم خصوصی کاربران در مدل های زبانی بزرگ
Publish Year: 1404
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 7
This Paper With 9 Page And PDF Format Ready To Download
- Certificate
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
TSTACON02_031
تاریخ نمایه سازی: 26 بهمن 1404
Abstract:
مدل های زبانی بزرگ (LLMS) به دلیل توانایی های پیشرفته در پردازش زبان طبیعی کاربردهای گسترده ای در حوزه های مختلف یافته اند، اما تهدیدات حریم خصوصی ناشی از وابستگی آنها به داده های متنی چالشی جدی ایجاد کرده است. این پژوهش با هدف تحلیل تهدیدات حریم خصوصی در این مدل ها و ارائه راهکارهای عملی برای حفاظت از اطلاعات کاربران انجام شده است. با استفاده از روش مرور نظام مند منابع علمی بین سال های ۲۰۲۰ تا ۲۰۲۵ از پایگاه های معتبر بررسی شدند. یافته ها نشان می دهند که تهدیداتی مانند استخراج داده های آموزشی و حملات استنتاج عضویت می توانند اطلاعات حساس کاربران را فاش کنند. راهکارهایی مانند حریم خصوصی تفاضلی و یادگیری فدرال برای کاهش این تهدیدات پیشنهاد شده اند، اما محدودیت هایی مانند کاهش دقت مدل یا هزینه های محاسباتی بالا دارند. همچنین کمبود مطالعات بومی در ایران به عنوان شکاف تحقیقاتی کلیدی شناسایی شد. این پژوهش بر ضرورت توسعه روش های حفاظتی کارآمدتر و چارچوب های قانونی متناسب با فناوری های هوش مصنوعی تاکید دارد. پیشنهاد می شود که پژوهش های آینده بر بهبود روش های حفاظتی و انجام مطالعات محلی در ایران تمرکز کنند تا اعتماد کاربران به این فناوری ها تقویت شود.
Keywords:
حریم خصوصی کاربران , مدل های زبان بزرگ , استخراج داده ها , استنتاج عضویت , حریم خصوصی تفاضلی , یادگیری فدرال
Authors
آرمان محبعلی
دانشجوی نرم افزار دانشگاه ملی مهارت
محمد عادلی نیا
هیئت علمی مهندسی برق و کامپیوتر دانشگاه ملی مهارت