حریم خصوصی کاربران در مدل های زبانی بزرگ

Publish Year: 1404
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 7

This Paper With 9 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

TSTACON02_031

تاریخ نمایه سازی: 26 بهمن 1404

Abstract:

مدل های زبانی بزرگ (LLMS) به دلیل توانایی های پیشرفته در پردازش زبان طبیعی کاربردهای گسترده ای در حوزه های مختلف یافته اند، اما تهدیدات حریم خصوصی ناشی از وابستگی آنها به داده های متنی چالشی جدی ایجاد کرده است. این پژوهش با هدف تحلیل تهدیدات حریم خصوصی در این مدل ها و ارائه راهکارهای عملی برای حفاظت از اطلاعات کاربران انجام شده است. با استفاده از روش مرور نظام مند منابع علمی بین سال های ۲۰۲۰ تا ۲۰۲۵ از پایگاه های معتبر بررسی شدند. یافته ها نشان می دهند که تهدیداتی مانند استخراج داده های آموزشی و حملات استنتاج عضویت می توانند اطلاعات حساس کاربران را فاش کنند. راهکارهایی مانند حریم خصوصی تفاضلی و یادگیری فدرال برای کاهش این تهدیدات پیشنهاد شده اند، اما محدودیت هایی مانند کاهش دقت مدل یا هزینه های محاسباتی بالا دارند. همچنین کمبود مطالعات بومی در ایران به عنوان شکاف تحقیقاتی کلیدی شناسایی شد. این پژوهش بر ضرورت توسعه روش های حفاظتی کارآمدتر و چارچوب های قانونی متناسب با فناوری های هوش مصنوعی تاکید دارد. پیشنهاد می شود که پژوهش های آینده بر بهبود روش های حفاظتی و انجام مطالعات محلی در ایران تمرکز کنند تا اعتماد کاربران به این فناوری ها تقویت شود.

Authors

آرمان محبعلی

دانشجوی نرم افزار دانشگاه ملی مهارت

محمد عادلی نیا

هیئت علمی مهندسی برق و کامپیوتر دانشگاه ملی مهارت