آشکارسازی فشرده سازی JPEG مضاعف با استفاده از شبکه های عصبی عمیق در حوزه مکان
Publish Year: 1401
نوع سند: مقاله ژورنالی
زبان: Persian
View: 298
This Paper With 17 Page And PDF Format Ready To Download
- Certificate
- من نویسنده این مقاله هستم
این Paper در بخشهای موضوعی زیر دسته بندی شده است:
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
JR_JIPET-13-50_004
تاریخ نمایه سازی: 19 مهر 1400
Abstract:
: با افزایش علاقه مندی به فشرده نمودن تصاویر با فرمت فرمت گروه مشترک متخصصان عکاسی (JPEG)، یکی از مهم ترین مباحث در دست کاری تصاویر دیجیتال، یافتن روشی مناسب جهت آشکارسازی فشرده سازی JPEG مضاعف است. در این مقاله با معرفی یک فیلتر تطبیقی آموزش دیده بر پایه خودرمزگذار پیچشی (CAE) و در حوزه مکان، به این موضوع پرداخته می شود تا با حذف اطلاعات تداخلی ناشی از محتوای تصویر، آشکارسازی دقیق تری داشته باشیم. از آنجایی که شبکه عصبی پیچشی (CNN) توانسته عملکرد موفقی در طبقه بندی تصاویر داشته باشد، از این شبکه ها در قسمت طبقه بندی استفاده می شود. مدل پیشنهادی بر اساس CAE متوالی شده با CNN است که توانسته دقت آشکارسازی و حساسیت به ضرایب کیفیت (QFs) قابل قبولی را در دو سناریوی هم تراز و ناهم تراز ارائه نماید. این مدل توانسته در برخی از حالتها، حساسیت نسبت به ضرایب کیفیت را تا ۸۶ در صد در مقدار کاهش خطای نسبی (RER) بهبود دهد. آزمایش های دیگری از جمله مکان یابی محل دست کاری بر روی مجموعه داده RAISE برای ارزیابی روش پیشنهادی انجام شده است. این نتایج نشان دهنده عملکرد بسیار خوب این روش نسبت به الگوریتم های مشابه در شرایطی است که ضریب کیفیت فشرده سازی دوم بزرگ تر از ضریب کیفیت فشرده سازی اول باشد.
Keywords:
Authors
محمد رحمتی
گروه مهندسی برق مخابرات- دانشگاه آزاد اسلامی واحد علوم و تحقیقات تهران
فربد رزازی
گروه مهندسی برق مخابرات- دانشگاه آزاد اسلامی واحد علوم و تحقیقات تهران
علیرضا بهراد
دانشکده فنی و مهندسی - دانشگاه شاهد، تهران، ایران
مراجع و منابع این Paper:
لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :