ادغام تصاویر مادون قرمز و مرئی با استفاده از معماری چندمقیاسی عمیق

Publish Year: 1403
نوع سند: مقاله ژورنالی
زبان: Persian
View: 38

This Paper With 20 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_IJMT-11-2_004

تاریخ نمایه سازی: 17 شهریور 1403

Abstract:

ادغام تصویر یک تکنیک مهم در پردازش تصویر با هدف تولید یک تصویر واحد حاوی ویژگی های برجسته و اطلاعات تکمیلی از تصاویر منبع، با استفاده از روش های استخراج ویژگی مناسب و استراتژی های ادغام است. در سال های اخیر، روش های مبتنی بر یادگیری عمیق، پتانسیل بسیار زیادی را در کاربردهای ادغام تصویر نشان داده اند و پژوهشگران متعددی در تلاش هستند، با استفاده از روش های یادگیری عمیق، کیفیت مطلوب تری از تصویر ادغام شده را ارائه کنند. در این پژوهش، شبکه عصبی پیچشی چندمقیاسی، جهت ادغام تصاویر مرئی و مادون قرمز به نام، MSCNN-VIF پیشنهاد شده است که در آن، ویژگی ها و اطلاعات مختلف موجود در تصاویر، با استفاده بلوک های پیچشی ادغام می شود. علاوه براین، مدل پیشنهادی، شامل معماری چندمقیاسی(MS)، برای اسکن بهتر قسمت های مختلف تصویر است که هدف اصلی آن ها بهبود عملکرد سامانه ادغام تصویر پیشنهادی است. به طورکلی، مدل پیشنهادی، از یک رمزگذار و یک رمزگشا تشکیل شده است و شامل سه بخش اصلی: استخراج ویژگی، ادغام و بازسازی تصویر مرئی و تصویر مادون قرمز است. در این روش، تصاویر مادون قرمز و مرئی به رمزگذار داده می شود و نگاشت های پس زمینه و جزئیات نگاشت های ویژگی تولید می گردد. سپس، شبکه دو نوع لایه را در امتداد کانال ها به هم متصل می-کند. در نهایت، نگاشت های ویژگی به هم پیوسته از رمزگشا عبور می کنند تا تصویر اصلی بازیابی شود. متفاوت از مرحله آموزش، در مرحله آزمایش، یک لایه ادغام قرار می گیرد که نگاشت های پس زمینه و ویژگی های جزئیات را به طور جداگانه ادغام می کند. همچنین، روش پیشنهادی برروی سه پایگاه داده شناخته شده و در دسترس، آزمایش شده است. نتایج به دست آمده نشان می دهد که روش پیشنهادی عملکرد بهتری براساس معیارهای ارزیابی مختلف، نسبت به روش های دیگر از خود نشان داده است.

Authors

سارا خسروی

عضو علمی گروه کامپیوتر، دانشکده فنی و مهندسی، دانشگاه پیام نور، تهران، ایران.

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • Zhao, S. Xu, C. Zhang, J. Liu, and J. Zhang, ...
  • Hou, D. Zhou, R. Nie, D. Liu, L. Xiong, Y. ...
  • Pajares, and J. M. De La Cruz, “A wavelet-based image ...
  • Ben Hamza, Y. He, H. Krim, and A. Willsky, “A ...
  • Liu, Y. Qi, and W. Ding, “Infrared and visible image ...
  • Li, Y. Wang, Z. Yang, R. Wang, X. Li, and ...
  • Li, and X.-J. Wu, "Multi-focus image fusion using dictionary learning ...
  • Liu, X. Chen, R. K. Ward, and Z. J. Wang, ...
  • Li, X.-J. Wu, and J. Kittler, "Infrared and visible image ...
  • Li, X.-j. Wu, and T. S. Durrani, “Infrared and visible ...
  • Li, and X.-J. Wu, “DenseFuse: A fusion approach to infrared ...
  • Li, X.-J. Wu, and T. Durrani, “NestFuse: An infrared and ...
  • Yang, M. Wang, L. Jiao, R. Wu, and Z. Wang, ...
  • Li, X. Kang, and J. Hu, “Image fusion with guided ...
  • Vishwakarma, and M. K. Bhuyan, “Image fusion using adjustable non-subsampled ...
  • Zhang, X. Lu, H. Pei, and Y. Zhao, “A fusion ...
  • Hou, R. Nie, D. Zhou, J. Cao, and D. Liu, ...
  • Ma, Y. Ma, and C. Li, “Infrared and visible image ...
  • Mertens, J. Kautz, and F. Van Reeth, "Exposure fusion." pp. ...
  • J. Lewis, R. J. O’Callaghan, S. G. Nikolov, D. R. ...
  • Nencini, A. Garzelli, S. Baronti, and L. Alparone, “Remote sensing ...
  • Li, and Y. Wang, “Biological image fusion using a NSCT ...
  • Lu, B. Zhang, Y. Zhao, H. Liu, and H. Pei, ...
  • Yin, P. Duan, W. Liu, and X. Liang, “A novel ...
  • Li, Z. Li, and S. Li, "Infrared and Visible Image ...
  • Liu, X. Chen, H. Peng, and Z. Wang, “Multi-focus image ...
  • Tang, B. Xiao, W. Li, and G. Wang, “Pixel convolutional ...
  • Yan, S. Z. Gilani, H. Qin, and A. Mian, “Unsupervised ...
  • Xu, Y. Wang, X. Zhang, N. Zhang, and S. Yu, ...
  • Zhao, S. Xu, C. Zhang, J. Liu, P. Li, and ...
  • Piao, Y. Chen, and H. Shin, “A new deep learning ...
  • Morris, and R. Rajesh, “Survey of spatial domain image fusion ...
  • Li, X. Kang, L. Fang, J. Hu, and H. Yin, ...
  • Du, W. Li, K. Lu, and B. Xiao, “An overview ...
  • Jin, Q. Jiang, S. Yao, D. Zhou, R. Nie, J. ...
  • Li, X. Xu, B.-D. Bai, and Y.-N. Zhang, "Remote sensing ...
  • Piella, “A general framework for multiresolution image fusion: from pixels ...
  • Wang, A. Bao, Y. Cheng, and Q. Yu, “Weight-sharing multi-stage ...
  • Zhou, A. C. Bovik, H. R. Sheikh, and E. P. ...
  • Toet, and M. A. Hogervorst, “Progress in color night vision,” ...
  • Brown, and S. Süsstrunk, "Multi-spectral SIFT for scene category recognition." ...
  • Ma, W. Yu, P. Liang, C. Li, and J. Jiang, ...
  • Ram Prabhakar, V. Sai Srikar, and R. Venkatesh Babu, "Deepfuse: ...
  • P. Bavirisetti, and R. Dhuli, “Two-scale image fusion of visible ...
  • P. Bavirisetti, and R. Dhuli, “Fusion of Infrared and Visible ...
  • H. Guo, Y. Ma, X. Mei, and J. Ma, “Infrared ...
  • نمایش کامل مراجع