ارائه یک روش برآورد کننده ی جهت نگاه مقاوم نسبت به تغییرات نور محیط با استفاده از شبکه ی کانولوشنی SE-ResNext

Publish Year: 1403
نوع سند: مقاله ژورنالی
زبان: Persian
View: 45

This Paper With 11 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_MSTJ-28-109_002

تاریخ نمایه سازی: 4 تیر 1403

Abstract:

برآورد جهت نگاه در بسیاری از حوزه ها به مانند روانشناسی، جرم شناسی، تبلیغات و بازار، بازی های رایانه ای، واسط ماشین و انسان و فضای متا کاربرد دارد. هر یک از پژوهش های انجام شده در این زمینه به نحوی یک گام رو به جلو جهت تحقق این خواسته برداشته اند. در این تحقیق تلاش کردیم که هدف برآورد کردن جهت نگاه به صورت کاربردی را برای بسیاری از حوزه ها جامه عمل بپوشانیم. در این مقاله، هدف، برآورد جهت نگاه کاربر بدون نیاز به سخت افزارهای خاص و گران قیمت مانند حسگرهای مادون قرمز، دوربین های بسیار با کیفیت و پردازنده های سطح بالا بر روی صفحات کوچک نمایش مانند تلفن همراه، تبلت و لپتاپ است. به منظور طراحی برآورد کننده جهت نگاه، شبکه های کانولوشنی مختلف را در یک ساختمان برآورد کننده جهت نگاه بکار گرفتیم. برای آموزش شبکه ها از مجموعه داده GazeCapture استفاده شده است. مدل پیشنهادی، خطای ۱.۱۲ سانتی متر را بدون انجام کالیبراسیون بدست آورده است. در نهایت، با گروه بندی داده های موجود، مجموعه داده را به دو دسته ی داده با نور محیط روشن و نور محیط تاریک تقسیم کرده و عملکرد مدل را در هر دو شرایط نوری بررسی و روشی را جهت بهبود ارائه کردیم.

Authors

حمیده فتاحی پور

دانشجوی دکتری، دانشکده مهندسی برق، دانشگاه علم و صنعت ایران، تهران، ایران

جمشید فریبرز

استادیار، دانشکده مهندسی برق، دانشگاه علم و صنعت ایران، تهران، ایران

سید محمدرضا موسوی میرکلائی

استاد دانشکده مهندسی برق، دانشگاه علم و صنعت ایران، تهران، ایران

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • A. Bissoli, D. Lavino-Junior, M. Sime, L. Encarnação, and T. ...
  • A. M. Soccini, “Gaze estimation based on head movements in ...
  • X. Wang, J. Zhang, H. Zhang, S. Zhao, and H. ...
  • D. Xia and Z. Ruan, “IR image based eye gaze ...
  • K. Koshikawa, M. Sasaki, T. Utsu, and K. Takemura, “Polarized ...
  • K. N. Kim and R. S. Ramakrishna, “Vision-based eye-gaze tracking ...
  • Y. Liu, R. Liu, H. Wang, and F. Lu ...
  • “Generalizing gaze estimation with outlier-guided collaborative adaptation,” IEEE/CVF International Conference ...
  • A. Kar P. Corcoran, “A review and analysis of eye-gaze ...
  • D. W. Hansen and Q. Ji, “In the eye of ...
  • E. K. Elsayed, W. Ghonaim, and E. Zeaar, “Semantic crime ...
  • F. Coutinho, T. Santos, and C. Morimoto, “Computer Vision Tools ...
  • R. Valenti, N. Sebe, and T. Gevers, “Combining head pose ...
  • S. Baluja and D. Pomerleau, “Non-intrusive gaze tracking using artificial ...
  • K. Tan, D. J. Kriegman, and N. Ahuja, “Appearance-based eye ...
  • N. Modi and J. Singh, “A review of various state ...
  • M. Awad and R. Khanna, “Support vector regression BT - ...
  • Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” Nature, ...
  • K. Krafka et al., “Eye tracking for everyone,” IEEE Conference ...
  • O. Russakovsky et al., “ImageNet large scale visual recognition challenge,” ...
  • S. Xie, R. Girshick, P. Dollár, Z. Tu, and K. ...
  • J. Hu, L. Shen, S. Albanie, G. Sun, and E. ...
  • G. Huang, Z. Liu, L. Van Der Maaten, and K. ...
  • M. Tan et al., “Mnasnet: Platform-aware neural architecture search for ...
  • T. Lin, C. L. Zitnick, and P. Doll, “Microsoft COCO : ...
  • نمایش کامل مراجع