بازشناسایی فعالیت های انسان در ویدیو با استفاده از ویژگی های FREAK-HOG و ماشین بردار پشتیبان آبشاری

Publish Year: 1397
نوع سند: مقاله ژورنالی
زبان: Persian
View: 25

This Paper With 17 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_JSCIT-7-1_002

تاریخ نمایه سازی: 25 مهر 1403

Abstract:

در سال های اخیر، بازشناسایی خودکار فعالیت های انسان در ویدیو تبدیل به یکی از حوزه های مهم تحقیقاتی شده است. دامنه کاربرد این تحقیقات گسترده بوده و در سامانه هایی نظیر سامانه های نظارتی و امنیتی، رابط های کاربری واکنش گرا، آموزش و مراقبت‎های بهداشتی، استخراج اطلاعات حرکتی-رفتاری مورد استفاده و بهره برداری قرار گرفته است. اما چالش هایی نظیر تغییرات شدت روشنایی تصاویر، متحرک بودن پس زمینه و دوربین، شلوغی و ازدحام، پیچیدگی و تنوع فعالیت انجام شونده باعث شده اند توسعه سامانه هایی که از نظر دقت بازشناسایی مورد اطمینان بوده و در عین حال سرعت عمل قابل قبولی داشته باشند، با مشکل مواجه شود. یکی از روش های مرسوم در این حوزه، استفاده از اطلاعات حرکتی نقاط ویژگی استخراج شده در توالی فریم ها و توصیف حرکت های انجام گرفته در آن و متعاقبا بازشناسایی فعالیت است. در این مقاله با هدف افزایش دقت بازشناسایی فعالیت ها، استفاده از یک توصیف گر بافتی الهام گرفته شده از شبکیه چشم انسان و ترکیب آن با یک توصیف گر ظاهری-حرکتی برای توصیف نقاط ویژگی استخراج شده در توالی فریم ها پیشنهاد می شود. همچنین برای افزایش سرعت ساخت مدل و کاهش هزینه های بالاسری ناشی از ترکیب ویژگی های پیشنهاد شده، یک رویکرد آبشاری برای ساخت مدل طبقه بندی کننده ارائه می شود. نتایج آزمایشات انجام گرفته بر روی پایگاه داده ی بزرگ UCF۱۰۱ نشان می دهد که روش پیشنهادی دقت و سرعت عملکرد بسیار خوبی دارد و کارایی آن قابل مقایسه با آخرین دستاورد ها در این حوزه است.

Authors

Nacer Farajzadeh

دانشگاه شهید مدنی آذربایجان، دانشکده فناوری اطلاعات و مهندسی کامپیوتر

Mahdi Hashemzadeh

دانشگاه شهید مدنی آذربایجان، دانشکده فناوری اطلاعات و مهندسی کامپیوتر

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • M. A. R. Ahad, J. K. Tan, H. Kim, and ...
  • J. K. Aggarwal and M. S. Ryoo, “Human activity analysis: ...
  • R. Poppe, “A survey on vision-based human action recognition”, Image ...
  • D. Marr and L. Vaina, “Representation and recognition of the ...
  • Y. M. Lui and J. R. Beveridge, “Tangent bundle for ...
  • D. D. Dawn and S. H. Shaikh, “A comprehensive survey ...
  • K. Anuradha and N. Sairam, “Spatio-temporal based approaches for human ...
  • J. Yamato, J. Ohya, and K. Ishii, “Recognizing human action ...
  • A. F. Bobick and J. W. Davis, “The recognition of ...
  • M. Blank, L. Gorelick, E. Shechtman, M. Irani, and R. ...
  • A. Yilmaz and M. Shah, “Recognizing human actions in videos ...
  • S. Ali, A. Basharat, and M. Shah, “Chaotic invariants for ...
  • I. Laptev, “On space-time interest points”, International journal of computer ...
  • C. Harris and M. Stephens, “A combined corner and edge ...
  • P. Dollár, V. Rabaud, G. Cottrell, and S. Belongie, “Behavior ...
  • T. Kadir and M. Brady, “Scale saliency: A novel approach ...
  • A. Oikonomopoulos, I. Patras, and M. Pantic, “Spatiotemporal salient points ...
  • P. R. Beaudet, “Rotationally invariant image operators”, in Proc. ۴th ...
  • G. Willems, T. Tuytelaars, and L. Van Gool, “An efficient ...
  • H. Wang, M. M. Ullah, A. Klaser, I. Laptev, and ...
  • B. D. Lucas and T. Kanade, “An iterative image registration ...
  • R. Messing, C. Pal, and H. Kautz, “Activity recognition using ...
  • M. B. Kaaniche and F. Brémond, “Tracking hog descriptors for ...
  • J. Shi, “Good features to track”, in Computer Vision and ...
  • E. Rosten and T. Drummond, “Machine learning for high-speed corner ...
  • N. Dalal and B. Triggs, “Histograms of oriented gradients for ...
  • D. G. Lowe, “Object recognition from local scale-invariant features”, in ...
  • I. Laptev, M. Marszalek, C. Schmid, and B. Rozenfeld, “Learning ...
  • N. Dalal, B. Triggs, and C. Schmid, “Human detection using ...
  • X. Peng, L. Wang, X. Wang, and Y. Qiao, “Bag ...
  • F. Perronnin, J. Sánchez, and T. Mensink, “Improving the fisher ...
  • Z. Lan, M. Lin, X. Li, A. G. Hauptmann, and ...
  • M. Bagheri et al., “Keep it accurate and diverse: Enhancing ...
  • J. Donahue et al., “Long-term recurrent convolutional networks for visual ...
  • X. Wang, A. Farhadi, and A. Gupta, “Actions~ transformations”, in ...
  • A. Alahi, R. Ortiz, and P. Vandergheynst, “Freak: Fast retina ...
  • M. Marszalek, I. Laptev, and C. Schmid, “Actions in context”, ...
  • G. D. Field et al., “Functional connectivity in the retina ...
  • E. Rublee, V. Rabaud, K. Konolige, and G. Bradski, “ORB: ...
  • E. Tola, V. Lepetit, and P. Fua, “Daisy: An efficient ...
  • G. Salton, “Automatic information organization and retrieval”, ۱۹۶۸ ...
  • J. Philbin, O. Chum, M. Isard, J. Sivic, and A. ...
  • J. Wang, J. Yang, K. Yu, F. Lv, T. Huang, ...
  • X. Zhou, K. Yu, T. Zhang, and T. S. Huang, ...
  • K. Chatfield, V. S. Lempitsky, A. Vedaldi, and A. Zisserman, ...
  • A. Iosifidis, A. Tefas, and I. Pitas, “View-invariant action recognition ...
  • ا. فیضی، ع. آقاگل زاده، و م. سیدعربی، “شناسایی و ...
  • S. B. Kotsiantis, I. Zaharakis, and P. Pintelas, “Supervised machine ...
  • C. Cortes and V. Vapnik, “Support-vector networks”, Machine learning, Vol. ...
  • X. Ke, H. Jin, X. Xie, and J. Cao, “A ...
  • O. Meyer, B. Bischl, and C. Weihs, “Support vector machines ...
  • K. Soomro, A. R. Zamir, and M. Shah, “UCF۱۰۱: A ...
  • H. Kuehne, H. Jhuang, E. Garrote, T. Poggio, and T. ...
  • نمایش کامل مراجع