تشخیص حالت احساسی از سیگنال گفتار در حالت مستقل از گوینده با استفاده از آنتروپی بسته موجک

Publish Year: 1393
نوع سند: مقاله ژورنالی
زبان: Persian
View: 217

This Paper With 8 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_JIPET-5-20_006

تاریخ نمایه سازی: 19 دی 1400

Abstract:

در این مقاله آنتروپی بسته موجک برای بازشناسی احساسات از گفتار در حالت مستقل از گوینده پیشنهاد شده است. پس از پیش پردازش، بسته موجک db۳ سطح ۴ در هر فریم محاسبه شده است و آنتروپی شانون در گره های آن به عنوان ویژگی در نظر گرفته شده است. ضمنا ویژگی های نوایی گفتار شامل فرکانس چهار فرمنت اول، جیتر یا دامنه تغییرات فرکانس گام و شیمر یا دامنه تغییرات انرژی به عنوان ویژگی های پرکاربرد در حوزه تشخیص احساسات در کنار ضرایب فرکانسی کپسترال مل (MFCC) برای تکمیل بردار ویژگی مورد استفاده قرار گرفته اند. طبقه بندی با استفاده از ماشین بردار پشتیبان (SVM) انجام شده است و ترکیب های مختلفی از بردار ویژگی در حالت چند دسته ای برای همه احساسات و دودسته ای نسبت به حالت طبیعی مورد بررسی قرار گرفته اند. ۴۶ بیان مختلف از جمله واحد در دادگان احساسی دانشگاه برلین به زبان آلمانی انتخاب شده که توسط ۱۰ گوینده مختلف با حالت های احساسی ناراحتی، خوشحالی، ترس، ملالت، خشم و حالت طبیعی بیان شده اند. نتایج نشان می دهند استفاده از ضرایب آنتروپی به عنوان بردار ویژگی نرخ بازشناسی را در حالت چند دسته ای بهبود می بخشد. علاوه بر آن ویژگی های پیشنهادی در ترکیب با سایر ویژگی ها باعث بهبود نرخ تشخیص احساس خشم، ترس و خوشحالی نسبت به حالت طبیعی می شوند.

Authors

مینا کدخدایی الیادرانی

گروه برق، موسسه آموزش عالی بنیان، شاهین شهر، اصفهان، ایران

حمید محمودیان

دانشکده برق، واحد نجف آباد، دانشگاه آزاد اسلامی

غزال شیخی

دانشجوی دکتری- دانشکده مهندسی کامپیوتر، دانشگاه مدیترانه شرقی، ترکیه

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • M. Ayadi, M. Kamel, "Servey on speech emotion recognition: Features, ...
  • D. Ververidis, C. Kotropoulos, "Emotional speech recognition: Resources, features, and ...
  • B. Schuller, G. Rigoll, M. Long, "Speech emotion recognition combining ...
  • France,et. al., "Acoustical properties of speech as indicators of depression ...
  • T. Pao, C. Wang, "A study on the search of ...
  • C. Busso, S. Lee, S. Narayanan, "Analysis of emotionally salient ...
  • B. Schuller, et. al.,"The relevance of feature type for the ...
  • B. Vlasenkoet. al, "Combiningframe and turn-level information for robust recognition ...
  • X. Mao, L. Chenand L. Fu, "Multi-level speech emotion recognition ...
  • T.Polzehl, et. al, "Anger recognition in speech using acoustic and ...
  • L.S. Chen,et. al, "Emotion recognition from audiovisual information", Proceeding of ...
  • X.Li, "Speech feature toolbox design and emotional speech feature extraction", ...
  • M. Gaurav, "Performance analyses of spectral and prosodic features and ...
  • T.Athanaselist, S.Bakamidis, "ASR for emotional speech: clarifying the issues and ...
  • K.Daqrouq, "Wavelet entropy and neural network for text-independent speaker identification", ...
  • Y.Pan, P. Shen, L.Shen, "Speech Emotion Recognition using support vector ...
  • A.Statinkov, et. al, "A Gentle introduction to support vector machines ...
  • J. Clark, C. Yallop, J. Fletcher, "An introduction to phonetics ...
  • M. Kadkhodaee, G.H. Sheikhi, H. Mahmoodian, "Survey on time–frequency features ...
  • I. Elamvazuthi, G. Ling, K. Nurhanim, P. Vasant, S. Parasuraman, ...
  • S.Ntalampiras, N.Fakotakis, "Modeling the temporal evolution of acoustic parameters for ...
  • نمایش کامل مراجع